¿De quién son los datos?

Autor: Guy Pearce, CGEIT, and Sandra Ketchen, President and CEO, Spectrum Health Care
Fecha de Publicación: 13 May 2020
English | 中文

Más allá de las preocupaciones por la privacidad expresadas por organizaciones como Facebook y Google,1 la próxima ola de problemas de privacidad de datos está alimentando el infierno candente que dio lugar a la regulación globalmente significativa e influyente del Reglamento General de Protección de Datos de la Unión Europea (RGPD), que establece que el derecho personal a la privacidad es fundamental.2

La siguiente lista se utilizará como base de la conversación sobre la propiedad de los datos. Aunque esta lista se utilizó originalmente desde una perspectiva sanitaria,3 estas características resuenan en todos los sectores. En particular, las cuatro primeras se refieren a temas de actualidad en materia de seguridad y privacidad, mientras que la última es un punto interesante relacionado con la economía de los datos:

  • Privacidad
  • Consentimiento informado
  • Control de los datos
  • Almacenamiento, acceso y transferencia seguros
  • Los beneficios se acumulan tanto para el sistema como para el paciente (economía)

La cuestión del consentimiento y las personas como sujetos de los datos

Las personas buscan aprender de la historia, aunque la gente no es muy buena en su aprendizaje. Hace apenas 40 años, el Informe Belmont fue publicado por la Comisión Nacional de EE.UU. para la Protección de los Sujetos Humanos de la Investigación Biomédica y del Comportamiento. Se preocupaba por establecer principios y directrices éticas para la protección de los sujetos humanos de la investigación, impulsado por la falta de ética exhibida por los médicos en el Experimento de Sífilis de Tuskegee (TSE, Tuskegee Syphilis Experiment) de 40 años, que comenzó en 1932.4

El TSE se interrumpió en 1972 tras la indignación pública y, en 1997, el Presidente de los Estados Unidos, Bill Clinton, presentó una disculpa por el escándalo.5 El informe Belmont buscaba presentar los hallazgos del experimento para asegurar el futuro, respeto de los sujetos humanos de la investigación biomédica y del comportamiento, que no se hiciera ningún daño, y que los procedimientos administrados fueran razonables y no explotadores. También propuso el consentimiento informado, una evaluación de los riesgos y beneficios de programas similares en el futuro, y una selección moral de los sujetos.6

Desde entonces se han publicado muchos principios rectores más importantes, como el código de Nuremberg después de la Segunda Guerra Mundial7 o la Declaración de Helsinki de 1975,8 todos ellos destacan la necesidad de respeto y dignidad al considerar a los seres humanos como sujetos de los datos. Todos estos principios rectores tienen por objeto garantizar que los seres humanos sean tratados con respeto, que se busque el consentimiento informado al recopilar datos personales, que se comprendan las situaciones de riesgo y que el tratamiento de los datos no sea explotador.

No se permite
Hoy, más que nunca, las personas son sujetos de datos deseables. Pueden estar menos sujetos a la experimentación explícita, pero siguen siendo sujetos de datos sin su conocimiento. El escándalo de Facebook y Cambridge Analytica, usando datos de Facebook para influenciar el comportamiento con fines políticos, aún está fresco en las mentes de la mayoría de la gente. En particular, y en el contexto de la información que los usuarios ofrecen voluntariamente a los medios sociales, “...nuestro comportamiento online expone mucho sobre nuestra personalidad, miedos y debilidades—y... esta información puede ser usada para influenciar nuestro comportamiento”9

Debido a que las organizaciones invirtieron en la recopilación y almacenamiento de datos, algunos proponen que los datos de los clientes pertenezcan a la organización.10 Esto es posiblemente menor que el hecho de que una organización almacene datos individuales—las organizaciones los necesitan para poder atender a sus clientes o para fines reglamentarios (por ejemplo, la debida diligencia con respecto a los clientes en el sector bancario)—sino más bien lo que las organizaciones hacen con los datos más allá de cualquier requisito para las operaciones básicas o la presentación de informes reglamentarios, y sin el conocimiento del cliente. De esto se trata en el consentimiento informado del RGPD: garantizar que los sujetos estén informados sobre lo que una organización hace con sus datos y darles la opción de aceptar la forma en que la organización procesa sus datos. Además, el RGPD prevé que el sujeto pueda optar por no participar en ese procesamiento.11

Si bien muchos pueden apreciar la comodidad ofrecida por los proveedores de servicios al compartir sus datos, otros tal vez prefieran optar por no participar, no queriendo que las organizaciones de tecnologías de marketing (figura 1) procesen sus datos, en los que incluso “un solo sitio podría tener fácilmente 20 socios publicitarios, a menudo invisibles para la persona cuyos datos se están compartiendo”.12 Hay muchas empresas que compran y utilizan datos personales, con una potencia de miles de procesadores e intermediarios de datos (individualmente casi indiscernibles en la figura 1) que se sumergen “... en los flujos de datos de nuestras vidas…”13 para crear y vender perfiles personalizados sobre los clientes sin su permiso o incluso sin saberlo, incluyendo sistemas cada vez más invasivos para sondear, vigilar y rastrear a los clientes.14 Como se demuestra en el RGPD, la obtención del consentimiento explícito respeta la privacidad como un derecho personal básico, dando a los seres humanos la posibilidad de elegir al permitir que aquellos que quieran compartir sus datos lo hagan, y que aquellos que no lo hagan tengan sus datos protegidos.

Además de la invisibilidad de la cuestión del intercambio de datos planteada anteriormente, en el caso de Cambridge Analytica, los usuarios de Facebook no eran conscientes de que sus datos se estaban utilizando para influir en su comportamiento con fines políticos que influrían en el curso de la historia, no sólo en los Estados Unidos, sino también en Europa y en países como Brasil, la India, Kenya, Malasia, México y Nigeria,15 40 años después de lo que se debería haber aprendido de experimentos como el TSE e informes posteriores como el Informe Belmont.

La cuestión ha ido creciendo más allá de empresas como Facebook, que ofrecen a los anunciantes datos sobre los usuarios, incluidos intereses personales, posiciones de trabajo, identidades étnicas, hábitos de gasto en tarjetas de crédito, hábitos de compra e información financiera, hasta llegar a algunas de las organizaciones de marketing de la figura 1. Este intercambio de datos ha llevado a fusionar datos de diferentes fuentes para “...crear campañas publicitarias hiper-dirigidas, manipuladoras y a veces discriminatorias e invasivas”16


View Large Graphic

Para algunos, el uso de datos personales de esta manera es aceptable. Para otros, no lo es, lo que da lugar a los motores de búsqueda, como DuckDuckGo, que afirma proteger la privacidad de los buscadores y que entrega resultados de búsqueda no filtrados a sus usuarios. Incluso los programas antivirus como BitDefender tienen funciones opcionales de anti rastreo que impiden que el software de rastreo acceda a los datos de un usuario.

LA OBTENCIÓN DEL CONSENTIMIENTO EXPLÍCITO RESPETA LA PRIVACIDAD COMO UN DERECHO PERSONAL BÁSICO, DANDO A LOS SERES HUMANOS LA POSIBILIDAD DE ELEGIR AL PERMITIR QUE AQUELLOS QUE QUIERAN COMPARTIR SUS DATOS LO HAGAN, Y QUE AQUELLOS QUE NO LO HAGAN TENGAN SUS DATOS PROTEGIDOS.

Factores de producción no remunerados y concentraciones de poder
A través de una lente económica, los datos se clasificarían como un factor de producción. Al igual que en la economía convencional, el espíritu empresarial (por ejemplo, Cambridge Analytica), el capital (por ejemplo, el hardware y el software) y la mano de obra (por ejemplo, los científicos de datos) son factores de producción pero, a diferencia de la economía convencional, no se paga a los proveedores de datos -individuos- como factor de producción (figura 2), aunque sí se paga a las organizaciones de agregación de datos como Facebook o sus intermediarios. De este modo, “la apropiación de datos es una forma de explotación porque las empresas utilizan los datos para crear valor sin ofrecer a las personas una compensación comparable.”17

En la teoría económica, se pagan todos los factores de producción. En la era actual de los medios sociales, los seres humanos como proveedores de datos no son un factor de producción pagado, y a menudo ni siquiera saben que sus datos se utilizan para poder obtener beneficios. Además, Facebook experimentó una violación de datos de 540 millones de registros,18 una de las mayores violaciones de datos hasta la fecha,19 exponiendo a los afectados a un riesgo significativo. La naturaleza de las infracciones observadas en los últimos años hace que uno se pregunte cuánto esfuerzo se aplica para proteger los datos personales de tantos millones de seres humanos, cuando los datos humanos se tratan como una mercancía para la que hay que reducir al mínimo los costes. En efecto, cuanto mayor es la presión de los dirigentes en materia de costes organizativos—la necesidad de lograr los costes de funcionamiento más bajos en relación con los competidores para ser competitivos—, más difícil resulta motivar un presupuesto adecuado para la seguridad de los datos.

 

En este contexto, no sólo está en juego la creciente brecha de riqueza debida a la falta de pagos a un factor de producción, sino también la consiguiente concentración de poder. De hecho, la mera escala de los gigantes de la tecnología ha sido la causa del lento crecimiento económico y del estancamiento de los salarios20 al socavar la capacidad de las organizaciones tradicionales para innovar21 y competir.22 La concentración de poder ha creado una dinámica de “... carrera hacia una oligarquía tecnológica que definirá nuestra vida personal y profesional”.23 ¿A alguien le importa?

EN LA ERA ACTUAL DE LOS MEDIOS SOCIALES, LOS SERES HUMANOS COMO PROVEEDORES DE DATOS NO SON UN FACTOR DE PRODUCCIÓN PAGADO, Y A MENUDO NI SIQUIERA SABEN QUE SUS DATOS SE UTILIZAN PARA PODER OBTENER BENEFICIOS.

No hay ética
El Director Ejecutivo (CEO) de Facebook, Mark Zuckerberg, dijo que había cometido un “gran error al no tener una visión lo suficientemente amplia de cuál es la responsabilidad de Facebook en el mundo.24

En resumen, la responsabilidad social se define como:

Una teoría ética, en la que los individuos son responsables de cumplir con su deber cívico... [para]... un equilibrio entre el crecimiento económico y el bienestar de la sociedad…25

¿En qué medida Facebook está equilibrando éticamente el crecimiento económico con el bienestar de la sociedad?

Para ayudar a considerar esto, hay cuatro principios éticos,26 cada uno de los cuales puede usarse como base para considerar los estándares éticos de las organizaciones que venden y aprovechan los datos personales. Estos son:

  1. Respeto a la autonomía—Garantizar la dignidad humana
  2. Beneficencia—Hacer el bien a través de acciones
  3. No maleficencia—No hacer daño
  4. Justicia—Garantizar la imparcialidad y la equidad

En los puntos 1 y 2, ¿cómo se sirve a la dignidad humana y cómo se puede afirmar que se está haciendo el bien cuando se coacciona a los humanos para que actúen de una forma artificiale que sólo sirven a unos pocos (por ejemplo, Cambridge Analytica)? En ell punto 3, ¿cómo puede alguien afirmar que no se está haciendo daño cuando la seguridad de los datos puede carecer de la debida diligencia pertinente en algunas organizaciones, lo que podría afectar a la vida de millones de personas mediante los delitos financieros y el robo de identidad? En el punto 4, como factor de producción del siglo XXI, ¿cómo se reconoce la contribución humana individual de las materias primas de las organizaciones de datos de hoy en día por su contribución a las valoraciones económicas corporativas que son, sencillamente, sorprendentes? Hoy en día, organizaciones ricas en datos como Facebook, Apple, Amazon y Alphabet (Google), se encuentran entre las 10 empresas más ricas del mundo.27

Las cuestiones éticas surgen siempre que la tecnología (hardware y software) y los datos están involucrados,28 lo que plantea la pregunta, “¿De quién son los datos?” ¿Pertenecen realmente los datos a las organizaciones que invierten en la infraestructura para almacenarlos y procesarlos, como un factor de producción libre en la economía neoclásica? O, éticamente, ¿deberían los datos personales seguir siendo propiedad de la persona que puede entonces tomar decisiones adecuadas sobre el uso de los datos en cuestión?29 La ética como tema está creciendo en importancia en TI porque la tecnología le da a las personas más poder para actuar, obligándolas a tomar decisiones que antes no tenían que tomar.30 Eso, en sí mismo, puede ser problemático.

Es evidente que las personas no tienen el control de sus datos según las características de propiedad de los datos que se destacan en el segundo párrafo de este artículo. Este estado se volverá significativamente más complejo cuando los datos altamente valorados, como los datos de salud, se generalicen.

La próxima frontera de la propiedad de los datos: Datos de salud y bienestar

Google se ha diversificado hacia la asistencia sanitaria bajo la compañía Verily, propiedad de Google.31 Entre 2013 y 2017, Google ejecutó 75 empresas y acuerdos que abarcan la atención médica y la salud digital, con el objetivo principal de utilizar la inteligencia artificial (IA) para extraer datos que permitan a Google detectar enfermedades y administrar la salud y el bienestar personal. Piense en las empresas propiedad de Google que identifican y controlan enfermedades oculares, diabetes, enfermedades cardíacas, enfermedad de Parkinson o esclerosis múltiple. Todos estos son proyectos activos e inversiones dentro de la familia de Google, cuyo éxito dependerá de la recopilación y evaluación de los datos personales de salud y de bienestar de un individuo..

Al igual que Google, Apple también está comprometiendo recursos para la estrategia de datos de salud.32 Sólo en los Estados Unidos, había más de 85 millones de propietarios de iPhone mayores de 13 años en diciembre de 2017.33 Apple lanzó ResearchKit en 2015, una plataforma que desintermedia la forma en que se reclutan los participantes de la investigación y cómo participan en los estudios. Apple adquirió Gliimpse en 2016 para gestionar el bienestar y los signos vitales personales, y HealthKit se lanzó en 2018, que conecta un registro médico electrónico a la plataforma.

Aproximadamente 210 organizaciones están ahora haciendo pruebas beta de este producto.

Organizaciones de terceros están creando dispositivos o aplicaciones (apps) para asociarse con la plataforma de Apple. Butterfly Network está construyendo dispositivos de ultrasonido portátiles que se conectan a un teléfono móvil, AliveCor ha desarrollado un electrocardiograma de seis derivaciones, y CellScope está lanzando un otoscopio al mercado. Con todos estos dispositivos y plataformas conectadas, el consumidor puede tener una imagen completa de su salud en su teléfono móvil con toda la privacidad que puede o no existir en esa plataforma.

¿PERTENECEN REALMENTE LOS DATOS A LAS ORGANIZACIONES QUE INVIERTEN EN LA INFRAESTRUCTURA PARA ALMACENARLOS Y PROCESARLOS, COMO UN FACTOR DE PRODUCCIÓN LIBRE EN LA ECONOMÍA NEOCLÁSICA?

Curiosamente, han pasado más de 10 años desde un documento histórico que encontró que sólo el 10 por ciento de los resultados de salud se veían afectados por la atención sanitaria real. La genética constituye el 30 por ciento de los resultados, pero el 60 por ciento restante de los resultados de salud individuales se consideraron afectados por el comportamiento y el medio ambiente.34 Desde entonces, el mundo ha cambiado en cuanto al gran volumen de datos que generan las redes sociales, los dispositivos de Internet de las Cosas (IoT) y la digitalización de los registros, destacando cada vez más los rasgos de comportamiento individuales. Una evaluación de 2019 de big data en la atención sanitaria de los Estados Unidos hace referencia a la gran cantidad de registros que se generan diariamente, que pronto se estima que crecerán hasta un zettabyte (un billón de gigabytes).35

La gente usa cada vez más sus teléfonos móviles para gestionar sus vidas, incluyendo la compra de comida y alcohol, las compras, y usan dispositivos para hacer un seguimiento del ejercicio, el sueño, la actividad y más. Aplicando la IA a estos datos personales, recordando que los resultados de salud se ven afectados predominantemente por el comportamiento y el entorno, significa que el teléfono tiene una buena idea del estado de salud de un individuo incluso antes de integrarlo con un registro de salud electrónico real. De esta manera, se ha encontrado que Instagram es más eficaz para identificar la depresión en comparación con los médicos u otro personal clínico.36

Diariamente se recogen y comparten grandes cantidades de información personal, pero, como consumidores o pacientes, ¿entienden los individuos las opciones y los riesgos asociados con el manejo de sus datos de salud? Existe un debate permanente en torno a la propiedad de los registros médicos de fuentes de atención aguda o primaria. Sin embargo, las plataformas de pago por servicio, como Dot Health, proporcionan registros personales consolidados en teléfonos móviles, entonces ¿importa que un hospital o una clínica conserve la “propiedad”? Una vez más, ¿saben las personas qué sucede con sus datos independientemente de quién reclame la propiedad?

EXISTE UN DEBATE PERMANENTE EN TORNO A LA PROPIEDAD DE LOS REGISTROS MÉDICOS DE FUENTES DE ATENCIÓN AGUDA O PRIMARIA.

Hay muchos puntos de conexión con el sistema de atención médica en los que se crean datos personales pero que siguen siendo propiedad del proveedor de servicios, que los gestiona y aprovecha, a menudo sin el consentimiento explícito.

Cada vez que usted haga fila en la farmacia, cada vez que intente ponerse cómodo en esas incómodas sillas de la consulta del médico, cada vez que navegue por la web mientras se le pone en espera con una pregunta sobre su factura médica, tómese un segundo para pensar en las personas que están delante y detrás de usted. Lo más probable es que al menos uno de ustedes esté siendo monitorizado por un tercero, como el gigante de analítica de datos Optum, propiedad de UnitedHealth Group, Inc. Desde 1993, ha capturado datos médicos—resultados de laboratorio, diagnósticos, recetas y más—de 150 millones de estadounidenses. Eso es casi la mitad de la población de los Estados Unidos.37

Muchos de estos proveedores luego venden sus datos a empresas que los utilizarán para cualquier cosa, desde el desarrollo de medicamentos hasta la fijación de precios de seguros o la publicidad personalizada.

¿Cuántas veces la gente interactúa con las plataformas de redes sociales y comparte algo que sucedió en su día, lo que comieron, el éxito de un entrenamiento o una recaudación de fondos para el cáncer? Aunque tal vez no piense en las consecuencias, la gente se siente cada vez más cómoda al compartir datos personales de salud, tanto de fuentes tradicionales como no tradicionales.38 Mientras que sólo entre el 8 por ciento y el 12 por ciento de los encuestados informaron que realmente compartirían datos de salud con una empresa de tecnología, el 60 por ciento de los encuestados compartiría estos datos con Google y el 50 por ciento de los encuestados compartiría datos personales de salud con Microsoft.39 Al igual que los terceros de marketing que procesan los datos de redes sociales (figura 1), una evaluación de las aplicaciones médicas mejor calificadas para Android de Google Play encontró que un asombroso 79 por ciento de las aplicaciones compartían datos de salud del usuario con organizaciones de terceros, y entidades de 46 organizaciones utilizaban o consumían estos datos de alguna manera.40

Llamamientos a la acción

Los individuos son creadores pasivos y activos de datos sobre sí mismos. ¿Las personas se preocupan lo suficiente por quién usa sus datos, qué hacen con ellos, quién los ve y si un tercero gana dinero con ellos? El alcance de los datos actuales incluye desde datos relativamente simples como datos demográficos hasta elementos más dinámicos como la movilidad y los datos financieros de un individuo en redes sociales y la interacción con múltiples organizaciones en la aldea digital global. La próxima frontera -datos de salud- incluye los niveles de condición física, los tipos de actividad en los que participan las personas, los resultados de sus análisis de sangre e incluso si padecen una enfermedad crónica o una enfermedad específica.

Si los individuos se preocupan por el uso de sus datos, entonces el RGPD ha madurado la cuestión de la privacidad como un derecho humano fundamental, una evolución de la que posiblemente fue la primera ley de privacidad en Inglaterra en 1361 que ofrecía protección contra los mirones y espías.41 Si todo el mundo está de acuerdo en que la privacidad es un derecho humano fundamental, entonces todos tienen ciertamente un deber y una responsabilidad colectiva de defender ese derecho por medio de diversos foros a nivel mundial. Si no lo hace todo el mundo, entonces sería hipócrita producir un escándalo sobre la próxima violación masiva de datos por parte de un minorista favorito, una organización de servicios financieros, una agencia de crédito o un proveedor de servicios de salud, o ser crítico con las organizaciones que ganan dinero con los datos personales.

Si la privacidad no es una preocupación, podría haber preocupación por la creciente concentración de poder entre los oligopolios de datos. Si a la gente no le gusta esto, la economía tradicional enseña que la gente debe votar con sus billeteras. Sin embargo, los individuos no tienen este placer en esta representación digital del comercio porque, como sujetos de datos, los individuos son esas billeteras. Si la gente no puede votar con sus billeteras, las organizaciones que defienden la privacidad por diseño, la seguridad por diseño y la buena ética deberían ganarse los corazones como alternativas. De hecho, hay argumentos que sostienen que dichas empresas pueden ser tanto éticas como incluso más rentables que las empresas no éticas.42

Además de asumir la responsabilidad de los datos personales y de la forma en que los individuos los comparten, para quienes se sienten incómodos con el estado de cosas, el llamamiento a la acción es responder a la responsabilidad asociada con el derecho humano básico a la privacidad y tomar medidas como buscar los servicios que uno desea de organizaciones alternativas, potencialmente más éticas. Al hacerlo, no sólo se apoya a esas organizaciones y, por lo tanto, se hace cada vez más viable, sino que también sirve para diluir los oligopolios. Sin embargo, ¿cuántos serán capaces de apoyar a las empresas que defienden la privacidad, la seguridad y la ética cuando el atractivo de lo que los oligopolios son capaces de hacer con los datos personales—aunque sea sin permiso—brilla tan resplandecientemente? Para algunos, renunciar a ese brillo por algo funcionalmente similar, pero a menudo mucho menos pulido, podría ser un precio demasiado alto.

Conclusión

Con los datos sanitarios como la próxima frontera de la propiedad de los datos, un estudio de 2019 sobre “la ética procesable en la investigación digital sobre la salud”—que recuerda el Informe Belmont—identificó una laguna en las consideraciones éticas en torno a los sujetos de los datos personales, esta vez con respecto a la difusión de grandes datos más allá del uso en la investigación.43 De hecho, se ha instado a los consumidores y pacientes “...a que tomen más conciencia de la necesidad de proteger sus datos al mismo tiempo que aprovechan las ventajas del intercambio y la difusión de los mismos.”44

SI TODO EL MUNDO ESTÁ DE ACUERDO EN QUE LA PRIVACIDAD ES UN DERECHO HUMANO FUNDAMENTAL, ENTONCES TODOS TIENEN CIERTAMENTE UN DEBER Y UNA RESPONSABILIDAD COLECTIVA DE DEFENDER ESE DERECHO POR MEDIO DE DIVERSOS FOROS A NIVEL MUNDIAL.

Tal vez debido a una falta comparativa de voluntad política para priorizar el desarrollo adecuado de políticas, la falta de un marco regulatorio en otras partes del mundo similar al del RGPD en Europa es el reto más importante en la gestión de datos personales de salud.45

En última instancia, cuanto mayor sea la dilación, más difícil será revertir las consecuencias, especialmente en un mundo futuro de IA y robots. Ciertamente, los individuos no deberían esperar que los gigantes de los datos actuales y futuros intervengan; con la llamada de la sirena a una concentración de poder y beneficios, sería un conflicto de intereses, irónicamente, tanto como sus propios empleados y tal vez incluso ellos mismos son el sujeto de todo esto. Con una voluntad política mediocre y un aparente conflicto de intereses corporativo, todo se reduce a un comportamiento personal, si la gente puede resistir la inexorable atracción por lo brillante y reluciente.

Para esa próxima frontera, los investigadores han comenzado a referirse a todos los datos que quedan fuera del alcance de la Ley de Transferencia y Responsabilidad de Seguro Médico (EE. UU. Health Insurance Portability and Accountability Act, HIPAA por sus siglas en inglés) o un legislación similar como registros sanitarios alternativos.46 Con tantos terceros que ya acceden y procesan tantos datos personales, en el caso de los datos de salud aún más confidenciales, ¿saben los individuos dónde se proyectan sus sombras? Parafraseando el imperativo de David deBronkhart, en última instancia todo el mundo debería recordar que los datos realmente pertenecen al propietario.

Notas finales

1 Weinberg, G.; “Google and Facebook Are Watching Our Every Move Online. It’s Time to Make Them Stop,” CNBC Tech, 31 de enero de 2018, https://www.cnbc.com/2018/01/31/google-facebook-data-privacy-concerns-out-of-control-commentary.html
2 Perugini, M. R.; “Why GDPR?” Europrivacy, 221 de abril de 2016, https://europrivacy.info/2016/04/21/why-gdpr/
3 Babaian, J.; “Healthcare Data Access, Ownership, and Does It Matter?” HCLDR Healthcare Leadership Blog, 5 de abril de 2017, https://hcldr.wordpress.com/2017/04/25/healthcare-data-access-ownership-and-does-it-matter/
4 Brandt, A. M.; “Racism and Research: The Case of the Tuskegee Syphilis Study,” The Hastings Center Report, vol. 8, iss. 6, 1978, p. 21–29.
5 Nix, E.; “Tuskegee Experiment: The Infamous Syphilis Study,” History, 29 de julio de 2019, https://www.history.com/news/the-infamous-40-year-tuskegee-study
6 US Department of Health, Education and Welfare, Ethical Principles and Guidelines for the Protection of Human Subjects of Research, The National Commission for the Protection of Human Subjects of Biomedical and Behavioral Research, 18 de abril de 1979, https://www.hhs.gov/ohrp/regulations-and-policy/belmont-report/read-the-belmont-report/index.html
7 Mitscherlich, A.; F. Mielke; Doctors of Infamy: The Story of the Nazi Medical Crimes, Schuman, EE.UU, 1949: xxiii–xxv, http://www.cirp.org/library/ethics/nuremberg/
8 World Medical Association, “WMA Declaration of Helsinki—Ethical Principles for Medical Research Involving Human Subjects,” 9 de julio de 2018, https://www.wma.net/policies-post/wma-declaration-of-helsinki-ethical-principles-for-medical-research-involving-human-subjects/
9 Golbeck, J.; S. Aral; “Why the Cambridge Analytica Scandal Is a Watershed Moment for Social Media,” Knowledge@Wharton, Wharton School of the University of Pennsylvania, Philadelphia, EE.UU., 22 de marzo de 2018, https://knowledge.wharton.upenn.edu/article/fallout-cambridge-analytica/
10 Wolpe, T.; “Data Privacy: You May Call It Personal Data But Who Actually Owns It?” ZDNet, 11 de junio de 2015, https://www.zdnet.com/article/data-privacy-you-may-call-it-personal-data-but-who-actually-owns-it/
11 Intersoft Consulting, GDPR Consent, https://gdpr-info.eu/issues/consent/
12 Brandom, R.; “Everything You Need to Know About GDPR,” The Verge, 25 de mayo de 2018, https://www.theverge.com/2018/3/28/17172548/gdpr-compliance-requirements-privacy-notice
13 Sadowski, J.; “Companies Are Making Money From Our Personal Data—But at What Cost?” The Guardian, 31 de agosto de 2016, https://www.theguardian.com/technology/2016/aug/31/personal-data-corporate-use-google-amazon
14 Ibid.
15 BBC News, “Cambridge Analytica: The Data Firm’s Global Influence,” 22 de marzo de 2018, https://www.bbc.com/news/world-43476762
16 McLeod, B.; “What the Facebook Ad Targeting Changes Mean for Your Social Media Strategy,” Blue Corona, 29 de marzo de 2018, https://www.bluecorona.com/blog/facebook-ad-targeting-changes
17 Op cit Sadowski
18 Silverstein, J.; “Hundreds of Millions of Facebook User Records Were Exposed on Amazon Cloud Server,” CBS News, 4 de abril de 2019, https://www.cbsnews.com/news/millions-facebook-user-records-exposed-amazon-cloud-server/
19 Kiesnoski, K.; “Five of the Biggest Data Breaches Ever,” CNBC, 30 de julio de 2018, https://www.cnbc.com/2019/07/30/five-of-the-biggest-data-breaches-ever.html
20 Wolverton, T.; “Facebook, Google, Apple, and Amazon Have Too Much Power—So It’s Time for Regulators to Take on Tech’s Titans,” Business Insider, 8 de abril de 2018, https://www.businessinsider.com/antitrust-regulators-need-to-curve-the-power-of-facebook-et-al-2018-4
21 Kerner, L.; “The Profound Implications of Five Increasingly Dominant Tech Companies,” Crypto Oracle, Medium, 9 de abril de 2017, https://medium.com/crypto-oracle/facebook-apple-microsoft-google-amazon-aka-famga-is-eating-the-world-d3ba0c62df8b
22 Baca, M. C.; C. Zakrzewski; “Lawmakers Grill Amazon, Facebook, Google and Apple at Antitrust Hearing,” The Washington Post, 16 de julio de 2019, https://www.washingtonpost.com/technology/2019/07/16/lawmakers-grill-amazon-facebook-google-apple-antitrust-hearing/
23 Andriole, S.; “Apple, Google, Microsoft, Amazon and Facebook Own Huge Market Shares = Technology Oligarchy,” Forbes, 26 de septiembre de 2018, https://www.forbes.com/sites/steveandriole/2018/09/26/apple-google-microsoft-amazon-and-facebook-own-huge-market-shares-technology-oligarchy/#60e6f9882318
24 Deutsche Welle, “Facebook Admits to Far Higher Number of Data Breaches,” DW.com, 4 de mayo de 2018,, https://www.dw.com/en/facebook-admits-to-far-higher-number-of-data-breaches/a-43258301
25 Pachamama Alliance, “Social Responsibility and Ethics,” https://www.pachamama.org/social-justice/social-responsibility-and-ethics
26 Gracyk, T.; “Four Fundamental Ethical Principles (A Very Simple Introduction),” Minnesota State University Moorhead, EE.UU., 3 de febrero de 2012
27 Miller, R.; “The Top 100 Best-Performing Companies in the World, 2019,” CEOWORLD Magazine, 28 de junio de 2019, https://ceoworld.biz/2019/06/28/the-top-100-best-performing-companies-in-the-world-2019/
28 Pearce, G.; “Acknowledging Humanity in the Governance of Emerging Technology and Digital Transformation,” ISACA® Journal, vol. 4, 2019, https://www.isaca.org/archives
29 Op cit Babaian
30 Op cit Pearce
31 CBInsights, “How Google Plans to Use AI to Reinvent the $3 Trillion US Healthcare Industry,” https://www.cbinsights.com/research/report/google-strategy-healthcare/
32 Forrester, “Apple Puts the Promise of Health Innovation in the Hands of Consumers… Pun Intended,” Forbes, 17 de septiembre de 2019, https://www.forbes.com/sites/forrester/2019/09/17/apple-puts-the-promise-of-health-innovation-in-the-hands-of-consumers-pun-intended/#2ad322171c24
33 CBInsights, “Apple Is Going After the Healthcare Industry, Starting With Personal Health Data,” 8 de enero de 2019, https://www.cbinsights.com/research/apple-healthcare-strategy-apps/
34 Artiga, S.; E. Hinton; “Beyond Health Care: The Role of Social Determinants in Promoting Health and Health Equity,” KFF, 10 de mayo de 2018, https://www.kff.org/disparities-policy/issue-brief/beyond-health-care-the-role-of-social-determinants-in-promoting-health-and-health-equity/
35 Faggella, D.; “Where Healthcare’s Big Data Actually Comes From,” emerj, 3 de febrero de 2019, https://emerj.com/ai-sector-overviews/where-healthcares-big-data-actually-comes-from/
36 Reece, A. G.; C. M. Danforth; “Instagram Photos Reveal Predictive Markers of Depression,” EPJ Data Science, vol. 6, iss. 15, 2017, https://epjdatascience.springeropen.com/articles/10.1140/epjds/s13688-017-0110-z
37 Beebe, J.; “What You Don’t Know About Your Health Data Will Make You Sick,” Fast Company, 22 de marzo de 2019, https://www.fastcompany.com/90317471/what-you-dont-know-about-you-rhealth-data-privacy-will-make-you-sick
38 Seltzer, E.; J. Goldshear; S. C. Guntuku; D. Grande; D. A. Asch; E. V. Klinger; R. M. Merchant; “Patients’ Willingness to Share Digital Health and Non-Health Data for Research: A Cross-Sectional Study,” BMC Medical Informatics and Decision Making, vol. 19, article 157, 2019, https://bmcmedinformdecismak.biomedcentral.com/articles/10.1186/s12911-019-0886-9
39 Adams, A.; M. Shankar; H. Tecco; “50 Things We Now Know About Digital Health Consumers,” Rock Health, 2016, https://rockhealth.com/reports/digital-health-consumer-adoption-2016/
40 Grundy, Q.; K. Chiu; F. Held; A. Continella; L. Bero; R. Holz; “Data Sharing Practices of Medicines Related Apps and the Mobile Ecosystem: Traffic, Content, and Network analysis,” BMJ, vol. 364, iss. 1920, 20 de marzo de 2019, https://www.bmj.com/content/364/bmj.l920
41 Rosenbaum, J.; “Look! Out the Window! It’s a Peeping Tom! No, It’s Google Street View,” Legal Bytes, 20 de diciembre de 2010, https://legalbytes.com/look-out-the-window-its-a-peeping-tom-no-its-google-street-view/
42 Caulkin, S.; “Ethics and Profits Do Mix,” The Guardian, 20 de abril de 2003, https://www.theguardian.com/business/2003/apr/20/globalisation.corporateaccountability
43 Nebeker, C.; J. Torous; R. J. Bartlett Ellis; “Building the Case for Actionable Ethics in Digital Health Research Supported by Artificial Intelligence,” BMC Medicine, vol. 17, iss. 137, 17 de julio de 2019, https://bmcmedicine.biomedcentral.com/articles/10.1186/s12916-019-1377-7
44 Staccini, P.; A. Y. S. Lau; “Findings From 2017 on Consumer Health Informatics and Education: Health Data Access and Sharing,” NCBI, vol. 27, iss. 1, 27 de agosto de 2018, https://www.ncbi.nlm.nih.gov/pubmed/30157519
45 Kostkova, P.; H. Brewer; S. de Lusignan; E. Fottrell; B. Goldacre; G. Hart; P. Koczan; P. Knight; C. Marsolier; R. A. McKendry; E. Ross; A. Sasse; R. Sullivan; S. Chaytor; O. Stevenson; R. Velho; J. Tooke; “Who Owns the Data? Open Data for Healthcare,” Frontiers in Public Health, 17 de febrero de 2016, https://www.frontiersin.org/articles/10.3389/fpubh.2016.00007/full
46 Op cit Beebe

Guy Pearce, CGEIT
Ha sido miembro de juntas de gobierno en la banca, servicios financieros y una organización sin fines de lucro, y como director ejecutivo de una organización de servicios financieros. Ha desempeñado un papel activo en múltiples programas de transformación digital empresarial desde 1999, experiencias que lo llevaron a crear un curso de transformación digital para la Universidad de Toronto SCS (Ontario, Canadá). También tiene más de una década de experiencia en gobierno de datos y gobierno de TI, y comparte fácilmente estas experiencias a través de publicaciones y conferencias. Ha recibido el premio Michael Cangemi al mejor autor de ISACA 2019 por sus contribuciones en el campo del gobierno de TI. Consultor en transformación y gobierno digital, se desempeña como director de transformación digital en Convergence.

Sandra Ketchen, P.Eng, ICD.D
Es la vicepresidenta senior (SVP) de operaciones de SE Health. Es responsable de la red operativa nacional de SE Health, que cuenta con más de 7.000 enfermeras, trabajadores de apoyo personal y otros profesionales de la salud. Es responsable de la satisfacción de los clientes y de la calidad de la atención mientras impulsa la mejora continua y eficiencia. Antes de SE Health, Ketchen pasó más de 20 años en funciones de operaciones globales, más recientemente como vicepresidenta senior de productos de consumo para ATS. Antes de eso, trabajó durante 16 años en Celestica Inc., donde ocupó varios cargos de alta dirección, culminando como vicepresidenta y directora general de su negocio internacional de atención médica. Ha ganado premios por el servicio de atención al cliente y la satisfacción del cliente, y forma parte de la consejo asesor de Convergence.