somos ciudadanos digitales / carola regis

con No hay comentarios

Quieras o no, la Inteligencia Artificial (IA) está con nosotros

En los últimos años, la tecnología se convirtió en una herramienta importante en nuestras vidas y dependemos cada vez más de ella. Cada día que pasa contamos con nuevas tecnologías que realizan procesos y desarrollos incluso inimaginables para la mente humana.

La IA implica necesariamente el tratamiento de datos masivos, dentro de los cuales se incluyen diferentes categorías de datos personales por lo que es sumamente importante un control y una regulación apropiada para el tratamiento de nuestros datos personales. Por esto, para que se pueden aprovechar las nuevas tecnologías de una manera adecuada y ética es imprescindible que los Estados garanticen el cumplimiento del derecho y los principios y derechos fundamentales por medio de la creación de leyes adaptadas a la era digital y nuevas tecnologías.

Mediante una regulación clara y adaptada a esta nueva era digital, las compañías que tratan los datos de carácter personal podrán tener conocimiento de los límites a establecer en el tratamiento, el deber de informar a los titulares sobre el tratamiento de los datos y ser más conscientes de las implicaciones que pueda traer el uso de estas tecnologías para estos desde el punto de vista de la privacidad, el consentimiento y la transparencia.

Cuando se piensa en el término Inteligencia Artificial (IA), lo primero que se viene a la mente es la imagen de un robot o un elemento muy sofisticado y complejo. Una película de Andrew Niccol, con The Truman Show, o posteriormente en el año 2002 con el estreno de Simone, donde Al Pacino representa a un cineasta en decadencia, Viktor Taransky, que encuentra su última oportunidad gracias a un revolucionario programa informático que crea a la estrella ideal, Simone, una actriz virtual con las virtudes que desea todo director: no envejece, no engorda, no tiene agentes ni caprichos, no se rebela y no discute. Como sucede también en Inteligencia Artificial, la película más feroz de Steven Spielberg, y años más tarde, en la película Trascendencia, donde los doctores Will y Evelyn Caster (Johnny Depp y Rebecca Hall), son una pareja de científicos inmersos en un proyecto para desarrollar una inteligencia artificial capaz de ser consciente de sí misma. Will logra sobrevivir a la transferencia y “vivir” a través de una computadora.

Nos guste o no la ciencia ficción, estas películas son algunos ejemplos claros de como la IA puede ser una herramienta poderosa, ambiciosa, seductora, necesaria y riesgosa.

La IA está presente en muchos recursos que se usan de manera constante en nuestra vida cotidiana. Pensemos en Google. A través de los motores de búsqueda se pueden estudiar hábitos y comportamientos de las personas, como sucede con las plataformas de YouTube, Spotify o Netflix que analizan las preferencias para ofrecer películas, series, videos o canciones.

Alexa graba las órdenes de los usuarios, Google escucha las conversaciones de su altavoz inteligente y Facebook e Instagram recopilan millones de datos de usuarios de las redes sociales. Por otra parte, FaceApp, la aplicación que envejece el rostro, parece ser una obvia intención de acaparar y almacenar datos.

El tratamiento abusivo de los datos personales mediante una herramienta de captación de información sin que el titular lo sepa, afecta la privacidad, el consentimiento y el derecho fundamental de la intimidad de los usuarios.

La IA, pues, se puede definir como la simulación realizada por máquinas o sistemas informáticos de procesos o de actividades realizadas por la inteligencia humana. Funciona con la presencia de dos elementos fundamentales. El primero es el computing power que comprende el desarrollo de los sistemas computacionales y sus máquinas que permiten procesar datos y realizar operaciones en tiempos mínimos, ampliando cada vez más la memoria de almacenamiento. El segundo elemento son los macrodatos o big data, que alimentan a la IA, que consisten en un gran volumen de datos producidos por diferentes fuentes (humanas, biométricas, máquina a máquina, grandes transacciones, uso de la web, redes sociales, entre otros), que pueden estar estructuradas o no y son procesadas por diferentes herramientas para obtener diversos resultados. El uso de esos datos debe ser de manera ética, responsable y transparente para proteger los derechos de los titulares.

¿Qué pasa en Argentina y en el mundo con la protección de datos?

Para poder asegurar el adecuado tratamiento de los datos personales en la era digital, todos los países debieron adecuar la normativa existente e implementar regulaciones adaptadas a las nuevas tecnologías, a fin de que los responsables tengan pautas para realizar un uso correcto de la información personal cuando desarrollan y usan nuevas tecnologías, priorizando la protección de los derechos de los titulares, quienes, a su vez, desempeñan un rol activo respecto de las implicaciones de la entrega y la autorización del uso de sus datos en las herramientas de Inteligencia Artificial.

En Argentina, la Ley 25.326 de Protección de los Datos Personales fue sancionada hace más de 21 años cuando las redes sociales eran aún primitivas. Si bien hubo algunas modificaciones, el tiempo transcurrido demuestra que necesitamos un nuevo marco normativo que sea acorde a los avances tecnológicos y culturales. Esta ley, además, quedó desfasada ante el Código Civil y Comercial (año 2015) que regula derechos vinculados a la titularidad y difusión de los datos personales en general.

El primer riesgo, pues, al que se enfrentan quienes manejan datos personales es el de la protección de éstos y, en un sentido más amplio, el de la privacidad. En realidad, es precisamente esta última la que ha producido un mayor número de referencias y marcos jurídicos, no solo por el hecho de que se trata de un derecho reconocido en muchas constituciones nacionales, sino especialmente debido a la expedición y entrada en vigor en 2018 del Reglamento General de Protección de Datos (RGPD) de la Unión Europea, que en poco tiempo se ha convertido en una suerte de estándar de referencia global

El RGPD establece seis principios básicos sobre el manejo de los datos personales: 1. deben ser tratados de forma lícita, leal y transparente; 2. se deben recolectar con fines determinados explícitos y legítimos; 3. deben ser adecuados, pertinentes y limitados a lo necesario dependiendo del uso; 4. deben ser exactos y estar siempre actualizados; 5. deben mantenerse de forma tal que se permita la identificación de los interesados durante no más tiempo del necesario para los fines del tratamiento; y 6.  deben ser tratados de tal manera que se garantice su seguridad.

No es para alarmarse, pero..

Un mal uso de datos por medio de herramientas de la IA puede causar un daño grave a los titulares de los datos no solo en un país, sino en varios países del mundo.

Recordemos el caso federal de Joffe contra Google, Inc. de Street View de Google, en el que se usó la IA para captar datos de forma ilegal. Es decir, se recolectaron datos personales a través de redes Wifi abiertas con los coches de su servicio Street View sin que los titulares supieran. En el 2007, Google lanzó su función Street View en Estados Unidos para complementar su servicio de Google Maps, al proporcionar a los usuarios fotografías panorámicas a nivel de la calle. Entre el 2007 y el 2010, Google también equipó sus autos Street View con antenas wifi y software que recopilaba datos básicos transmitidos por redes wifi en hogares y empresas cercanas como el nombre de la red (ssid), la intensidad de la señal, entre otros, con el supuesto fin de proporcionar servicios mejorados. No obstante, las antenas del software instalado en los autos de Street View de Google recolectaron más que solo la información de identificación básica transmitida por las redes wifi, también recopilaron y almacenaron todos los datos transmitidos por los dispositivos móviles conectado a redes wifi abiertas como correos electrónicos, nombres de usuario, contraseñas, videos, documentos personales y conversaciones telefónicas. En el 2010, Google reconoció que sus vehículos de Street View habían estado recolectando fragmentos de datos personales por medio de redes wifi sin cifrar y que esto había sucedido en más de treinta países a nivel mundial, por lo que varias demandas judiciales se presentaron poco después del anuncio de Google.

Volvemos a ver que el uso indebido del manejo de estos sistemas puso en riesgo la información, los derechos de los usuarios y, en general, a la sociedad, ya que no se tuvo conocimiento ni control sobre la recolección y uso de los datos de carácter personal ni por parte de los titulares ni de la misma empresa.

La preocupación ética

La creación de nuevos tipos de Inteligencia requiere de un delicado criterio moral de las personas que la diseñan.

El algoritmo debe ser capaz de discernir y reconocer fallos cuando se centran en acciones sociales con repercusión, que antes realizaba un ser humano. Tarea difícil. No estamos hablando de una simetría con la conciencia humana.

Un dato curioso: muchos de los principios se inspiran previamente en las leyes de la robótica elaboradas por Isaac Asimov en el año 1942:

1) Un robot no puede hacer daño a un ser humano o, por inacción, permitir que un ser humano sufra.

2) Un robot debe obedecer las órdenes dadas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la primera ley.

3) Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o la segunda ley.

En esta lectura veloz y cronológica, podemos decir que la ética digital es el código social necesario para solucionar los problemas que el uso de Internet está produciendo. Con el desarrollo del Internet de las Cosas (IoT), la Inteligencia Artificial (IA), las redes sociales o el Big Data, la privacidad en Internet se ha convertido en uno de los temas más importantes, tanto para gobiernos, instituciones y los propios ciudadanos como usuarios digitales. La mirada mundial está puesta en el deseo de que el desarrollo de los principios éticos para el mundo digital pueda seguirle el ritmo al desarrollo tecnológico.

Fuentes y referencias bibliográficas

  1. Harvard Law Review APR 18, 2014, 127 Harv. L. Rev. 1855, https://harvardlawreview.org/2014/04/joffe-v-google-inc/
  2. Intel. The Rise in Computing Power: Why Ubiquitous Artificial Intelligence is Now a Reality. Forbes. [Citado el 20 de abril de 2019]. https://www.forbes.com/sites/ intelai/2018/07/17/the-rise-in-computing-power-why-ubiquitous-artificial-intelligence-isnow-a-reality/#3b0120691d3f.
  3. La ética digital y la privacidad tecnológica, https://ayudaleyprotecciondatos.es/2020/07/02/etica-digital/
  4. Ley 25.326 https://www.argentina.gob.ar/normativa/nacional/ley-25326-64790
  5. Mayer-Schönberger, V. y Cukier, K. Big Data. A Revolution That Will Transform How We Live, Work, and Think (Madrid: Houghton Mifflin Harcourt, 2013), 215
  6. Reglamento General de Protección de Datos, https://rgpd.es/

Carola Regis (María Carolina) – Abogada y Actriz. Diplomada en Emprendimiento e Innovación en Salud Digital en Universidad del Desarrollo de Santiago de Chile. Diplomada en Derecho a la Salud en la Universidad Austral de Buenos Aires. Actualmente realiza asesoramiento y consultaría a empresas, Asociaciones de Pacientes y atención a clientes particulares. Con amplio recorrido por las artes escénicas, la comicidad y la improvisación.



Si te gustó la nota, te enamoraste de Ají
y querés bancar las experiencias culturales
autogestivas hacé click aquí.

¡Compartí este contenido!

Dejar un comentario