INTIMIDAD Y LIBERTAD DE EXPRESIÓN EN LA ERA DE LOS ALGORITMOS

Por Manuel Larrondo

@larrondomanuel

 

La pérdida día a día de ejercer nuestro derecho a la intimidad en las redes sociales ha mutado en una verdadera limitación a la libertad digital de pensamiento y expresión. Hasta se ha llegado a decir en ámbitos académicos o sociales que en realidad hemos dejado de tener intimidad plena porque ha mutado a ser una  “expectativa” generándose una errónea idea respecto a que no sería posible exigir su protección. Nuestras compras, fobias, consultas en buscadores, movimientos, actividades y relaciones, son escrutadas y almacenadas para crear perfiles comerciales, personales y de seguridad. Esta recopilación de datos para predecir nuestras próximas acciones sin duda limita nuestro derecho humano al libre pensamiento y especialmente nuestra intimidad. Datos y perfiles que podrán ser utilizados en el futuro, por ejemplo, para que una Empresa decida si permite que contratemos un seguro, comprar un auto, concedernos un crédito bancario o bien viajar a un determinado país.

—————–

Mary Bollender es una madre soltera que vive en Las Vegas con ciertos problemas económicos. Una mañana de 2014, al estar su hija de diez años enferma a raíz de una fiebre alta persistente, decidió llevarla al Hospital con su auto. Pero no pudo porque el vehículo no funcionaba: el Banco lo había desactivado en forma remota al advertir que Mary se había retrasado tres días en el pago del préstamo. Una vez que pagara, el automóvil volvería a funcionar. Por desgracia, Mary no podía pagar aquella mañana y, consecuentemente, tampoco llevar a su hija al médico. Un equipo electrónico inserto en el auto y que opera bajo un sistema remoto que a su vez no entiende de excepciones o de “lógica de humanidad”, simplemente lo desconectó (“Miss a Payment? Good Luck Moving That Car” The New York Times 24/9/2014 https://dealbook.nytimes.com/2014/09/24/miss-a-payment-good-luck-moving-that-car/?_r=0)

No solo los humanos sufren estas contingencias electrónicas modernas. Tanto el Gobierno Británico como muchísimas Empresas multinacionales como Ford Motor Company, Volkswagen, Starbucks, Toyota Motor, Johnson & Johnson, Verizon, Netflix y AT&T entre las cuales también hay medios de información como The Guardian y la cadena pública BBC han reclamado recientemente a Google porque sus promociones y publicidades aparecieron patrocinando videos extremistas y discriminatorios, entre ellos de Steven Anderson quien se ufana al negar el holocausto y clama por la muerte de los homosexuales. O bien han sido difundidos en videos por los cuales se reinvidican actos terroristas del Ejército Islámico. Al parecer, el sitio YOU TUBE, de propiedad de Google, posee un sistema de algoritmos cuya lógica opera en su contra llevándole a enfrentar una severa crisis de confianza (“Socios accidentales: la publicidad de You Tube le trae problemas a Google”, 18/4/2017  http://www.letraslibres.com/mexico/ciencia-y-tecnologia/socios-accidentales-la-publicidad-youtube-le-trae-problemas-google#.WPhTTEL1P0k.twitter

Esos mismos algoritmos que dejan sin funcionar un auto e impiden a una madre llevar a su hija al hospital y que vinculan publicidades de Empresas con actos discriminatorios difundidos en YOU TUBE, también permiten que se pueda obtener un perfil prácticamente completo de nuestra personalidad. Hace apenas cinco años, en 2012, Michal Kosinski, destacado experto en psicometría de la Subdirección de Psicología basada en datos de la Universidad de Cambridge, demostró que sobre la base de un promedio de 68 “gustos” de Facebook por parte de un usuario, era posible predecir su color de piel (con 95% de precisión), su orientación sexual (88 por ciento de precisión) y su afiliación al Partido Demócrata o Republicano (85%) en EEUU. Pero no se detuvo allí. La inteligencia, la afiliación religiosa, así como el alcohol, el cigarrillo y el uso de drogas, podrían ser determinados. De los datos y rastros que uno deja al usar esta red social, era incluso posible deducir si los padres de alguien estaban divorciados (“The Data That Turned the World Upside Down” 28/01/17 por HANNES GRASSEGGER & MIKAEL KROGERUS https://motherboard.vice.com/en_us/article/how-our-likes-helped-trump-win)

Los ejemplos citados sin duda son impactantes y demuestran en cierta forma que el desarrollo temprano de la inteligencia artificial, algoritmos y los sistemas autónomos implican no solo la imperiosa necesidad de saber cómo funcionan, debatir sus alcances sino además de plantearnos sin dudas problemas éticos y legales complejos.

A modo de ejemplo, bastará con recordar que el artículo 13 del Pacto de San José de Costa Rica – de jerarquía constitucional- establece que todo ser humano tiene derecho a la libertad de pensamiento y expresión, ergo, de decisión. Uno podría decir que, al menos hasta el momento, no se ha inventado una máquina que nos impida pensar pero… es así? ¿Acaso los algoritmos empleados por las Empresas y Gobiernos no nos estarían condicionando actualmente en nuestra “libertad de pensamiento y libre elección”? Por otra parte, las noticias futuristas – y no tanto- anticipan que pronto habrá vehículos que se manejarán automáticamente, sin necesidad de que un ser humano lo opere. En principio puede resultar fantástico y hasta muy cómodo pero…¿Cómo operaría ese vehículo autónomo cuando se enfrente a un accidente en el que podría causar daños a humanos y cosas?  ¿Por cuál se inclinaría evitar dañar? ¿Podría elegir?

¿Qué es un algoritmo?

Sandra Alvaro explica que “un algoritmo es una lista finita de instrucciones que se aplican a un input durante un número finito de estados para obtener un output, permitiendo realizar cálculos y procesar datos de modo automático.” (El poder de los algoritmos: cómo el software formatea la cultura”, 29/01/2014, http://lab.cccb.org/es/el-poder-de-los-algoritmos-como-el-software-formatea-la-cultura/)

El algoritmo no sabe nada de género, edad, condiciones económicas, etc. Simplemente tiene una ristra de números e intenta encontrar patrones que le permitan acertar el mayor número de veces.

Y aquí es donde David Casacuberta sostiene que aparece el problema: “Un programa tradicional, desarrollado por un humano, sigue una lógica, con lo que es posible entender qué está haciendo ese programa. Un algoritmo automatizado es como una caja negra. Le damos una entrada (los datos de la persona que pide el crédito) y nos da una salida (la probabilidad de que devuelva o no el crédito). Es muy complejo o prácticamente imposible─ saber por qué el programa ha decidido rechazar o aceptar un crédito” (“Injusticia algorítmica”, 14/03/17 http://lab.cccb.org/es/injusticia-algoritmica/).

En el caso del buscador Google, es un medio que consta de más de sesenta trillones de páginas y en el que se realizan más de dos millones de búsquedas por minuto. También son algoritmos los que obtienen datos extraídos de nuestras acciones para sugerirnos qué libros comprar en Amazon, que películas o series ver en NETFLIX, qué videos ver en YOU TUBE o qué anuncios mostrarnos en todas estas plataformas.

Concluye Sandra Alvaro sosteniendo que “cada link que creamos y compartimos, cada tag que añadimos a una información, cada acto de aprobación, búsqueda, compra o retweet, es registrado en una estructura de datos, y posteriormente procesado para orientar e informar a otros usuarios. De este modo, los algoritmos nos asisten en nuestra navegación a través del inmenso cúmulo de informaciones de la red, tratando la información producida individualmente, para que pueda ser consumida por la colectividad. Pero, al gestionar la información, estos también reconstruyen relaciones y organizaciones, forman gustos y encuentros, pasando a configurar nuestro entorno e identidades. Las plataformas se constituyen en entornos socio-técnicos automatizados.”

Intimidad, acceso a la información, libertad de pensamiento: Derechos humanos gobernados por los algoritmos y la BIG DATA.

El registro constante de nuestras acciones supone un cambio respecto a lo que es nuestro derecho humano a la intimidad entendido como esa zona de reserva espiritual que no puede ser afectada por una intromisión arbitraria (art 11 del Pacto de San José de Costa Rica) y el hecho de que estos algoritmos nos enrolan en procesos de los que quizás no somos del todo conscientes.

A pesar de que nos dan acceso a información que, por su dimensión, ha dejado de ser humanamente discernible, ampliando así nuestra capacidad de elección, lejos de ser neutros estos algoritmos también nos guían según operaciones matemáticas incapaces – al menos hasta el momento- de contar con un sesgo de humanidad y menos aún de ser sinceros en sus fines.

La pérdida día a día de ejercer nuestro derecho a la intimidad ha mutado en una verdadera limitación a la libertad digital de pensamiento y expresión. Hasta se ha llegado a decir en ámbitos académicos o sociales que en realidad hemos dejado de tener intimidad plena porque ha mutado a ser una  “expectativa”. Al ser solo una mera “expectativa”, se genera una errónea idea o concepto respecto a que no sería posible pretender que se la proteja desde el momento en que, por ejemplo, realizamos una llamada telefónica o intercambio de correo electrónico empleando para ello los servicios de una Empresa de telecomunicaciones o un proveedor gratuito de cuentas de emails que pueden tener acceso a saber con quien nos comunicamos, cuando lo hacemos y cuanto tiempo duran nuestros intercambios de correos o llamadas.

Sin duda que además de la clara afectación a nuestro derecho a la intimidad y libertad de expresión, nos encontramos sometidos además a una vigilancia tecnológica inaudita. Nuestras compras, fobias, consultas en buscadores, movimientos, actividades y relaciones, son escrutadas y almacenadas para crear perfiles comerciales, personales y de seguridad. No pensemos de forma única en las empresas privadas: el propio Estado es uno de los principales recopiladores de datos de sus ciudadanos y sobran ejemplos en nuestro país: el sistema BIOS utilizado para los DNI, pasaportes, salida y entrada del país, la tarjeta de transporte público SUBE, las cámaras de “inseguridad” que filman 24 hs en la vía pública.

Esta recopilación de datos para predecir nuestras próximas acciones sin duda limita nuestra libertad de pensamiento y especialmente nuestra intimidad. Datos y perfiles que podrán ser utilizados en el futuro, por ejemplo, para que una Empresa decida si permite que contratemos un seguro, comprar un auto, concedernos un crédito bancario o bien viajar a un determinado país.

Es posible advertir que la mayoría de usuarios percibe a la web como un medio de difusión, en el sentido de los medios tradicionales, sin ser conscientes de cómo la información es filtrada y procesada por ese mismo medio. Los algoritmos no solo son imperceptibles en su acción y desconocidos en muchos casos por estar en manos de agencias comerciales y protegidos por leyes de propiedad intelectual, sino que también – tal como se apuntara antes – se han hecho inescrutables. Ello es debido a la interrelación existente entre complejos sistemas de software y su constante actualización.

Pero no todo es negativo. El análisis de datos agregados sobre el comportamiento humano a gran escala nos abre oportunidades extraordinarias para entender y modelar patrones de conducta, así como para ayudar en la toma de decisiones, de manera que ya no seamos los humanos quienes decidamos, sino que las decisiones vengan determinadas por algoritmos construidos a partir de esos datos.

Estos algoritmos están diseñados para analizar cantidades ingentes de información de distintas fuentes y, de manera automática, seleccionar los datos relevantes para usarlos de forma concreta. Es lo que se conoce como BIG DATA SOCIAL, una faz de los algoritmos que por supuesto es positiva. Y en ese campo se han llevado a cabo proyectos que han analizado el valor de los datos para entender el desarrollo económico de una región, predecir el crimen, modelar la propagación de enfermedades infecciosas como la gripe o el ébola, estimar las emisiones de CO2 o cuantificar el impacto de desastres naturales. Tanto investigadores como Gobiernos, ONG, empresas y grupos de ciudadanos están experimentando activamente, innovando y adaptando herramientas de toma de decisiones para alcanzar soluciones que estén basadas en el análisis de información.

El potencial de los datos para ayudar a mejorar el mundo es inmenso en numerosas áreas, incluyendo la salud pública, la respuesta ante desastres naturales y situaciones de crisis, la seguridad ciudadana, el calentamiento global, la educación, la planificación urbana, el desarrollo económico o la elaboración de estadísticas. De hecho, el uso del Big data es un elemento central en los 17 Objetivos para el Desarrollo Sostenible (SDG) de Naciones Unidas.

Por otro lado, tal como expresáramos, los algoritmos no solo se aplican al análisis de datos sino que, en un segundo momento, toman parte en el proceso de decisiones. Esto nos plantea si es lícito aceptar las decisiones tomadas de modo automático por algoritmos de los que no sabemos cómo operan y que por lo pronto tampoco están sujetos a discusión pública. Al mismo tiempo, los algoritmos, al analizar datos registrados de nuestras acciones anteriores, tienen una fuerte dependencia del pasado, lo que podría derivar en el mantenimiento de estructuras y una escasa movilidad social, dificultando las conexiones fuera de intereses y contactos definidos.

Posibles soluciones que  “humanicen” a los algoritmos

Teniendo en cuenta que los algoritmos arbitran cómo fluye la información virtual, se hace necesario plantear metáforas que hagan aprehensibles estos procesos. Del mismo modo, hay que extender su comprensión y uso a la población para que pueda participar en la discusión acerca de qué problemas son susceptibles de una solución algorítmica y cómo plantearlos. Debería fomentarse la participación de la ciudadanía para mantener la diversidad ecológica de este medio y su relación con la pragmática.

Respecto a estas cuestiones, Mathew Fuller, uno de los iniciadores de los estudios sobre software (software studies), hace notar que, aunque los algoritmos constituyen la estructura interna del medio donde hoy en día se realiza la mayor parte del trabajo intelectual, escasamente son abordados desde un punto de vista crítico y humanístico, quedando relegados a su estudio técnico. En su obra Behind the Blip: Essays on the Culture of Software, este autor propone algunos métodos encaminados a esta crítica. Entre ellos, la ejecución de sistemas de información que pongan al descubierto su funcionamiento, estructura y condiciones de verdad; el mantenimiento de la poética de la conexión inherente al software social, o la promoción de un uso que siempre sobrepase las capacidades técnicas del sistema. Y la promoción de conexiones improbables que enriquezcan nuestro medio con nuevas posibilidades y perspectivas más amplias, dejando lugar a la invención.

Debe tenerse en cuenta además que el desarrollo, diseño y distribución de la inteligencia artificial y los algoritmos deberían cumplir plenamente con todas las leyes nacionales e internacionales, tema que no es por supuesto nada menor teniendo en cuenta que están en juego las capacidades normativas y los derechos y libertades individuales.El fin claramente sería llegar a un equilibrio normativo y tecnológico para evitar una situación en la que una minoría tenga acceso a datos y disponga del conocimiento y las herramientas necesarias para analizarlos, mientras que una mayoría (la ciudadanía) no. Esta situación exacerbaría la asimetría ya existente en la distribución del poder entre los Gobiernos o las empresas, de una parte, y las personas, de otra. Iniciativas para promover datos abiertos (open data) y programas de educación que fomenten la alfabetización digital y el análisis de datos son dos ejemplos de medidas que se podrían desarrollar para explicar a los ciudadanos sin conocimientos técnicos cómo funcionan los algoritmos de toma de decisiones y con el uso de modelos de inteligencia artificial que sean fácilmente interpretables. De esta manera, se contribuiría a alertar al usuario medio a que tome conciencia acerca de la protección que merece su derecho humano a la intimidad y a la libertad de pensamiento.

Discusión (0)

No hay comentarios para este documento aún.

La generación de comentarios ha sido deactivada en este documento.