“Sí, el poder de un Jedi fluye de la fuerza, pero debes tener cuidado con el lado oscuro. Cólera, miedo, agresión. El lado oscuro de la fuerza es lo que son”
Yoda
En mi navegación e investigación por la Red, encuentro este interesante artículo de la BBC News: “7 grandes problemas que están causando los algoritmos en el mundo”, está fechado en el 2017, pero su contenido sigue teniendo plena vigencia en la actualidad.
La publicación nos habla de como los algoritmos han revolucionado nuestras vidas, optimizando procesos más o menos complejos que antes tomaban mucho tiempo en resolverse, salvando vidas, organizando situaciones caóticas, transformando el comercio, gestionando transacciones financieras, e incluso, nos ayudan a encontrar pareja o trabajo.
Pero los algoritmos también tienen un lado oscuro y no siempre el cambio que introducen es positivo, especialmente si les otorgamos demasiado control sobre la toma de ciertas decisiones y no somos absolutamente neutros en la determinación de sus criterios.
Estos son resumidos y comentados los siete problemas identificados por BBC:
1. La perturbación de los mercados financieros
En octubre 2016, la moneda británica cayo descontroladamente frente al dólar en los mercados asiáticos. Fue el mayor descenso de la divisa desde el voto del Brexit y se debió, en parte, a operaciones computarizadas que funcionan con algoritmos, según los especialistas de Pes Research.
Su impacto en la “operativa bajista” de los mercados bursátiles también adquiere un papel muy relevante.
2. Discursos de odio en Internet
En este ámbito, el ejemplo clásico es Tay, un programa informático creado por Microsoft para mantener conversaciones con usuarios de Twitter.
Pero el experimento evolucionó por un lado que sus creadores no esperaban, ya que el bot comenzó a emitir comentarios racistas y xenófobos, mostrando su simpatía por Hitler y justificando el holocausto.
Para muchos Tay no fue un fracaso, fue tan solo una oportunidad más de aprender sobre el potencial y los riesgos de la inteligencia artificial.
3. Distribución de noticias falsas
Una de las iniciativas de Facebook consistió en crear una herramienta para destacar los temas que eran tendencias en los muros de los usuarios.
En un primer momento, fue un equipo humano el encargado de editar esas noticias, pero la controversia vino cuando fueron acusados de sesgos. La decisión de Facebook en ese momento fue dejarlo en manos de los algoritmos, lo cual trajo otro problema: las máquinas no pudieron (ni pueden) diferenciar las noticias falsas de las redes.
Desde el punto de vista de los usuarios, como explica el ICC (Instituto Ingeniería Conocimiento) tampoco hacemos mucho para evitarlo. Por un lado, tendemos a filtrar la información que nos llega quedándonos con aquella que refuerza nuestras creencias previas, y descartamos aquella que nos desafía. Esto se conoce como sesgo confirmatorio. Por otro lado, tendemos a buscar argumentos y conclusiones que concuerdan con nuestras creencias, en vez de buscar argumentos que las contradicen. Esto se denomina razonamiento motivado.
4. EL aumento de la desigualdad y la discriminación
Según explica Cathy O’Neil en su libro, «Weapons of Math Destruction» (Armas de destrucción matemática) hay ciertos algoritmos «opacos, desregulados e irrefutables» que refuerzan la discriminación.
Estos algoritmos favorecen a los más afortunados y castigan a los oprimidos de diferentes formas, como controlar resultados académicos, clasificar cv´s, evaluar a trabajadores, determinar votantes, establecer penas de libertad condicional y vigilar la salud de los ciudadanos.
En definitiva, la autora explora el sesgo que está presente en el análisis de datos, las consecuencias imprevistas del big data y la ética que lo rodea, aspectos que tendemos a ignorar cuando pensamos en tecnología.
Comparto la conferencia de Cathy O´Neil en el ciclo Tech & Society de la Fundación Telefónica
5. El impacto sobre la gestión de personas
El artículo de la BBC hace referencia al empleo y a la diferencia de capacidad de análisis de C.V.´s durante la vida de un director de Recursos Humanos y las capacidades de herramientas de Inteligencia Artificial.
Mas allá de esta cuestión de eficiencia, el verdadero tema a tratar es el relativo a los criterios que se definen para, de forma automática, medir la productividad, el desempeño, las promociones e incluso la selección de profesionales.
Un ámbito de la máxima sensibilidad y relevancia en el que cualquier sesgo puede tener un impacto directo en la carrera profesional de las personas.
6. La vulnerabilidad de Internet
Mas allá de la generación de rutinas para bloquear o suspender servicios.
En The Wall Street Journal nos encontramos esta noticia: “Los estafadores utilizaron IA para imitar la voz del director ejecutivo en un caso inusual de ciberdelincuencia”
“Los delincuentes utilizaron software basado en inteligencia artificial para hacerse pasar por la voz de un director ejecutivo y exigir una transferencia fraudulenta de 220.000 euros (243.000 dólares) en marzo, en lo que los expertos en ciberdelincuencia describieron como un caso inusual de uso de inteligencia artificial para piratear”
7. La falta de ética
Es evidente que los algoritmos pueden ser tan subjetivos como los científicos que los han programado, y reflejan, de manera consciente o no, los sesgos (o instrucciones) y los prejuicios de sus autores (o responsables).
Dotar de ética a los algoritmos, es uno de los grandes retos de la Inteligencia Artificial … realmente es uno de los grandes retos de la era digital.
En el artículo se hace referencia a la carta abierta que publicó el Future of Life Institute con 23 principios para evitar los peligros de la AI. El escrito incluía más de 1.600 firmas, entre ellas las de Steven Hawing, Elon Mus, Ray Kurzwell y cientos de científicos e investigadores de todo el mundo.
Entre estos principios nos encontramos:
- El beneficio de la investigación de la IA no debería ser crear inteligencia sin dirigir, sino inteligencia beneficiosa.
- Enlace entre ciencia y política: debería haber un intercambio constructivo y sano entre los investigadores de la y los legisladores.
- Desarrollar entre todos los intervinientes una cultura de cooperación, confianza y transparencia.
- Seguridad y transparencia en los fallos
- Responsabilidad de los diseñadores y desarrolladores.
- Alineación de valores.
- Privacidad: la gente debería tener el derecho de acceder, gestionar y controlar los datos que generan, dando a los sistemas de IA la autorización (o no) de analizar y utilizar esa información.
Sin duda, buenos principios que en muchos casos (seguramente demasiados), tanto la ambición desmedida de poder, como los intereses económicos, deslizan lamentablemente a un segundo lugar.
No obstante, teniendo claros y mitigando (eliminando si es posible) estos riesgos, tenemos que seguir considerando la Inteligencia Artificial y por lo tanto los algoritmos como nuestros grandes aliados, porque como están demostrando, bien utilizados nos están aportando claros beneficios para el progreso de nuestra civilización.
los numeros y las máquinas son el instrumento al servicio de quienes los controlan, la ética está en las personas, no en las herramientas, y se corre el riesgo de poner por delante el cuantos que el que se hace.
Son momentos de reflexión, para reconstruir esencias
Maria gracias por tu participación y reflexión.
Del mismo modo que la pólvora fue utilizada para crear armas, la energía nuclear para crear bombas, o el correo electrónico se utiliza para despistar a los trabajadores. La culpa puede no ser sólo del algoritmo, sino del uso que le quieres dar. Vamos, que es una reflexión, pero interesantísimo artículo, como siempre.
Antonio, gracias por participar en el blog. La culpa, como dices, será de los que definen los criterios.