La Inteligencia Artificial está ya en nuestro día a día y es una realidad mucho más cercana de lo que pensamos. Pero ¿es una oportunidad o un riesgo? Los ordenadores y robots aprenden con perfectos y sofisticados algoritmos matemáticos que no dejan cabida a la subjetividad, ¿o sí? ¿Y sus resultados?
En este post analizo algunos ejemplos de aplicación y lo que pretendo es abrir un debate sobre la ética en la Inteligencia Artificial ¿Existe sesgo discriminatorio por cuestiones de género en la programación de los robots? ¿Cómo aprenden los robots?
Vamos a verlo…
No es ciencia ficción, aunque lo parezca
Un robot dotado con Inteligencia Artificial llamado Xiaoyi pasa consulta en China tras aprobar medicina; ciudades inteligentes; torres remotas de control aéreo que incorporan funciones basadas en inteligencia artificial para ejecutar procesos críticos de control aéreo sin necesidad de intervención humana; robots con cámara que vigilan las ciudades y el tráfico; proyectos como Speech2Face que escucha una voz grabada y en función de eso crea el perfil físico de la persona después de aprender de miles de horas de Youtube…
¿Suena a película de Hollywood? ¿Parece ciencia ficción? Pues no lo es y la Inteligencia Artificial, poco a poco, se cuela en nuestras vidas casi sin percatarnos. Avanza a pasos agigantados y, de forma paulatina, se va adueñando de tareas y funcionalidades, automatizando procesos y asumiendo cargas de trabajo antes realizadas de forma casi artesanal.
¿Sigues pensando que esto es más propio de películas como Blade Runner o Matrix? Pues veamos algunos ejemplos que te pueden resultar mucho más familiares:
- Siri, Alexa o Cortana utilizan el procesamiento de lenguaje natural haciendo de asistentes virtuales no solo en el entorno profesional sino ya en muchos hogares.
- Google fotos con reconocimiento de imagen que sugiere agrupar fotos por personas o etiquetarlas en función del lugar, tipo de fotografía…
- Amazon ofrece recomendaciones de productos basados en tu cesta de la compra y en tus visitas de productos.
- Las notificaciones y destacados que recibimos en nuestras redes sociales: Facebook, Instagram… son mostradas según nuestros intereses.
- Cuando utilizamos Google maps o similar, antes de ofrecernos una ruta, analiza gran cantidad de información para ofrecernos el camino más óptimo.
- Spotify o Youtube music te ofrecen listas de reproducción que saben que pueden gustarte o crea listas a partir de las canciones que sueles escuchar.
- Netflix te recomienda películas o series indicando el porcentaje de coincidencia con otras que has visto y te interesan.
- En los bancos existe un algoritmo que predice si eres una persona fiable o no para conceder un préstamo.
- …
Y, así, podríamos seguir poniendo ejemplos. Si quieres conocer alguno más, en BBVA OpenMind nos cuentan 10 ejemplos en los que ya dependemos de la IA en nuestra vida diaria casi sin darnos cuenta.
¿Y en la administración pública? ¿Y en mis áreas de trabajo?
Concepción Campos nos resume algunos ejemplos clave en su blog donde explica cómo la administración utiliza la Inteligencia artificial (en adelante IA) para la atención a la ciudadanía, prevención de la corrupción, automatización de procesos, etc. En su texto indica que de acuerdo a un estudio realizado por OpenText, el 25% de los ciudadanos afirma que la implementación de la IA en las administraciones públicas se producirá en los próximos diez años y tendrá grandes ventajas para ellos, tales como reducir los tiempos de espera y disminuir la burocracia administrativa.
En mis ámbitos de trabajo: comunicación, marketing y formación, el impacto está siendo muy claro. En comunicación, por ejemplo, la atención al cliente se ha visto mejorada de forma exponencial por chatbot. En el área de marketing y publicidad, la segmentación en redes sociales y el conocimiento del consumidor son clave para lanzar servicios y productos personalizados según demanda e intereses. Y en Recursos Humanos y formación, en el ámbito de la detección de talento en RR.HH., es muy interesante conocer cómo aplican la IA empresas como Unilever, que dicen que han aumentado la diversidad de sus equipos de trabajo y su eficiencia en la selección de personas.
Pero ¿es oro todo lo que reluce? ¿Cómo aprenden las máquinas?
Las máquinas no solo obedecen, sino que también aprenden y depende de cómo lo hagan podemos enfrentarnos a un gran reto en el plano ético. No cabe duda de que nos enfrentamos a la invasión de la privacidad con la recopilación de datos, a sistemas de reconocimiento facial, a sistemas con sesgos en su programación o sus datos y, sin duda, a un desafío de regulación de las relaciones entre humanos y máquinas. En este sentido, las grandes empresas ya disponen de comités éticos para la regulación de la Inteligencia Artificial, pero más que de una forma proactiva se han creado de manera reactiva ante las críticas y las presiones sociales.
Los algoritmos de clasificación lo que hacen es microsegmentar a las personas categorizándolas en función de unos patrones. Esto nos lleva a la creación de estereotipos que, por ejemplo, por una circunstancia determinada pueden clasificarte como una persona de renta media-baja y nunca puedas adquirir un artículo de lujo a pesar de poder permitírtelo. Posiblemente, esta preclasificación hará que no te aparezcan este tipo de artículos porque “no son para tu perfil”. Esto, que puede parecer algo superficial, ¿cómo aplicaría en la concesión de becas, ayudas a la vivienda, permisos de migración…?
En este sentido, hablando de discriminación por cuestiones de género, uno de los casos más llamativos ha sido el de Apple y su polémica al conceder con su tarjeta bancaria más crédito a los hombres que a las mujeres. Un emprendedor tecnológico, David Heinemer Hansson, puso a prueba la Apple Card y comprobó las diferencias. A pesar de compartir declaración con su mujer, tener bienes gananciales y llevar mucho tiempo casados, la tarjeta le permite a él un límite de crédito 20 veces superior al de su mujer, según este artículo publicado en ABC.
Otro ejemplo lo podemos encontrar en Amazon. En este post leemos que en el año 2014 la compañía comenzó a desarrollar un programa que, utilizando Machine Learning, permitía revisar y evaluar automáticamente cientos de CVs aprendiendo de los recibidos en los últimos 10 años y el desempeño de las personas contratadas en ese rango de tiempo. El 2015 la compañía se percató de que el nuevo sistema ponderaba de peor manera a las mujeres para puestos de desarrollo de software u otras labores técnicas, dado el reflejo histórico donde predominan los hombres a las mujeres. A pesar de los esfuerzos, Amazon no pudo revertir este aprendizaje y desechó el programa. Y la aplicación de la IA en la selección de personal es algo que muchas grandes empresas están utilizando. Por ejemplo, LinkedIn ofrece a las empresas clasificaciones algorítmicas de candidatos en función de cómo encajan con las ofertas de trabajo en su plataforma. Sin duda, al nutrirse de datos históricos se heredan y perpetúan prejuicios y se extrapola la discriminación off line al plano on line.
Grandes empresas como Google y su buscador de imágenes o Youtube, se han enfrentado a importantes polémicas. Si buscamos términos como cocina en Google, solo aparecen imágenes de mujeres, pero si buscamos CEO solo aparecen hombres. Y en el caso de Youtube y sus vídeos recomendados, Guillaume Chaslot, un programador francés doctorado en inteligencia artificial que trabajó en el equipo encargado de las recomendaciones, denunció métodos poco éticos para aumentar los ingresos en publicidad. Además denunció la intervención en momentos clave como elecciones, medioambiente y otros temas controvertidos.
Comienza el debate: ¿alteramos cómo se entrenan los algoritmos?
En este punto, se abre el debate: ¿se pueden y/o deben alterar cómo entrenamos los algoritmos para que muestren resultados no discriminatorios?, ¿se debe regular?, ¿quién debe hacerlo y cómo?
¿se pueden y/o deben alterar cómo entrenamos los algoritmos para que muestren resultados no discriminatorios?, ¿se debe regular?, ¿quién debe hacerlo y cómo?Click to PostEn este artículo, la directora de Xakata indica que no está de acuerdo con que Google modifique sus patrones de búsqueda para no mostrar imágenes sexistas cuando se buscan términos como cocinar o CEO porque, según María González, no es más que un reflejo de la realidad que existe en Internet y fuera de ella. Sin embargo, encontramos una gran corriente de opiniones contrarias como la de la directora de IA de Accenture, Isabel Fernández, que sugiere la necesidad de crear un protocolo o acreditación que regule el sesgo presente en la IA y garantice la “limpieza” de los sistemas. Otro ejemplo, nos lo trae Concha Bielza, catedrática en la Universidad Politécnica de Madrid, que habló sobre la ética en la inteligencia artificial en el Global Innovation Day 2019 celebrado el 4 de noviembre de 2019 y destacó la necesidad de su regulación.
Pero a estas opiniones podemos añadir un nuevo debate: ¿dónde está el límite de lo que se puede alterar y lo que no?, ¿quién lo decide?, ¿cuándo se revisa?…
Por resumir:
- Aprendizajes históricos basados en datos que heredan sesgos incorporando prejuicios.
- Sistemas entrenados por personas que introducen su subjetividad de la que las máquinas aprenden.
- Los algoritmos de las empresas son “cajas negras” y la transparencia no es uno de sus fuertes.
La Comisión Europea publicó el pasado año una serie de recomendaciones con requerimientos clave para el desarrollo de la Inteligencia Artificial, donde se prima el contexto, ya que no se puede comparar un sistema que recomienda una película con uno que diagnostica una enfermedad. Los siete requisitos esenciales que se identifican son los siguientes:
- Intervención y supervisión humanas
- Solidez y seguridad técnicas
- Privacidad y gestión de datos
- Transparencia
- Diversidad, no discriminación y equidad
- Bienestar social y medioambiental
- Rendición de cuentas
¿Hacia dónde vamos? Está por determinar, pero las bases se están asentando para que exista una regulación global de la IA, aunque no podemos olvidar que la legislación suele ir por detrás de la realidad y, mucho más, en este entorno VUCA ( Volatility, Uncertainty, Complexity y Ambiguity) en el que nos movemos.
Responsable de proyectos de formación y comunicación en Economía Digital
SANDETEL, Consejería de Economía, Conocimiento, Empresas y Universidad de la Junta de Andalucía
Twitter: @Olgafl
Artículos de referencia:
Estrategia Nacional de Inteligencia Artificial http://www.ciencia.gob.es/stfls/MICINN/Ciencia/Ficheros/Estrategia_Inteligencia_Artificial_IDI.pdf
Speech2face: https://speech2face.github.io/
Torre aérea digital de control remoto https://www.esmartcity.es/2020/02/18/desarrollan-solucion-torre-remota-control-aereo-basada-inteligencia-artificial
Robot que pasa consulta en China: https://www.consalud.es/saludigital/103/xiaoyi-el-robot-que-pasa-consulta-en-china-tras-aprobar-medicina_48531_102.html
Ejemplos de IA en nuestra vida diaria. https://www.bbvaopenmind.com/tecnologia/inteligencia-artificial/10-ejemplos-de-que-ya-dependes-de-la-ia-en-tu-vida-diaria/
Aplicación de la IA en la Adminsitración Pública. Blog Concepción Campos. http://concepcioncampos.org/5-ejemplos-de-inteligencia-artificial-ia-en-la-administracion-publica-presente-o-futuro/
Univeler. IA en la selección de personas: https://www.hrconnect.cl/atraccion/unilever-la-inteligencia-artificial-seleccion-personas/
Polémica en el algoritmo de Youtube: https://www.genbeta.com/redes-sociales-y-comunidades/el-algoritmo-tiene-sesgos-perturbadores-y-peligrosos-un-ex-ingeniero-de-youtube-critica-como-se-fabrican-los-videos-recomendados
Google imágenes sexistas: https://www.xataka.com/servicios/cuando-busco-cocinar-google-images-me-muestra-mujeres-deberia-google-modificar-los-resultados
Entrevista a Isabel Fernández, directora IA de Accenture: https://www.agenciasinc.es/Entrevistas/Hace-falta-un-protocolo-que-regule-los-sesgos-en-inteligencia-artificial
Global Innovation Day 2019 https://youtu.be/S37TXZdH5nc
COMUNICACIÓN DE LA COMISIÓN AL PARLAMENTO EUROPEO, AL CONSEJO, AL COMITÉ ECONÓMICO Y SOCIAL EUROPEO Y AL COMITÉ DE LAS REGIONES. Generar confianza en la inteligencia artificial centrada en el ser humano. https://ec.europa.eu/transparency/regdoc/rep/1/2019/ES/COM-2019-168-F1-ES-MAIN-PART-1.PDF
Mi compañera @olgafl tiene el conocimiento y la capacidad de comunicación necesaria para generar contenido de calidad como éste, gracias al cual podemos reflexionar con datos y argumentos. ¡Gracias Olga!