webleads-tracker

Saltar al contenido

Boletín de isahit - Julio 2020: "Discriminaciones: IA, sigue funcionando".

Boletín de noticias de julio de 2020

 

El movimiento Black Lives Matter, reavivado por la trágica muerte de George Floyd, se ha extendido por todo el mundo. Esta tragedia ha puesto en evidencia la discriminación que aún socava nuestras sociedades. La tecnología y la inteligencia artificial, en particular, no están exentas de este auto-examen que debemos llevar a cabo colectivamente. Concebidos por los humanos, tienden a reproducir sus prejuicios. Esto plantea muchas preguntas sobre cómo se diseña la IA, por quién y cómo podemos asegurar su ética.

En 2018, Joy Buolamwini, una investigadora negra del MIT, se sorprende de que un software de reconocimiento facial con el que trabaja reconozca las caras de sus amigos pero no la suya propia. Cuando se pone una máscara blanca, el algoritmo la identifica inmediatamente. Un experimento que la impulsa a hacer su tesis sobre el tema.

Después de probar los sistemas de reconocimiento facial de IBM, Microsoft y Face ++, los resultados son claros: todos ellos reconocen a más hombres que mujeres y son más precisos en la piel más clara que en la más oscura. No faltan ejemplos de la discriminación que este tipo de problema provoca:

  • el algoritmo de la tarjeta de pago de Apple dio un límite de crédito más alto a los hombres que a las mujeres, a pesar de los ingresos equivalentes;
  • de los programas informáticos utilizados por el sistema judicial de los Estados Unidos para evaluar el riesgo de reincidencia, se estima que es mucho mayor para los afroamericanos;
  • En 2016, Tay, una IA de Microsoft lanzada en Twitter para aprender de sus intercambios con los usuarios de Internet, tuvo que retirarse apresuradamente después de que empezó a emitir tweets racistas y negacionistas.

Humano, demasiado humano.

Con demasiada frecuencia se tiende a concebir la IA como una entidad que surgió ex nihilo. Sin embargo, sólo aprende de las imágenes y la información que se le proporciona. En otras palabras, sólo aprende de la imagen de aquellos que la conciben. Por lo tanto, no es sorprendente que conduzca a una toma de decisiones racistas y sexistas, cuando los algoritmos que la componen están abrumadoramente desarrollados por los hombres blancos. "Los algoritmos no están dotados de conciencia, sino que son construidos por personas", dice Mouhamadou Moustapha Cissé, jefe del primer centro de investigación de inteligencia artificial de África. "Son, en parte, los prejuicios de estas personas los que afectan a la forma en que funcionan los algoritmos.

Defectos intrínsecos

En un artículo de opinión, Nelly Chatue-Diop y Soumia Malinbaum, Directora de Datos del Grupo Betclic y Vicepresidenta de Desarrollo Comercial de Keyrus, respectivamente, señalan otras tres deficiencias técnicas en la forma en que se diseñan estos algoritmos:

  1. Los propios algoritmos: La mayoría de los desarrolladores de aplicaciones no utilizan los algoritmos de aprendizaje que han creado personalmente para medir. Estos algoritmos genéricos, de libre acceso, fueron desarrollados en su mayoría por científicos cuya prioridad es validar la exactitud de su modelo matemático y evitar el sobreaprendizaje, no asegurar que los modelos creados con estos algoritmos se generalizan de manera justa. Así pues, no sólo no se diseñó ninguno de estos algoritmos con un objetivo explícito de no discriminación, sino que fueron desarrollados por una población singularmente homogénea.
     
  2. Datos de aprendizaje: Como el modelo se construye a partir de datos, comprendemos la necesidad crucial de tener, para el aprendizaje y la validación del propio modelo, conjuntos de datos que sean coherentes pero también representativos de la diversidad de las situaciones/casos a tratar. 
     
  3. Criterios de ejecución: Se considera que un modelo tiene éxito cuando, después de la fase de aprendizaje, maneja correctamente un alto porcentaje de casos nuevos. Las pruebas preoperativas se realizan generalmente con muestras globales que no permiten saber si el modelo discrimina o no en cuanto al género, el origen u otros criterios. Se centran en evaluar la exactitud del modelo y juzgar si la tasa de error es aceptable: no se tienen en cuenta otros criterios.

Concienciación

En los últimos años, ha habido una creciente conciencia de estas cuestiones:

  • En un informe publicado en diciembre de 2017, la CNIL recomienda capacitar a todos los actores de la cadena algorítmica en materia de ética, haciendo que los temas sean transparentes y comprensibles, y estableciendo una plataforma nacional de ética.
     
  • El aspecto ético también ocupó un lugar destacado en el informe "La IA para la humanidad" de Cédric Villani, que se presentó a Emmanuel Macron en marzo de 2018.
     
  • A finales de mayo, el defensor de los derechos y la CNIL pidieron una movilización colectiva sobre el tema.
     
  • En junio, el Laboratorio de Igualdad reveló 30 soluciones muy concretas para combatir los abusos discriminatorios de la IAEl Gobierno de los Estados Unidos de América está comprometido con la promoción de la igualdad de género, en particular con respecto a las mujeres.

Sí, podemos.

Una evolución hacia lo mejor es posible. "Observando las diferencias estigmatizantes en las traducciones de Google Translate en algunos idiomas, Google se ha asegurado de generar traducciones de género para todas las frases en las que la plantilla original ofrecía sólo una versión masculina. Se han establecido indicadores para medir el progreso y reducir este sesgo en más del 90% en las traducciones del húngaro, finlandés, persa y turco al inglés. El nuevo modelo es aún más relevante y ahora entiende que en estos idiomas "doctor" e "ingeniero" pueden ser mujeres! "Nelly Chatue-Diop y Soumia Malinbaum están encantadas.

Esto es más que nunca un tema importante, ya que la IA se está involucrando cada vez más en cada pequeño hueco de nuestra vida diaria. Depende de nosotros hacerlo a la imagen de la sociedad que queremos construir.

Isahit: la ética en el corazón

Colaborando casi exclusivamente con jóvenes mujeres negras de países en desarrollo, isahit contribuye plenamente al desarrollo de una IA más ética y a la imagen de la sociedad en su conjunto, respetando toda su diversidad. Anotando y supervisando los algoritmos de aprendizaje de la máquina para nuestros clientes, estas mujeres trabajan cada día para evitar los sesgos que podrían generar. El desafío no es sólo ético, porque la diversidad es una de las claves esenciales para la precisión y la eficiencia de la IA. Muy concretamente:

  • en el caso del reconocimiento facial, a una persona de cierta etnia le será más fácil reconocer a otra persona de la misma etnia,
  • en el sector de la alimentación, un africano podrá identificar con mayor precisión los platos o ingredientes específicos de la cocina africana,
  • Lo mismo se aplica al análisis de residuos.

Es a través de la diversidad de su comunidad que isahit puede garantizar a sus clientes datos precisos y válidos, específicos y contextualizados.

"En isahit, también ponemos mucho énfasis en la formación de nuestra comunidad. Nuestro objetivo es ayudar a estas mujeres a alcanzar sus objetivos profesionales, dándoles al mismo tiempo las claves para participar plenamente en la revolución digital en curso.

Isabelle Mashola, CEO de isahit