E-69 ¿Son racistas algunas Inteligencias Artificiales ? ¿O simplemente son etnocéntricas ?
E-69 ¿Son racistas
algunas Inteligencias Artificiales ? ¿O son etnocéntricas ?
El término "etnocéntrico" se refiere
a una perspectiva o actitud en la que se valora o juzga a otras culturas o
grupos en relación con la propia cultura o grupo de uno. Implica la creencia de
que la cultura o grupo propio es superior o central, y se utiliza como punto de
referencia para evaluar y comparar a otros. El etnocentrismo puede manifestarse
en diversas formas, como la creencia en la superioridad cultural, la imposición
de normas y valores propios sobre otros, la falta de comprensión o respeto hacia
otras culturas y la interpretación de las prácticas y creencias de otras
culturas desde una perspectiva negativa o inferior. Las IA de USA o de
China barren para la casa de sus respectivos programadores. Mientras tanto la
UE que dice : La posición de Europa
sobre la IA se centra en el desarrollo de una IA ética y responsable que
beneficie a la sociedad. La Unión Europea ha establecido una estrategia de
inteligencia artificial que se enfoca en la inversión en investigación y
desarrollo, la creación de un marco regulatorio adecuado y la promoción de la
colaboración entre los Estados miembros. Parece dudoso que USA o China
que están poniendo el dinero para el desarrollo de la IA, vayan a permitir que
la UE, que no puso ni arriesgó nada en los años anteriores , les diga ahora que
hacer, como hacer y les dicte las reglas desde Bruselas .
En el
ámbito de las ciencias sociales y la psicología anglosajonas se habla en
ocasiones de las investigaciones WEIRD. "WEIRD"
significa 'raro', 'extraño' o 'peculiar', pero también son las siglas en inglés
de "occidentales, educados y de países industrializados, ricos y
democráticos".
Estamos
ante un estudio WEIRD cuando los investigadores pretenden
extrapolar al conjunto de la especie humana algún comportamiento o tendencia
social para la cual se han estudiado únicamente sujetos de esas
características, en la mayoría de los casos estudiantes en su etapa
universitaria (lo que añadiría 'joven' a la lista de adjetivos).
Las investigaciones
WEIRD no son la consecuencia de ninguna violación del método
científico, ni de alguna clase de prejuicio arraigado entre los
investigadores. Sencillamente intentan extraer conclusiones a partir de
conjuntos de datos insuficientemente diversos. Al menos, si lo que
pretenden estudiar es el conjunto de la especie humana.
Pero
este problema no es, ni mucho menos, exclusivo de psicólogos, sociólogos y
pedagogos. De hecho, es recurrente en el campo de la inteligencia
artificial.
Pero,
¿cómo van a ser racistas las máquinas?
Parecería lógico pensar que las inteligencias artificiales
no padecen algunos males típicamente humanos, como los prejuicios; y
que no discriminan, por tanto, en base a la raza / nacionalidad / cultura. Pero
la realidad es un poco más compleja.
Hace
ya 9 años, HP se enfrentó a una polémica inesperada: un vídeo publicado en
Youtube afirmaba que las computadoras de la compañía eran 'racistas'. Los
espectadores podían comprobar por sí mismos que
el software de reconocimiento facial incluido en la HP MediaSmart sólo
se activaba al aparecer en escena una persona de raza blanca, y no con una
de raza negra.
La
primera reacción de HP fue intentar culpar a la falta de iluminación en el
primer plano de la imagen. Pero en 2016 la IA todavía parecía seguir
siendo 'racista', y esta vez no era culpa de la iluminación: el
concurso de belleza Beauty.AI, gestionado a través de
una IA, elegía de entre 6.000 personas de todo el mundo a 44 ganadores, de los
que sólo uno tenía la piel oscura.
El
problema no son los prejuicios, sino los datos
Joy
Buolamwini (investigadora del MIT Media Lab) y Timnit Gebru (empleada de
Microsoft) se unieron hace unos meses para poner a
prueba tres sistemas de reconocimiento facial disponibles comercialmente: dos
de empresas estadounidenses (Microsoft e IBM) y otra de una china (Megvii).
La
conclusión a la que llegaron fue que dichos sistemas identificaban
correctamente el género de los individuos en un 99% de las ocasiones, cuando
dichos individuos eran varones de piel clara. Pero, cuando tenía que lidiar
con personas de piel oscura, la tasa de error se disparaba, alcanzando el 35%
en el caso de las mujeres.
Pero
ni los programadores de Beauty.AI, no los de Microsoft, IBM o Megvii, diseñaron
sus algoritmos con la intención de discriminar a ningún grupo humano.
No, el problema residía en los datos.
Según
Alex Zhavoronkov, director científico de Beauty.AI, el problema de su proyecto
residió en que al haberse entrenado mayoritariamente con fotos de
blancos, la IA no vinculaba la piel oscura al ideal de "belleza
humana".
"Cuando
entrenas un algoritmo para reconocer ciertos patrones ... es posible que no tengas suficientes datos o
que los datos estén sesgados".
Otras
veces el problema no es racial, sino cultural: las IAs fallan al reconocer
escenas o artefactos cuando se salen de los estándares occidentales.
Ocurre que las IAs son entrenadas en base a recursos digitales recopilados por humanos. Por ejemplo, los bancos de imágenes de acceso público, como Open Images, se encuentran entre los recursos más utilizados.
Y es
aquí donde aparece el sesgo: dichos bancos de imágenes ofrecen,
mayoritariamente, imágenes que reflejan la cultura occidental (y, más
concretamente, la anglosajona). De hecho, según ha
expuesto la revista Nature, más del 45% de los datos de ImageNet
(una de las principales referencias en la investigación de visión artificial)
proviene de los Estados Unidos.
Pero
los EE.UU son un país que acoge únicamente al 4% de la población mundial. Su
sobrerrepresentación contrasta la situación de China y la India: pese a
representar por sí mismas más de un tercio de la humanidad, ambas naciones
aportan sólo el 3% de los datos de ImageNet.
No hay
que buscar ninguna maldad detrás de esto: por su mayor acceso a las
telecomunicaciones y las nuevas tecnologías, han sido usuarios
occidentales los que más material audiovisual han creado y digitalizado en
las últimas décadas. Tan 'simple' como eso. Pero claro, eso complica ahora que
las IAs entiendan a la mayor parte de los humanos.
"¿Quieres
etiquetar las fotos de mi boda?"
Y es
que, el aprendizaje automático generado en base a
dichos datos es incompleto, y no permite a las IAs reconocer (y, por
tanto, describir) con precisión escenas ajenas a la cultura occidental. Este
hecho, al margen de cualquier consideración sociopolítica, objetivamente resta
efectividad a muchos sistemas de reconocimiento de imágenes.
El problema se aprecia fácilmente en la siguiente imagen. En
ella, se ven varias fotos, y la descripción generada a partir de las mismas por
un sistema estándar de reconocimiento de imágenes, alimentado por los bancos de
datos de los que hablábamos.
Se
aprecia que es capaz de afinar la descripción de las primeras fotos incluyendo
términos como "vestido", "boda", "ceremonia",
"novio", y "novia". Sin embargo, en la última foto
sólo es capaz de indicar que aparecen "personas" en la
misma, pese a tratarse igualmente de una foto de boda (africana tradicional, en
este caso).
Este
problema, claro está, se soluciona ampliando el espectro cultural en el que se
entrena a las IAs. Con ese fin, Google lanzó en septiembre un Concurso de Imágenes Inclusivas, destinado a
reducir el sesgo en un sistema de visión por computador y generar así
resultados más representativos.
Para
ello, Google animó en dicho concurso a que los equipos competidores se
dedicasen a mejorar los algoritmos para optimizar su capacidad descriptiva, y
una vez hecho esto se les sometió a una 'prueba de estrés' en base a
las numerosas fotos aportadas por voluntarios de todo el mundo.
Aquellos
algoritmos que etiquetasen con mayor precisión dichas nuevas fotos ganaron más
puntos en base a los criterios establecidos por Google. Y, finalmente, cinco
equipos recibieron cada uno un premio de 5.000 dólares.
Pese a
ello, ninguno fue capaz de elaborar un algoritmo completamente
imparcial: sólo uno de ellos, por ejemplo, fue capaz de reconocer la foto
de una novia tradicional hindú con siri.
El
Dataset Nutrition Label Project
Pero
concursos como el de Google, si bien ayudan a visibilizar el problema, no
ayudan a erradicarlo en su origen: en cómo plantean los profesionales
de IA el uso de conjuntos de datos.
Para
ello, el MIT ha puesto en marcha el Dataset Nutrition Label Project. En su
página web y en el paper en
el que basan su trabajo exponen su particular propuesta para comenzar a
solucionar este problema:
Los datos incompletos, mal entendidos o históricamente
problemáticos pueden influir negativamente en los algoritmos de AI. [...] Para
mejorar la precisión e imparcialidad de los algoritmos [...] debemos facilitar
que los profesionales evalúen rápidamente la viabilidad y la idoneidad de los
conjuntos de datos.
[...]Los métodos actuales de análisis de datos,
particularmente antes del desarrollo del modelo, son costosos y no están
estandarizados.
[Así
que] falta un paso en la línea de desarrollo de la IA: evaluar conjuntos de
datos basados en medidas de calidad estándar, tanto cualitativas como
cuantitativas. Estamos trabajando en agrupar dichas medidas en una Etiqueta de
Alimentación de Sets de Datos que resulte fácil de usar.
Según los investigadores, los beneficios de esta 'etiqueta' (aquí el prototipo de la misma) serán los siguientes:
·
Para los especialistas en datos: "impulsará
prácticas de análisis de datos más robustas, proporcionará una manera eficiente
de seleccionar el mejor conjunto de datos para sus propósitos y aumentará la
calidad general de los modelos de AI".
·
Para aquellos que crean y publican
conjuntos de datos: "creará una expectativa de explicación, que
impulsará mejores prácticas de recolección de datos".
Comentarios
Publicar un comentario