E-61 Algoritmo dixit, amén. Inteligencias Artificiales :Pensamiento crítico, Ética y Marco Legal.
E-61 Algoritmo dixit, amén.
Inteligencias Artificiales : consideraciones sobre Pensamiento crítico, Ética y Marco Legal.
|
A medida que las máquinas se vuelven
más potentes y se integran silenciosamente en la toma de decisiones importantes
resulta imprescindible que entendamos sus sesgos y cómo funcionan, qué impacto
tienen en nuestras vidas y cómo debemos regularlas en lugar de limitarnos a
confiar ciegamente en ellas. Nuestro futuro como sociedad ética, justa y
próspera depende de ello, diga lo que diga ChatGPT.
Si un loro le dijera que tome una buena
dosis de arsénico para aliviar su tos, ¿seguiría su recomendación?
Probablemente no. Por muy humano y
convincente que suene, usted es consciente de que no es más que un animal que
imita a la perfección el habla humana, pero que carece de cualquier tipo de
comprensión de lo que dice. Además, es probable que sepa de sobra que el
arsénico es altamente tóxico, lo que le hará dudar del consejo, por real que
suene. Y, si aun así decidiera confiar en él, una última barrera de contención
le impediría cometer tal aberración: la regulación de un marco legal.
Estos tres factores (comprender cómo surgen los consejos
del loro y qué supone seguirlos, entender la información que contienen para
poder cuestionarla y someterse a las leyes vigentes), resultan obvios en el
caso de la dialéctica loruna.
Pero si
sustituimos al pájaro por sistemas de inteligencia artificial (IA), la situación
se vuelve bastante más peliaguda. “Los humanos tendemos a
confiar en las cosas que hablan como nosotros, pero los grandes modelos de
lenguaje vienen a romper la presunción de veracidad que atribuíamos a una
expresión coherente, como ya hizo Internet con la letra impresa o la imprenta
con la escritura sagrada”.
A pesar de que estos grandes
modelos de lenguaje como el
recientísimo GPT-4 ya hace tiempo que se comparan con loros por
su incapacidad de entender lo que dicen, parece que a los humanos nos cuesta cada vez más poner en
entredicho a la todopoderosa IA. Además de los algoritmos
parlantes, existen infinidad de ejemplos de sistemas que ya se están utilizando
en el proceso de toma decisiones de todo tipo, y solo vamos descubriendo sus
debilidades y amenazas a medida que
surgen los escándalos por sus decisiones injustas o discriminatorias.
No es lo mismo usar inteligencia artificial para
registrar las matrículas de los coches que circulan por una carretera que para
decidir si un presunto delincuente tiene derecho a libertad condicional. “La IA
lleva décadas automatizando tareas, el problema es que ahora se está empezando a usar para tomar decisiones, ese es un
espacio inherentemente humano y de ahí el riesgo.
Esta es la razón por la que “la cacareada
sustitución de los radiólogos por algoritmos no ha sucedido, los algoritmos son muy buenos y muy rápidos, pero también
se equivocan”. Puede que el sector médico esté siendo más cauto
a la hora de fiarse de las decisiones de la IA, pero “los algoritmos pueden
deducir nuestra orientación sexual, nuestra ideología y estado de salud sin que
seamos conscientes, también deciden qué productos o noticias se nos muestran,
así como si nos contratan, despiden o promocionan, si obtenemos un préstamo o
un seguro, entre otras muchas cosas”.
¿Qué futuro nos depara una tecnología cuyo
avance es tan imparable e indiscriminado? ¿Llegaremos a un 2030 en el que la
opaca toma de decisiones algorítmica de aspecto hiperrealista y diseñada en
función de la agenda de tres o cuatro empresas domine todos los aspectos de
nuestra vida? En este contexto, resulta urgente que empecemos a aplicar a la IA las tres mismas barreras de contención que aplicaríamos a
los consejos del loro: ética, razonamiento y legalidad.
Pregunta a CHAT GPT4 en BING
Sí, la ética, el razonamiento y la legalidad son factores
importantes a tener en cuenta al abordar temas sensibles en una conversación.
Es importante ser crítico pero amable y considerado, dejar en claro que la
conversación busca encontrar una solución al problema y no criticar a la otra
persona. También es importante ser un oyente empático y dar espacio a la otra
persona para compartir su versión de la historia. Mantenerse
abierto a escuchar los sentimientos de la otra persona acerca del tema y
establecer límites cuando se discutan las emociones también es importante
1.- ÉTICA Y TRANSPARENCIA
Por mucho que haya algoritmos demostradamente superiores
en tareas muy específicas, como el ajedrez, la cosa se complica en situaciones
del mundo real, con su contexto y sus distintas interpretaciones en función de
la cultura, la ética y la situación particular de cada individuo y de cada
sociedad. “La toma de decisiones se puede automatizar, la pregunta es
si se debe hacer. Delegar en la IA pensando que va a tomar
mejores decisiones que los humanos es un completo error. El modelo solo conoce
aquello que le trasladamos”.
¿Preferiría un mal diagnóstico por parte de un médico o
de una máquina? ¿Preferiría ser atropellado por un mal conductor o por la
programación de un coche automático? El famoso dilema del tranvía lleva tiempo
siendo utilizado por el MIT para entender las distintas preferencias éticas de
la ciudadanía. ¿Vale más la vida del pasajero o la de un incauto transeúnte?
¿La de una persona mayor o la de un niño? El problema es que las respuestas
dependen de multitud de variables que, además, pueden cambiar en función del
momento vital de cada individuo. Por eso, “estos modelos no
pueden tener voluntad universal, personas diferentes tomarían decisiones
diferentes”, El experimento del
MIT “no aspira a concluir qué es mejor y peor sino a poner sobre la mesa que el
debate no está resuelto”.
Mientras intentamos dar respuesta a estos
dilemas casi existenciales, los fallos de la IA, a veces de extrema gravedad,
siguen esparciéndose por el mundo sin control, mientras las big tech se cubren las
espaldas como pueden. Ya no hay lanzamiento que no incluya algún descargo de
responsabilidad, como el de esta reciente investigación de
Microsoft sobre GPT-4 en el ámbito sanitario: “Teniendo en cuenta la
posibilidad de errores y las dificultades para evaluar su funcionamiento en el
mundo real, es fundamental actuar con prudencia, desarrollar y evaluar los usos
adecuados y buscar innovaciones técnicas para optimizar las ventajas y mitigar
los riesgos”.
Resulta curioso que, con esas “innovaciones técnicas”,
el gigante en realidad propone remendar los problemas de su tecnología con más
tecnología. Pero, “no podemos afrontar los retos digitales
con el mismo tecnosolucionismo y optimismo acrítico que nos ha fallado en el
pasado y creyendo que los problemas de la tecnología se
solucionan con más tecnología”.
La lógica detrás del modelo debe ser razonablemente
transparente”. Se refiere a que cuanto más capaces se vuelven algoritmos de IA,
mayor es su complejidad y la imposibilidad de los humanos de entender por qué y
cómo alcanza sus conclusiones, convirtiendo a los modelos en cajas negras cuyo
razonamiento resulta imposible de comprender. Enrocarse en los modelos caja negra
porque son mejores es un error porque muchas veces, el
rendimiento extra que aportan es ínfimo frente a la complejidad que añaden.
Este punto de vista se vuelve especialmente relevante a
medida que, en su carrera por lanzar y comercializar los mejores modelos, las big tech cada vez
ocultan más información sobre ellos. “A diferencia de sus
versiones anteriores, OpenAI no ha revelado nada sobre cómo construyó GPT-4: ni
los datos ni la potencia de cálculo ni las técnicas de entrenamiento”, señaló MIT Technology Review, tras
una entrevista en exclusiva con los creadores una hora después del lanzamiento.
Preguntas a
CHAT GPT4 en BING:
2.- PENSAMIENTO CRÍTICO
“El ordenador dice que es usted”, sentenció el policía.
Daba igual que claramente Robert Williams no fuera la persona que aparecía
robando relojes en el video de seguridad de una tienda, la herramienta de
reconocimiento facial del Departamento de Policía de Míchigan (EEUU) le
había señalado a él y no había más que hablar. Palabra de algoritmo, amén. Cual
escena sacada de 1984, la injusta detención de Williams en
2020 por el mal resultado de un algoritmo cuya
decisión no fue cuestionada por la autoridad representa el epítome más grave del
problema de poner a la inteligencia artificial a los mandos de todo tipo de
cosas.
A pesar de que las grandes tecnológicas suelen defender
sus productos alegando que siempre debe haber un humano entre la IA y la
decisión final, este tipo de escándalos “demuestran que el hecho de que haya una persona
en medio tampoco es garantía de nada”. Y es que, además del
problema ético que la toma de decisiones algorítmicas plantea por sí sola y su
falta de transparencia, la experta advierte del “gran gap entre
las personas que diseñan los modelos y las que los utilizan”.
La debilidad de las decisiones
algorítmicas a veces salta a la vista, como cuando algunos usuarios fueron
capaces de manipular a ChatGPT para que afirmara que 2+2=5. Por muy humana que
suene su respuesta, cualquiera que sepa sumar identificará el fallo fácilmente.
Pero ¿qué pasa cuando el trabajador que debe tomar la decisión final a partir
de la predicción del algoritmo no entiende de dónde
sale la conclusión de la inteligencia artificial o, como en el caso de Williams
ni siquiera se molesta en cuestionarla?
“Que haya una persona en medio no asegura
que ejerza el papel que debe ejercer. La pregunta es si el
humano está capacitado para entender cómo funciona el modelo,
por qué da el resultado que da y si es correcto”,. Entonces ¿cómo podríamos
asegurar que el humano a los mandos de la decisión final tenga todas las
herramientas para poder velar por nuestros derechos y libertades en lugar de
por los designios de una inteligencia artificial diseñada con fines comerciales?
“Estos profesionales han de contar con las
competencias necesarias para comprender y contrastar la fiabilidad y
funcionamiento del algoritmo y cómo toman las decisiones,
y tener un conocimiento profundo de los datos de entrenamiento utilizados, incluyendo
la posibilidad de sesgos y prejuicios”, “necesitamos inteligencia humana que
contrapese al algoritmo”.
Esta situación “no es nada nueva, los inventos siempre
han revolucionado nuestra sociedad y siempre hemos encontrado la forma de
sacarle provecho a estos cambios”. Para ello, considera que “disciplinas como la filosofía y la ética tienen un papel
fundamental en la formación de ciudadanos conscientes y responsables”.
Y añade: “Nos ayudan a reflexionar sobre cuestiones como la justicia, la
igualdad, la privacidad, la libertad de expresión, la responsabilidad social y
otros valores fundamentales que deben guiar nuestras acciones en el mundo
digital”.
3.- LEYES Y MORATORIAS
Este tipo de debates no solo deben guiarnos como
individuos, también son la base para desarrollar una legislación adecuada que
equilibre la innovación y el avance tecnológico con la protección de nuestros
derechos, nuestra seguridad y nuestro futuro. El marco regulatorio
se vuelve imprescindible si tenemos en cuenta que ya hay
programas que permiten monitorizar las páginas que consultan los empleados,
hacer grabaciones de sus pantallas y hasta un registro de teclas.
“Para los riders, el algoritmo es un
oráculo: no saben cuál es, cómo se ha entrenado y ni por qué toman sus
decisiones. No saben si rechazar un encargo es positivo o
negativo, si es mejor aceptar dos seguidos o cogerlos a determinadas horas, lo
que les quita autonomía y libertad”,¿Deberíamos prohibirlos todos?: “El
problema es que hay algoritmos y algoritmos. Si uno va a calcular mi impuesto
sobre la renta, con datos contrastados y normas conocidas, adelante; si
pretende deducir por mis rasgos que soy un futuro delincuente, mejor no”.
Con esta coyuntura en mente, la propuesta de la
Comisión Europea (CE) para la futura directiva sobre inteligencia artificial divide las aplicaciones y sus requisitos en función de
su riesgo sobre las personas. En la categoría de “riesgo
inadmisible”, que directamente prohíbe su uso, el borrador incluye la
“puntuación social por parte de los Gobiernos [como el que ya se usa en China],
la explotación de los puntos débiles de los niños, el uso de técnicas
subliminales y, salvo contadas excepciones, determinados sistemas de
identificación biométrica remota en directo en espacios públicos con fines
policiales”.
Este último punto podría dar a entender
que Europa está cerca de impedir los usos más delicados de los algoritmos de
reconocimiento facial. Sin embargo, esas “contadas
excepciones” son en realidad la mayoría, puesto que la
prohibición solo sería válida para usos en directo, abriendo la veda a
cualquier aplicación que no actúe en tiempo real. Afortunadamente, la toma de
decisiones algorítmica relacionada con las imágenes, como es el caso la
vigilancia predictiva, resulta tan delicada que se ha convertido en uno de los
principales focos del activismo contra el avance indiscriminado de la IA.
Ante flagrantes casos como el de Williams, en mayo de
2021, 40 grupos activistas enviaron una carta abierta para exigir una
prohibición permanente del uso del software de reconocimiento facial de Amazon,
Rekognition, por parte de la policía estadounidense. Al final, el gigante
claudicó e impuso una moratoria a su producto, tal y como habían hecho IBM y
Microsoft un año antes con sus respectivos sistemas. La jugada les salió bastante bien, ya que su moratoria
autoimpuesta favoreció su buena imagen de cara a la galería sin
acarrear grandes pérdidas, ya que estos sistemas no destacan entre sus
principales fuentes de beneficios.
Mientras tanto, otra reciente propuesta de moratoria, y que también tiene
más tintes de márketing que prácticos, podría estar a punto de
dividir a toda la industria en dos. Bajo la premisa de que “los sistemas de
inteligencia artificial pueden suponer un profundo riesgo para la sociedad y la
humanidad” y de que “no se están desarrollando con el nivel de planificación y
cuidado adecuado” (cosa que es cierta), cerca de 1.000 profesionales del
ramo firmaron una carta a finales de marzo de 2023 para pedir una pausa de seis meses en
todas las investigaciones relacionadas con la IA. A priori suena bonito,
pero centrarse en los inciertos riesgos apocalípticos podría distraernos de los
retos reales a los que ya nos estamos enfrentando.
Los
peligros actuales están en los sistemas que ya existen, en sus sesgos, en su
falta de transparencia, en nuestra escasa capacidad para entenderlos y
cuestionarlos, y en el ritmo increíblemente lento al
que avanzan los debates regulatorios y éticos serios. Son todas estas
situaciones las que deberían hacer que empecemos a preocuparnos por un futuro
inminente que hasta hace poco solo era posible en la novela de Orwell o en
países donde la libertad y la transparencia brillan por su ausencia. O nos
ponemos las pilas como sociedad, o puede que algún día, no dentro de mucho, una
IA nos diga que bebamos arsénico y no haya nadie capaz de cuestionárselo.
Pregunta a CHAT GPT4 en BING
Comentarios
Publicar un comentario