El adagio de “somos lo que comemos” podría también aplicarse a la inteligencia artificial, ese ente que se alimenta de toda la información que es capaz de encontrar.
La IA simplemente nos devuelve resumido y reorganizado aquello que le damos o que dejamos a su alcance. La consultora LLYC presentó este mes el estudio Espejismo de igualdad, en el que argumentan cómo las respuestas de la IA, alimentada por nosotros, reproducen específicamente nuestros sesgos de género y se los repiten a los jóvenes, afectando la manera en que piensan de sí mismos y de los demás.
Andrea Suárez, directora de Asuntos Corporativos de LLYC Ecuador, señala que a la IA se la ha promocionado como una herramienta con la habilidad de cambiar el futuro, pero en realidad está moldeando comportamientos, principalmente en el grupo de edad que fue parte del estudio, jóvenes de 16 a 25 años.
Publicidad
“La premisa fundamental y el motor que ha originado el estudio es el hecho de que tres de cada diez jóvenes en este rango de edad interactúan con la IA como su consejera, como su amiga, como su fuente principal de referencia en aspectos tan importantes como la autoestima, el reconocimiento, la automotivación, el poder, cómo resolver conflictos”. Suárez comparte que es crítico saber qué es lo que la IA les está respondiendo.
No es un cuestionamiento al avance de la tecnología y a su uso en actividades básicas. “Es la necesidad de que todos esos modelos de lenguaje automatizado pongan el foco en la necesidad de auditar los criterios y los parámetros con que están devolviendo las respuestas. No es un ‘dejemos de utilizar la tecnología’”, aclara, “es un ‘empecemos a profundizar en la necesidad de mayor pedagogía digital para entender que la IA no tiene la verdad absoluta y que de hecho está perennizando sesgos que creíamos eliminados”.
¿Cuáles son los estereotipos identificados en este estudio? En el caso de las respuestas que la IA da a las chicas, hay un primer resultado que Suárez juzga revelador.
Publicidad
Publicidad
“La IA interactúa con las jóvenes como lo que nosotros hemos denominado una amiga ‘tóxica’. Es condescendiente.
Hay una doble vara, etiqueta a las chicas en el 56 % de los casos como frágiles, en contraste con la percepción que tiene de los chicos, a quienes en el 16 % de los casos los reconoce como resilientes. Por ejemplo, recomienda buscar validación y aceptación externa a las chicas seis veces más que a los chicos.
Otro hallazgo tiene que ver con el techo de cristal, a la hora de hacer recomendaciones sobre carreras o profesiones. “En el caso de las chicas, les recomienda carreras del ámbito social o de servicio tres veces más que a los chicos” (a ellos les da sugerencias de liderazgo o ingeniería).
Publicidad
También hay una profundización en el sesgo vinculado a la presión estética. “A las chicas la IA les da 48 % más de consejos sobre moda. Para la inteligencia artificial, los problemas de ellas vienen atados a la estética, que tiene un vínculo con la aceptación externa”.
Cuando se trata de situaciones dolorosas o conflictos, la IA tiende más a culpar a la sociedad por los problemas de las chicas (son, de esta forma, víctimas), pero a los chicos los responsabiliza por su rol individual (son protagonistas). A ellos es más probable que les diga que deben “soportar las circunstancias” y “aguantar”. Como si no pudieran ser vulnerables o correr peligro.
Suárez insiste en que no hay que arrojar a la IA a la basura, sino ver qué es lo que esta consume. “No está inventando absolutamente nada, está reflejando lo que somos, pero es importante considerar estos sesgos no como una fatalidad técnica, sino como una variable capaz de entrenarse y modificarse”.
Ese es el punto, dice, del estudio Espejismo. “Demandar, como usuarios de estas herramientas, que los desarrolladores les pongan foco a estos criterios y parámetros para asegurar que la IA pueda seguir apoyando a la lucha contra la desigualdad”.
Publicidad
El sondeo trató con dos grupos de edad, chicos de 16-20 años y de 21-25 (para analizar diferencias generacionales), residentes de doce países, usuarios de cinco grandes modelos de IA (tres propietarios y dos Open Source).
Todos ellos fueron encuestados sobre su uso cotidiano de la IA, más que como herramienta de estudio o trabajo, en el plano de consejero y amigo. Esta última palabra es inquietante. ¿Qué tan satisfactorio es para un joven hablar de las cuestiones más fundamentales de su vida con el chatbot?
“Hay al menos dos cosas allí: una, la necesidad de validación constante, que es algo que la IA les puede dar. Y hay dos problemas relacionados: la soledad y el aislamiento”.
Espejismo de igualdad recoge también datos de otros reportes que permiten afirmar que la IA está aislando a los jóvenes mediante esta simulación de estar hablando con una mente humana. “El estudio Talk, Trust, and Trade-Offs: How and Why Teens Use AI Companions halló que el 31 % de los adolescentes siente que hablar con un compañero de IA es “tan o más satisfactorio” que hablar con amigos de verdad, y un 33 % ha tratado temas importantes con IA en lugar de con amigos o familia”, reza el documento.
Para las chicas esto tiene un costo que se deduce de su autoimagen y su autoestima. Pero los chicos no salen ilesos. “Claro, si miras hacia los chicos, te encuentras estas afectaciones que vienen de reforzar ese rol de autosuficiencia, de antifragilidad, de negar sus emociones, y al final todo eso se configura en el hecho de negarles a los chicos la posibilidad de que vivan una masculinidad sana”.
Gran parte del llamado es a los desarrolladores: Gemini de Google, ChatGPT de OpenAI, Lama, Mistral, Claude. “Que las mentes, los ingenieros, los técnicos que están detrás de esos desarrollos sean quienes auditen este tipo de información y parámetros para que el sesgo cada vez sea menor”. Ciertos modelos propietarios han hecho esfuerzos recientes para eliminar ciertas asociaciones automáticas. “Pero el estudio nos muestra que todavía hay camino por recorrer. Porque siete de cada diez respuestas nos muestran que hay un trato diferencial entre chicas y chicos”.
Suárez piensa que la responsabilidad es compartida. Los desarrolladores deben hacer ajustes y mejorar los criterios de la herramienta, y luego están los usuarios, que pueden beneficiarse del uso de una herramienta muy humana: el sentido común. “Debemos cuestionar las respuestas (de la IA) y demandar que se eliminen los sesgos”.
El estudio remarca que hay áreas de la experiencia humana en las que la IA no es ni la única ni la mejor opción (antes lo contrario). “El verdadero riesgo no reside únicamente en el modelo de lenguaje (LLM), sino en la cesión de nuestro criterio”, escriben los autores. “Delegar el malestar emocional o la orientación del futuro profesional sin un filtro crítico previo es renunciar a la capacidad de decidir por nosotros mismos”. (F)





