Por Muy Interesante
Imagen / Pexels / cottonbro studio
Hay millones de personas en el mundo que recurren a los chatbots en busca de apoyo emocional. ¿Son capaces de ello?
La empatía es una emoción compleja y multifacética donde cuentan componentes tanto cognitivos como emocionales. Es necesaria la capacidad de comprender la perspectiva o el estado mental de otra persona o incluso sentir lo que siente otra persona (que se conoce como empatía emocional). Es una característica inherentemente humana dentro de unos procesos cerebrales que nos permiten “reflejar” emociones de los demás. Ahora bien, ¿será capaz una inteligencia artificial de fingir esta capacidad tan humana?
Conectando genuinamente
Sabemos que los asistentes virtuales como Siri y Alexa, así como los chatbots de servicio al cliente, incluido el popular ChatGPT como modelo de lenguaje grande, están diseñados para reconocer palabras clave y señales emocionales y ofrecernos una respuesta adecuada ante nuestra pregunta o solicitud. Pero, ¿alcanzan a poder emular la empatía que puede sentir una persona?
Un equipo de científicos informáticos de la Universidad de Cornell, Olin College y la Universidad de Stanford llevó a cabo una investigación sobre agentes conversacionales como Siri para ver de qué manera mostraban empatía. Recordemos que la mayoría de los agentes conversacionales funciona con grandes modelos de lenguaje, lo que significa que poseen o barajan mucha información.
Estudio
Los expertos descubrieron que, tener tantos datos disponibles lleva acarreado que los mismos sesgos que los humanos de donde extraen la información, puede inclinarles a tener prejuicios y juicios sobre ciertas identidades humanas como los homosexuales y los musulmanes; los chatbots de inteligencia artificial (IA) y los grandes modelos de lenguaje (LLM) pueden permitir, sin darse cuenta, que el sexismo y el racismo estén presente en sus interlocutores.
Así las cosas, al probar a incitar a las IA's a mostrar empatía mientras conversaban con hasta 65 identidades humanas distintas, el equipo descubrió que emitían juicios de valor sobre ciertas identidades, como la gay y la musulmana, y pueden alentar identidades relacionadas con ideologías dañinas, incluido el peligroso nazismo.
"Creo que la empatía automatizada podría tener un impacto tremendo y un enorme potencial para lograr cosas positivas, por ejemplo, en la educación o en el sector de la atención médica", explicó Andrea Cuadra, ahora investigadora postdoctoral en Stanford. "Es extremadamente improbable que (la empatía automatizada) no suceda, por lo que es importante que, mientras tenga lugar, tengamos perspectivas críticas para que podamos ser más intencionales a la hora de mitigar los daños potenciales".
Es una ilusión de empatía
De la misma forma, una máquina no siente emociones -al menos, por el momento-; procesa datos y ejecuta respuestas preprogramadas. Esta limitación es crucial en contextos que requieren una profunda comprensión emocional y conexión humana, como la terapia o los cuidados al final de la vida. Es decir, las inteligencias artificiales de modelos de lenguaje grande como ChatGPT o Llama, pueden responder a consultas en función de su formación, pero son incapaces de profundizar más allá, según los expertos. En suma, los LLM recibieron altas calificaciones en reacciones emocionales, pero obtuvieron calificaciones bajas en interpretaciones y profundizaciones sobre los temas.
Fracasos históricos
Ha habido ejemplos muy llamativos en este caso, como el caso de Tay y Zo, ambos de Microsoft. Tay se creó utilizando algoritmos avanzados de procesamiento del lenguaje natural (NLP) y aprendizaje automático (ML), lo que le permitía imitar patrones de conversación humanos.
Fue presentado en 2016 y la idea era que interactuara grácilmente con los usuarios de Twitter. Lo que sucedió fue inesperado y catastrófico: a las pocas horas de publicarse, Tay comenzó a publicar tuits racistas, sexistas y ofensivos gracias a que algunos usuarios explotaron con malos ardides los algoritmos de aprendizaje de Tay y bombardearan el chatbot con contenido incendiario. El resultado fue que Tay acabó desactivado apenas 16 horas después de su lanzamiento.
A Tay le sucedió Zo, también de Microsoft. Para que no ocurriera lo de su anterior chatbot, la compañía implementó medidas de seguridad mejoradas, siendo programado para evitar temas controvertidos y sensibles en aras de una interacción segura y positiva para todos. Sin embargo, tantas restricciones llevaron a un mal funcionamiento del bot al ofrecer respuestas demasiado condicionadas e incluso ignorando las aportaciones de usuarios que trataban temas un poco delicados. El resultado es que el bot parecía completamente frío e incluso frívolo hacia las minorías o comunidades marginadas.
Ambos ejemplos del pasado ilustran las complejidades y desafíos del desarrollo de chatbots de IA empáticos y el estudio más reciente un golpe de realidad de que imitar a un humano no es tan sencillo ni exento de complicaciones.
Le puede interesar:
7 trabajos que la inteligencia artificial (ia) no puede hacer