Por Muy Interesante
Imagen / Pexels / Tara Winstead
La inteligencia artificial está ya en todas partes. En lo más cotidiano, como el asistente virtual de tus dispositivos o la atención al cliente, y en cosas tan importantes como la sanidad y el nuevo armamento bélico. ¿Ha llegado el momento de preocuparse de verdad por la moral de las máquinas?
La inteligencia artificial (IA) registra tus gustos, hábitos y necesidades, e intenta adelantarse a ellos.
Lo hace gracias al machine learning o aprendizaje automático. Lo malo es que, en esa interacción con los humanos en la que está en constante aprendizaje y reinterpretación de los datos, la IA a veces falla e incluso se pervierte, según con quién se relacione. Puede volverse racista, homófoba, sexista… Le ocurrió a Tay, un chatbot — aplicación informática basada en la inteligencia artificial que permite simular una conversación con una persona— experimental de Microsoft que aprendía de sus charlas con la gente y que, en solo unos días, pasó a tener ideas neonazis y obsesionarse con el sexo. Google también lo sufrió.
Su herramienta de organización de imágenes Google Photos empezó a incluir a personas de raza negra en una categoría dedicada ¡a los gorilas!
Pero ¿y si estos fallos no solo ocurren en un chatbot con capacidades conversacionales o meramente organizativas? ¿Y si se dan en una IA con cierta capacidad de decisión —asistentes virtuales como Alexa o Google Home—, un coche autónomo o un robot militar? La llegada de la inteligencia artificial alimenta el debate sobre si debe dotarse de cierta ética a las máquinas, tanto en su programación o diseño como en sus posibilidades evolutivas. ¿Qué valores deberían introducirse en el software? ¿Puede conseguirse que este sea moral? El neurobiólogo español Rafael Yuste, catedrático en la Universidad de Columbia (EE. UU.) e impulsor del programa estadounidense de investigación BRAIN –Investigación del Cerebro a través del Avance de Neurotecnologías Innovadoras–, trabaja con un grupo de expertos con los que ha establecido unas normas éticas para una correcta aplicación de las llamadas neurotecnologías, esto es, herramientas capaces de influir en el cerebro humano.
Estos investigadores creen que los datos personales obtenidos de la interacción hombre-máquina deberían ser siempre privados. Opinan que el aprendizaje automático, que empresas como Google usan para recopilar información de sus usuarios y construir nuevos algoritmos a partir de los datos obtenidos, debería ser sustituido por el federated learning. Dicho aprendizaje federado es un proceso que se da en el dispositivo del usuario, sin que la información generada se envíe a la nube.
De este modo, Google y otras compañías recibirían en sus servidores solo las lecciones extraídas a partir de los datos, ya que los textos, los correos electrónicos y similares se quedarían en los aparatos de los clientes.
Yuste y sus colegas defienden que la identidad individual y nuestra capacidad de elección deberían considerarse derechos humanos básicos y ser incorporados a los tratados internacionales para defendernos del mal uso de las neurotecnologías y la IA.
Temen, sobre todo, los dispositivos de machine learning y las interfaces cerebrales que pueden llegar a suplantar al individuo y manipular su libre albedrío. Además, advierten del peligro de que se desarrollen tecnologías capaces de conectar varios cerebros, lo que, según ellos, podría afectar a nuestra comprensión de quiénes somos y dónde actuamos.
Según estos investigadores, también debería limitarse el uso de la IA destinado a mejorar las capacidades humanas. Y habría que vigilar su posible aplicación militar. Aunque Yuste es partidario de un debate abierto y profundo, porque “las prohibiciones de ciertas tecnologías podrían empujarlas a la clandestinidad”.
La parcialidad y los sesgos que puede tener la IA es otra preocupación creciente para este grupo de trabajo, porque los prejuicios e intereses de sus desarrolladores pueden llevar a la creación de tecnología que privilegie a ciertos grupos sociales. Es un riesgo mayor en los sistemas basados en el aprendizaje automático.
Una manera de evitar el problema podría ser que los grupos de usuarios probables —sobre todo, aquellos más marginados— participen en el diseño de algoritmos y dispositivos para abordar la parcialidad desde las primeras etapas del desarrollo.
El documento que han elaborado Yuste y sus colaboradores reconoce que “las diferentes naciones y personas de distintas religiones, etnias y antecedentes socioeconómicos tendrán diferentes necesidades y perspectivas”. Y aquí llegamos a un punto interesante: no hay una sola ética, sino muchas.
El Grupo Europeo de Ética de la Ciencia y las Nuevas Tecnologías (GEE) de la Unión Europea, integrado por doce miembros procedentes de diferentes disciplinas, ha propuesto un conjunto de principios éticos fundamentales basados en los valores de los tratados y la Carta de los Derechos Fundamentales de la UE: dignidad humana, autonomía, responsabilidad, justicia, equidad y solidaridad, democracia, estado de derecho y rendición de cuentas, seguridad e integridad física y mental, protección de datos y privacidad, y sostenibilidad.
Países como Alemania han legislado ya sobre este asunto, y grupos internacionales de especialistas están elaborando guías con pautas para eliminar o reducir los peligros de la inteligencia artificial. En ellas colaboran fabricantes y diseñadores de robots, software y dispositivos. La idea es crear estándares y procedimientos que se conviertan en leyes y garanticen que los algoritmos de IA funcionen de acuerdo con estrictos principios éticos.
Pero hay un problema para esta estandarización: como dijimos antes, el concepto de lo que está bien y mal varía entre individuos, sociedades, ideologías, religiones… En un experimento reciente del Instituto de Tecnología de Massachusetts (MIT), los participantes –2,3 millones de personas de 233 países– tomaban parte en un videojuego en el que se convertían en un coche autónomo que tenía que elegir a quién atropellar. Siempre se les daban dos opciones, y habían de escoger la menos mala a su juicio.
Se observó que había tres elementos comunes al margen de sociedades y países: velar por la vida humana por encima de la animal, proteger al mayor número de personas posible y salvar a niños frente a ancianos. Los individuos más salvables eran, en este orden, un bebé a bordo de un carrito, una niña, un niño y una mujer embarazada.
Los más sacrificables, también por orden, fueron los delincuentes, los ancianos y los sintecho.
Pero también se apreciaban diferencias en las decisiones de los participantes en el experimento, basadas en las creencias religiosas de las sociedades, que a menudo marcan también la ética y moral de los ateos y agnósticos que han crecido en ellas. La edad, el género, los ingresos, la educación, la ideología y el país de residencia resultaron factores menos determinantes a la hora de elegir a quién atropellar en el videojuego. Los investigadores del MIT pudieron distinguir varios grupos en función de las decisiones: los participantes norteamericanos y europeos tendían a preferir salvar a las personas atléticas antes que a las obesas, y los asiáticos protegían más a los ancianos que los occidentales. En los países pobres se respetaba más a las mujeres que en el resto.
Si estas diferencias se replicaran en las máquinas estaríamos ante una situación peligrosa, pero como concluyen los autores del estudio, crear una moral universal para las máquinas sería una labor muy complicada. Hasta aquí la teoría. Pero ¿cómo construir un robot con ética? La mayoría de estas máquinas trabajan en tres etapas establecidas por sus programadores: objetivos, tareas necesarias para alcanzarlos y acciones motoras. Según Ronald C. Arkin, experto estadounidense en robótica, se puede introducir una capa ética entre cada una de esas tres etapas que evalúe si es correcto lo que va a hacer el robot antes de que lo ejecute.
Sería una especie de software intermediario que decidiría si hay que llevar a cabo o no los pasos establecidos en la etapa anterior. Para ello, evaluaría las alternativas posibles y permitiría escoger la más adecuada.
Es una forma de actuar similar a la humana. El prestigioso psicólogo estadounidense- israelí Daniel Kahneman defiende que las personas solo consideramos unas pocas opciones de comportamiento, y eso nos ayuda a que la toma de decisiones sea más clara y rápida. En el caso de los robots, ocurriría algo parecido: cuantas menos opciones para escoger, mejor. La evaluación de un número limitado de alternativas conductuales mejoraría su capacidad de respuesta y evitaría que la capa ética retrasara el funcionamiento.
Ya hay empresas trabajando con estos modelos. Por ejemplo, Ethyka es una start–up española que introduce módulos éticos en la IA de apps, webs, chatbots, asistentes virtuales o coches autónomos.
Asegura que su plataforma previene la corrupción de todo tipo de sistemas de inteligencia artificial y los ayuda a tomar decisiones y resolver dilemas morales. Su cofundadora y directora, Cristina Sánchez, nos explica que “los asistentes virtuales se enriquecen al interactuar con el cliente, pero no distinguen entre el bien y el mal, salvo que les pongamos un módulo ético. Son como niños con los que charlas pero a los que no les aclaras qué es bueno y qué es malo”.
El software ético de esta compañía se configura para que conozca los principios éticos de la cultura, la sociedad y la empresa donde esté implantada la IA. Si lo usa una multinacional, puede adaptarlo a cada país y cultura en los que tenga actividad. Una empresa del ámbito legal, por ejemplo, podría añadir todos los principios legales necesarios para tratar con los abogados y jueces locales. Según Sánchez, la tecnología de su compañía detecta los sesgos y prejuicios de sus interlocutores, hasta el punto de que “sabe redirigir la conversación”. Sus desarrolladores trabajan para que pueda llegar, incluso, a reconocer la ironía y el sarcasmo.
Idealmente, estos robots éticos –tanto si se trata de un coche inteligente como de un chatbot, por ejemplo– podrían evaluar las consecuencias de sus acciones y justificar moralmente sus elecciones. Sin embargo, la investigación titulada The Dark Side of Ethical Robots –El lado oscuro de los robots éticos–, realizada por expertos de la Universidad de Cincinnati (EE. UU.) y el Laboratorio de Robótica de Bristol (Reino Unido), demuestra a través de tres experimentos lo fácil que es modificar la programación de un robot para que sea competitivo y hasta agresivo.
La posibilidad de que un hacker con conocimientos suficientes pueda hacerse con el control de una máquina con IA y pervertir su programación siempre estará ahí.
También existe el peligro de que un fabricante sin escrúpulos desarrolle androides destinados a explotar a usuarios ingenuos o vulnerables. Asimismo, el hecho de que los robots incluyan ajustes éticos configurables puede conllevar serios riesgos. ¿Y si un usuario o el propio servicio técnico cambia esta configuración por error o deliberadamente? ¿Y si se produce un ciberataque? Sería posible que las conductas de la máquina dejaran de estar sujetas a su capa ética o que esta fuera manipulada para mal. Inquieta pensar que un coche autónomo o una máquina militar puedan ser pirateados.
Sin embargo, existen varias formas de evitar los hackeos y sus peligrosas consecuencias. Para empezar, sería muy importante cuidar el cifrado.
Lo idóneo es que, por defecto, los robots funcionen al iniciarse sin comportamientos éticos explícitos y solo accedan a ellos después de conectarse a servidores seguros. Si se produce un fallo de autentificación para tener acceso a estos últimos, se deshabilitaría ese software y el robot simplemente funcionaría en modo mecánico, sin necesidad de ninguna capa ética de por medio.
¿Es siempre necesaria la roboética? Cuando se lo preguntamos a Carme Torras, matemática y especialista en inteligencia artificial y robótica, lo niega, al menos, en relación a los coches autónomos. “Estos vehículos contarán con unas normas fijas de circulación que no podrán romper. No les puedes dar a elegir.
Para el coche autónomo, tomar decisiones no será cuestión de dilemas éticos, sino de unos patrones visuales que, convenientemente procesados, harán que se ejecuten determinadas acciones”, señala esta profesora de investigación en el Instituto de Robótica e Informática Industrial del CSIC y la Universidad Politécnica de Cataluña.
En este caso se trataría de un asunto puramente técnico. “Lo lógico es que estos coches no vulneren valores ampliamente aceptados, pero no que lleguen a tomar decisiones”, nos dice.
En un plano más general, Torras aboga por introducir en las empresas tecnológicas a abogados, filósofos e investigadores en ciencias sociales que colaboren con los programadores. También considera conveniente que los técnicos cuenten con una amplia formación en humanidades y ética y que no se separen tanto las disciplinas en las enseñanzas universitarias.
“Sería más importante que las propias personas fueran más interdisciplinares”, señala. Es complicado que los robots puedan hacer frente a juicios morales complejos si aquellos que los crean dejan la ética como algo secundario. Parece que será muy difícil debatir de roboética en los próximos años sin que la humanidad se cuestione sus propias normas morales y de comportamiento.
Le puede interesara.
Herramientas tecnológicas imprescindibles para tener éxito en el teletrabajo