A principios de este año, Microsoft anunció el despido de más de 10.000 empleados. Entre ellos, se encontraba el equipo de ética y sociedad de su división de inteligencia artificial (IA) formado por siete filósofos.
En el año 2020, este equipo llegó a contar con 30 personas, entre ingenieros, diseñadores y filósofos. El objetivo era “crear reglas en áreas en las que no existía ninguna” para que Microsoft pudiera desarrollar productos de IA de manera segura y responsable, como es el caso de ChatGTP (Generative Pertaining Transformer), la última revolución en este campo.
En los últimos tiempos, Microsoft se ha posicionado como empresa líder en inteligencia artificial gracias a su alianza con OpenAI y a la gran apuesta por integrar ChatGTP en su buscador Bing.
Es llamativo que precisamente ahora que la IA tiene más peso que nunca en la sociedad se despida al departamento de ética en pleno, que tenía la misión de cumplir con los estándares de ética y responsabilidad social de la empresa en el desarrollo de nuevos productos de IA.
No en vano, la irrupción de la inteligencia artificial en la sociedad puede tener consecuencias insospechadas no solo a nivel laboral o económico, sino antropológico.
La concepción del mundo va a cambiar radicalmente con la integración de estos nuevos productos artificiales en la gestión de departamentos tan humanos como la sanidad, la educación o incluso la psicología.
A modo de ejemplo, tal como apuntan varios bioeticistas, ChatGPT podría desempeñar un papel fundamental en la atención sanitaria y la investigación en salud, ya que es un chatbot entrenado para imitar el texto humano. De hecho, podría asumir tareas rutinarias de corte burocrático. Pero su incorporación al mundo sanitario no está exenta de polémica por los problemas derivados de:
- La confidencialidad.
- El consentimiento.
- La calidad de la atención sanitaria.
En esa misma línea, también existen productos de IA para el cuidado de personas vulnerables en residencias o en domicilios particulares que ya han conllevado problemas de “apego” tal como reconoce el ayuntamiento de Barcelona en el caso del robot “Misti” ahora denominado “Ari”.
Este robot acompaña en la soledad a ancianos de Barcelona, permite hacer videollamadas, simular conversaciones o recordar tareas domésticas.
El problema es que “Misti” tenía cabeza, cuello y ojos parecidos a los de un niño, es decir, tenía forma humanoide y podía incluso confundirse con una persona Ese problema de percepción “antropológica” ha obligado a resideñar el robot para hacerlo menos humano y no generar problemas emocionales.
Por otra parte, incluso cuestiones tan delicadas como el “duelo” por la muerte de un ser querido parecen tener una ramificación psicológica con el desarrollo de chatbots destinados a simular conversaciones con las personas fallecidas. Por analogía con el caso anterior, este tipo de herramientas pueden crear problemas emocionales graves.
Estos duelos asistidos por chatbots podrían cronificarse y derivar en problemas de salud mental, porque el “doliente” se aferraría a sus recuerdos y preferiría simular infinitas conversaciones con su ser querido para mantenerlo vivo a seguir adelante con su vida.
La realidad es que no hay un modo “artificial” de saltarse las etapas del duelo, ni de curarse emocionalmente de la dolorosa herida de la muerte, ni de sobrevivir al dolor sin sentirlo. Es un proceso natural que es necesario transitar con paciencia y ayuda humana.
En este contexto, la programación ética de las máquinas es más que nunca no solo deseable, sino necesaria. El giro antropológico que implica el uso de IA en la sociedad debe ser analizado en profundidad por:
- Filósofos.
- Bioeticistas.
- Ingenieros.
- Juristas.
- Sanitarios.
- Y un largo etcétera.
Como diría Adela Cortina, todos son interlocutores válidos en los temas que afectan directamente, y la inteligencia artificial es uno de ellos. Teniendo en cuenta todas las dimensiones humanas con las que puede interactuar la inteligencia artificial, Microsoft está cometiendo un grave error al prescindir de su equipo de ética. La presión y demandas del mercado han sido los puntos clave de esta decisión no solo polémica, sino errónea.
Así lo demuestra la existencia de grupos de investigación como el Proyecto EthAI de la Universidad de Granada, en el que la reflexión filosófica está centrada en dos vertientes:
1) La ética digital.
2) La mejora moral mediante el uso interactivo de la inteligencia artificial.
El grupo está formado por investigadores del renombre de Julian Savulescu o Francisco Lara y su objetivo es comprender la interacción entre el ser humano y los sistemas informáticos. Así pues:
“Se distancia de otras propuestas existentes de mejora moral con inteligencia artificial que se apoyan en un método de toma de decisiones morales donde el sistema es el protagonista”.
La inspiración del grupo tiene raíz socrática y por ello, han creado un asistente virtual denominado “Socrai” para mejorar las capacidades cognitivas y deliberativas propias de la moralidad y su implementación en ámbitos educativos o comités éticos.
No obstante, la realidad se sigue imponiendo y la eliminación del grupo de ética de Microsoft demuestra que los “valores éticos” son un en la consecución de nuevos productos de inteligencia artificial muy lucrativos, como ChatGPT, cuyos riesgos éticos pueden abarcar violaciones de privacidad, dado que este chabot necesita gran cantidad de datos para entrenarse, de manera que es posible que los derechos de autor, ideas innovadoras, datos sanitarios y otros muchos Big Data se divulguen de manera inesperada y sorpresiva sin que se pueda controlar. Además, cabe tener en cuenta los sesgos que ya se han detectado en programas de inteligencia artificial y que pueden perjudicar a amplias capas de la población de las que no se tienen datos.
En este punto, recordando a Immanuel Kant, cabe reformularse las tres grandes preguntas de corte metafísico, moral y religioso:
1) ¿Qué se puede conocer?
2) ¿Qué se debe hacer?
3) ¿Qué se puede esperar?
Con la inteligencia artificial, es obvio que todavía se desconocen su potencial y sus riesgos, los cuales deben analizarse desde una perspectiva ética, para poder saber qué se debe hacer con ella y proporcionar una respuesta ética. Lo que se puede esperar es muy incierto, dado que la religión y la espiritualidad no pueden ser sustituidas por robots, o al menos, ¿eso es lo que el ser humano puede esperar? La respuesta la deberían dar los ingenieros informáticos.
Como afirma Byung-Chul Han, la sociedad actual pretende eliminar toda negatividad para deificar una comunicación basada en el intercambio de complacencias, carente de lo más propiamente humano: los sentimientos y las emociones. La expulsión de la negatividad y la incorporación de la IA como una ciudadana más de la sociedad componen una fórmula que puede tener consecuencias irremediables para el conjunto de la humanidad si no se utilizan las herramientas éticas adecuadas.
Sonia Jimeno
- Doctora en Bioética y Éticas aplicadas.
- Licenciada en Traducción e Interpretación, Universitat Pompeu Fabra (UPF) (1999); licenciada en Filosofía, Universitat de Barcelona (UB) (2006); Máster Oficial en “Ciudadanía y Derechos Humanos: Ética y Política”, Universitat de Barcelona (UB); Tesina en La lucha por las patentes: aspectos legales, materiales y políticos de la propiedad industrial en la industria farmacéutica. Beca de investigación concedida por la Fundació Víctor Grífols i Lucas sobre bioética por el proyecto de investigación titulado «Las patentes biotecnológicas: en los límites de la legalidad» en nombre de la Universidad de Barcelona. Doctora en Bioética y Éticas aplicadas (Programa de doctorado Ciudadanía y Derechos Humanos). Título de la tesis doctoral: Poder de las patentes y bioprecariedad: cuestiones de legalidad y de legitimidad (https://www.tdx.cat/handle/10803/662732).
- E-mail: sjr@curellsunol.es
-
Sonia Jimeno#molongui-disabled-link
-
Sonia Jimeno#molongui-disabled-link
-
Sonia Jimeno#molongui-disabled-link
-
Sonia Jimeno#molongui-disabled-link
Comments 1