El pasado mes de enero, la Universidad de Barcelona organizó un curso titulado:
“IA y neurociencia: la revolución de las tecnologías inteligentes” con expertos de diversos ámbitos que aportaron su visión sobre el impacto y evolución de la inteligencia artificial (IA).
Este curso se enmarca en el contexto de la exposición sobre inteligencia artificial llevada a cabo en el Centro de Cultura Contemporánea de Barcelona (CCCB).
El lanzamiento de ChatGPT (Generative Pertaining Transformer) en el año 2022, una aplicación de chatbot de inteligencia artificial desarrollada por la empresa estadounidense OpenAI, supuso un hito en lo que se ha denominado técnicamente IA generativa.
Estas nuevas aplicaciones son capaces de crear ideas y contenidos nuevos en forma de conversaciones, historias, imágenes, vídeos y música, siempre a partir de los datos con los que se las ha entrenado (sujetos a derechos de autor que son obviados y vulnerados sistemáticamente).
Las consecuencias de estas creaciones artificiales resuenan no solo en el campo de la informática y la ingeniería, sino en otros sectores supuestamente más “humanos” como el arte, la traducción, la música e incluso la medicina.
En la exposición del CCCB, se pretenden abordar todos estos avances tecnológicos, que no están exentos de problemas, como los denominados sesgos.
A modo de ejemplo, se mostraban todos los errores cometidos en la aplicaciones de reconocimiento facial que no incluían datos sobre todas las etnias y colectivos existentes.
De esta manera, gran parte de la población quedaría fuera de las bases de datos de la IA, generando más problemas de desigualdad social, infrarrepresentación e incluso racismo.
No en vano, en el año 2015, Google tuvo que disculparse porque su algoritmo etiquetó erróneamente la foto de dos personas negras como gorilas.
Otro sesgo racial se produjo al evaluar la posibilidad de reincidencia criminal sobre la base de datos que apuntaban a la población afroamericana.
Estos casos han hecho necesaria la presencia de un nuevo tipo de trabajadores “humanos” que se dedican a etiquetar datos para que la máquina no genere este tipo de errores durante su entrenamiento.
No obstante, estos nuevos empleos también son éticamente cuestionables dadas sus condiciones de precariedad laboral, que implican bajos salarios (menos de 2 dólares/día), largas jornadas y estrés psicológico. Las grandes empresas tecnológicas subcontratan a estos trabajadores principalmente en los países en vías de desarrollo para reducir costes.
Otro gran problema asociado a la IA sería la gestión de los datos, los denominados Big Data, que son el elemento esencial para que las máquinas sigan evolucionando y mejorando. El caso del sector sanitario resulta especialmente delicado por las implicaciones futuras en la salud.
Por ejemplo, ChatGPT tiene muchos usos, ya que es un modelo de lenguaje entrenado con grandes volúmenes de textos de internet y que intenta imitar el razonamiento humano.
Una de sus aplicaciones sería la atención médica y la investigación sanitaria, y podría cubrir desde tareas rutinarias de corte burocrático a tareas más complicadas como el triaje, es decir, elegir pacientes para determinados tratamientos.
Asimismo, también puede ayudar en el diagnóstico de enfermedades a partir de pruebas médicas, lo que podría generar problemas éticos relacionados con el consentimiento informado y la calidad de la atención sanitaria.
Pese a que la capacidad de análisis de datos de la IA es impresionante, no está exenta de riesgos que pueden afectar directamente el bienestar humano. En el curso de la Universidad de Barcelona, se incidió en ellos y se intentó arrojar luz sobre el futuro de la IA.
A modo de resumen de estas jornadas, se podría decir que la inteligencia artifical sin datos es ciega, y con datos es un producto muy potente, pero carente de valores tan necesarios como el sentido común. Por ese motivo, tanto ChatGPT como otras aplicaciones de la misma naturaleza, a menudo, proporcionan respuestas inapropiadas o incluso “inventadas” sobre eventos y cuestiones reales de la vida cotidiana.
Por otra parte, el hecho de necesitar cantidades ingentes de datos para poder seguir entrenando a las máquinas y conseguir así que operen al máximo nivel da lugar a toda una serie de problemas que demandan una consideración ética, en particular, en el sector sanitario:
- Sesgos: la posibilidad de que se produzcan diagnósticos erróneos por la falta de datos de determinados colectivos (personas de color, mujeres, niños). De hecho, las lecturas erróneas de los pulsioxímetros utilizados para leer los niveles de oxígeno durante la pandemia del COVID-19 generaron controversia, ya que eran menos eficaces en la piel de personas de color.
- Privacidad e intimidad: los datos, en particular sanitarios, son especialmente controvertidos por las implicaciones en la salud pública e individual. Tal como apunta la Dra. María Casado, la privacidad debe protegerse a lo largo de todo el ciclo de vida de la IA.
- Seguridad y protección: la posibilidad de que esos datos sanitarios sean “hackeados” (como ya ha ocurrido en algunos casos) y puedan ser utilizados con fines espurios es un alto riesgo de seguridad, que podría derivar incluso en problemas de vulnerabilidad y discriminación genéticas.
Todas estas cuestiones indican que la IA no solo genera nuevos datos, sino nuevas incógnitas y retos éticos. El hecho de que especialistas como el Dr. Ramón López de Mántaras (profesor de investigación del CSIC y director del instituto de inteligencia artificial) la tilden de “tonta” no es baladí. Su profundo conocimiento de estas herramientas confirma que carecen de sentido común sobre el mundo que les rodea y que, de hecho, no entienden la información que ellas mismas producen, o más bien, reproducen.
Por otra parte, López de Mántaras también apunta un hecho incontestable: la falta de corporeidad es un impedimento para que la IA pueda asemejarse al razonamiento humano. La falta de sensaciones, sentimientos y emociones es un punto clave en el desarrollo del conocimiento humano.
Por ese motivo, Mántaras considera que no se puede calificar de inteligente la actual IA, ya que solo dispone de habilidades sin comprensión alguna. El cerebro humano es, de hecho, mucho más eficiente que cualquier máquina, puesto que demanda una cantidad menor de datos para su aprendizaje y consume mucha menos energía.
Teniendo en cuenta esta falta de comprensión y de interacción con el mundo, resulta muy peligroso dejar en mano de robots, por muy inteligentes que sean, el futuro diagnóstico de enfermedades graves y en general, la gestión de la salud.
En este sentido, la Dra. María Casado también destaca la necesidad de establecer responsabilidades en los sistemas de IA para que sean auditables y trazables, y poder así rendir cuentas de las decisiones algorítmicas. Es necesario que existan mecanismos de supervisión, evaluación y auditoría para evitar conflictos con las normas de derechos humanos.
Asimismo, la introducción de la IA en el sector sanitario también cambiará radicalmente la relación médico-paciente, que en los últimos tiempos ha intentado dejar atrás su pátina paternalista para convertirse en una relación basada en la autonomía del paciente.
Ahora, no obstante, la bioética debe prestar especial atención a esta nueva tríada en la relación médico-paciente-sistemas de IA para poder ofrecer una respuesta a las futuras cuestiones éticas que plantea.
Una de ellas es, sin duda, la necesidad de informar al paciente de quién, cómo y para qué se está utilizando la inteligencia artificial al realizar un diagnóstico, al analizar imágenes médicas, al definir tratamientos personalizados, o en la monitorización remota, entre otras aplicaciones.
Por lo tanto, el concepto de “consentimiento informado” también deberá adaptarse a estas nuevas circunstancias.
Pero la inteligencia artificial no solo demanda una respuesta ética, sino también un marco legal. Por este motivo, la UNESCO publicó en el año 2021 una Recomendación sobre la ética de la inteligencia artificial y la Unión Europea dispone también desde el año 2023 de un Reglamento puntero en este ámbito y respaldado por todos los países miembros. En el mismo, se establece un marco jurídico uniforme en el desarrollo, comercialización y utilización de la IA.
Esta ley europea clasifica el riesgo de la IA en tres categorías:
- Riesgo inaceptable (sistemas de puntuación social como en China).
- Aplicaciones de alto riesgo (escaneo de CV, por ejemplo)
- De alto riesgo simplemente pero sin regular. El reconocimiento explícito en la legislación de que la inteligencia artificial supone riesgos es un buen punto de partida para regular su uso y aplicación.
Como conclusión, se podría decir que la inteligencia artificial no solo carece de inteligencia, valga la redundancia, y de sentido común, sino de las virtudes griegas clásicas, y eminentemente humanas, como la valentía, la prudencia, la beneficencia y la templanza, así como de conocimientos sobre los principios básicos de la bioética representados por la autonomía, la beneficencia, la no maleficencia y la justicia.
Sin una aplicación ponderada de todas estas virtudes y principios, es imposible concebir un futuro donde la dignidad y el respeto a los derechos humanos fundamentales presidan cualquier interacción entre seres humanos y máquinas.
Sonia Jimeno
- Doctora en Bioética y Éticas aplicadas.
- Licenciada en Traducción e Interpretación, Universitat Pompeu Fabra (UPF) (1999); licenciada en Filosofía, Universitat de Barcelona (UB) (2006); Máster Oficial en “Ciudadanía y Derechos Humanos: Ética y Política”, Universitat de Barcelona (UB); Tesina en La lucha por las patentes: aspectos legales, materiales y políticos de la propiedad industrial en la industria farmacéutica. Beca de investigación concedida por la Fundació Víctor Grífols i Lucas sobre bioética por el proyecto de investigación titulado «Las patentes biotecnológicas: en los límites de la legalidad» en nombre de la Universidad de Barcelona. Doctora en Bioética y Éticas aplicadas (Programa de doctorado Ciudadanía y Derechos Humanos). Título de la tesis doctoral: Poder de las patentes y bioprecariedad: cuestiones de legalidad y de legitimidad (https://www.tdx.cat/handle/10803/662732).
- E-mail: sjr@curellsunol.es
-
Sonia Jimeno#molongui-disabled-link
-
Sonia Jimeno#molongui-disabled-link
-
Sonia Jimeno#molongui-disabled-link
-
Sonia Jimeno#molongui-disabled-link