La inviolabilidad de la relación médico-paciente es la piedra angular de la profesión sanitaria. Este espacio protegido está impregnado de tradición: el juramento hipocrático, la ética médica, los códigos de conducta profesional y la legislación. Pero todo ello está a punto de verse alterado por:
- La digitalización.
- Las nuevas tecnologías.
- Y la inteligencia «artificial» (IA).
La innovación, la robótica, la tecnología digital y los diagnósticos, la prevención y la terapia mejorados pueden mejorar la atención médica. También plantean desafíos éticos, legales y sociales.
Desde que en 2022 se abrieron las compuertas del ChatGPT (Generative Pertaining Transformer), bioeticistas como nosotros hemos estado contemplando el papel que este nuevo «chatbot» podría desempeñar en la atención sanitaria y la investigación en salud.
Chat GPT es un modelo de lenguaje que ha sido entrenado en volúmenes masivos de textos de Internet. Intenta imitar el texto humano y puede realizar varias funciones en la atención médica y la investigación en salud.
Los primeros usuarios comenzaron a usar ChatGPT para ayudar con tareas rutinarias como escribir certificados de enfermedad, cartas de pacientes y cartas pidiendo a las aseguradoras médicas que paguen medicamentos costosos específicos para los pacientes. En otras palabras, es como tener un asistente personal de alto nivel para agilizar las tareas burocráticas y aumentar el tiempo de interacción con el paciente.
Pero también podría ayudar en actividades médicas más serias como el triaje (elegir qué pacientes pueden tener acceso a diálisis renal o camas de cuidados intensivos), que es fundamental en entornos donde los recursos son limitados. Y podría usarse para incluir a participantes en ensayos clínicos.
La incorporación de este sofisticado chatbot a la atención al paciente y la investigación médica plantea una serie de problemas éticos. Su uso podría tener consecuencias imprevistas y no deseadas. Estas preocupaciones están relacionadas con la confidencialidad, el consentimiento, la calidad de la atención, la fiabilidad y la falta de equidad.
Es demasiado pronto para conocer todas las implicaciones éticas de la adopción de ChatGPT en la asistencia sanitaria y la investigación. Cuanto más se utilice esta tecnología, más claras serán sus implicaciones. Pero las cuestiones relativas a los riesgos potenciales y la gestión de ChatGPT en medicina formarán parte inevitablemente de las conversaciones futuras.
Riesgos éticos potenciales
En primer lugar, el uso de ChatGPT conlleva el riesgo de cometer violaciones de la privacidad. El éxito y la eficacia de la IA dependen del aprendizaje automático. Esto requiere que los datos se retroalimenten constantemente en las redes neuronales de los chatbots. Si se introduce en ChatGPT información identificable del paciente, ésta forma parte de la información que el chatbot utilizará en el futuro. En otras palabras, la información sensible está «ahí fuera» y es vulnerable a su divulgación a terceros. No está claro hasta qué punto puede protegerse esa información.
La confidencialidad de la información del paciente es la base de la confianza en la relación médico-paciente. ChatGPT amenaza esta privacidad, un riesgo que los pacientes vulnerables pueden no comprender del todo. El consentimiento para la asistencia sanitaria asistida por IA podría no ser óptimo. Los pacientes podrían no entender a qué están dando su consentimiento. A algunos puede que ni siquiera se les pida el consentimiento. Por tanto, los médicos y las instituciones podrían exponerse a litigios.
Otra preocupación de la bioética se refiere a la prestación de una asistencia sanitaria de alta calidad. Tradicionalmente, ésta se basa en pruebas científicas sólidas. El uso de ChatGPT para generar pruebas puede acelerar la investigación y las publicaciones científicas. Sin embargo, el formato actual de ChatGPT es estático: su base de datos tiene fecha de caducidad. No proporciona las referencias más recientes en tiempo real. Por el momento, los investigadores «humanos» realizan un trabajo más preciso a la hora de generar pruebas. Más preocupantes son los informes de que fabrica referencias, comprometiendo la integridad del enfoque basado en la evidencia para una buena asistencia sanitaria. Una información inexacta podría comprometer la seguridad de la la atención médica.
La evidencia de buena calidad es la base del tratamiento y el consejo médicos. En la era de la sanidad democratizada, proveedores y pacientes utilizan diversas plataformas para acceder a información que guíe su toma de decisiones. Pero es posible que ChatGPT no cuente con los recursos o la configuración adecuados en este momento de su desarrollo para proporcionar información precisa e imparcial.
La tecnología que utiliza información sesgada basada en datos infrarrepresentados de personas de color, mujeres y niños es perjudicial. Las lecturas inexactas de algunas marcas de pulsioxímetros utilizados para medir los niveles de oxígeno durante la reciente pandemia de COVID-19 nos enseñaron esto.
También merece la pena reflexionar sobre lo que ChatGPT puede significar para los países de renta baja y media. La cuestión del acceso es la más obvia. Los beneficios y riesgos de las tecnologías emergentes tienden a distribuirse de forma desigual entre los países.
Actualmente, el acceso a ChatGPT es gratuito, pero esto no durará. El acceso monetizado a versiones avanzadas de este chatbot de lenguaje es una amenaza potencial para entornos con pocos recursos. Podría afianzar la brecha digital y las desigualdades mundiales en materia de salud.
Gobernanza de la IA
La desigualdad de acceso, el potencial de explotación y el posible daño por datos subrayan la importancia de contar con normativas específicas que regulen los usos sanitarios de ChatGPT en los países de ingresos bajos y medios.
Están surgiendo directrices mundiales para garantizar la gobernanza en la IA. Pero muchos países de ingresos bajos y medios aún no han adaptado y contextualizado estos marcos. Además, muchos países carecen de leyes que se apliquen específicamente a la IA.
El Sur global necesita conversaciones relevantes a nivel local sobre las implicaciones éticas y legales de la adopción de esta nueva tecnología para garantizar que se disfrutan sus beneficios y se distribuyen de forma justa.
Publicada en Bioedge por Keymanthri Moodley and Stuart Rennie| 28 de febrero de 2023 | ChatGPT has many uses. Experts explore what this means for healthcare and medical research
Comments 2