🤦🏻♀️ Del Doctor Google al Doctor GPT: vuelta a empezar
Recientemente, tuve el privilegio de escribir una editorial en “Metas de Enfermería” sobre el e-profesionalismo y el uso de las redes sociales. Hoy, meses después, me gustaría extender esta reflexión al uso de la inteligencia artificial generativa en salud. ¿Por qué? Porque, en esencia, se trata del mismo tema y/o problema.
Durante años, hemos pedido cautela con el uso del “Doctor Google”, nos hemos formado en competencias digitales y hemos educado a los pacientes sobre su correcto uso. Y ahora, nos enfrentamos a un desafío aún mayor: “el Doctor GPT“.
“El e-profesionalismo también incluye el uso de la inteligencia artificial generativa en salud”.
Como profesionales de la salud, debemos ser cuidadosos con lo que publicamos y la influencia o imagen que generamos, en este caso no de nosotros mismos, como reflexiono en la editorial, si no de la imagen que estamos proyectando a la sociedad sobre el uso de la inteligencia artificial generativa respecto a la salud.
➡️ Recuerda que puedes ✍🏻 suscribirte a mi boletín gratuito para recibir por email todas las actualizaciones y no perderte nada.
➡️ Puedes invitarme a un café café ☕ aquí.
➡️ Comparte esta entrada 📲.
GRACIAS 🫀
😰 Preocupaciones éticas de la Inteligencia Artificial Generativa en salud y algunos ejemplos
Ya se han dado casos de imágenes “falsas” generadas por inteligencia artificial que han sido publicadas en revistas científicas (y lo que nos queda…). Te dejo enlazada aquí una noticia y debajo un tuit sobre el caso de Frontiers in Cell Developmental Biology:
Erm, how did Figure 1 get past a peer reviewer?! https://t.co/pAkRmfuVed H/T @aero_anna pic.twitter.com/iXpZ1FvM1G
— Dr CJ Houldcroft 🕷️ (@DrCJ_Houldcroft) February 15, 2024
Asimismo, en el campo de la educación, también están pasando cosas curiosas 🤣🤣. Comenzamos a ver que todas las diapositivas e imágenes tienen el mismo estilo. Y que en muchos textos, tanto generados por estudiantes como por el profesorado se observan pequeños detalles que evidencian, que ni siquiera revisamos. Me refiero a que no tenemos ni cuidado en quitar las mayúsculas en todas las palabras de las frases (algo que hace ChatGPT: Sería Un Ejemplo Así Como Lo Que Estás Leyendo).
Volviendo a la salud, os dejo con un ejemplo en vídeo de Eduardo Tornos que es absolutamente genial. Podéis ver el post completo en su LinkedIn (afortunadamente ChatGPT 4 sí le corrige):
Por esto pido cuidado y responsabilidad: la IA generativa puede producir resultados impredecibles y a veces erróneos, mostrando tendencias sesgadas. Y no me quiero meter en el tema de la protección de datos porque da para escribir un libro. Pero sí que os dejo una infografía de la Agencia Española de Protección de datos sobre el uso de los Chatbots con IA.
Y es por esto por lo que, como profesionales de la salud, debemos tomarnos muy en serio la responsabilidad de educar a estudiantes de ramas de la salud, pacientes y a la poblaciòn en general sobre el uso adecuado de estas tecnologías y sus riesgos asociados. De lo contrario, corremos el riesgo de repetir los mismos errores y enfrentar los peligros que ya hemos experimentado con las redes sociales.
Así que, como en el cole, repitamos todos juntos a la vez en voz alta: ¡la IA generativa en salud alucina y está sesgada!
🫸🏻Conciencia crítica y desarrollo responsable de herramientas de IA generativa en Salud
Además, se está observando una tendencia creciente en el desarrollo de ChatGPT específicos para el sector salud y de verificadores de síntomas (symptom checkers). Y todo esto ocurre sin la más mínima consideración ética o reflexión sobre a quiénes están dirigidas estas herramientas y qué nivel de conocimiento tienen los usuarios acerca de ellas.
Elaborar directorios y listas de herramientas (yo también lo hago o he hecho), y desarrollar ChatGPT propios para aplicaciones en salud, conlleva riesgos y requiere una consideración cuidadosa. Así que, cuidado con lo que estamos haciendo como profesionales de la salud y qué herramientas estamos dando a la población porque con la salud no se juega.
Yo desde hace tres meses tengo creada una versión propia de ChatGPT enfocada a la búsqueda de evidencia e indicaciones de las guías de reanimación cardiopulmonar y soporte vital. No creo que tarde mucho en lanzarlo al público, pero algo dentro de mí me dice que prudencia. Éticamente no me convence que cualquiera se fíe de algo que en salud, se inventa las cosas. Como dice Eduardo Tornos: “se trata de tecnología inmadura en manos inexpertas”.
“La inteligencia artificial generativa se trata de una tecnología inmadura en manos de usuarios inexpertos”.
Eduardo Tornos
Se refiere a manos inexpertas porque no conocemos como funciona la IA generativa, los modelos de lenguaje etc. Pero hay que elevar al cuadrado esa inexperiencia en los casos de Chatbots creados con ChatGPT para temas de salud: el usuario final también es inexperto en lo que lee. Por tanto, hay que revisar lo que dice la IA pero ¿cómo hacerlo si no sabes de qué te está hablando?
No sería prudente promocionar una nueva tecnología (el coche, por ejemplo), capaz de recorrer largas distancias con “solo” gasolina y cuatro ruedas, como si fuera una solución perfecta. Es esencial obtener primero una formación adecuada, sacarse el carnet de conducir y aprender sobre conocimientos en seguridad vial, para evitar causar daños involuntarios.
La creación y promoción de Chatbots personalizados con ChatGPT como soluciones para problemas de salud o educativos exige una comprensión clara por parte de los usuarios sobre qué están utilizando exactamente, cómo funciona y reconocer de forma sus limitaciones. Así que cuidado con lo que estamos generando.
🧑🏻🏫Nuestro papel como agentes de salud: formarnos y formar
Así que ahora, nuestra función principal como profesionales de la salud (según mi opinión) está claramente definida: no se trata de innovar sin propósito y de generar listados de herramientas y un chatbot diario para decir qué guais somos, sino de actuar con responsabilidad.
En primer lugar, es esencial que nos formemos adecuadamente, adquiriendo competencias básicas y reflexionemos sobre el uso ético de estas tecnologías. En segundo lugar, esta formación y educación deben extenderse a los pacientes y a la población en general.
La situación es similar en el ámbito docente, donde la tecnología ha transformado completamente el enfoque educativo (creo que todavía más que en la salud y muchos no se han dado cuenta). No podemos seguir con asignar trabajitos, resúmenes, etc. Lo van a generar con ChatGPT u otros LLM (grandes modelos de lenguaje). Y esto no contribuye al aprendizaje ni al pensamiento crítico. Así que hay que “darle una vuelta grande” y utilizar estas herramientas a nuestro favor para que beneficien tanto a docentes como a estudiantes.
Te dejo una idea 💡:
🫱🏼🫲🏼Algunas conclusiones: esto también forma parte de CUIDAR.
Soy usuaria de la IA generativa desde octubre de 2022 y una firme defensora de su uso. Nos ahorran una cantidad increíble de tiempo, podemos automatizar o acortar procesos, y me parecen un asistente personal genial que suma la inteligencia no artificial con la artificial mejorando los resultados. Yo creo que ya no podría vivir sin estas herramientas, mientras que otros ni siquiera las han utilizado nunca.
Y en este contexto de diferencias de uso entre trabajadores del conocimiento, su desconocimiento, alucinaciones, sesgos, y gente generando ChatBots como churros sin pensar en el usuario final, entro en pánico 😱. Y vuelvo a reiterar que en el ámbito de la salud, es crucial proceder con prudencia y reconsiderar cómo utilizamos estas herramientas.
No se trata de evitarlas, sino de comprenderlas e integrarlas adecuadamente en la educación y la práctica sanitaria. La formación es el primer paso, seguido de la difusión de este conocimiento a nuestros alumnos, pacientes, usuarios e incluso familiares. Esto también forma parte del cuidado.
No he escrito este texto para venderte mi curso de Inteligencia artificial y ChatGPT para profesionales sanitarios, lo he hecho porque me ha salido de las entrañas y veo que esto está tomando un camino que no me gusta. Cuanto antes pensemos en ello, mejor.
Pero bueno, ya que estamos sí que voy a aprovechar para decirte que Pedro Soriano y yo hemos hecho una serie de formaciones para contaros todo lo que hemos aprendido estos meses. Ya tenemos la primera con oferta de lanzamiento. Te la dejo por si te he convencido de que, como profesional de la salud, tienes una responsabilidad grande en tus manos.
Si quieres citar este texto:
Plaza-Moreno E. Inteligencia Artificial Generativa en salud: ética y e-profesionalismo [Internet]. Urgencias y emergencias. 2024. Disponible en: https://www.urgenciasyemergen.com/inteligencia-artificial-generativa-en-salud-etica-y-e-profesionalismo
Última actualización: 06/03/2024. Autoría del post: Elena Plaza Moreno, enfermera docente. Instructora de ACLS y BLS por AHA. Experta en urgencias y emergencias y competencias digitales docentes. Creo y divulgo contenido de salud basado en evidencia.