Así como hay entusiasmo y argumentos a favor de herramientas alimentadas por inteligencia artificial (IA), como los chatbots, especialmente en el área de la investigación médica y científica, hay ciertas inquietudes de los profesionales.

Las aplicaciones de conversación por IA prometen simplificar la escritura académica y reducir la carga de trabajo de los investigadores y educadores en el 80 %. Herramientas como ChatPDF ofrecen leer y sintetizar papers de revistas científicas.

Hay algunas consideraciones éticas y científicas en esta área. Esto ahorraría horas de trabajo, pero también crea dudas, planteadas por usuarios en las redes sociales, por ejemplo: el autor que subió su propio paper y formuló una serie de preguntas que el sistema le respondió usando información falsa y citas que no están en el documento original.

Publicidad

Teléfono móvil con el logo de la compañía estadounidense OpenAI. Foto: Shutterstock

Otro tuvo mejores resultados a medida que hacía preguntas más específicas, pero dado que fue él quien escribió el paper, sabe qué preguntar. Y otro más cuestionó si al subir un PDF a la herramienta no estaría violando la licencia bajo la cual tuvo acceso al artículo.

“Bienvenida la IA, pero siempre con el criterio humano”

El más famoso de estos chats en los últimos meses ha sido GPT. Es una tecnología que ha llegado para quedarse, a decir del doctor Fabián Ortiz Herbener, nefrólogo. " Se dice que desde la aparición del internet es el paso más revolucionario “. Añade que más que generar nuevos temores sobre la automatización del trabajo, hay que tomarlo con filosofía. Así como en su momento se crearon objetos capaces de conducir electricidad, ahora queda desarrollar nuevas tecnologías para aprovechar la versatilidad de los chatbots manejados con IA. “Un ejemplo, si tengo muchos datos de resfriados en un sector en concreto, puedo predecir el próximo brote de influenza, a qué altura del año y en qué ciudades”.

Ortiz opina que el desarrollo de la IA en la próxima década será “a un ritmo frenético”, y destaca que es una fase que comienza igual para todo el mundo. “Latinoamérica debería aprovechar estas oportunidades para desarrollar herramientas que en otros países no se permiten, por temas de restricciones”.

Publicidad

¿Qué hace falta para darle un buen uso a la IA? “Criterio. Al fin y al cabo, soy yo quien le da las directrices. El chat GPT no tiene criterio, tiene información, que no es lo mismo. Mis estudiantes de Medicina y de posgrado me dicen que si la información está en el teléfono, para qué tener en el cerebro los datos de los niveles normales de colesterol en sangre”. Esa es una visión demasiado simplificada. En la realidad, los pacientes tienen comorbilidades, diversas condiciones médicas cuyo análisis en conjunto lleva al diagnóstico. “Hay que tocar al paciente en la exploración física, eso un chatbot no lo puede hacer”.

Foto: Shutterstock

Por supuesto, los pacientes también pueden consultar la IA. “Si le pongo al chat GPT una serie de síntomas e incluso los exámenes de laboratorio que me acabo de hacer, pienso que me puedo ahorrar la consulta con el profesional (ya está pasando), pero eso no garantiza el siguiente paso, que la persona se cure”.

Publicidad

El comportamiento de los consultantes ha cambiado. Han empezado a diferir las consultas: primero el buscador, luego la IA. ¿Hasta dónde puede ayudarlos esta? Puede darles un diagnóstico presuntivo (no confirmado) y también dar una lista general de medicamentos para esas dolencias, que no equivale a la prescripción de un profesional.

En cambio, la IA bien utilizada (orientada por médicos) podría ayudar a que los pacientes tiendan a ir menos a consulta, y cuando lo hagan, vayan informados (no diagnosticados ni medicados) y la consulta sea de mayor rendimiento. “Yo invierto 45 a 60 minutos por paciente, pero si viene informado, se optimiza todo”. ¿Están los médicos en alguna desventaja? Sí, reconoce Ortiz. No manejan la cantidad de datos que tiene la IA. “Puedo leer muchos artículos al mes, pero no todo lo que se publica. El chatbot, sí”.

El chatbot podría también ayudar a un médico con dudas a hacer un diagnóstico diferencial. De entre varias opciones, podría señalar la mejor de acuerdo a la evidencia, y disminuir así el margen de error. “Pero claro, ya hice un análisis previo situacional. En el momento en el que tengo la certeza diagnóstica, podría hacer una doble confirmación con la inteligencia artificial; si coincidimos los dos, perfecto, minimizo mi riesgo de error y el paciente se beneficia más”.

Pero no suplirá la interacción médico-paciente. “Como profesor, yo llevo a un actor a clase y allí no hay la IA, allí necesito que el estudiante aprenda a examinar, a explorar, a preguntar: habilidades duras y blandas. ¿Cómo dirigirse al paciente?”.

Publicidad

Por tanto, la respuesta es usar la información que proporcionan estas herramientas para liberar tiempo y emplearlo en formar mejor criterio en los estudiantes. “Se van a crear más plazas de trabajo para desarrollar las herramientas con inteligencia artificial. Si no subimos al tren de la tecnología y del desarrollo, nos vamos a quedar muy atrás. Ahora es el momento de evitar la brecha, tenemos que subir”.

El chatbot no es infalible: algunas consideraciones éticas

Los académicos comenzaron a comentar sobre los chatbots en redes sociales desde 2022, y grupos locales han empezado a incorporarlo, señala el doctor Iván Chérrez Ojeda, especialista en alergia y neumología y director del centro Respiralab, donde se hace investigación con el apoyo de la Universidad Espíritu Santo.

¿Cómo lo están aplicando? “Nos reunimos unas dos veces a la semana en los ateneos, para discutir los casos difíciles, citando a otros colegas. Ahora ponemos los datos en el chat GPT”, explica, y agrega que lo importante con esta herramienta es saber qué preguntar.

Uno de los proyectos más recientes es averiguar qué saben los médicos y los estudiantes sobre el chat GPT, cuyo uso se ha multiplicado en el segundo grupo, ya que les ayuda a hacer las tareas. “En algunas universidades de Estados Unidos se dieron cuenta de que alumnos de primer año entregaban tareas que parecían de cuarto año. El profesor tiene que estar preparado para lo que se viene, replantearse qué tipo de tareas va a mandar en el futuro”, pues este chatbot, dependiendo de las instrucciones, puede escribir una tesis o un resumen de cualquier texto.

“Las revistas académicas de primer nivel ya están creando sistemas para saber quién ha hecho una escritura científica usando solo la IA; esta herramienta nos da una idea, ayuda mucho, pero no es ciento por ciento efectiva”, advierte Chérrez.

¿Y los pacientes? Podrían sentirse contenidos cuando el diagnóstico del médico coincide con los datos de la IA, y desesperarse si no es así. “El cerebro humano tiene que interpretar todos estos resultados. Usted puede tener toda la información, pero otra cosa es hablar con el paciente, escucharlo, contenerlo. El enfermo va con situaciones y sentimientos; el profesional tiene que saber cómo hablarle. Muchos colegas pueden perder pacientes cuando son muy duros o no les explican bien. Ese contacto humano nunca puede faltar”.

¿Cómo pueden los médicos empezar a capacitarse en IA? Tomando cursos como los de Udemy, como hicieron el doctor Chérrez y su equipo, pensando en replicarlos con grupos locales. ¿Qué debería saber si está interesado en el tema?

  1. Familiarícese con la tecnología y practique.
  2. Aprenda a preguntar al chatbot. El desempeño dependerá de la especificidad de sus preguntas.
  3. Hay versión en español, pero la que está en inglés va más avanzada.
  4. Hay versión gratuita y de pago. Aprenda la primera, y luego decida si le conviene una suscripción pagada.
  5. Pida siempre las referencias bibliográficas y verifíquelas. Esta no es una herramienta infalible. Necesita supervisión humana. Póngala a prueba para no faltar a la ética.
  6. Respete siempre la privacidad y confidencialidad.

“Nos hemos dado cuenta de que (el chatbot) a veces pone referencias que no existen. Usted debe estar consciente de eso, podría fallar si le cree todo”.

Fallas de seguridad y errores de sesgo

Hablando de posibles fallas y errores, el experto en seguridad informática Rafael Bonilla Armijos, docente de la Facultad de Ingeniería en Electricidad y Computación de la Espol, ve dos posibles problemas al usar los chatbots.

  • El primero es de seguridad. “Estas herramientas en línea permitirían a otras personas tener acceso a información privada, sensible o confidencial. Equivale a que un tercero pueda ver el paper de un autor (sin pagar) cuando se supone que eso no es posible. En general, las herramientas en línea sí cuidan ese aspecto, pero nada las exime de un ataque informático. Acaba de pasar algo así con ChatGPT”, dice refiriéndose a una brecha de vulnerabilidad ocurrida a fines de marzo de este año que causó la caída del sistema mientras la compañía de investigación de inteligencia artificial OpenAI reparaba el error. Básicamente, era posible infiltrarse en la cuenta de alguien, revisar su historial de chat y acceder a su información bancaria sin ser detectado.
  • “El tema de las respuestas equivocadas no es algo de seguridad, sino un problema asociado con todas estas herramientas de AI. Ellas aprenden de un conjunto de documentos (corpus), y si en ese corpus hay errores, las AI van a responder con errores. Por ejemplo, digamos que en el corpus hay 7 sitios de mediana confiabilidad diciendo que “Al empate Calceta” lo dijo Gustavo Cerati y tres otros sitios de alta confiabilidad dicen que lo dijo Justino Loor (respuesta correcta). Las AI ‘aprenderán’ que lo dijo Cerati”, indica, simplificando cómo funcionan los chatbots.

Por estos motivos, la inteligencia artificial requiere de entrenamiento. “Es fundamental que no haya sesgos, sino un manejo ético y transparente”, dice Andrés Maldonado, gerente general de IBM Ecuador. “Las herramientas capacitadas en datos a escala de internet pueden contener sesgos humanos inherentes”.

Además, hay que saber de dónde proviene la información académica, por qué la herramienta con IA sugiere ese texto y no otro, y quién es el autor original. Es un tema de ética y de detección de sesgos.

En cuanto a la tendencia de la IA conversacional a ‘inventar’ datos y referencias, Maldonado recomienda a las empresas asegurarse de que existan medidas de protección adecuadas para proporcionar pruebas de que la IA en uso es transparente, gobernada y confiable. “La inteligencia artificial no solamente debe ‘alimentarse’ o entrenarse con información verídica, sino entregar la información correcta”.

La propuesta de IBM para sus clientes es asegurarse de cómo se adquieren los datos de entrenamiento para construir y entrenar los modelos de IA.

Una de las limitaciones de la IA es que, por estar en constante evolución, siempre tiene aprendizajes y usos nuevos, y faltan expertos que sepan aprovechar las capacidades de esta tecnología, pero también darle los usos correctos, dice Maldonado. “Solo para dar un contexto en el plano empresarial: un estudio de IBM en 2022 sobre adopción de IA reveló que (...) no todas las organizaciones en América Latina toman medidas para garantizar que su IA sea responsable y confiable, como reducir los sesgos (24 %), dar seguimiento a las variaciones de desempeño y/o a la desviación de modelos (34 %) y garantizar que se puedan explicar las decisiones que toma la IA (39 %)”. (I)