Todos los cambios tienen sus pros y sus contras. La
llegada de la inteligencia artificial generativa al sector salud también. Los beneficios llegan a casi todas las áreas, desde la capacidad de los algoritmos para buscar patrones que permitan mejorar la prevención en salud, pasando por la mejora asistencial gracias a chat bots que hablen con el paciente y descarguen del trabajo burocrático a los médicos a incluso mejorar los programas de gestión de los hospitales. Sin embargo, la investigación puede ser una de las mayores beneficiadas y a la vez una de las más perjudicadas, especialmente ante el riesgo de los datos falsos.
Así, en la parte positiva, destaca que aplicaciones como chat GPT puede ayudar a analizar y resumir grandes cantidades de literatura científica de manera rápida, puede proporcionar ideas y sugerencias para el diseño experimental, puede generar hipótesis preliminares o sugerencias sobre posibles relaciones entre variables, e incluso puede ayudar a la interpretación de resultados.
De forma contraria, hay que tener en cuenta que esta herramienta sigue teniendo
sus riesgos y limitaciones. Entre otros, la creación de sesgos, problemas éticos y de privacidad al introducir datos sanitarios, una capacidad limitada a la hora de comprender ciertos conceptos técnicos, y sobre todo el riesgo a inventarse datos y generar desinformación.
Desinformación y Chat GPT
Sobre esta cuestión han alertado diferentes expertos desde que el uso de Chat GPT se ha ampliado a todos los públicos. Ya en febrero de 2023,
The New York Times publicaba un reportaje en el que Gordon Crovitz, codirector ejecutivo de NewsGuard, una empresa que rastrea la información errónea en línea, hablaba de los datos de un experimento sobre Chat GPT y desinformación para afirmar que “esta será la herramienta más poderosa para
difundir información errónea que jamás haya existido en Internet. Ahora se puede elaborar una nueva narrativa falsa a una escala dramática y con mucha más frecuencia; es como tener agentes de inteligencia artificial contribuyendo a la desinformación'.
Así, exponía que los chatbots personalizados podrían
compartir teorías de conspiración y datos falsos de maneras cada vez más creíbles y persuasivas, suavizando errores humanos como la mala sintaxis y las malas traducciones y avanzando más allá de los trabajos de copiar y pegar fácilmente detectables.
En esta línea, en junio de 2023
Science Advances publicaba un trabajo que reconocía que Chat GPT tenía mayor capacidad de desinformación que los humanos. Sobre esta cuestión trabajó un equipo encabezado por la Universidad de Zúrich que usó la versión ChatGPT-3 para un estudio con 679 participantes. Así, concluía que los tweets sintéticos realizados por la IA que contienen información confiable se reconocen como verdaderos mejor y más rápido que los tweets orgánicos verdadero. Sin embargo, los tweets sintéticos falsos se reconocen como falsos peor que los tweets orgánicos falsos. Es decir, que
los participantes tuvieron más dificultad para reconocer información falsa cuando era redactada por la IA. Además, GPT-3 no funcionaba mejor que los humanos a la hora de reconocer tanto información como desinformación.
Datos falsos y ensayos clínicos
Si bien estos trabajos hablaban de los problemas del uso de Chat GPT a un nivel más general, quedaba por analizar esta cuestión en el caso concreto del sector salud y precisamente en lo que pueda afectar a la investigación y los ensayos clínicos.
Así, este diciembre de 2023 se daba a conocer un nuevo trabajo de investigadores del departamento de Oftalmología de la Universidad Magna Graecia de Catanzaro (Italia) ha utilizado la tecnología que hay detrás de ChatGPT de inteligencia artificial (IA) para
crear un conjunto de datos de ensayos clínicos falsos y respaldar una afirmación científica no verificada, advirtiendo del peligro que puede suponer esta tecnología para la ciencia, según revela una carta publicada en 'Jama Ophtalmogoly' y recogida por la revista '
Nature'.
En concreto, los autores utilizaron GPT-4, la última versión del modelo de lenguaje grande en el que se ejecuta ChatGPT, junto con el Análisis de datos avanzado (ADA), un modelo que incorpora el lenguaje de programación Python y puede realizar análisis estadísticos y crear visualizaciones de datos. Los datos generados por la IA compararon los resultados de dos procedimientos quirúrgicos e indicaron (erróneamente) que un tratamiento es mejor que el otro.
'Nuestro objetivo era resaltar que, en unos minutos,
se puede crear un conjunto de datos que no está respaldado por datos originales reales, y que también es opuesto o en la dirección contraria a la evidencia disponible', afirma en Nature el coautor del estudio y cirujano ocular de la Universidad de Cagliari en Italia, Giuseppe Giannaccare.
Asimismo, Elisabeth Bik, microbióloga e investigadora independiente añade que “la capacidad de la IA para fabricar datos falsos convincentes aumenta la preocupación entre los investigadores y editores de revistas sobre la integridad de la investigación. Una cosa era que la IA generativa pudiera usarse para generar textos que no serían detectables mediante software de plagio, pero la capacidad de crear conjuntos de datos falsos pero realistas es el siguiente nivel de preocupación', concluye la experta.