Hace días era noticia que Geoffrey Hinton, el ‘padrino’ de la inteligencia artificial (IA), dejaba Google y realizaba diversas declaraciones avisando de los posibles riesgos de la IA. Entre otras cuestiones, avisaba del riesgo de que la red se inunde de falsos textos, fotos y vídeos, y de que las nuevas herramientas puedan reemplazar a muchos trabajadores, por lo que pedía frenar los trabajos en este ámbito, al menos hasta que
se entienda bien si será posible controlar la IA. No es que sea una novedad. En realidad, ya han sido varios los expertos en IA que pedían echar el freno a tecnologías como el
Chat GPT, para pararse a analizar las posibles repercusiones de estas tecnologías y cómo controlarlas ante su rápido y casi imparable avance.
Si bien este llamamiento es generalizado, lo cierto es que en el ámbito de la salud en estos meses también se ha asistido a un crecimiento exponencial del uso de la inteligencia artificial, que comienza a traer muchos beneficios, pero que también abre la puerta a muchos riesgos.
En este sentido, EL MÉDICO INTERACTIVO ha hablado con la Sociedad Española de Inteligencia Artificial en Biomedicina (
Sociedad IA Biomed) para analizar esta cuestión. Desde la junta directiva aportan, en primer lugar, que muchas veces
la tecnología avanza más rápido que la regulación, lo cual genera en ocasiones limbos legales e incertidumbre, convirtiendo precisamente esa regulación en una necesidad. “El uso de la IA se encuentra en esta situación, pero más específicamente es de primordial interés que esta se aplique sobre áreas de especial relevancia como la de la salud”.
Sin embargo, en cuanto a la opción de echar ese freno, hasta alcanzar esa regulación, consideran que esa opción no es muy realista. “Es complicado pretender pausar algo como es la IA, que se basa en nutrirse de grandes volúmenes de información, los cuales en muchas ocasiones están a disposición no solo de las grandes corporaciones, sino también de los usuarios”.
Riesgos de la IA
Si preguntamos al propio Chat GPT, él mismo señala algunos riesgos de la IA a nivel global, como es el
desplazamiento de empleos, el sesgo y la discriminación (ya que basa sus predicciones en patrones antiguos, no siempre muy diversos), riesgos en la privacidad y la seguridad, la posible manipulación de la información e incluso riesgos existenciales en torno a que la IA pueda tomar decisiones propias.
Si adaptamos esta pregunta a los riesgos concretos en el sector salud, matiza cuestiones como posibles en errores en la interpretación de los datos que pueda llevar a errores de los que sea difícil
asumir la responsabilidad. También la falta de transparencia, ya que los sistemas de IA pueden ser complejos y difíciles de entender para los profesionales médicos y los pacientes, lo que puede llevar a una falta de confianza en los resultados y decisiones producidas por el sistema.
Desde la Sociedad IA Biomed apuntan, por su parte, que “
la explicabilidad de estos sistemas, a medida que aumenta su complejidad, por ejemplo, es uno de los principales elementos que hoy en día está siendo cuestionado, y más en ámbitos como el de la salud, donde toda decisión debería ser, a priori, fundamentada y explicable”.
En cuanto al ya citado problema de los sesgos, también inciden en que “es importante que los sistemas de IA fundamenten su toma de decisiones en modelos que reduzcan los sesgos, como pueden ser los asociados a determinados tipos de pacientes, o a características de los mismos”.
Posibles soluciones
Si bien los expertos coinciden en señalar los posibles problemas, la cuestión de fondo es si estamos a tiempo de poner medidas para solucionarlos. Desde la Sociedad IA Biomed apuntan a que la solución pasa por confiar en la colaboración de los expertos de diferentes ámbitos, de los tecnólogos a los médicos y los sociólogos.
“Las personas que se dedican a estas áreas son quienes conocen de primera mano su potencial y sus limitaciones, y son quienes pueden discernir cuales son los principales problemas que pueden surgir del uso de la tecnología, y por lo tanto pueden ayudar a buscar soluciones. La regulación siempre ha de pasar por expertos, y esta regulación precisamente es la que podrá identificar donde deben estar los límites y cómo afrontar los riesgos derivados de la tecnología”, reflexionan desde la junta directiva.
Además, de cara a los propios profesionales, inciden en que “es necesario
formar en su uso, sin ninguna duda. Esto ya empieza a verse: existen múltiples ofertas formativas cuyo público objetivo son, por ejemplo, los médicos. Es necesario concienciar, pero para concienciar es necesario formar. Hace falta entender cómo funciona la tecnología y cómo puede ser utilizada para sacar lo mejor de ella”, reflexiona.
Por último, apuntan que “ChatGPT no deja de ser un gran ejemplo del avance de la IA generativa, pero no representa ni mucho menos la totalidad de posibilidades que la IA puede ofrecer en el sector de la salud. Se lleva décadas trabajando en esta área y, aunque ChatGPT pueda representar una novedad tanto por sus capacidades como por lo increíble, en general, de su eficiencia, muchas otras áreas de la IA están presentes hoy en día en el ámbito de la salud”.