PREOCUPACIÓN DE LA OMS
La adopción precipitada de la inteligencia artificial en Salud puede causar daños a los pacientes
La inteligencia artificial cada vez se usa más en el campo sanitario
Hay que examinar cuidadosamente los riesgos de los sistemas de inteligencia artificial.
|
Redacción. Quito
La Organización Mundial de la Salud (OMS) ha advertido que la adopción precipitada de los sistemas de inteligencia artificial en el campo de la salud puede dar lugar a errores por parte de los trabajadores sanitarios y causar daños a los pacientes.
Por ello, ha hecho un llamado para examinar estas herramientas y supervisarlas con rigor cuando se utilicen para que su uso sea seguro, eficaz y ético. Además, ha instado al
uso ético y a una gobernanza adecuada de estos sistemas.
“Es imperativo que se
examinen cuidadosamente los riesgos cuando se usen modelos de lenguaje generados por la inteligencia artificial para mejorar el acceso a la información de salud, como una herramienta de apoyo a la toma de decisiones, o incluso para mejorar la capacidad de diagnóstico en entornos de escasos recursos para proteger la salud de las personas y reducir la inequidad”, ha recalcado la OMS en un comunicado.
La OMS ha destacado la necesidad de preservar la salud pública y proteger y promover el bienestar, la seguridad y la autonomía humanas al utilizar modelos de lenguaje generados por la inteligencia artificial, examinándolos exhaustivamente antes de su aplicación y a vigilarlos una vez que se pongan en práctica.
Ha señalado que los modelos de lenguaje generados por la inteligencia artificial incluyen plataformas de rápida expansión como
ChatGPT, Bard, Bert, entre muchas otras que imitan la compresión, el procesamiento y la producción de la comunicación humana.
En este sentido, ha reconocido las ventajas que puede suponer uso adecuado de la inteligencia artificial para apoyar a los profesionales de la salud, los pacientes, los investigadores y científicos. Sin embargo, ha planteado con preocupación la falta de cautela que caracteriza su uso y que no es comparable a la que se ejerce con otras nuevas tecnologías.
Por ello, ha añadido que las consecuencias negativas erosionarán la confianza en la inteligencia artificial y socavarán los posibles beneficios y usos a largo plazo de esas tecnologías.
Los riesgos
La OMS ha enumerado varios riesgos en este contexto. Por ejemplo, los datos utilizados para las bases que nutren la inteligencia artificial pueden estar sesgados y
generar información engañosa o inexacta que podría significar algún peligro para la salud, la equidad y la inclusión
Además, los modelos de lenguaje generados por inteligencia artificial producen respuestas que pueden parecer autorizadas y plausibles para un usuario final, pero estas
pueden ser incorrectas o contener errores graves, sobre todo en temas relacionados con la salud
También pueden recibir información sobre
datos cuyo uso no haya sido consentido previamente y cuando generan respuestas pueden no proteger datos confidenciales como los que proporciona un usuario a una aplicación informática
Y pueden utilizar indebidamente para generar y
difundir desinformación sobre la salud en forma de contenido de texto, audio o video difícil de diferenciar del contenido confiable
Por estos riesgos, la OMS ha insistido en que el proceso de análisis de las herramientas de inteligencia artificial debe
contemplar transparencia, inclusión, participación pública, supervisión experta y evaluación rigurosa.
Si bien el rubro sanitario puede aprovechar las nuevas tecnologías para mejorar la salud humana, ha recomendado que los responsables de elaborar las políticas garanticen la seguridad y protección del paciente mientras las empresas de tecnología trabajan para comercializar los modelos de lenguaje generados por inteligencia artificial.
También ha propuesto que
se mida la evidencia clara del beneficio antes del uso generalizado de esas herramientas en la atención médica y la medicina de rutina, ya sea por parte de individuos, proveedores de atención o administradores del sistema de salud y formuladores de políticas.