Pasar al contenido principal

Comercial Superbaner 970x90

SECCIONES
logo
logo
 ingresar
logo
  • FAMA
  • DEPORTES
  • MUNDO
  • TIERRA ADENTRO
  • EL PAÍS
  • RELAX
  • FAMA
  • DEPORTES
  • MUNDO
  • TIERRA ADENTRO
  • EL PAÍS
  • RELAX
Relax: Martes 23 de Julio de 2024 3:36 PM
Relax: 2024/07/23 03:36pm

¿Puede la IA prevenir problemas de salud mental?

Un estudio de la Organización Mundial de la Salud (OMS) encontró importantes deficiencias en la forma en que se está utilizando la IA en la investigación sobre salud mental.
  • - Consejos para ser amable con la Inteligencia Artificial
  • Redacción/efe

  • diaadiapa@epasa.com
  • @DiaaDiaPa

Escucha esta noticia

La inteligencia artificial (IA) se está convirtiendo en una herramienta cada vez más importante en el campo de la psicología, con el potencial de mejorar la detección y el tratamiento de problemas de salud mental en etapas tempranas. Sin embargo, su uso también plantea importantes dilemas éticos que deben abordarse cuidadosamente.

 

En 1972, un psiquiatra de Stanford llamado Kenneth Colby creó Parry, un programa que intentaba simular el lenguaje de una persona con esquizofrenia paranoide, para capacitar a los estudiantes antes de que atendieran a pacientes reales y familiarizarlos con el lenguaje y la forma de pensar de estos pacientes.

 


El éxito de Parry en simular la esquizofrenia paranoide fue tal que incluso fue capaz de "aprobar" la prueba de Turing, un test diseñado por el matemático Alan Turing para evaluar si una máquina puede exhibir un comportamiento inteligente indistinguible del de un ser humano.

 


Ahora, los investigadores de la Universidad de Oxford están explorando cómo la IA podría usarse para predecir problemas de salud mental en un futuro cercano. "Hablar con jóvenes puede ayudarnos a entender sus perspectivas y avanzar para brindar un servicio informativo, útil y productivo", explica Ella Arensman, profesora de Neurociencia y Sociedad.

 


El potencial del fenotipado digital

Jessica Lorimer, asistente de investigación del Departamento de Psiquiatría, explica que un método que están usando se llama fenotipado digital, y utiliza la inteligencia artificial para recolectar y analizar datos de dispositivos móviles, como la actividad física o la ubicación, con el objetivo de predecir problemas de salud mental.

 

El Dr. Matthew Nour, autor principal y conferenciante clínico del National Institute for Health and Care Research (NIHR), afirma: "El diagnóstico y la evaluación en psiquiatría se basan casi por completo en hablar con los pacientes y sus allegados […] las pruebas automatizadas, como los análisis de sangre y los escáneres cerebrales, desempeñan un papel mínimo".

 

"Hasta hace muy poco, el análisis automático del lenguaje ha estado fuera del alcance de médicos y científicos. Sin embargo, con la llegada de modelos lingüísticos como Chat GPT, nuestro equipo planea utilizar esta tecnología en una muestra más amplia de pacientes y en entornos del habla más diversos, para comprobar si pudiera resultar útil en la clínica", añade Nour.

 

La barrera de la ética y la privacidad

Sin embargo, este enfoque plantea preguntas sobre el consentimiento y el derecho a la privacidad, especialmente en el caso de los menores de edad. "Si se determina que un joven está en riesgo, ¿quién debería tener derecho a saber esa información: sus padres, sus maestros, la escuela, su médico?", se cuestiona Jessica Lorimer.

 


Un estudio de Oxford llamado "What Lies Ahead" está investigando las actitudes éticas de los adolescentes de 16-17 años hacia las pruebas predictivas de salud mental. Gabriella Pavarini, investigadora postdoctoral, explica que el posible impacto psicológico futuro de recibir un diagnóstico predictivo representaba una gran preocupación para este grupo.

 

Empresas como Facebook ya están utilizando IA para detectar publicaciones que puedan indicar riesgo de suicidio y enviarlas a moderadores humanos para su revisión. Si se considera que la persona está en riesgo, se puede contactar a los servicios de emergencia para hacer un “chequeo de bienestar”.

 

En el primer año de este programa en Estados Unidos, se realizaron 3.500 verificaciones de bienestar. Sin embargo, esto plantea varios dilemas éticos: Mucha de la información sobre cómo funcionan los algoritmos de Facebook está protegida, por lo que no se conocen los detalles, ni se sabe cuántas de las verificaciones de bienestar fueron exitosas en prevenir intentos de suicidio, ni cuál fue su impacto.

 

Según The New Yorker, si bien el uso de IA por parte de Facebook para prevenir el suicidio es un avance, también plantea interrogantes éticos, sobre todo porque el mero hecho de recibir un diagnóstico a menudo no conlleva un riesgo tan inmediato, lo que plantea la pregunta de si los usuarios estarían dispuestos a sacrificar su privacidad para detectar problemas de salud mental en etapas tempranas.

 

Desafíos que quedan por resolver

Un estudio de la Organización Mundial de la Salud (OMS) encontró importantes deficiencias en la forma en que se está utilizando la IA en la investigación sobre salud mental. "Descubrimos que el uso de aplicaciones de IA en la investigación de la salud mental está desequilibrado y se utiliza principalmente para estudiar trastornos depresivos, esquizofrenia y otros trastornos psicóticos", explica la Dra. Ledia Lazeri, asesora regional de Salud Mental de la OMS en Europa.

 

Además, el estudio detectó fallos importantes en el manejo de las estadísticas, poca validación de los datos y escasa evaluación del riesgo de sesgo. Por ejemplo, si se sabe que ciertos grupos étnicos tienen menos acceso a la atención médica, los algoritmos basados en esos datos podrían ser menos precisos para diagnosticar problemas de salud mental en esas poblaciones.

 

"La falta de transparencia y los fallos metodológicos son preocupantes, ya que retrasan la aplicación práctica y segura de la IA", señala el Dr. David Novillo-Ortiz, asesor regional de Datos y Salud Digital de la OMS en Europa.

 

Estos problemas metodológicos son comunes en la investigación de IA en salud mental: "La ingeniería de datos para los modelos de IA parece pasarse por alto o entenderse mal, y los datos no suelen gestionarse adecuadamente. Estas importantes deficiencias pueden indicar una promoción demasiado acelerada de nuevos modelos de IA sin detenerse a evaluar su viabilidad en el mundo real".

 

"El uso de IA en salud mental plantea desafíos únicos que requieren una colaboración estrecha entre expertos en IA y profesionales de la salud mental", advierte el Dr. Sagar Parikh, director asociado del Instituto de Investigación Psiquiátrica de la Universidad de Michigan.

 

"Debemos asegurarnos de que estas tecnologías respeten la dignidad y la autonomía de los pacientes, ya que sólo así podremos aprovechar al máximo los beneficios de la IA en la detección temprana y el tratamiento de problemas de salud mental”, concluye el Dr. Parikh.

COMERCIAL - Robapagina B Mobil 300x250

Clasiguía

COMERCIAL - Robapagina C Mobil 300x250


Para comentar debes registrarte y completar los datos generales.

Contenido Premium
Hombres que envían fotos de sus genitales, ¿por qué lo hacen y qué hacer?

Hombres que envían fotos de sus genitales, ¿por qué lo hacen y qué hacer?

Comercial 300x250 B

 

Comercial 300x250 C

Comercial 300x600 desktop

El pleque pleque secrets
¡Ellos nos tienen de payasos… pélenles el ojo!
Contenido Premium
Ver más
Cáncer: la actitud y la red de apoyo importan

Cáncer: la actitud y la red de apoyo importan

Adavion, al servicio de los pacientes oncológicos

Adavion, al servicio de los pacientes oncológicos

Hidrocefalia, afección que no se puede prevenir, aunque sí las causas que la producen

Hidrocefalia, afección que no se puede prevenir, aunque sí las causas que la producen

Planta potabilizadora de Portobelo, a la deriva

Planta potabilizadora de Portobelo, a la deriva

COMERCIAL - Super Banner Desktop 728x90

COMERCIAL - Mobil 300x600

Comercial 970x90 footer desktop

 
close btn
logo dia a dia
  • Siguenos en:

logo dia a dia
  • Regístrate
  • Paute con nosotros
  • Panamá América
  • Crítica
  • Día a Día
  • Mujer
  • Recetas
  • Impresos
  • Cine
Miembro de:
logo PAL
Sociedad prensa

Todos los derechos reservados Editora Panamá América S.A. - Ciudad de Panamá - Panamá 2025.

Prohibida su reproducción total o parcial, sin autorización escrita de su titular

Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarles publicidad relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. si continúa navegando, consideramos que acepta su uso. Puede cambiar la configuración u obtener más información aquí

×