La inteligencia artificial puede ser una herramienta útil para los profesionales sanitarios y los investigadores a la hora de interpretar imágenes de diagnóstico. Mientras que un radiólogo puede identificar fracturas y otras anomalías a partir de una radiografía, los modelos de IA pueden ver patrones que los humanos no pueden ver, lo que brinda la oportunidad de aumentar la eficacia de las imágenes médicas.

Pero en un estudio Informes científicos destaca un desafío oculto del uso de la IA en la investigación de imágenes médicas: una tendencia hacia resultados muy precisos pero potencialmente engañosos, conocida como “aprendizaje abreviado”.

Los investigadores analizaron más de 25.000 radiografías de rodilla de la Iniciativa de Osteoartritis financiada por los Institutos Nacionales de Salud y descubrieron que los modelos de IA podían “predecir” rasgos incomprensibles y no relacionados, como si el paciente evita comer frijoles refritos o cerveza. Aunque estas predicciones no tienen base clínica, los modelos han logrado niveles sorprendentes de precisión al explotar patrones sutiles e involuntarios en los datos.

El autor principal del estudio, el Dr. Peter Schilling, cirujano ortopédico del Centro Médico Dartmouth Hitchcock de Dartmouth Health y profesor asistente de ortopedia en la Facultad de Medicina Geisel de Dartmouth, dice: “Si bien la IA tiene el potencial de transformar las imágenes médicas, sí, tenemos tener cuidado.” .

“Estos modelos pueden ver patrones que los humanos no pueden, pero no todos los patrones que identifican son significativos o confiables”, dice Schilling. “Reconocer estos riesgos es fundamental para prevenir resultados engañosos y garantizar la integridad científica”.

Los investigadores examinaron cómo los algoritmos de IA a menudo se basan en variables de confusión, como diferencias en los equipos de rayos X o marcadores de sitios clínicos, para hacer predicciones en lugar de características clínicamente significativas. Los intentos de eliminar estos sesgos han tenido sólo un éxito marginal: los modelos de IA simplemente “aprenderán” otros patrones de datos ocultos.

“Esto va más allá del sesgo de los indicadores de raza o género”, afirma Brendan Hill, coautor del estudio y científico de aprendizaje automático en Dartmouth Hitchcock. “Descubrimos que el algoritmo también puede aprender a predecir el año en que se tomó una radiografía. Esto es una desventaja: cuando se le impide aprender uno de estos elementos, aprenderá el otro que aprendió primero. Afirmaciones deficientes, y los investigadores deben ser conscientes de la facilidad con la que esto ocurre cuando se utiliza esta técnica”.

Los hallazgos enfatizan la necesidad de estándares de evaluación estrictos en la investigación clínica basada en IA. La dependencia excesiva de algoritmos estándar sin pruebas exhaustivas puede conducir a conocimientos clínicos y vías de tratamiento incorrectos.

“La carga de la prueba es muy alta cuando se trata de utilizar modelos para descubrir nuevos paradigmas en medicina”, afirma Hill. “Parte del problema es nuestro propio sesgo. Es increíblemente fácil caer en la trampa de imaginar que el modelo ‘ve’ lo mismo que nosotros. Al final, no es así”.

“La IA es casi como tratar con una inteligencia extraterrestre”, continúa Hill. “Se puede decir que el modelo es ‘trampa’, pero humaniza la tecnología. Aprende cómo resolver la tarea que se le asigna, pero no necesariamente como lo haría una persona. No tiene lógica o el razonamiento no es como comúnmente entendemos él.”

Schilling, Hill y el coautor del estudio Francis Kubek, estudiante de medicina de tercer año en la Escuela Geisel de Dartmouth, realizaron el estudio en colaboración con el Centro Médico de Asuntos de Veteranos en White River Junction, VT.

Source link

LEAVE A REPLY

Please enter your comment!
Please enter your name here