Un equipo de investigadores de la Universidad de Stanford ha desarrollado CheXNet, un algoritmo de aprendizaje profundo capaz de evaluar las radiografías de tórax de los pacientes en busca de signos de enfermedad.
Se trata de una red neuronal convolucional de 121 capas.
Tras poco más de un mes de entrenamiento, el algoritmo ya es capaz de diagnosticar 14 tipos diferentes de enfermedad y ha demostrado ser mejor que los radiólogos expertos en el diagnóstico de la neumonía, tanto en sensibilidad como en especificidad.
Para llevar a cabo la investigación se utilizó ChestX-ray14, un conjunto de datos público, liberado por el Centro Clínico de los Institutos Nacionales de Salud (NIH) el 26 de septiembre y que contiene 112.120 radiografías de tórax de vista frontal etiquetadas con hasta 14 posibles patologías.
Junto con los datos, el NIH publicó un algoritmo capaz de diagnosticar muchas de esas 14 patologías con cierto éxito, con el fin de alentar a otros a avanzar en ese trabajo.
En cuanto vieron esos materiales, los miembros del Grupo de Aprendizaje Automático de Stanford, dirigido por el profesor adjunto de ciencias de la computación Andrew Ng, decidieron dirigir su investigación hacia esa línea.
“Interpretar radiografías para diagnosticar patologías como la neumonía es todo un reto y sabemos que hay una gran variabilidad en los diagnósticos emitidos por los radiólogos”, señaló Pranav Rajpurkar, estudiante de postgrado en el Grupo de Aprendizaje Automático de Stanford y coautor principal del trabajo.
“Nos interesamos por el desarrollo de algoritmos de aprendizaje automático que pudieran aprender a partir de cientos de miles de diagnósticos de radiografías de tórax y realizar diagnósticos precisos”.
Según los investigadores, el motivo por el que eligieron centrarse en la neumonía es porque, según los Centros para el Control y la Prevención de Enfermedades en los EE.UU., esta enfermedad lleva a un millón de estadounidenses al hospital cada año y es especialmente difícil de detectar en las radiografías.
En colaboración con Matthew Lungren, profesor asistente de Radiología, los investigadores hicieron que cuatro radiólogos de Stanford, trabajando de manera independiente, señalaran posibles signos de neumonía en 420 de las radiografías.
El objetivo era utilizar el resultado como conjunto de datos de prueba que permitiera a los investigadores contrastar los resultados de CheXNet con los de los radiólogos profesionales.
Mientras tanto, el equipo del Grupo de Aprendizaje Automático de Stanford se puso a trabajar en el desarrollo de un algoritmo que pudiese diagnosticar automáticamente las patologías.
En apenas una semana, los investigadores lograron desarrollar un algoritmo que diagnosticaba 10 de las patologías etiquetadas en las radiografías con mayor precisión que los resultados más avanzados hasta la fecha.
Y en poco más de un mes, su algoritmo podía superar estos estándares en la identificación de las 14 patologías.
Paralelamente, en ese corto espacio de tiempo, CheXNet también superó a los cuatro radiólogos de Stanford en cuanto a precisión en el diagnóstico de la neumonía.
Los investigadores han publicado los resultados de su investigación en Arxiv, con el título “CheXNet: Radiologist-Level Pneumonia Detection on Chest X-Rays with Deep Learning“.
Fuente:
Seguir leyendo:
- Detección más temprana del melanoma con inteligencia artificial
- Google investiga la detección del cáncer de mama con inteligencia artificial
- Google prueba con éxito su tecnología de IA para diagnosticar la retinopatía diabética
- Su próximo médico ¿podría ser un robot? (diversos avances así lo evidencian)
Trackbacks/Pingbacks