Sin embargo, su precisión requiere una evaluación exhaustiva para un uso futuro óptimo.

El Dr. Daisuke Horiuchi y el profesor asociado Daiju Ueda de la Facultad de Medicina de la Universidad Metropolitana de Osaka encabezaron un equipo de investigación para comparar la precisión diagnóstica de ChatG con la de los radiólogos.

El estudio involucró 106 casos de radiología musculoesquelética, incluidos historiales médicos de pacientes, imágenes y hallazgos de imágenes.

Para el estudio, se ingresó información del caso en dos versiones del modelo de IA, GPT-4 y GPT-4 con visión (GPT-4V), para generar diagnósticos. Los mismos casos se presentaron a un residente de radiología y a un radiólogo certificado, a quienes se les asignó la tarea de determinar los diagnósticos.

Los resultados revelaron que GPT-4 superó a GPT-4V e igualó la precisión diagnóstica de los residentes de radiología. Sin embargo, se descubrió que la precisión diagnóstica de ChatGPT era inferior a la de los radiólogos certificados.

El Dr. Horiuchi comentó sobre los hallazgos y dijo: “Si bien los resultados de este estudio indican que ChatG puede ser útil para el diagnóstico por imágenes, su precisión no se puede comparar con la de un radiólogo certificado. Además, este estudio sugiere que se debe comprender completamente su desempeño como herramienta de diagnóstico antes de poder utilizarlo”.

También enfatizó los rápidos avances en la IA generativa, señalando la expectativa de que podría convertirse en una herramienta auxiliar en el diagnóstico por imágenes en un futuro cercano.

Los hallazgos del estudio se publicaron en la revista European Radiology, destacando el potencial y las limitaciones de la IA generativa en el diagnóstico médico y subrayando la necesidad de realizar más investigaciones antes de una adopción clínica generalizada, aunque cumple bien su propósito en esta era tecnológica de rápido crecimiento.