Cependant, leur précision nécessite une évaluation approfondie pour une utilisation future optimale.

Le Dr Daisuke Horiuchi et le professeur agrégé Daiju Ueda de la Graduate School of Medicine de l'Université métropolitaine d'Osaka ont dirigé une équipe de recherche pour comparer l'exactitude diagnostique de ChatG avec celle des radiologues.

L'étude a porté sur 106 cas de radiologie musculo-squelettique, y compris les antécédents médicaux des patients, les images et les résultats d'imagerie.

Pour l'étude, les informations sur les cas ont été saisies dans deux versions du modèle d'IA, GPT-4 et GPT-4 avec vision (GPT-4V), pour générer des diagnostics. Les mêmes cas ont été présentés à un résident en radiologie et à un radiologue certifié, chargés de déterminer les diagnostics.

Les résultats ont révélé que le GPT-4 surpassait le GPT-4V et correspondait à la précision diagnostique des résidents en radiologie. Cependant, la précision du diagnostic de ChatGPT s’est avérée inférieure à celle des radiologues certifiés.

Le Dr Horiuchi a commenté les résultats en déclarant : « Bien que les résultats de cette étude indiquent que ChatG peut être utile pour l'imagerie diagnostique, sa précision ne peut pas être comparée à celle d'un radiologue certifié. De plus, cette étude suggère que ses performances en tant qu’outil de diagnostic doivent être pleinement comprises avant de pouvoir être utilisées.

Il a également souligné les progrès rapides de l’IA générative, notant qu’elle pourrait devenir un outil auxiliaire dans l’imagerie diagnostique dans un avenir proche.

Les résultats de l’étude ont été publiés dans la revue European Radiology, soulignant le potentiel et les limites de l’IA générative dans le diagnostic médical, et soulignant la nécessité de recherches plus approfondies avant une adoption clinique généralisée, bien qu’elle remplisse bien son objectif dans cette ère technologique en plein essor.