Des médecins américains ont testé le dernier modèle d’intelligence artificielle d’OpenAI, GPT-4, dans un contexte médical et ont constaté qu’il était un meilleur testeur que les modèles précédents et même que certains médecins agréés.

Bien que cette technologie puisse offrir des avantages considérables, elle soulève également des préoccupations éthiques importantes. L’IA ouvre la voie à une nouvelle médecine, plus prédictive mais va-t-elle pour autant remplacer le médecin ? Dans le secteur de la santé, les applications IA potentielles sont nombreuses, que ce soit dans le champ de la prévention, du diagnostic, du soin, du suivi, de la recherche clinique, de l’épidémiologie, du développement de nouveaux produits, ou de la régulation de l’offre du marché et des flux.
Un groupe de médecins américains s’est associé pour tester le dernier modèle d’intelligence artificielle d’OpenAI, GPT-4, dans un contexte médical en vue de publier un livre intitulé « The AI Revolution in Medicine ».
Les résultats montrent que GPT-4 est un testeur bien supérieur aux modèles précédents de ChatGPT AI, GPT-3 et -3.5, et même meilleur que certains médecins agréés. Les applications de l’IA qui révolutionneront la médecine existent, c’est une réalité. Les auteurs ont expliqué que GPT-4 peut offrir des suggestions utiles aux médecins, notamment sur la façon de parler aux patients de leur état dans un langage compatissant et clair, et qu’il peut résumer de longs rapports ou études en un clin d’œil. De plus, la technologie peut expliquer son raisonnement à travers des problèmes d’une manière qui ressemble à de l’intelligence humaine. Les médecins ont été à la fois impressionnés et horrifiés, et ont essayé GPT-4 avec de vrais patients, qui ont donné les mêmes résultats que les médecins.
Cela montre que nous devons imaginer un monde avec des machines de plus en plus intelligentes, dépassant peut-être l’intelligence humaine dans presque toutes les dimensions, et réfléchir sérieusement à la façon dont nous voulons que ce monde fonctionne. L’IA pose le problème de la responsabilité dans la décision. Tout un chacun considère que l’erreur est humaine, même de la part des médecins. Mais qu’en sera-t-il si c’est l’ordinateur qui se trompe ?
De plus, l’utilisation de l’IA en médecine soulève également des préoccupations éthiques importantes, telles que la confidentialité et la sécurité des données des patients, la responsabilité des erreurs d’IA, et la nécessité de maintenir un équilibre entre l’utilisation de l’IA et les compétences cliniques des professionnels de la santé.