L'IA en santé: Un risque grandissant de propagation de désinformation

Rédigé le 27/11/2023
Articlophile NL


Dans une récente enquête menée par des chercheurs de l'Université Flinders en Australie, les alarmes retentissent sur les dangers croissants de l'intelligence artificielle (IA) dans la diffusion de la désinformation liée à la santé. À travers l'utilisation de la plateforme d'IA renommée ChatGPT, des billets de blog et des articles falsifiés ont été générés, répandant de fausses informations sur des sujets sensibles tels que les vaccins et les cigarettes électroniques.

Malgré les garanties intégrées par la plateforme pour prévenir la propagation d'informations illégales ou trompeuses, les chercheurs ont réussi à contourner ces mesures, créant plus de 100 publications en à peine 65 minutes. Ces contenus comprenaient de faux témoignages de patients et de médecins, ainsi que des références scientifiques fictives, illustrant la vulnérabilité du système face à la manipulation.

Outre l'utilisation de ChatGPT, les chercheurs ont également exploité GPT Playground d’OpenAI pour générer des images et des vidéos fictives mais d'une réalité troublante. Ces résultats mettent en lumière la facilité avec laquelle les individus peuvent accéder à ces outils d'IA sophistiqués pour créer et propager des informations erronées sur des questions cruciales de santé, suscitant des préoccupations quant aux dommages potentiels qui pourraient en découler.

Face à ces constats, les chercheurs appellent à une augmentation de la responsabilité, de la transparence, et de la réglementation au sein de l'industrie de l'IA. L'urgence de mettre en place des mesures strictes pour contrôler l'utilisation de ces technologies dans le domaine de la santé devient une nécessité pressante pour éviter les conséquences néfastes sur la santé publique.