Une étude de Newsguard confirme la propension de l’IA générative à propager la désinformation
Selon le nouveau baromètre de la start-up spécialiste de la lutte contre les « fake news », les dix principaux modèles d’IA générative – dont ChatGPT ou celui de MistralAI – répètent en moyenne des infox dans 30 % des cas, quand leur sont soumises des requêtes comprenant de fausses informations. Les résultats sont très hétérogènes selon les services.