đ Et on n'est pas prĂ©parĂ© à ça...
âïž Hello, câest Johan ! Je me suis trompĂ©. Jâavoue. Jâai longtemps cru que les fausses informations les plus rĂ©pandues restaient « low-tech » : vidĂ©os retouchĂ©es, memes, titres manipulĂ©s, amplification par les personnalitĂ©s publiques plus ou moins permĂ©ables au discours et au «narratif» russe, chinois, maga, etc. Un truc artisanal, plus ou moins dopĂ© Ă lâIA, quâon pourrait Ă©ventuellement contrer avec une bonne techno, et un sursaut dĂ©mocratique. Je vous explique le nouvel armageddon informationnel quâon avait pas vraiment vu venir.
đ§š Au programme : 1038 mots pour 5â11 minutes de lecture. Merci! J.
Le monde a changĂ©, mon brave monsieur. On est plus en 2023 ! Le vrai risque rĂ©side ailleursâŻ: dans ce que les IA absorbent et rĂ©pĂštent. Câest la conclusion Ă laquelle sont arrivĂ©s deux excellentes organisations que je vous conseille de conserver dans vos onglets, NewsGuard et lâInstitute for Strategic Dialogue, aprĂšs avoir mesurĂ© comment les chatbots les plus populaires (ChatGPT, DeepSeek, GeminiâŠ) se comportaient face Ă la propagande Ă©trangĂšre notamment russes, chinoise et iranienne.
Bon, ils se comportent mal. Juste lĂ , pas de bonne surprise.
ChatGPT, Deepseek, Grok⊠boivent la propagande Ă©trangĂšre, notamment russe, comme du petit lait et la rĂ©pĂštent. Cette rĂ©pĂ©tition de fausses informations par lâIA est invisible et quasi-intraçable, contrairement Ă la dĂ©sinformation sur les plateformes sociales. Il n'y a pas de publication Ă signaler, pas de mesures d'engagement Ă analyser, pas de responsable.
...