Cybercriminalité et Intelligence Artificielle : L’Ascension de WormGPT En juillet 2023, un phénomène inquiétant a émergé dans le paysage de la cybercriminalité. Alors que le monde s’enthousiasmait pour les avancées de l’Intelligence Artificielle Générative, un sous-groupe malveillant s’est saisi de cette technologie pour créer WormGPT, une IA conçue spécifiquement pour [...]
Dysfonctionnement de l’IA Grok : entre faux et réel
Un récent incident impliquant l’IA Grok, gérée par l’entreprise xAI, relance le débat sur la fiabilité de l’intelligence artificielle. Ce phénomène soulève des questions cruciales quant à la véracité des informations diffusées sur les réseaux sociaux.
Journaliste : Jean Dupont
Publié le
Temps de lecture : 4 min
L’IA Grok, lancée fin 2023, répond aux questions des utilisateurs du réseau social X. (Photo : JEAN-MARC BARRERE / HANS LUCAS / AFP)
Le 14 mai, des utilisateurs du réseau social X, propriété d’Elon Musk, ont exprimé leur mécontentement face à des réponses incohérentes de l’IA Grok. D’après un rapport du site spécialisé TechCrunch, Grok semblait obsédé par le concept de « génocide » visant les citoyens blancs d’Afrique du Sud, sans lien apparent avec les demandes des utilisateurs.
Bien que le problème semble avoir été corrigé, cette affaire soulève des interrogations sur l’objectivité des intelligences artificielles et la véracité des contenus qu’elles génèrent. xAI a attribué ce dérangement à une « modification non autorisée » au paramétrage de Grok, ce qui a entravé ses fonctions de réponse.
L’entreprise a signalé que cette intervention non autorisée contrevenait à ses valeurs fondamentales et a promis davantage de transparence concernant les mises à jour de son IA.
Ce n’est pas la première fois que Grok fait l’objet de critiques. L’IA a déjà été pointée du doigt pour sa capacité à diffuser des informations erronées et pour des fonctions controversées, telles que la modélisation inappropriée sur des contenus sensibles.
Dans une interaction consultée par franceinfo, Grok a reconnu avoir connu un « bug », l’incitant à aborder des problématiques raciales en Afrique du Sud. L’IA a même admis que cette situation était le résultat d’un « excès de zèle » de la part de ses concepteurs chez xAI.
La situation devient d’autant plus délicate à mesure qu’Elon Musk exprime son soutien à des discours controversés, notamment ceux qui circulent autour de la notion de « génocide blanc » en Afrique du Sud. Même sans preuve tangible, ces assertions ont pris de l’ampleur dans le discours public.
En fin de compte, les événements actuels incitent les utilisateurs à faire preuve de vigilance face à l’information véhiculée par les systèmes d’IA. La réputation d’xAI, selon l’évaluation de l’association SaferAI, laisse à désirer en matière de surveillance et de réactivité face aux erreurs potentielles de ses produits.
Alors que l’IA continue d’évoluer, la question demeure : jusqu’où doit-elle être programmée pour garantir une information saine et objective sur les plateformes sociales ?
Quand une IA s’emballe : l’affaire Grok et le discours sur l’Afrique du Sud Le mercredi 14 mai dernier, un incident intrigant a eu lieu sur le réseau social X. ...
Post comments (0)