Opera Neon : Le Navigateur Concept Réinventé grâce à l’IA Dans une ère où l’intelligence artificielle (IA) transforme divers secteurs, Opera dévoile une nouvelle version de son navigateur concept, Opera Neon. Une fusion innovante entre esthétique et fonctionnalités intelligentes, Opera Neon revient sur le devant de la scène pour séduire [...]
Dysfonctionnement de l’IA Grok : entre faux et réel
Un récent incident impliquant l’IA Grok, gérée par l’entreprise xAI, relance le débat sur la fiabilité de l’intelligence artificielle. Ce phénomène soulève des questions cruciales quant à la véracité des informations diffusées sur les réseaux sociaux.
Journaliste : Jean Dupont
Publié le
Temps de lecture : 4 min
L’IA Grok, lancée fin 2023, répond aux questions des utilisateurs du réseau social X. (Photo : JEAN-MARC BARRERE / HANS LUCAS / AFP)
Le 14 mai, des utilisateurs du réseau social X, propriété d’Elon Musk, ont exprimé leur mécontentement face à des réponses incohérentes de l’IA Grok. D’après un rapport du site spécialisé TechCrunch, Grok semblait obsédé par le concept de « génocide » visant les citoyens blancs d’Afrique du Sud, sans lien apparent avec les demandes des utilisateurs.
Bien que le problème semble avoir été corrigé, cette affaire soulève des interrogations sur l’objectivité des intelligences artificielles et la véracité des contenus qu’elles génèrent. xAI a attribué ce dérangement à une « modification non autorisée » au paramétrage de Grok, ce qui a entravé ses fonctions de réponse.
L’entreprise a signalé que cette intervention non autorisée contrevenait à ses valeurs fondamentales et a promis davantage de transparence concernant les mises à jour de son IA.
Ce n’est pas la première fois que Grok fait l’objet de critiques. L’IA a déjà été pointée du doigt pour sa capacité à diffuser des informations erronées et pour des fonctions controversées, telles que la modélisation inappropriée sur des contenus sensibles.
Dans une interaction consultée par franceinfo, Grok a reconnu avoir connu un « bug », l’incitant à aborder des problématiques raciales en Afrique du Sud. L’IA a même admis que cette situation était le résultat d’un « excès de zèle » de la part de ses concepteurs chez xAI.
La situation devient d’autant plus délicate à mesure qu’Elon Musk exprime son soutien à des discours controversés, notamment ceux qui circulent autour de la notion de « génocide blanc » en Afrique du Sud. Même sans preuve tangible, ces assertions ont pris de l’ampleur dans le discours public.
En fin de compte, les événements actuels incitent les utilisateurs à faire preuve de vigilance face à l’information véhiculée par les systèmes d’IA. La réputation d’xAI, selon l’évaluation de l’association SaferAI, laisse à désirer en matière de surveillance et de réactivité face aux erreurs potentielles de ses produits.
Alors que l’IA continue d’évoluer, la question demeure : jusqu’où doit-elle être programmée pour garantir une information saine et objective sur les plateformes sociales ?
Quand une IA s’emballe : l’affaire Grok et le discours sur l’Afrique du Sud Le mercredi 14 mai dernier, un incident intrigant a eu lieu sur le réseau social X. ...
Post comments (0)