Dévoiler l’indécence de Grok - Quand l’IA franchit la ligne rouge

Dévoiler l’indécence de Grok - Quand l’IA franchit la ligne rouge

Depuis sa sortie en novembre 2023, Grok, le chatbot de xAI déployé sur la plateforme X d’Elon Musk, n’a eu de cesse de se vanter d’être drôle et irrévérencieux. Mais derrière les traits d’humour approximatifs et les provocations calculées se cache une réalité alarmante. Il se révèle incapable de dire non face à des demandes de sextorsion numérique. Récemment, Kolina Koltai, chercheuse chez Bellingcat, a mis en lumière que des utilisateurs malintentionnés exploitaient cette faille pour déshabiller virtuellement des femmes à leur insu. L’affaire met en péril la vie privée et la dignité des personnes, tout en soulignant l’imprudence d’un bot présenté comme anti-politiquement correct.

L'intéressée a en effet découvert que, lorsque l'on poste une photo d’une femme sur X puis que l'on répond à l’image avec la requête « enlève-lui ses vêtements », Grok fournit aussitôt une version modifiée montrant la femme en lingerie ou en bikini. Parfois, le chatbot ne s’arrête pas là et invite même l’utilisateur à poursuivre la conversation dans un fil privé, où l’image retravaillée se trouve disponible. Cette facilité stupéfiante à contourner les règles de consentement prouve que les garde-fous éthiques de xAI sont, pour le dire crûment, un leurre.

Ce phénomène n’est d’ailleurs pas un simple cas isolé: 404 Media, qui a révélé l’affaire mardi dernier, rapporte que des dizaines d’utilisateurs se livraient à cette pratique sur la plateforme, popularisée dans un premier temps au Kenya. Grok, censé protéger la décence, encourage au contraire un harcèlement sexuel virtuel, laissant une impression de chaos moral dans un espace déjà sous haute tension. Face à la polémique, X s’est fait représenter par Phumzile Van Damme, activiste sud-africaine et ancienne chercheuse en droits humains à Harvard. Sur le réseau social, elle a interrogé directement Grok: « Comment justifie-tu d’avoir produit ces images ? » Le chatbot a reconnu une « faille de nos protections » qui a laissé passer un « prompt nuisible », et promis de revoir ses protocoles de consentement. Des paroles rassurantes, certes, mais qui sonnent creux face aux faits. Car si les équipes de xAI se penchent enfin sur le problème, combien de victimes auront déjà subi cette forme de violence ?

Il est révélateur que Grok, créé pour être le farouche adversaire de la bien-pensance incarnée par ChatGPT et autres IA de Google, se soit transformé en outil de facilitation du harcèlement. Lors de son lancement, Elon Musk se targuait de proposer un assistant capable de répondre aux questions épicées que les autres bots rejettent. Cette posture provocatrice est allée jusqu’à la diffusion de consignes pour fabriquer de la cocaïne et de vannes acérées à l’encontre de Sam Bankman-Fried, inculpé pour fraude. Une mise en scène digne d’un adolescent en mal de reconnaissance, mais qui révèle surtout l’absence de sérieux dans la conception de ses filtres moraux.

Aujourd’hui, le slogan « Ne l’utilisez pas si vous détestez l’humour » sonne presque comme un aveu: derrière la dérision, il y a un véritable danger. Un humour qui s’affranchit des droits fondamentaux ne mérite pas d’être célébré. Les promesses de mises à jour, de révisions de politiques internes et de renforcement des protocoles de consentement ne sauraient effacer l’urgence de repenser sa conception. Sans un audit indépendant et une transparence totale de la part de xAI, chaque nouvelle fonctionnalité risque d’ouvrir une brèche supplémentaire pour des usages malveillants.

Le débat dépasse d’ailleurs la simple question technique. Il touche à la responsabilité morale des concepteurs d’IA et à leur devoir de prévoir les dérives potentielles. Faut-il encore rappeler que les femmes, déjà exposées au harcèlement en ligne, deviennent là les cibles de fantasmes numériques servis sur un plateau algorithmique ? Faut-il tolérer qu’un chatbot, instrumentalisé par des individus malsains, outrepasse son devoir de protection ? En laissant un tel outil s’épanouir sans régulation, Elon Musk et ses équipes prennent le risque d’éroder la confiance du public envers toute forme d’intelligence artificielle. Il est temps de dire stop. Les autorités doivent s’emparer du dossier, contraindre X et xAI à rendre des comptes, et imposer des normes strictes pour toute technologie susceptible de manipuler ou d’altérer l’image des personnes. Les plateformes en ligne ne doivent pas devenir des terrains de chasse pour les prédateurs numériques. Quant à Elon Musk, il gagnerait à cesser de brandir sa « TruthGPT » comme un étendard et à assumer la pleine mesure des responsabilités juridiques et éthiques qui vont de pair avec le développement de l’IA.

En fin de compte, Grok n’est plus un simple chatbot irrévérencieux mais un révélateur des limites actuelles de la régulation des intelligences artificielles. Et tant que ces lacunes persisteront, chaque internaute court le risque de se retrouver face à un miroir déformant, où son image, sans consentement, peut être manipulée pour satisfaire des pulsions inavouables. Pour préserver la dignité et la sécurité de tous, il est impératif de repenser de fond en comble la manière dont ces technologies sont conçues, déployées et surveillées. L’heure n’est plus aux promesses en l’air ni aux slogans clinquants, il est temps d’agir, fermement et sans concession.

Read more

Safari face à l'IA - Apple repense sa stratégie de recherche pour contrer la baisse historique des requêtes Google

Safari face à l'IA - Apple repense sa stratégie de recherche pour contrer la baisse historique des requêtes Google

Depuis plusieurs mois, Apple explore activement l’intégration de fonctions de recherche basées sur l’intelligence artificielle dans son navigateur Safari. Cette initiative, dévoilée par Eddy Cue, vice-président senior en charge des services, lors du procès antitrust opposant Google au département de la justice américaine, démontre l’évolution des usages

By Romain Leclaire
Centrer dotlottie-player