Gemini 2.5 Pro - Google nous berne avec sa transparence bidon

Gemini 2.5 Pro - Google nous berne avec sa transparence bidon

Hier, Google, fort de son tout nouveau modèle d’IA le plus puissant à ce jour, Gemini 2.5 Pro, a enfin daigné publier un rapport technique sur ses évaluations internes de sécurité. Un battage médiatique minimal a suivi, mais le document, loin de lever le voile, se contente d’effleurer les enjeux. Pour des experts habitués à des rapports détaillés, si utile qu’ils confèrent parfois une image embarrassante des entreprises, cette sortie ressemble davantage à un exercice de communication qu’à un véritable effort de transparence.

Les rapports techniques, conçus pour soutenir la recherche indépendante et les évaluations de sûreté, constituent pourtant un précieux garde-fou face aux risques que les IA peuvent générer. Mais chez le géant américain, l’approche diffère radicalement de celle de certains concurrents. Seuls les modèles ayant quitté le stade « expérimental » sont accompagnés de ces rapports, et encore, certaines évaluations relatives aux « capacités dangereuses » sont soigneusement remisées dans un audit ultérieur. Une stratégie qui, au mieux, donne l’impression d’un filtrage sélectif, au pire, masque des failles évidentes.

Peter Wildeford, cofondateur de l’Institute for AI Policy and Strategy, ne mâche pas ses mots:

« Ce rapport est extrêmement lacunaire, délivre des informations quasi ridicules, et arrive des semaines après que Gemini 2.5 Pro ait déjà été rendu public. Impossible de vérifier si Google respecte ses engagements, et dès lors, de juger de la sûreté et de la sécurité de leurs modèles. »

Cette critique cinglante révèle un malaise: comment croire en la bonne foi d’une entreprise qui choisit elle-même ce qu’elle juge « nécessaire » à rendre public ?

Thomas Woodside, cofondateur du Secure AI Project, partage ce scepticisme, s’il se réjouit qu’un rapport ait enfin émergé pour Gemini 2.5 Pro, il doute de l’engagement de Mountain View à fournir des évaluations complémentaires en temps voulu. Les derniers résultats de tests de capacités dangereuses remontent à juin 2024 pour un modèle annoncé en février de la même année. Entre-temps, d’autres versions ont été lancées sans un mot, un précédent dangereux pour une industrie qui a fait de la régulation et de la confiance son cheval de bataille.

La pilule passe d’autant moins difficilement que Google s’est gardé de publier un rapport pour Gemini 2.5 Flash, son modèle plus petit et plus efficace dévoilé la semaine dernière. Un porte-parole assure que le document est « en préparation ». La promesse de publication devient un éternel repoussoir, symbole d’une transparence qui se dérobe dès qu’on la réclame. Comme si publier avant diffusion publique aurait révélé trop tôt des zones d’ombre. Pire, Google n’est aujourd’hui plus le seul laboratoire à tricher avec la clarté. Meta a proposé une évaluation elle aussi famélique pour sa série Llama 4, tandis qu’OpenAI a carrément zappé toute publication pour sa version GPT‑4.1. Comment croire, dans ces conditions, que la course à l’innovation ne soit pas devenue une course au rabais sur la sécurité ? Quand les géants se renvoient la balle de la transparence, l’utilisateur final se retrouve piégé dans un maelström d’informations partielles et de promesses creuses.

Or Google n’est pas en terrain inconnu. Il y a deux ans, le groupe s’était engagé auprès du gouvernement américain à publier des rapports de sécurité pour tous les modèles publics importants, et a répété cet engagement auprès d’autres régulateurs à travers le monde, promettant une « transparence publique » sur ses produits d’IA. Ces assurances donnent aujourd’hui le sentiment d’un vrai visage: des engagements solennels pour calmer les régulateurs, suivis d’une exécution au compte-gouttes dès que le lobby reprend la main.

Kevin Bankston, conseiller principal à l’AI Governance du Center for Democracy and Technology, tire la sonnette d’alarme:

« Avec des rapports sporadiques et aussi vagues, on assiste à une véritable course au fond de la classe en matière de sécurité et de transparence. Tandis que d’autres laboratoires raccourcissent leurs phases de tests de mois à jours, cette documentation indigente pour le modèle vedette de Google dessine un tableau affligeant: une industrie piégée dans la précipitation, prête à sacrifier la sûreté pour gagner quelques semaines sur le marché. »

Malgré ces critiques sévères, Google se défend en affirmant qu’il réalise des tests de sécurité et des sessions d’« adversarial red teaming » pour tous ses modèles avant leur commercialisation, sans pour autant détailler ces procédures dans ses rapports publics. Au final, ce semblant de transparence ressemble à un paravent de bonnes intentions où chaque étude vraiment critique est reléguée aux coulisses. Si l'entreprise américaine souhaite sincèrement renouer avec la confiance de ses utilisateurs et des régulateurs, il lui faudra lever le voile plus tôt, plus largement et plus clairement. L’heure n’est plus à l’expérimentation feutrée mais à la démonstration rigoureuse: rapports complets, données brutes, protocole détaillé. Sans cela, Gemini 2.5 Pro restera une vitrine technologique qui impressionne le grand public, mais laisse les experts et les défenseurs de la sécurité face à un creux abyssal d’incertitudes.

Read more