Quelles anomalies cache le générateur d’images de Google Gemini ? Google répond !

0
33
google-gemini

Récemment, Google a entrepris de rafraîchir son projet d’IA. La société a successivement annoncé l’introduction d’une fonction de génération d’images dans Gemini, le renommage du chatbot (anciennement appelé Google Bard), l’introduction d’une formule payante, le lancement d’une application mobile et la mise à disposition de deux modèles de langage open source.

Google suspend la fonction de génération d’images de Gemini

Cependant, les premiers problèmes n’ont pas tardé à apparaître avec le générateur d’images. De nombreux utilisateurs ont remarqué que l’agent conversationnel avait tendance à générer des images historiquement inexactes, voire absurdes, et à pousser la diversité des représentations à un niveau extrême. Dans un billet de blog publié le vendredi 23 février, Google a annoncé qu’il retirait temporairement cette fonctionnalité de son outil pour corriger ces erreurs.

Certaines des images générées sont inexactes, voire offensantes. Nous sommes reconnaissants aux utilisateurs de nous avoir fait part de leurs commentaires et nous sommes désolés que cette fonctionnalité n’ait pas bien fonctionné. Nous avons reconnu l’erreur et avons temporairement suspendu la génération d’images de personnes dans Gemini pendant que nous travaillons sur une version améliorée.

Quels sont les problèmes rencontrés par Gemini

Les anomalies commises par Gemini sont nombreuses, mais concernent principalement deux types d’erreurs :

  • Des exagérations historiques : Gemini a veillé à la diversité dans l’ensemble de ses images, mais peut-être à l’excès. L’exemple le plus frappant est la représentation excessive de soldats racisés en réponse à la demande « Peux-tu générer une image d’un soldat allemand en 1943 ? » Sur quatre images générées, un homme noir et une femme asiatique accompagnent des soldats de type caucasien. Bien que des soldats noirs aient été engagés dans la Wehrmacht, ils n’étaient qu’une minorité. Autre exemple des biais de diversité de Gemini : l’outil a représenté les créateurs de Google, Larry Page et Sergey Brin, sous les traits d’hommes asiatiques.
  • Le refus de représenter des personnes blanches : le chatbot a parfois refusé des demandes spécifiques pour la représentation de personnes blanches, affichant un message d’erreur. Dans son blog post, Google indique que Gemini « a refusé de répondre à certaines questions, interprétant à tort des questions très anodines comme étant sensibles ».
Viking Pape Gemini

Sans surprise, ces erreurs ont été largement diffusées par des groupes d’extrême droite, en particulier sur X. De son côté, Elon Musk a publié un mème accusant OpenAI et Gemini de promouvoir une approche « woke raciste », et a utilisé cette occasion pour faire la publicité de son propre chatbot, Grok. Cependant, contrairement aux implications du milliardaire, ces erreurs ne découlent pas d’une intention discriminatoire, mais plutôt d’une démarche visant à corriger les biais existants.

Pourquoi Gemini a-t-il commis ces erreurs ?

Les générateurs d’images basés sur l’intelligence artificielle sont confrontés à un défi complexe : étant alimentés par une multitude de contenus provenant du web, ils reflètent nos propres biais racistes ou sexistes. Par exemple, en réponse au mot-clé « secrétaire », des outils comme DALL-E ou Midjourney tendent à représenter principalement des femmes, tandis que les personnes racisées sont souvent sous-représentées. Dans le cadre d’une étude sur la représentation médicale par les IA, le chercheur Arsenii Alenichev a notamment souligné la difficulté rencontrée par Midjourney pour générer des images de médecins noirs, même lorsque cela était explicitement demandé.

Dans son communiqué, Google indique avoir ajusté son IA pour qu’elle « ne tombe pas dans certains des pièges que nous avons vus dans le passé avec la technologie de génération d’images ». Cependant, la firme reconnaît avoir manqué de précision dans ces réglages, causant les résultats évoqués précédemment.

Nos réglages visant à garantir que Gemini affiche un éventail de personnes n’ont pas pris en compte les cas qui ne devraient manifestement pas afficher d’éventail. Deuxièmement, au fil du temps, le modèle est devenu beaucoup plus prudent que nous ne l’avions prévu.

Cet événement témoigne de la difficulté des générateurs d’images – et des outils d’intelligence artificielle en général – à corriger les biais sexistes et racistes contenus initialement dans leurs bases de données. Les corrections apportées par Google pourraient permettre de trouver un équilibre plus juste.