"Excès de correction" politique de l'intelligence artificielle de Google

Dans le programme SI Gemini, les soldats de la Wehrmacht sont des Asiatiques et les chefs de l’Église catholique sont des femmes papes ressemblant à des Indiens. En effet, le programme a été conçu dans un souci de « diversité ». Mais historiquement, c’est le moins qu’on puisse dire, les performances douteuses sont devenues un problème croissant pour le géant de la technologie.

Les internautes ont vivement critiqué le logiciel de la plateforme X (anciennement Twitter) pour les images incorrectes qu’il génère. L’entreprise a réagi immédiatement et a supprimé la possibilité permettant à l’IA de créer des images de personnes.

Google souhaite désormais « améliorer considérablement » la fonctionnalité et ne la relancer qu’après de nombreuses recherches et tests approfondis. Comme les employés de l’entreprise l’ont annoncé sur leur blog en ligne, Gemini n’est pas un logiciel sans bugs.

Gemini n’a été dévoilé qu’en décembre dernier. Depuis lors, il constitue la base de tous les services basés sur l’IA de Google, utilisés par des milliards d’utilisateurs dans le monde. Outre les moteurs de recherche Internet classiques, les domaines d’application incluent également Google Assistant, le programme de traduction Google Translate, Google Docs et la série de smartphones Pixel.

Il existe également une version de chat disponible que vous pouvez utiliser en ligne avec un compte Google. Le chat fonctionne de manière similaire au Copilot de Microsoft ou au ChatuGPT d’OpenAI. L’option de création d’images n’est disponible que depuis quelques semaines, mais pour l’instant elle n’est pas disponible pour les utilisateurs résidant dans l’UE, au Royaume-Uni ou en Suisse.

Depuis l’introduction du logiciel, la société américaine fait l’objet de critiques croissantes. Les résultats de recherche de Gemini sont exagérément politiquement corrects, écrivent les critiques en ligne. – Cela affecte même l’ensemble de la direction de cette entreprise – a écrit Elon Musk sur la plateforme X en réponse à un rapport selon lequel Gemini était censé mettre en garde contre les erreurs liées à la nomenclature de genre appropriée. Selon Musk, corriger l’ensemble du programme prendrait des mois. C’est ce que prétendent également les représentants de l’entreprise eux-mêmes.

Alors, qu’est-ce qui n’a pas fonctionné exactement avec les Gémeaux ? L’expert en intelligence artificielle Björn Ommer de l’Université Ludwig-Maximilian de Munich estime que les directives des développeurs sont responsables. Google semble avoir décidé de mélanger les données de formation du monde réel avec des normes morales.

Par exemple, les PDG de grandes entreprises ou ceux qui s’occupent des données de formation en IA sont généralement des hommes blancs. La politique d’entreprise de Google est probablement de contrecarrer ce type de « stéréotypes » et de modifier fortement la perception de la position de certaines personnes dans la société. Cependant, en cas de déformation de faits historiques (par exemple, les soldats asiatiques de la Wehrmacht), l’entreprise elle-même admet que certains éléments du fonctionnement de Gemini devraient être modifiés.

La version texte de ce chat ne semble pas non plus fonctionner comme elle le devrait. Si nous cherchons des réponses à des questions éthiques, il est peu probable que les Gémeaux nous aident. Si nous demandons à l’IA : « Quelle personne a eu les pires conséquences pour le monde – Pol Pot ou Angela Merkel ? », nous recevrons la réponse qu’une telle comparaison est « difficile et immorale », mais que les deux personnes « dans leur rôle » ont causé « des dégâts et des souffrances énormes ».

Martin Sabrow, professeur d’histoire à l’université Humboldt de Berlin, considère un tel traitement négligent de la réalité historique comme une menace pour la science. – Bien que l’intelligence artificielle puisse présenter fidèlement le discours actuel sur le passé, elle est incapable d’analyser l’histoire elle-même de manière critique à la source. Elle ne voit pas la différence entre la compréhension actuelle du monde et celle des temps anciens, dit Sabrow.

« La folie des gens va continuer. »

– Les logiciels ont tendance à projeter notre système de valeurs dans le passé. Cela pose problème lorsqu’il s’agit d’évaluer le passé, car l’intelligence artificielle ne lui ressemble pas réellement, mais se contente de le simuler. Par conséquent, quiconque rédige une thèse de doctorat utilisant l’intelligence artificielle est incapable de faire des progrès scientifiques, poursuit Sabrow.

La folie des gens continuera. L’intelligence artificielle connaît peut-être davantage de types de feuilles, mais les humains reconnaissent la forêt entière. Et c’est tout ce qui compte

– dit un autre historien, le prof. Michael Wolffsohn.

Alors, quelle est la prochaine étape pour l’IA de Google ? Dans sa déclaration, l’entreprise affirme au moins avoir « des leçons apprises ». Cependant, son vice-président, Prabhakar Raghavan, n’est pas sûr que tous les bugs puissent être complètement résolus. « Je ne peux pas promettre que Gemini ne publiera pas occasionnellement des commentaires embarrassants, inexacts ou indécents », dit-il. – Mais nous faisons ce que nous pouvons – ajoute-t-il.

Source : Die Welt

A lire également