Le problème de « faire semblant de savoir quand on ne sait pas » (hallucination), l’un des plus grands dilemmes de l’intelligence artificielle, a atteint un tournant important dans le monde scientifique. L’étude, menée par l’Institut coréen avancé des sciences et technologies (KAIST), promet d’améliorer la fiabilité dans des domaines critiques tels que la médecine et la conduite autonome en faisant « admettre son ignorance » à l’IA.

COMMENT LE PROBLÈME DE LA « CONFIANCE EN SOI EXCESSIVE » A-T-IL ÉTÉ RÉSOLU ?

Selon les nouvelles du Turc Indépendant ; Les modèles d’intelligence artificielle existants avaient tendance à donner des réponses erronées avec un niveau de confiance élevé, même sur des sujets qu’ils ne connaissaient pas, en amplifiant les petites erreurs dans les données auxquelles ils étaient exposés, notamment au début du processus de formation. Les chercheurs ont déterminé que la base de cette situation réside dans la manière dont les réseaux neuronaux apprennent.

Pour résoudre ce problème, l’équipe KAIST s’est inspirée du développement prénatal du cerveau humain. Le cerveau humain commence à produire des signaux avant même de recevoir un stimulus du monde extérieur. En imitant ce processus, les scientifiques ont appliqué une brève pré-formation (période d’échauffement) avec des entrées de « bruit aléatoire » avant d’enseigner les données réelles du modèle d’IA.

PHASE « JE NE SAIS ENCORE RIEN »

Grâce à cette « période d’échauffement », le modèle d’IA apprend à équilibrer sa propre incertitude avant de commencer à apprendre des données. Le modèle démarre le processus dès le début en posant les bases du « Je ne sais encore rien ». Ainsi, lorsqu’il rencontre des données qu’il n’a pas rencontrées lors de l’entraînement, il acquiert la capacité de dire « je ne sais pas » en baissant sa confiance en lui au lieu de donner une réponse inventée.

L’INTELLIGENCE ARTIFICIELLE A MAINTENANT UNE CONSCIENCE PLUS « HUMAINE »

Se-Bum Paik, l’un des auteurs de l’étude publiée dans la revue Nature Machine Intelligence, souligne l’importance de cette méthode avec les mots suivants :

« Cette étude montre qu’en combinant les principes fondamentaux du développement cérébral, l’IA peut reconnaître son propre état de connaissances d’une manière plus similaire à celle des humains. »

POURQUOI EST-CE IMPORTANT ?

En particulier dans les diagnostics médicaux, les prédictions de l’intelligence artificielle peuvent présenter des risques potentiellement mortels. Avec la nouvelle méthode :

La fiabilité augmentera : L’IA reconnaîtra lorsqu’elle est indécise ou s’est peut-être trompée.

Les hallucinations réduiront : Il acceptera l’incertitude plutôt que d’inventer des informations.

Les décisions critiques sont plus sûres : Des résultats plus cohérents seront obtenus dans des domaines où il n’y a aucune marge d’erreur, comme les véhicules autonomes et le secteur de la santé.

Cette invention semble transporter les assistants numériques et les mécanismes de décision vers un avenir plus sûr en améliorant non seulement la capacité de l’intelligence artificielle à répondre correctement, mais aussi sa capacité à connaître ses propres limites (métacognition).

A lire également