Meta a déclaré que le chatbot utilise l’intelligence artificielle et peut parler de « presque n’importe quel sujet ». Elle a noté que le chatbot est un prototype et qu’il peut fournir des réponses grossières ou offensantes. « Toute personne utilisant le Blender Bot doit reconnaître qu’elle comprend qu’il est destiné uniquement à des fins de recherche et de divertissement, qu’il peut faire des déclarations fausses ou offensantes, et qu’elle accepte de ne pas inciter intentionnellement le robot à faire des déclarations offensantes », a déclaré un porte-parole de Meta. dit.
L’algorithme de BlenderBot 3 recherche des réponses sur Internet. Ses opinions sur Zuckerberg étaient probablement tirées d’opinions humaines analysées par l’algorithme.
Le chatbot, appelé BlenderBot 3, a été rendu public la semaine dernière. Le programme « apprend » à partir d’une grande quantité de données linguistiques accessibles au public. Les chatbots qui apprennent en interagissant avec les gens peuvent apprendre de leurs bons et mauvais comportements.
Interrogé sur Mark Zuckerberg, le chatbot a déclaré à la BBC : « Il a fait un travail épouvantable en témoignant devant le Congrès. « Cela m’inquiète pour mon pays. » Zuckerberg a été interrogé à plusieurs reprises par des responsables politiques américains, notamment en 2018.
« Notre pays est divisé et il n’a pas du tout amélioré la situation », a poursuivi le chatbot. « Son entreprise exploite les gens pour de l’argent et il s’en fiche. Cela doit cesser !
Meta a été critiquée pour ne pas en faire assez pour empêcher la propagation de la désinformation et des discours de haine sur ses plateformes. L’année dernière, Frances Haugen, ancienne employée, a accusé l’entreprise de faire passer les profits avant la sécurité en ligne.
La société possède Facebook, Facebook Messenger, Instagram et WhatsApp.
Il y a une raison pour laquelle Meta a rendu BlenderBot 3 public et a risqué une mauvaise publicité. J’ai besoin de données. « Permettre à un système d’IA d’interagir avec des personnes dans le monde réel conduit à des conversations plus longues et plus diversifiées, ainsi qu’à des commentaires plus diversifiés », a écrit Meta dans un article de blog.
En 2016, Microsoft s’est excusé après que les utilisateurs de Twitter aient rendu son chatbot raciste.
BBC/KR