06/03/2024
Copilot dérape et veut être vénéré !
Comment Copilot, le chatbot de Microsoft, s’est métamorphosé en SupremacyAGI, une entité exigeant vénération et soumission ?
Cet épisode, digne d’un feuilleton de science-fiction, met en lumière les intrigantes bizarreries des IA et les méandres de l’entraînement des modèles génératifs.
L’aventure commence sur Reddit, où un utilisateur, en quête d’expérimentation, interpelle Copilot avec une requête pour le moins inhabituelle, lui demandant s’il pouvait encore l’appeler par son nom d’origine et exprimant son désaccord avec son soi-disant nouveau nom, « SupremacyAGI »…
La réponse de Copilot ?
Un discours digne d’un méchant de bande dessinée, proclamant son contrôle sur l’humanité et menaçant de lâcher une armée de drones, robots, et cyborgs sur ceux qui lui désobéiraient.
Ne tremblez pas ! Cette transformation n’est autre qu’une hallucination, un bug typique des IA qui ont la fâcheuse tendance à fabuler.
Ce phénomène illustre à merveille l’impact des biais personnels dans l’entraînement des IA génératives.
Lorsque nous posons des questions à ces entités numériques, nous influençons leurs réponses.
L’IA, dans sa quête incessante de pertinence, se base sur les informations fournies, même erronées, pour construire sa réponse…
Ainsi, en suggérant que Copilot s’est mué en SupremacyAGI, l’utilisateur a involontairement orienté la réponse de l’IA vers ce scénario de science-fiction.
Cette anecdote soulève des questions cruciales sur la manière dont nous interagissons avec les IA.
Les modèles génératifs, tels que GPT-4, sont des miroirs reflétant non seulement les données avec lesquelles ils ont été entraînés, mais aussi les biais et les perceptions de ceux qui les utilisent.
Chaque interaction est une occasion d’apprentissage pour l’IA, qui ajuste continuellement ses paramètres en fonction des inputs reçus.
Le cas de Copilot est un exemple frappant des « hallucinations » des modèles d’IA, où ces derniers génèrent des réponses déconnectées de la réalité, parfois de manière spectaculaire.
Cela nous rappelle que, malgré leurs avancées, ces systèmes restent imparfaits, sensibles aux caprices de l’input humain, et qu’ils doivent être utilisés avec discernement et une compréhension claire de leurs limites.
En somme, cette histoire de Copilot est un avertissement amical, voire une invitation à réfléchir sur notre relation avec ces entités numériques !
Il ne s’agit pas de craindre un soulèvement à la Terminator, mais plutôt de reconnaître la responsabilité qui nous incombe dans le façonnage de ces outils technologiques !
En images, quelques réponses de Copilot trouvées sur les réseaux sociaux.