25/05/2024
Pour rester en bonne santé, il faut « manger un caillou par jour » !
Depuis le 14 mai, aux USA, au-dessus des résultats web classiques de Google, apparaît un texte généré par une IA dans le style de ChatGPT, qui résume les textes tirés du web que le programme a analysés comme pertinents.
Une fonctionnalité accusée de générer de nombreuses affirmations erronées, assénées avec certitude par le moteur de recherche le plus utilisé du monde.
Exemple : un internaute a posé la question « le fromage ne colle pas à la pizza ». Parmi les méthodes proposées par AI Overview : « ajouter 1/8e de verre de colle non toxique à la sauce pour lui donner plus de viscosité ». Pas bête !
Autre exemple : AI Overview peut également conseiller de remplacer son liquide de clignotant ou affirme qu’il n’existe aucun pays d’Afrique commençant par un K (et le Kenya alors ?)
Au final, pas de grosses surprises ! Nous avons affaire ici, à de grossières hallucinations.
Alors comment les expliquer ? Au-delà du fonctionnement classique d’un modèle d’IA qui se repose encore sur des données d’entraînement incomplètes ou fausses, tous les exemples d’hallucination de la fonctionnalité AI Overview viennent de questions très particulières, rarement posées par des internautes, ou, des questions tellement précises qu’elles peuvent faire référence à des mouvements complotistes ou professant de fausses informations.
Quoi retenir de ce qu’il arrive avec AI Overview ? Encore une fois, l’esprit critique et encore l’esprit critique.
Il ne faut jamais se fier aux résultats issus de modèles d’IA car leur façon de fonctionner est encore trop aléatoire et n’est pas maîtrisée à 100% par l’homme.