Dans le domaine de l’intelligence artificielle, l’hallucination fait référence à la production d’informations ou de déclarations incorrectes. On parle alors de mésinformation.
L’hallucination survient notamment à cause des données d’entraînement qui contiennent des erreurs ou des informations trompeuses. Il est donc important de contre-vérifier les informations fournies par les robots conversationnels, et ce, pour diverses raisons :
- Exactitude et mise à jour des informations : bien que les robots conversationnels soient mis à jour régulièrement, ils peuvent fournir des informations inexactes ou dépassées. On sait, par exemple, que les connaissances de ChatGPT s’arrêtent à septembre 2021 et qu’il n’est pas au courant des événements survenus après cette date;
- Contexte : une information qui est vraie dans un pays ou une situation ne l’est pas nécessairement dans d’autres autres;
- Biais : il est important de garder à l’esprit qu’aucun modèle ou système d’IA n’est totalement exempt de biais.
Source de l’image : Adobe Stock
« Le problème principal est que […] les réponses de ChatGPT […] ont généralement l’air d’être correctes. Elles sont aussi très faciles à produire par des gens qui n’ont ni l’expertise ni le désir de vérifier si la réponse fournie est factuelle. »
– Mike Sharples, professeur en technologies éducatives