Une IA peut-elle remplacer un professeur ? Un exemple de dialogue avec Bard-Google, entre hallucinations et illusions réflexives
In the context of the flood of references to generative artificial intelligences, this publication aims to help establish a typology of the troubling responses provided by these algorithms. This work is based on an example of dialogue with Bard-Google on the theme "Can an AI replace a teacher?&...
Gespeichert in:
Veröffentlicht in: | L'esprit d'Archimède 2023-11, Vol.2023 (10), p.27-34 |
---|---|
Hauptverfasser: | , |
Format: | Artikel |
Sprache: | fre |
Schlagworte: | |
Online-Zugang: | Volltext |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | In the context of the flood of references to generative artificial intelligences, this publication aims to help establish a typology of the troubling responses provided by these algorithms. This work is based on an example of dialogue with Bard-Google on the theme "Can an AI replace a teacher?", which serves as a case study for proposing an initial set of terms describing the troubling effects generated. The following are defined: incoherence, apparent denial, hallucination in general and documentary hallucination in particular, alignment of allegiance and reflexive illusion, which is a bilateral effect, concerning both the algorithm and the human. This last effect leads us to consider that the disorders created by this type of dialogue must obviously be seen as shared wrongs.
Dans le contexte de la déferlante des références aux intelligences artificielles génératives, cette publication vise à contribuer à établir une typologie des réponses troublantes fournies par ces algorithmes. Ce travail est effectué à partir d'un exemple de dialogue avec Bard-Google portant sur le thème "Une IA peut-elle remplacer un professeur ?" qui fonctionne comme étude de cas pour proposer un premier ensemble de termes décrivant les effets troublants générés. Sont ainsi définis : l'incohérence, le déni apparent, l'hallucination en générale et l'hallucination documentatoire en particulier, l'alignement d'allégeance ainsi que l'illusion réflexive qui est un effet bilatéral, concernant autant l'algorithme et l'humain. Ce dernier effet conduit à considérer que les troubles créés par ce type de dialogue doivent se regarder à l'évidence comme à tords partagés. |
---|---|
ISSN: | 2680-2198 |