DETECTING HALLUCINATION IN A LANGUAGE MODEL
Various embodiments discussed herein are directed to improving existing technologies by detecting a likelihood of hallucination arising from one-shot, few-shot, or outside knowledge contexts. For example, regarding the one-shot or few-shot contexts, some embodiments determine a set of tokens in a la...
Gespeichert in:
Hauptverfasser: | , , , |
---|---|
Format: | Patent |
Sprache: | eng ; fre |
Schlagworte: | |
Online-Zugang: | Volltext bestellen |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | Various embodiments discussed herein are directed to improving existing technologies by detecting a likelihood of hallucination arising from one-shot, few-shot, or outside knowledge contexts. For example, regarding the one-shot or few-shot contexts, some embodiments determine a set of tokens in a language model output that are not found in target content but are found in at least one example. When such phrases are not very common words, this is highly indicative that the model is hallucinating because these phrases should be located in the target content but are not, but are instead located in the examples.
Divers modes de réalisation discutés ici concernent l'amélioration de technologies existantes en détectant une probabilité d'hallucinations survenant à partir de contextes à un exemple, à quelques exemples ou à connaissances extérieures. Par exemple, concernant les contextes à un exemple ou à quelques exemples, certains modes de réalisation déterminent un ensemble de jetons dans une sortie de modèle de langage qui ne sont pas trouvés dans un contenu cible mais sont trouvés dans au moins un exemple. Lorsque de telles phrases ne sont pas des mots très courants, cela est hautement indicatif du fait que le modèle fait une hallucination parce que ces phrases devraient être présentes dans le contenu cible mais ne le sont pas, mais sont plutôt présentes dans les exemples. |
---|