← Słownik AI

Definicja

Halucynacja AI

Halucynacja AI to pewnie brzmiąca odpowiedź modelu, która jest fałszywa, zmyślona albo nieoparta na dostarczonym kontekście.

Znane też jako: halucynacja modelu, fabrykacja

Krótka definicja

Halucynacja AI to wynik, który wygląda wiarygodnie, ale jest błędny, zmyślony albo nie ma potwierdzenia w źródłach. Najczęściej mówi się tak o modelach językowych generujących fałszywe fakty lub fikcyjne cytowania.

Jak powstaje

Model językowy generuje prawdopodobny tekst, a nie gwarantowaną prawdę. Jeśli prompt jest niejasny, brakuje kontekstu albo zadanie wymaga dokładnych faktów, model może wypełnić luki prawdopodobnie brzmiącymi treściami.

Przykład

Model może streścić sprawę prawną i dodać nieistniejące orzeczenie. Odpowiedź brzmi profesjonalnie, ale źródło jest zmyślone.

Dlaczego to ważne

Halucynacje są jednym z głównych powodów, dla których wyniki AI trzeba testować. Pomagają RAG, cytowania, ograniczone formaty, walidacja narzędziowa i kontrola człowieka przy ważnych decyzjach.