Definicja
Halucynacja AI
Halucynacja AI to pewnie brzmiąca odpowiedź modelu, która jest fałszywa, zmyślona albo nieoparta na dostarczonym kontekście.
Krótka definicja
Halucynacja AI to wynik, który wygląda wiarygodnie, ale jest błędny, zmyślony albo nie ma potwierdzenia w źródłach. Najczęściej mówi się tak o modelach językowych generujących fałszywe fakty lub fikcyjne cytowania.
Jak powstaje
Model językowy generuje prawdopodobny tekst, a nie gwarantowaną prawdę. Jeśli prompt jest niejasny, brakuje kontekstu albo zadanie wymaga dokładnych faktów, model może wypełnić luki prawdopodobnie brzmiącymi treściami.
Przykład
Model może streścić sprawę prawną i dodać nieistniejące orzeczenie. Odpowiedź brzmi profesjonalnie, ale źródło jest zmyślone.
Dlaczego to ważne
Halucynacje są jednym z głównych powodów, dla których wyniki AI trzeba testować. Pomagają RAG, cytowania, ograniczone formaty, walidacja narzędziowa i kontrola człowieka przy ważnych decyzjach.