[Home] AI로 돌아가기

Hallucination - 할루시네이션/환각/조작/착각

Hallucination(할루시네이션)은 AI 모델이 사실과 다른 정보를 생성하거나, 존재하지 않는 내용을 만들어내는 현상을 의미한다. 이는 생성형 AI 모델(예: ChatGPT, GPT-4 등)에서 흔히 발생하는 문제 중 하나이다.

(1) 할루시네이션의 원인

(2) 할루시네이션의 예시

AI가 실제 존재하지 않는 정보를 생성하는 사례:

(3) AI 연구자들의 관점

AI 연구자들은 처음에는 할루시네이션을 '버그(bug)'로 간주했으나, 이후에는 이를 '특징(feature)'으로 받아들이기 시작했다.

"LLM(대형 언어 모델)은 100% 꿈을 꾸고 있으며, 환각 문제가 있다.
검색엔진은 꿈이 0%이고, 창의성 문제가 있다."
안드레이 카파시(Andrej Karpathy, 전 OpenAI 연구원)