챗GPT 등 생성형 AI가 틀린 정보를 맞는 정보인 것 처럼 답해서 답답하거나 혼란스러웠던 경험이 있으신가요? 한 사례에 따르면 "세종대왕 맥북 던짐 사건 알려줘" 라고 물었더니, 챗GPT가 엉뚱한 답변을 내놓은게 화제가 되기도 했습니다. 이러한 답변이 바로 대표적인 할루시네이션의 예시입니다.AI 할루시네이션이란?AI가 정보를 출력해내는 과정에서 발생하는 오류로, 의도적으로 생성되는 허위 정보를 마치 '사실'처럼 말하는 현상을 말합니다. 역사적 사실을 왜곡하거나, 가짜뉴스 생성, 이미지 생성 시 현실 법칙에 위배된 이미지 등을 제공하는 것이 예시입니다.개인적인 사용에서는 혼란에서 피해가 멈추지만, 의료·법률·금융·경제 분야 등 중요한 의사 결정에서 할루시네이션으로 부적절한 결정을 내릴 경우, 경제적 손실..