因此,AI 很容易陷入所謂的「幻覺」(hallucination)——也就是在它匯整或產生新內容時,並沒有真正驗證「那是不是和現實一致」。它只是在已知文字中找尋統計相關性或語義模式,進而衍生新的回答。若是題目牽涉到真實世界的物理狀態、時空條件或最新的事實,AI 就可能不小心「張冠李戴」或「杜撰」出其所謂的「答案」,因為它無法像人一樣透過「直接感官體驗」或「真實實驗」來判斷。