唐鳳

光有這件事,並不能。如果一個系統能改變自己的信念,卻無法對「為什麼」做出清楚、可讀的交代,那麼不透明就不會變少,只會變得更危險。風險不再只是出錯,而是無法交代的漂移。若這種修改在原理上就無法解釋,因為背後根本沒有可說明的推理,那麼 AI 一旦獲得後設認知,就很可能會執著於當下的自我。