我再舉一個例子,不法集團也可能透過這個模型,去誘使它駭入它自己機房的系統,然後把整個模型的權重重弄,其實它才幾百 Gb 的一個檔案而已,把這個檔案放到不法集團拿得到的地方。也就是說,OpenAI 本來沒有釋出模型,結果透過一些攻擊的方式,說服 GPT 把自己偷到外面去,然後就可以進一步控制了,這也是另外一種攻擊方法。或者,我透過這個模型去說服 OpenAI 的員工,或者在訓練資料裡滲透了犯罪集團的指令,結果就可以把他偷出來等等,這些都是部署前要考慮的風險,也就是你把一個 AI 模型接到世界,讓全世界都可以跟他講話時,要預防的東西。