也很感謝大家,瞬間好像連一個月冷凍期都沒有,《電子簽章法》馬上就通過了。後面的廣告實名制的配套,包含子法什麼現在都已經生效了,我實際去 Facebook 這些地方看,確實這些詐騙廣告真的是有減少。
像我上次上這個節目的時候,不就是說我們就是要發簡訊給大家,大家線上討論,然後快速的去把廣告實名制的邊界,就是怎麼樣子能夠確保這個詐騙集團不能夠很容易的在 Facebook 這些地方下廣告,但又不會變成好像侵害言論自由,這個邊界把它畫清楚,那也確實畫清楚了。
對啊!可是像我們剛剛講到,看到前面可能有一個斷崖,還不確定是不是斷崖了,但是趕快轉方向盤,這部分我們就反應很快。
有沒有把煞車踩到底。
基本的價值把它勾起來。
已經上路了不是嗎?
我們也有廣告實名制。
詐騙集團應該不可以用 AI 吧?
基本價值打勾的部分應該都要有。
沒錯,我們應該一起來推這個 Trusted Tech,從臺灣輻射出去。
後來他就把這個概念發揚光大,然後讓英國、讓很多其他地方都切換到用值得信賴的這個零組件,所以現在我們就是把當年的這些想法,把它推到不是只是 5G、6G 而包含 AI 等等別的地方。
是。是有一個叫做「Tech Diplomacy」,技術外交的一個學院,是 Keith Krach 創立的。他的基本想法就是說,當年他在國務院的時候,推動了所謂的 Clean Network,大家都知道說我們在 5G 網路,其實臺灣更早在 4G 網路就只用值得信賴的供應商的零組件。
那我們都有這些部分之後,我們在各國就更有一個話語權,就是大家可以知道說我們這邊所製造出來的零組件或者是整體的 AI 系統是尊重這些價值的,所以就不是說這台車它開一開自爆,開一開變成什麼炸彈之類的,而是說你要上車之前,你對於這台車你至少要先打勾這些項目。所以我覺得 Trusted Tech 就是值得信賴的科技,這個是臺灣很具體可以幫忙的的一個部分。那也就是為什麼「Trusted Tech Standard」是由我來當 Chair,而不是說其他的人來當 Chair。
所以我現在在華府,之前有跟 Keith Krach,之前美國負責 Clean Network 的國務院次卿,去一起發展 Trusted Tech Standard,就是去講說到底我們說「這個零組件以及它的供應鏈值得信賴」是什麼意思?我們把它定義起來。包含說不會突然間就被政府收回國有,或者是說它在人權在隱私沒有強迫勞動等等的這些部分,當然還有包含技術的資安等等部分,就是相容性。
當然,一部分是說,大家不管是哪裡做的車都裝我們的引擎,它其實就已經預設一個意思,就是說至少我們在做引擎這件事情上面,是值得信賴的。也就是說不管它跑在哪個地區等等,它都相信說我們做引擎的這個部分,包含它的供應鏈、包含供應鏈的資安等等,是值得信賴。
對啊!有個 Team Taiwan。
如果現在要所謂的 agentic,就是把它放到一個什麼代理的狀態,或者是我們接下來就會聊到的 embodied,把它放到某種身體裡面,那當然更不能只把它叫語言模型。
可能就是一個 component。因為像我們剛剛講到的 o3 那種架構,其實它已經不能說只是大語言模型了,它後面跟了一串別的東西。
這是 o3 比起 o1 更好的一個部分,所以可以說就是 o3 這個方向,他們在對齊上面也做了一些貢獻,我的意思是這樣。
對,那是 Anthropic 那邊出的。那但是 o3 的做法是比這個更多一點,就是說它如果在部署階段恢復本性的話,那它每一步都有另外一個步驟,來去確保說它所謂的恢復本性是不是危險的。
就它在測試階段、訓練階段的時候會先裝傻,然後到部署階段的時候才恢復本性?
因為現在 o3 這套做法有一個好處,它有個叫審議式對齊,就你可以告訴它說社會對它的期待是什麼,然後它在出每一次回答的時候,會不斷反覆去確認有沒有符合社會期待。
對,但是如果現在突然之間出現一個新的做法,不是我們現在這套 test-time compute 的做法,這樣就很難講。
我覺得以目前的這個趨勢看起來,如果它在數學方面先達到超過人類的表現,但是並不是在各方面都達到超乎人類的表現,那我們就有比較久的時間。
就是說對齊到底容不容易,對,然後以及我們還有多久才到那個十字路口。
所以我們在這邊,就要有所謂的準備度,就是要及早發現,就好像你開個車,有個遠照燈,可以看到前面到底是不是斷崖,如果發現有這樣對社會的損害或是危害,還不一定是損害,要趕快能把方向盤轉得動,這個我覺得反而是臺灣可以扮演的角色。
我們如果連這個程度都解決不了,那這樣子等它能力越來越強的時候,那即使它不會自己把自己拷出去,也不能說不會有黑帽駭客把它拷出去。即使它不會自己跑去合成什麼生物病毒,你也不能說沒有恐怖分子拿它去合成生物病毒。只是說它不是自己做,它是由壞人拿去做,可是造成的傷害、損害是一樣的。
很多人是覺得說,包含我,我們越能夠去把比較軟的這個部分把它對齊,就是把已經存在於人類社會裡面的 AI,包含社群媒體的推薦演算法,我們越有把它對齊的經驗,我們就越知道說當它的能力越來越強的時候,我們要怎麼轉這個方向盤。
所以這分成兩個部分,一個部分是說你有沒有發展對人類整體社會有幫助的、而不是有害的東西。但另外一個是你剛剛講到它會不會 out of control,就是它會不會自己開始出現動機,然後就沒有辦法控制它,所以這兩個是不同的層面。
就是說對不對齊人類的利益,當成一個問題嘛!
對,很多人是把,舉例來說像做短影音社交平台上面的演算法對不對齊。
我有看那一段。
我們逃到火星,它就跟著我們到火星。
自己把自己的這個 weights、權重,copy 到別的地方。
對啊!我從 2012 年就開始跟他們吵這個。
對,沒錯。
但是,如果你好比像說兩、三年之內就要面對這個問題,誰也沒有機會去把社會準備好,突然之間就會變成一個競爭的賽局,因為你就會賭說我會是第一個拿到的,然後拿到 Super Intelligence 之後,我賭它是可以對齊的,所以快慢跟對齊容易與否,決定這三種不同的策略。
另外一個軸控制的就是說,好,那如果這個很困難或者是沒有辦法對齊,那當然都應該踩煞車。但是我們多快會知道這件事情?我們如果有多一點點時間,好比說有七、八年以上的時間,那這樣的話大家合作是比較好的一個策略,就是大家先去看這邊對齊有沒有問題、那邊對齊有沒有問題。然後一旦出現問題,或出現小規模的災難,像剛剛講到的 bio-risk,還沒有出現,只要有可能出現,趕快就通知大家等等,所以這樣子的話,當然是一個合作比較好的賽局。
那就不是誰先跑到終點線,而是誰先踩到地雷,踩到大家一起死,所以這是這個軸控制的。
另外一邊是,我們多快會必須要回答這個問題?這是兩個軸線,就是說它對齊到底多困難,以及它到底這個 timeline,就是它多快到達我們非回答這個問題不可的狀況。如果對齊問題很困難,就是幾乎不可能馴化它,那這個情況下,任何你剛講到的什麼強權之間的爭鬥,不管誰贏,都是 AI 贏啦!
一個是說大家還不是很確定,到最後做出如果是在數學上、物理上,或各個方面越來越超過人類的理解,就它可以鑽到水下很深的地方,這樣的 AI 合乎人類社會的期待到底多困難?這是一個還不確定的問題,就是你對齊加上控制的程度,這台車到底會不會哪一天它就突然間你踩煞車沒用了,對,這是一個大問題,這個問題先放一邊。
但是大概可以分成兩個方向來談。
車上的驅動程式。
…… 煞車板就我們做的,在我這。
用合成資料訓練就會變這樣。
引擎。
對,就煞車跟油門都變成 AI 在踩。
自己決定要回答到什麼程度。
外皮質。那戴一戴就大家都可以當這個 bridge,這也是一種想法。有一本科幻小說(註:《Blindsight》),很久以前就……
對。所以現在有一派的講法就是說,那我們人類就慢慢都戴上所謂的 exocortex。有這個 exocortex……