所以我覺得當然我們要去問說一個工作要怎麼做,確實真的很容易的做法就是我做一遍給 AI 看,尤其是現在有了 Vision Pro,那你可以戴 Vision Pro 或戴個手套、戴個外骨骼什麼,那你做個幾次,人型機器人就學會了。
對,就是說這個是不是一個好主意?對不對?
一定成本更低。但回到哈拉瑞的論點,這樣你對社會普及的溝通就比較不容易。
對,之類的。就是說你只要想得出一種用法,總有某種非人型的方法比那個有用。
就像你說的,因為它要做非常多額外的東西,所以幾乎你如果只是講求效率的話,總是有單獨一個機器手臂,或者是大家就戴個 AR 眼鏡……
我想人型機器人,可以說最突出的好處,就是你不用為了它重新設計任何既有的系統,它只要是人能夠操作的環境,它就按照定義可以操作。
Chip Team Taiwan。
日本這方面也是很早發展。
我們臺灣的信賴科技產業鏈。
像 Pixar 的檯燈。
可能一個麥克風?
所以我覺得這部分倒是可以參考,即使是歐盟也覺得說,那我至少把這一部分它是一個 carve out,就是說我不要什麼都煞車踩到底,大家可以試試看,某些方向是安全的,也許那個方向不用特別踩煞車。
所以我覺得更能夠制度化的,在法律層級去給予法規層級或地方自治層級更多的這樣子 sandbox 的授權,我覺得這個倒是不錯。那之前在臺灣當然也有像金融或者是無人載具,有過類似的這樣子的意思了。
像歐盟雖然說他是做煞車專門的,但他現在也說裡面每個國家在 AI Act 底下,他可以去認領 sandbox。所以可能就是我隨便舉例,像立陶宛他可能覺得說我做 Fintech 特別厲害,我就專門做這方面的 sandbox 去挑戰說 AI Act 的某些部分,是不是煞車踩過分了,然後我們在 sandbox 裡面去證明它等等。
也有很多的國家,現在想要把這樣子的機制把它制度化,就是變成好像 copilot 這樣,就是說一部分是行政官員在做決定,但另外一部分就是透過像我們剛剛講到的就是全民審議,或者是大家弄一個沙盒,或者是弄一些這樣的方法。
當然,我現在就在各國這樣子看,有滿多的國家其實是覺得臺灣這樣子,就是快速地去把地方某些部分的創新或者是小規模的創新,他一下就提到全國的這個視野,然後把它擴展出來,像總統盃黑客松這樣子的機制,其實大家覺得這是一個滿好的機制。
但是您剛剛講到的我也滿同意的,就是並不是每個人在這個狀態下面,都可以得到他想要在那個部會找到一個人說:「你是我的 champion、你幫助我把這部分這個推到底。」因為一開始的目的就是大家誰都不落下來嘛,所以自然也比較難說這個隊伍裡面,某個人他就先跑到終點,所以這兩個本來就是多少有點權衡了。
我想之前在設計包含 AI 推動方案等等的時候,其實有一個滿重要的,就是你剛剛講到的,包含產業 AI 化、人人有 AI 等等,這個是一開始就是不把誰落下去。就好像我們寬頻人權一樣,不能說你就是大家某一部分人上了車,其他人都還在走路,這個我們是不接受的。在這一點上面,我覺得我們是做得不錯。
你剛剛在說 DOGE 嗎?
大家都是國科會委員,所以確實說是國科會並沒有錯。
其實都有。對吧?
有一些又回到防禦加速主義,就是某些部分如果我們知道它幾乎是完全防禦性的,像數位皮夾這些部分,我們就不妨把它當公共建設來推,這個實際上也是有推。
但是在美國也好,很多其他地方也好,他們想到 AI 並不是信賴的感覺,是魔鬼終結者的感覺。那樣子的話,即使你開發出來,你要測試社會對它接受的程度、社會對它的期許是什麼、對齊到底行不行、方向盤怎麼轉,都很困難,因為社會上面它對立的程度太高,或者是覺得科技無法信賴的程度太高等等,所以我覺得我們在百花齊放的部分還是有優勢。
如果大家都願意使用的話,在怎麼樣安全的部署以及怎麼樣轉方向盤上,我們就會累積比別人更多的經驗。其實我看很多調查,說臺灣的企業現在真正有投入 AI 在使用上面,好像才 20% 之類(註:24%)。但你去看美國,這個數字是 7%、8%。所以就是說,我們當然會覺得不夠快,但是其實我們這邊想到 AI,大部分的人還是想到可以怎麼樣幫助大家。
當然因為我們的體質就是比較去中心化的,就是有非常多中小企業,讓中小企業能夠更容易的去用,包含我們的晶片這整套、更容易的使用 AI,我覺得這個是很好的。
去中心化?
然後到一半發現很危險、錯了。
有點像投資,用國家的資本來投資。
所以如果剛剛是提到說要用公部門的預算,我們又是編在這個預算裡面,那他一定有 deliverable,他一定要交出東西來,他交出東西來的 KPI 好像很難寫說,但是可能有一半的機會到中間,我們就算了吧?
所以,不管是美國所謂曼哈頓計劃或者其他也好,現在很多是把它當做一個比喻,意思是說如果哪一天我們真的發現時間線短,而對齊突然解決了,我們有足夠的資源來做這件事,但並沒有誰現在說這就百分之百一定成功。
這個時候當然運氣好的情況下,就是你自己喊停了;運氣稍微不好,就是人家強迫你停了;那運氣再不好一點,就是停不下來。對,那在趕短的時間線的時候,幾乎一定會有這個狀況。當然從各國的角度來看,現在都不是很確定說,它對齊真的容易到你做這件事情是沒有壞處的,不會說衝到最後發現 AI 贏、人類輸這個情況。
不過剛剛提到集中資源,又提到說短的時間線、高的對齊可能,但是它總有一個可能性是,你為了趕這個短的時間線,你中間可能忽略了什麼,所以你誤以為它有對齊了,然後到一半你才發現說這好像看起來比較像一顆核子彈,比較不像什麼防衛性的東西。
對,這個聽起來比曼哈頓……
短的時間線,而且又可以對齊這兩個前提下。
對,整個概念是誰要做第二個核彈,我們保留炸他的權利。
但事實上我們也簽了,好像是發起《核不擴散條約》?
曼哈頓計劃,傳統上好像不是做防具的(笑)。
製造大規模毀滅性武器?
大家都承擔一樣的責任,要維護民主。
所以在這個情況下,你設定一個願景它當然可能很好,但是說不定這條路不通往那邊,這就是一個比較大的問題。
然後,到底能不能夠把 AI 引導到一個基本上只能做防禦性的使用,而不能夠做大規模毀滅性的使用的這個對齊能力,到底有沒有辦法快速發展出來?這一點也是大家還沒有辦法回答。
現在主要大家還沒有辦法在華府或在布魯塞爾其他地方快速收斂,主要的原因就是對齊到底難不難?這個問題大家沒有回答,大家沒有答案。
對,就是說我們 GPS 那個 endpoint 到底在哪裡?這真的是非常好的問題。
當然主要的,剛剛提到的是說,那你量測好了之後,是及時反應就好呢?還是說我們應該先有一個願景?
在臺灣當然我們也有 AI 量測 AIEC,是當時我還在任的時候成立的。所以 AIEC 當然也跟美國的 AISI 什麼,都可以說是全球協同防護,就是說在這裡缺少什麼量測技術,某個地方有這種量測技術,不管是量測剛剛講到的 deep fake,或者是其他可能的危害,我們都可以交叉來幫忙量測。所以量測的部分,應該不是民主黨或共和黨誰上就不做量測的問題。
華府當然現在看起來比較像兩黨有共識的,就是去確保說 AI 所造成的這些影響,要能夠很精確地測量出來,這個並沒有人反對。所以,他們有個專門做測量的機構 NIST,那他在裡面成立了 AI 安全中心 AISI。也不是只有他們來量測,他們也包含跟英國啊等等,很多全世界的這些 AISI 組成一個組織。
至少方向盤打得很快。
教育部當然就說,我們的指引出到 3.0 了。
是方向盤。
這個程度的,就是不是限制在金融或者是投票,而是全面透過這種方式去進行 KYC,這個確實是臺灣才有,別的地方沒有。