這個是所謂AI倫理的問題,公部門做任何的決定,都要能讓民間「問責」,在我們這邊叫「當責」,最重要的是有沒有課責機制,這個判斷怎麼來的,要如何參考去做?如果讓人來判斷的話,最後上了行政法院,總得講出這一套判斷的方法,現在的問題是同一個AI並不是最後決策,最後蓋章的人還是人,但是人要回來課責的時候,這個AI有沒有可能講得出一套相當於我們請約聘人員來做的時候,具有相同的可說服多方利害關係人的這一套講法,這個有一個專門的AI領域,叫做「可解釋的AI」,這並不是技術上做不到的事,但是我們之前沒有花很多時間在這個時間上,這個是公部門運用,牽涉到爭議問題的時候,任何人都要問為何回去做這個決定,如果答不出來的時候,就像你找了約聘人員做行政處分的檢查,你問他為何這樣做,他說他感覺不出來,感覺這個是對、感覺這個是錯的。