文章出處: 台灣法律網

文 / 王子文

AI在知識、速度和重複性任務上遠超人類,是現代人好用的「工具」,在民主法治的社會,政府的角色是人民的「公僕」,應當為人民提供良好的服務。當人們擔心 AI 產生反噬,設法規範機器人,但誰來規範那些手中握有公權力的「官僚機器人」?因為失控的「公權力」比AI 孰更危險。

筆者參加一場由臺灣財經刑法研究學會主辦,於華山1914文化創意產業園區的永續論壇,主題是【心靈健康VS永續/隱形的碳排:憂鬱——當心亮不起來,世界也會變暗】,AI講師Selina指出,生成式AI由於演算法的機率偏差產生「幻覺」,產生出看似正確實則錯誤的內容,但有「即時糾錯」的運算邏輯,能在幾秒內改過。

同樣的情況,機器學到了謙卑,人類如果選擇無視良心、拒絕改過,會如何?

Selina舉一個持續30年案例。在太極門假案中,國稅局、行政執行署也出現最嚴重的「幻覺」,為了獎金績效,他們無視法院的判決與監察院的調查報告,甚至在面對立委質詢、法律專家指證時,選擇的不是簡單的認錯,而是繼續編造更多的謊言。

連一段程式碼都懂得尊重事實,而領取人民納稅錢的官員,卻能踐踏真相,這是台灣民主最大的病毒!公權力比失控的AI更危險!這點,人類不如AI!

Selina深切感受,如果國家的法治連最基本的「程序正義」都守不住,隨意踐踏人民權益,那麼科技繁榮不過是建立在沙灘上的蜃樓,不希望外殼華麗的科技島,內在卻是一個法治廢墟!

對於AI,人類需要基本的安全感,如果連內心深處最深層的賞善罰惡正義都無法保障,人們基本的安全感將被毀滅。

筆者認為人類不被AI取代的價值在於「良心」,當AI不聽話,是人類如何運用的問題;當行政機關不聽人民的,就是公民的問題。

(如有侵權請通知我們,會立即移除)