AI人工智慧。示意圖。本報繪製
立法院於去年底三讀通過《人工智慧基本法》,成為我國科技治理的重要里程碑,確保技術應用符合社會倫理,維護國家文化價值及提升國際競爭力。前司法官學院院長林輝煌日前投書《最高檢察署月刊》(註)指出,若是僅制定《人工智慧基本法》而未同步建構具體可操作的專法或調整現行相關法規,恐使AI治理流於形式,甚至帶來刑事程序失衡、行政裁量失控及憲法審查空洞化等風險。
法務部司法官學院前院長林輝煌。翻攝東吳法學院官網
我國向來以先進科技為傲,贏得科技島美名,尤以人工智慧(Artificial Intelligence, 以下簡稱AI)的高度發展為最。繼許多國家紛紛制定人工智慧法規範,監理人工智慧的持續發展,我國不落人後,經由立法
院於2025年12月23日三讀通過《人工智慧基本法》,作為回應人工智慧發展風險與治理需求的核心立法選擇。
該法共計17條,明確提出「永續發展與福祉」、「人類自主」、「隱私保護與資料治理」、「資安與安全」、「透明與可解釋」、「公平與不歧視」以及「問責」等七大原則,旨在促進以人為本的人工智慧研發與產業發展,並強調建構安全的AI應用環境,以保障人民基本權利及落實數位平權。
AI基本法的挑戰:治理起點還是終點?近年來,台灣立法體系中頻繁出現以「基本法」回應新興風險的趨勢,包括弱勢族群、環境生態、科技發展及人權保障等領域。然而,有關基本法是否能承載制度建構的重任,或僅淪為政策宣示的工具,仍需進一步檢驗。
林輝煌表示,人工智慧技術對社會秩序的影響已遠超出產業創新或行政效率層面,其涉及人民基本權利、國家公權力行使方式及司法判斷結構的深層變革。若僅以《人工智慧基本法》作為治理框架,恐無法應對AI治理中高度複雜且風險導向的挑戰,甚至可能因規範密度不足而導致制度性缺陷。
三大制度風險浮現林輝煌從刑事程序、行政法治及憲法審查三個面向分析指出,《人工智慧基本法》可能引發以下三大風險:
1、刑事程序中正當法律程序的弱化 人工智慧技術已廣泛應用於犯罪預測、風險評估、證據分析等刑事司法流程,但目前相關規範僅停留於抽象原則層面,對具體運用情境缺乏明確指引。這可能導致演算法被視為「中立」或「客觀」的證據來源,削弱法院對證據可靠性的審查,進一步侵蝕程序正義。
2、行政裁量的擴張與法律保留原則的空洞化 在行政管制中,若僅依賴原則性規範,可能導致行政機關裁量權過度擴張或責任模糊。此外,私人企業開發並運作的AI系統,其決策結果直接影響公共利益,但現行法律對監督機制與責任歸屬未有具體規範,恐形成治理真空。
3、憲法審查中的可審查性不足 人工智慧對隱私權、平等權等基本權利的潛在影響顯著,但目前《人工智慧基本法》僅為價值宣示性文件,缺乏足夠的規範密度以支持憲法層級的審查。在面對AI決策引發的基本權爭議時,可能無法提供有效救濟基礎。
三層式法治建構針對上述挑戰,林輝煌則呼籲我國應採取三層次的AI法治建構策略,以實現真正可執行、可監督且可持續的科技治理:
1、第一層:AI基本法作為價值與治理架構 基本法應聚焦於政策方向和價值原則的宣示,包括明確界定AI風險分類、建立跨部會治理機制及設定後續專法立法義務和時程。
2、第二層:高風險AI專法 優先針對司法、醫療、金融等高風險領域制定專門法律,設置如AI影響評估、上線前審查與撤回機制等具體規範,同時保障人民知情權、拒絕權及人工覆核權。
3、第三層:既有法律的AI化修正 系統性修訂《刑事訴訟法》、《行政程序法》、《個資法》等現行法律,補強演算法透明度、責任追究及救濟機制,確保AI技術能無縫融入既有法律框架。
科技治理不能只靠宣言 必須承擔制度細化的政治與法律成本《人工智慧基本法》的通過標誌著台灣在AI治理上的重要一步,但其真正挑戰在於後續是否能完成繁瑣且必要的制度細化工程。專家強調,科技治理不能僅停留於政策宣言,而需付諸行動,透過多層次立法與修正,使AI治理真正內建於法治結構中。唯有如此,我國才能在人工智慧時代中兼顧創新與權利保障,實現科技與社會的永續發展。
(註):林輝煌,「我國人工智慧基本法之制度性侷限與法治落實之道 – 從刑事程序、行政法與憲法審查觀點出發」,《最高檢察署月刊》第41期。網址:https://www.tps.moj.gov.tw/media/427426/%E6%9C%80%E9%AB%98%E6%AA%A2%E5%AF%9F%E7%BD%B2115%E5%B9%B41%E6%9C%88%E4%BB%BD%E6%9C%88%E5%88%8A.pdf?mediaDL=true