撰文者:邱巧貞2026.3.11
隨著人工智慧技術快速發展,各國政府也加快建立相關監管制度,台灣在《人工智慧(AI)基本法》於今年1月正式公布施行後,AI治理政策也進入逐步推動階段。
數位發展部數位策略司司長蔡壽洤今(11)日表示,《人工智慧基本法》成為台灣AI治理的重要基礎框架,該法以原則與制度架構為主,而非直接制定具體細節規範,未來將由各部會依據這套原則回頭檢視並調整各自主管的法規制度。
在分工上,數發部主要負責建立AI治理的共通原則與風險框架,並提供相關技術指引。例如經濟部若在管理無人機產業時涉及AI應用風險,就可依據這些治理原則與風險指引,檢討現行法規是否需要調整。
《人工智慧基本法》同時提出AI研發與應用應遵循的「七大原則」,作為治理核心,包括資安與安全、公平與不歧視、人類自主、問責、永續發展與福祉、透明與可解釋,以及隱私保護與資料治理等面向,目的是在推動AI發展的同時,兼顧社會安全與公共利益。
目前在制度分工上,《人工智慧基本法》由國科會主責,而數發部則負責多項技術與制度面的工作,包括AI風險分類框架、AI系統評估與驗證工具、資料治理,以及兒少、人權與性別影響評估等機制。
蔡壽洤指出,政府其實已有既有制度在運作,因此未來不會因為AI而重新建立整套制度,而是透過既有機制進行調整。例如人權影響評估由行政院人權處統籌,性別議題由性別平等相關機制負責,兒少保護則由衛福部主管;數位發展部則從AI技術面提供協助,例如建立評估工具、技術指引與相關機制,並與各主管機關合作。
在政策推動上,數發部將採取「雙軸併進」策略。首先是在AI風險分類框架方面,透過跨部會協作優先與民生相關部會討論,協助建立應用風險識別與管理方法。目前已與金管會、勞動部、衛福部與教育部展開交流,未來也將持續與其他部會對接。
另一方面則是聚焦關鍵議題,優先處理「對社會影響大、現行法制尚未明確規範,且具有實際推動可能性」的議題。目前已鎖定AI生成影像標示與網路爬蟲等問題,未來將與相關利害關係人展開政策溝通。
蔡壽洤表示,從數發部的角度來看,現階段仍希望在制度初期先建立一條「大家可以遵循的路」,也就是透過規範、指引與社會共識,讓各界清楚知道哪些行為是可行的、哪些則不適合,而不是一開始就全面訴諸強制處罰。
他表示,目前政府在AI風險分類框架與相關影響評估機制方面,已召開六場諮詢會議,希望透過產官學界討論逐步建立社會共識。未來在相關治理措施正式公布或發布指引之前,也將持續與社會各界溝通,作為政策制定的重要參考。
資料來源:自由時報
https://ec.ltn.com.tw/article/breakingnews/5367160