選擇章節
第一條
為促進以人為本之人工智慧研發與應用,建構人工智慧安全應用環境,保障國民人格尊嚴及權利,提升國民生活福祉、維護國家主權、安全及文化價值,增進永續發展及國家競爭力,特制定本法。
立法說明
一、本法之立法目的。
二、人工智慧已成為決定國家競爭力的關鍵戰略科技,我國必須積極推動其發展與應用,並建立明確的指導原則與法律框架,既能規範可能的風險,又能提供產業發展所需的法源基礎。因此,為強化以人為本的人工智慧技術研發與應用,同時保障憲法規定之人格尊嚴及國民權利,包括生命、身體、健康、安全等相關權利,以期人工智慧可回應人文與社會發展所需,邁向社會永續發展,爰制定本法。
二、人工智慧已成為決定國家競爭力的關鍵戰略科技,我國必須積極推動其發展與應用,並建立明確的指導原則與法律框架,既能規範可能的風險,又能提供產業發展所需的法源基礎。因此,為強化以人為本的人工智慧技術研發與應用,同時保障憲法規定之人格尊嚴及國民權利,包括生命、身體、健康、安全等相關權利,以期人工智慧可回應人文與社會發展所需,邁向社會永續發展,爰制定本法。
第二條
本法所稱人工智慧,係指以機器為基礎之系統,該系統具自主運行能力,並於部署後展現自我調適性,可為明確或隱含之目標,根據輸入或感測,產出得影響實體或虛擬環境之預測、內容、建議或決策。
立法說明
參考歐盟人工智慧法(Artificial Intelligence Act)第三條有關人工智慧定義,於本條明定人工智慧定義。
第三條
人工智慧之研發與應用,應在兼顧社會公益與數位平權之前提下,發展良善治理,並遵循下列原則:
一、永續性:應兼顧國民心理健康、社會公平及環境永續,降低可能之健康風險或數位落差,使國民適應人工智慧帶來之變革。
二、人類自主性:應以支持人類自主權、尊重人格權等人類基本權利與文化價值,並允許人類監督,落實以人為本並尊重法治、人權及民主價值觀。
三、隱私保護及資料治理:應尊重個人資料之隱私與自主,採用資料最小化原則,並避免資料外洩風險。
四、安全性:人工智慧研發與應用過程,應建立資安防護措施,防範安全威脅及攻擊,確保其系統之穩健性與安全性。
五、透明及可解釋性:人工智慧之產出應做適當資訊揭露或標記,以利評估可能風險,並瞭解對相關權益之影響,進而提升人工智慧可信任度。
六、公平性:人工智慧研發與應用過程中,應盡可能避免系統產生偏差及歧視等風險,不應對特定群體造成歧視之結果。
七、可問責性:應維持可追溯性,並確保人工智慧研發與應用過程中不同角色承擔相應之責任,包含內部治理責任及外部社會責任。
一、永續性:應兼顧國民心理健康、社會公平及環境永續,降低可能之健康風險或數位落差,使國民適應人工智慧帶來之變革。
二、人類自主性:應以支持人類自主權、尊重人格權等人類基本權利與文化價值,並允許人類監督,落實以人為本並尊重法治、人權及民主價值觀。
三、隱私保護及資料治理:應尊重個人資料之隱私與自主,採用資料最小化原則,並避免資料外洩風險。
四、安全性:人工智慧研發與應用過程,應建立資安防護措施,防範安全威脅及攻擊,確保其系統之穩健性與安全性。
五、透明及可解釋性:人工智慧之產出應做適當資訊揭露或標記,以利評估可能風險,並瞭解對相關權益之影響,進而提升人工智慧可信任度。
六、公平性:人工智慧研發與應用過程中,應盡可能避免系統產生偏差及歧視等風險,不應對特定群體造成歧視之結果。
七、可問責性:應維持可追溯性,並確保人工智慧研發與應用過程中不同角色承擔相應之責任,包含內部治理責任及外部社會責任。
立法說明
一、我國發展人工智慧應衡平創新發展與相關風險,以回應國內人文及社會所需。爰參考國際協議及各國相關政策方針、法規或行政命令,訂定具有指標與引導功能之基本原則,以作為政府各機關就其權責推動人工智慧之研發與應用之基礎。
二、人工智慧利益相關者應積極參與可信任人工智慧之負責任管理,以追求對人類和地球有益之結果,從而促進永續發展與福祉,爰參考G7廣島AI國際行動規範、歐盟人工智慧法及我國精神衛生法,於第一款明定人工智慧發展應兼顧心理健康、社會公平及環境永續等層面,並提供適當之教育、培訓及支持服務。
三、人工智慧參與者應在人工智慧系統之整個生命週期中尊重法治、人權及民主價值觀,為此,參考經濟合作暨發展組織(OECD)二○一九年公布之人工智慧建議書(OECD Recommendation on Artificial Intelligence),於第二款定明應支持人類自主(Human Autonomy),並尊重人類基本權利、人格權(含姓名、肖像、聲音)與文化價值,確保以人為本之基本價值。
四、人工智慧發展及模型訓練過程仰賴大規模數據資料,更可能侵害個人隱私,故數據資料之蒐集、處理及利用方式,如何確保個人隱私,並尊重個人資料之揭露意願及程度,為目前人工智慧發展領域之重點議題之一。爰參酌美國二○二二年AI權利法案藍圖(Blueprint for an AI Bill of Rights)於第三款定明人工智慧研發與應用應注意隱私與資料治理(Privacy and Data Governance)。
五、人工智慧研發與應用應確保系統穩健性與安全性,爰參考美國二○二二年AI權利法案藍圖(Blueprint for an AI Bill of Rights)及新加坡二○二三年生成式AI治理架構草案(Proposed Model AI Governance Framework for Generative AI),於第四款定明安全性原則(Security and Safety),以防範AI有關安全威脅與攻擊。
六、人工智慧所生成之決策對於利害關係人有重大影響,需保障決策過程之公正性。人工智慧研發與應用階段,應致力權衡決策生成之準確性與可解釋性,兼顧使用者及受影響者權益。爰參考歐盟二○一九年可信賴人工智慧倫理準則(Ethics Guidelines for Trustworthy AI)於第五款定明透明及可解釋性原則(Transparency and Explainability)。
七、人工智慧研發與應用需公平、完善且演算法或系統設計應避免產生偏差或歧視之結果,爰參考美國二○二二年AI權利法案藍圖(Blueprint for an AI Bill of Rights),於第六款定明公平性原則(Fairness and Non-discrimination),強調應重視社會多元包容,避免產生偏差與歧視等風險。
八、研發或利用人工智慧之組織或個人應致力於建立人工智慧系統、軟體、演算法等技術之應用負責機制,並保留事後可追溯性,確保人工智慧開發運用之生命週期中,不同角色(如開發者、部署者、最終使用者等)能承擔相應之責任等精神,以維護社會公益與關係人利益。爰參考新加坡二○二三年生成式AI治理架構草案(Proposed Model AI Governance Framework for Generative AI)於第七款訂定可問責性原則(Accountability)。
二、人工智慧利益相關者應積極參與可信任人工智慧之負責任管理,以追求對人類和地球有益之結果,從而促進永續發展與福祉,爰參考G7廣島AI國際行動規範、歐盟人工智慧法及我國精神衛生法,於第一款明定人工智慧發展應兼顧心理健康、社會公平及環境永續等層面,並提供適當之教育、培訓及支持服務。
三、人工智慧參與者應在人工智慧系統之整個生命週期中尊重法治、人權及民主價值觀,為此,參考經濟合作暨發展組織(OECD)二○一九年公布之人工智慧建議書(OECD Recommendation on Artificial Intelligence),於第二款定明應支持人類自主(Human Autonomy),並尊重人類基本權利、人格權(含姓名、肖像、聲音)與文化價值,確保以人為本之基本價值。
四、人工智慧發展及模型訓練過程仰賴大規模數據資料,更可能侵害個人隱私,故數據資料之蒐集、處理及利用方式,如何確保個人隱私,並尊重個人資料之揭露意願及程度,為目前人工智慧發展領域之重點議題之一。爰參酌美國二○二二年AI權利法案藍圖(Blueprint for an AI Bill of Rights)於第三款定明人工智慧研發與應用應注意隱私與資料治理(Privacy and Data Governance)。
五、人工智慧研發與應用應確保系統穩健性與安全性,爰參考美國二○二二年AI權利法案藍圖(Blueprint for an AI Bill of Rights)及新加坡二○二三年生成式AI治理架構草案(Proposed Model AI Governance Framework for Generative AI),於第四款定明安全性原則(Security and Safety),以防範AI有關安全威脅與攻擊。
六、人工智慧所生成之決策對於利害關係人有重大影響,需保障決策過程之公正性。人工智慧研發與應用階段,應致力權衡決策生成之準確性與可解釋性,兼顧使用者及受影響者權益。爰參考歐盟二○一九年可信賴人工智慧倫理準則(Ethics Guidelines for Trustworthy AI)於第五款定明透明及可解釋性原則(Transparency and Explainability)。
七、人工智慧研發與應用需公平、完善且演算法或系統設計應避免產生偏差或歧視之結果,爰參考美國二○二二年AI權利法案藍圖(Blueprint for an AI Bill of Rights),於第六款定明公平性原則(Fairness and Non-discrimination),強調應重視社會多元包容,避免產生偏差與歧視等風險。
八、研發或利用人工智慧之組織或個人應致力於建立人工智慧系統、軟體、演算法等技術之應用負責機制,並保留事後可追溯性,確保人工智慧開發運用之生命週期中,不同角色(如開發者、部署者、最終使用者等)能承擔相應之責任等精神,以維護社會公益與關係人利益。爰參考新加坡二○二三年生成式AI治理架構草案(Proposed Model AI Governance Framework for Generative AI)於第七款訂定可問責性原則(Accountability)。
第四條
政府應積極推動人工智慧研發、應用及基礎建設,妥善規劃資源整體配置,並辦理人工智慧相關產業之補助、委託、出資、獎勵、輔導,或提供租稅、金融等財政優惠措施。
立法說明
人工智慧發展與應用涉及領域甚廣,其整體資源規劃,應由政府各機關依其業務職掌負責辦理,爰參考產業創新條例第九條及科學技術基本法第六條,定明政府機關應推動人工智慧發展等運用之方式。
第五條
為促進人工智慧技術創新與永續發展,各目的事業主管機關得針對人工智慧創新產品或服務,建立或完備既有人工智慧研發與應用服務之創新實驗環境。
立法說明
參考歐盟人工智慧法,鼓勵其會員國政府建立人工智慧實驗沙盒制度(Regulatory Sandbox),提供一個受控環境,以促進人工智慧之創新,使其於投放市場或投入使用之前,可於有限時間開發、測試和驗證。爰定明各目的事業主管機關應建立或完備有關人工智慧研發與應用之創新實驗環境,進一步使國民受益於人工智慧創新科技。
第六條
政府得以公私協力方式,與民間合作,推動人工智慧創新運用。
政府應致力推動人工智慧相關之國際合作,促進人才、技術及設施之國際交流及利用,並參與國際共同開發及研究。
政府應致力推動人工智慧相關之國際合作,促進人才、技術及設施之國際交流及利用,並參與國際共同開發及研究。
立法說明
一、考量人工智慧應用與發展事務涵蓋範圍廣泛,故於第一項定明政府各機關除應就其業務權責推動、辦理外,亦應與民間合作推動人工智慧發展。
二、參考科技基本法第二十一條,爰於第二項定明政府各機關應積極發展人工智慧國際合作、接軌國際,並參與國際共同開發與研究。
二、參考科技基本法第二十一條,爰於第二項定明政府各機關應積極發展人工智慧國際合作、接軌國際,並參與國際共同開發與研究。
第七條
為加強國民對人工智慧知識之關心與認識,政府應持續推動各級學校、產業、社會及公務機關(構)之人工智慧教育,以提升國民人工智慧之素養。
立法說明
為落實二○二三年行政院科技顧問會議結論全面推動人工智慧素養教育,爰參考科技基本法第二十二條,定明政府應推動各級學校、產業、社會及公務機關(構)之人工智慧教育,以提升國民人工智慧之素養。
第八條
政府應避免人工智慧之應用,造成國民生命、身體、自由、心理健康、隱私保護、人權保障或財產、社會秩序、國家安全、生態環境之損害,或出現利益衝突、偏差、歧視、廣告不實、資訊誤導或造假等問題而違反相關法規之情事。
數位發展部及其他相關機關得提供或建議評估驗證之工具或方法,以利各目的事業主管機關辦理前項事項。
數位發展部及其他相關機關得提供或建議評估驗證之工具或方法,以利各目的事業主管機關辦理前項事項。
立法說明
一、為保障人民權益,於第一項定明政府應避免人工智慧之應用造成人民生命、身體、自由、心理健康或財產、社會秩序、國家安全、生態環境損害,或出現利益衝突、偏差、歧視、廣告不實、資訊誤導或造假等問題,違反如兒童及少年福利與權益保障法、公平交易法、消費者保護法、精神衛生法及個人資料保護法等相關法令之情事。
二、所稱造成人民生命、身體、心理健康等之損害或出現偏差、歧視等,悉依相關法令認定是否造成法令所保障之權利受損或有無其他違法之情形。
三、為利各目的事業主管機關辦理第一項業務,數位發展部及其他相關機關得提供或建議國內外評估驗證之工具或方法,爰為第二項規定。
二、所稱造成人民生命、身體、心理健康等之損害或出現偏差、歧視等,悉依相關法令認定是否造成法令所保障之權利受損或有無其他違法之情形。
三、為利各目的事業主管機關辦理第一項業務,數位發展部及其他相關機關得提供或建議國內外評估驗證之工具或方法,爰為第二項規定。
第九條
數位發展部應參考國際標準或規範,推動與國際介接之人工智慧風險分級框架。
各目的事業主管機關應視人工智慧應用風險管理之需要,循前項風險分類框架,訂定以風險為基礎之層級管理規範。有前條第一項所列之情事者,應依法令限制或禁止之。
各目的事業主管機關應視人工智慧應用風險管理之需要,循前項風險分類框架,訂定以風險為基礎之層級管理規範。有前條第一項所列之情事者,應依法令限制或禁止之。
立法說明
一、政府推動人工智慧之研發與應用過程中,為使人工智慧風險分級規範與配套驗證確保機制與國際接軌,由數位發展部參考國際標準或規範,推動人工智慧風險分級框架,例如歐盟人工智慧法訂定四級風險,包含被禁止AI行為(prohibited AI practices)等。
二、第二項明定各目的事業主管機關因所涉領域不同,應循前項風險分級框架訂定風險分級及相關管理規範。
二、第二項明定各目的事業主管機關因所涉領域不同,應循前項風險分級框架訂定風險分級及相關管理規範。
第十條
政府得透過法令或指引建立標準、驗證、溯源或問責機制,於促進人工智慧研發與應用之同時,以風險管理為基礎,評估潛在弱點及可能濫用之情形,強化人工智慧決策之可驗證性及人為可控性,以提升人工智慧應用之可信任度。
立法說明
一、為提升人工智慧應用之可信任度,政府得透過具有拘束力之法令(如法律、法規命令或行政規則)或不具拘束力之行政指導(如技術應用指引)之方式,推動安全標準(包括團體標準、國家標準、國際標準)、驗證、透明可解釋之溯源或問責機制,協助研發、部署或應用人工智慧者納入風險管理制度,針對人工智慧決策過程或內容結果進行驗證,並確保能由人類有效監督。
二、又「可驗證性」(verifiability),參考韓國「人工智慧發展及建立信賴基盤之基本法」第三十條規定,係指能夠對人工智慧決策過程或內容結果進行驗證,從而保障公平性與責任歸屬;「人為可控性」(human oversight),參考歐盟人工智慧法第十四條及聯合國教科文組織「人工智慧倫理建議書」,則指能夠由人類有效監督,人工智慧不應取代人類道德判斷或責任,必須保留人類最終控制權;可驗證性提供透明可解釋之基礎,人為可控性則確保人類主導地位,兩者均係為提升人工智慧應用之可信任度。綜上,爰為本條規定。
二、又「可驗證性」(verifiability),參考韓國「人工智慧發展及建立信賴基盤之基本法」第三十條規定,係指能夠對人工智慧決策過程或內容結果進行驗證,從而保障公平性與責任歸屬;「人為可控性」(human oversight),參考歐盟人工智慧法第十四條及聯合國教科文組織「人工智慧倫理建議書」,則指能夠由人類有效監督,人工智慧不應取代人類道德判斷或責任,必須保留人類最終控制權;可驗證性提供透明可解釋之基礎,人為可控性則確保人類主導地位,兩者均係為提升人工智慧應用之可信任度。綜上,爰為本條規定。
第十一條
政府應就高風險人工智慧之應用,明確其責任歸屬及歸責條件,並建立其救濟、補償或保險機制。
人工智慧之研發,於實際應用前,不適用前項規定。但其於實際環境測試,或運用研發成果提供產品、服務時,不在此限。
人工智慧之研發,於實際應用前,不適用前項規定。但其於實際環境測試,或運用研發成果提供產品、服務時,不在此限。
立法說明
一、高風險人工智慧之應用,係依據潛在風險及影響程度判斷之,如於特定關鍵領域應用時可能造成人民基本權利、生命安全、財產保障或社會秩序之嚴重危害。為確保人工智慧之安全性,政府應針對高風險人工智慧應用所可能產生之損害風險,明確其責任歸屬及歸責條件,並建立救濟、補償或保險機制,爰訂定第一項規定。
二、為避免影響學術研究自由及產業前端研發,爰參考歐盟人工智慧法第二條第八項規定,人工智慧投入市場前之任何研究、測試或開發活動僅須根據適用之歐盟法律進行,除於真實世界測試外,不適用人工智慧法。爰訂定第二項,定明人工智慧技術開發與研究,於尚未實際應用階段,不適用第一項有關責任相關規範,及建立救濟、補償或保險機制之規定。惟仍應遵循本法其他規定,與既有研發相關之法令及學術倫理規範。倘已於實際環境測試,或運用研發成果提供產品、服務者,仍應遵守第一項規定及其他各目的事業主管機關既有或後續訂定之法令。
二、為避免影響學術研究自由及產業前端研發,爰參考歐盟人工智慧法第二條第八項規定,人工智慧投入市場前之任何研究、測試或開發活動僅須根據適用之歐盟法律進行,除於真實世界測試外,不適用人工智慧法。爰訂定第二項,定明人工智慧技術開發與研究,於尚未實際應用階段,不適用第一項有關責任相關規範,及建立救濟、補償或保險機制之規定。惟仍應遵循本法其他規定,與既有研發相關之法令及學術倫理規範。倘已於實際環境測試,或運用研發成果提供產品、服務者,仍應遵守第一項規定及其他各目的事業主管機關既有或後續訂定之法令。
第十二條
政府為因應人工智慧發展,應避免技能落差,並確保勞動者之職業安全衛生、勞資關係、職場友善環境及相關勞動權益。
政府應就人工智慧利用所致之失業者,依其工作能力予以輔導就業。
政府應就人工智慧利用所致之失業者,依其工作能力予以輔導就業。
立法說明
一、為避免勞動者於使用及應用人工智慧技術時欠缺相關技能,而無法從事及執行該職務工作,並確保勞動者之權益,包含職業安全衛生、勞資關係及職場友善環境等,爰明定第一項規定。
二、為因應人工智慧利用轉型過程造成勞工失業情事,爰於第二項定明政府應針對因前述理由失業者,依其工作能力予以輔導就業。
二、為因應人工智慧利用轉型過程造成勞工失業情事,爰於第二項定明政府應針對因前述理由失業者,依其工作能力予以輔導就業。
第十三條
個人資料保護主管機關應協助各目的事業主管機關,於人工智慧研發及應用過程,避免不必要之個人資料蒐集、處理或利用,並應促進個人資料保護納入預設及設計之相關措施或機制,以維護當事人權益。
立法說明
為避免個人資料外洩風險及蒐集過多不必要之敏感資訊,爰參考美國二○二二年AI權利法案藍圖(Blueprint for an AI Bill of Rights),明定個人資料保護主管機關應協助各目的事業主管機關,配合其業管法令建立個人資料保護納入預設及設計之相關措施或機制,例如數位發展部訂定之隱私強化技術應用指引等,以維護人民權益。
第十四條
政府應建立資料開放、共享與再利用機制,提升人工智慧使用資料之可利用性,並定期檢視與調整相關法令及規範。
政府應致力提升我國人工智慧使用資料之品質與數量,確保訓練結果維繫國家多元文化價值與維護智慧財產權。
政府應致力提升我國人工智慧使用資料之品質與數量,確保訓練結果維繫國家多元文化價值與維護智慧財產權。
立法說明
一、資料為人工智慧發展之重要元素,政府有必要促進人工智慧之創新與產業發展得以取得高品質之資料,爰參考歐盟人工智慧法有關支援高品質資料近用之規定,於第一項定明政府應建立資料開放、共享及再利用機制,就相關規範定期檢視並為必要調整,俾利人工智慧發展所需。
二、為利人工智慧訓練及產出結果維繫國家多元文化價值,避免影響弱勢、多元族群權益及人民之智慧財產權,爰於第二項定明政府應致力推動之事項,以完善我國資料治理機制。
二、為利人工智慧訓練及產出結果維繫國家多元文化價值,避免影響弱勢、多元族群權益及人民之智慧財產權,爰於第二項定明政府應致力推動之事項,以完善我國資料治理機制。
第十五條
政府使用人工智慧執行業務或提供服務,應進行風險評估,規劃風險因應措施。
機關(構)應依使用人工智慧之業務性質,訂定使用規範或內控管理機制。
機關(構)應依使用人工智慧之業務性質,訂定使用規範或內控管理機制。
立法說明
一、考量政府各機關使用人工智慧協助執行業務或提供服務,有助於行政效率之提升,且應參酌第九條風險分類及管理規範進行風險評估與規劃因應措施,爰參考英國二○二四年「生成式人工智慧治理框架」(Generative AI Framework),於第一項定明政府使用人工智慧執行公務應進行風險評估及規劃風險因應措施。
二、為促使政府各機關依一致之認知及原則使用人工智慧,爰於第二項定明政府應依使用人工智慧之業務性質,訂定使用規範或內控管理機制。各機關之人工智慧應用情形,由行政院統籌協調、盤點之。
二、為促使政府各機關依一致之認知及原則使用人工智慧,爰於第二項定明政府應依使用人工智慧之業務性質,訂定使用規範或內控管理機制。各機關之人工智慧應用情形,由行政院統籌協調、盤點之。
第十六條
政府應於本法施行後依本法規定檢討及調整所主管之職掌、業務及法規,以落實本法之目的。
前項法規制(訂)定或修正前,既有法規未有規定者,於符合第三條基本原則之前提下,以促進新技術及服務之提供為原則,由中央目的事業主管機關會商中央數位發展主管機關,依本法規定解釋、適用之。
前項法規制(訂)定或修正前,既有法規未有規定者,於符合第三條基本原則之前提下,以促進新技術及服務之提供為原則,由中央目的事業主管機關會商中央數位發展主管機關,依本法規定解釋、適用之。
立法說明
一、為落實本法,確保人工智慧技術之有效推動發展,爰參酌教育基本法第十六條、通訊傳播基本法第十六條第一項、原住民族基本法第三十四條第一項、海洋基本法第十六條第一項,為第一項規定,以利行政院統籌各部會檢討現行法規與相關機制措施。
二、依第一項規定應訂修或廢止之相關法規,於未完成法定程序前,為使相關事務能符合本法規定,完善相關法規之解釋及適用,爰參考海洋基本法第十六條第二項、韓國國家資訊化架構法第十七條、澳洲二○二三年安全且負責任之AI政策討論書(Safe and Responsible AI in Australia Discussion Paper),為第二項規定。
二、依第一項規定應訂修或廢止之相關法規,於未完成法定程序前,為使相關事務能符合本法規定,完善相關法規之解釋及適用,爰參考海洋基本法第十六條第二項、韓國國家資訊化架構法第十七條、澳洲二○二三年安全且負責任之AI政策討論書(Safe and Responsible AI in Australia Discussion Paper),為第二項規定。
第十七條
本法施行日期,由行政院定之。
立法說明
為利本法施行相關事宜之準備,爰規定本法施行日期由行政院定之。