AI監管|韓國通過《人工智能基本法》 成為全球第二部人工智能立法_風聞
走出去智库-走出去智库官方账号-26分钟前

走出去智庫(CGGT)觀察
2024年12月26日,韓國國會通過了《人工智能基本法》,預計在今年年初通過韓國內閣會議後,於2026年1月正式實施。韓國是繼歐盟之後,全球第二個通過人工智能法案的國家或地區。
走出去智庫(CGGT)特約法律專家、鴻鵠律師事務所(Bird & Bird)合夥人龔鈺認為,韓國採取了與歐盟類似的基於風險的監管方法,對高影響力AI進行分類管理,這種逐步加強的法律監管增強了公眾對AI技術的信任。其中,對高影響力AI和生成式AI的監管、確保AI系統的透明性和安全性等措施,為AI應用放置了一道安全防線。此外,法案還重視AI人力資源的培養和對中小型AI企業的扶持,有助於推動AI生態體系的繁榮。
該法案有哪些監管措施?今天,走出去智庫(CGGT)刊發龔鈺律師團隊的編譯文章,供關注全球AI監管的讀者參閲。
要點
1、********《人工智能基本法》明確規定其域外效力,要求符合特定用户數量或銷售額標準的境外人工智能業務經營者,必須書面指定一名當地代表,以配合履行相關合規義務。
****2、****如果人工智能業務經營者提供難以與現實區分的虛擬輸出,如聲音、圖像或視頻,他們必須明確通知或標明用户這些輸出是由人工智能生成的。
****3、****提供和利用高影響人工智能的產品或服務的人工智能業務經營者必須努力提前評估其對基本人權的潛在影響。
正文
近日,韓國國會通過了《人工智能基本法》,成為繼歐盟《人工智能法案》(AI Act)之後全球第二部人工智能立法。
01、適用範圍及核心定義
《人工智能基本法》對提供人工智能服務的人工智能業務經營者規定了一系列合規義務,並額外針對“高影響人工智能”以及“生成式人工智能”設置一些特殊的合規義務。
尤其值得注意的是,《人工智能基本法》明確規定其域外效力,要求符合特定用户數量或銷售額標準的境外人工智能業務經營者,必須書面指定一名當地代表,以配合履行相關合規義務。
“人工智能業務經營者”是指從事與人工智能產業相關業務的公司、組織、個人或政府部門,包括:
▪人工智能開發經營者:開發並提供人工智能的實體。
▪人工智能利用經營者:利用人工智能開發經營者開發並提供的人工智能,提供人工智能產品或服務的實體。
“高影響人工智能”是指對人類生命、身體健康或基本權利產生重大影響或存在潛在風險的人工智能系統,具體包括應用於下列領域的人工智能系統:
▪能源供應;
▪飲用水生產過程;
▪醫療保健提供和利用系統的建立與運營;
▪醫療器械的開發和使用;
▪數字醫療器械;
▪核材料和核設施的安全管理和運營;
用於刑事調查或逮捕的生物特徵信息(如面部特徵、指紋、虹膜和掌紋)的分析和利用,涉及可識別個人的生理或行為特徵;
▪對個人權利和義務產生重大影響的決策或評估,如招聘或貸款審查;
▪交通工具、設施和系統的主要運營和管理;
▪影響公民的決策,包括國家、地方政府或公共機構對公共服務的資格驗證、確定或費用收取;
▪學前教育、初等教育和中等教育中的學生評估;
▪其他由總統令規定的對人類生命、身體健康或基本權利有重大影響的領域。
“生成式人工智能”是指模仿輸入數據的結構和特徵,生成文本、聲音、圖像、視頻或其他多樣化輸出的人工智能系統。
02、核心義務
《人工智能基本法》所規定的主要合規義務要求如下:
1. 透明度義務(第31條)
▪預先通知義務(第1款):當提供利用高影響人工智能或生成式人工智能的產品或服務時,人工智能業務經營者必須提前通知用户該產品或服務基於此類人工智能運行。
▪標註人工智能生成輸出的義務(第2款):當提供利用生成式人工智能的產品或服務時,人工智能業務經營者必須標明生成式人工智能的輸出或利用其的產品或服務是由生成式人工智能生成的。
▪通知人工智能生成輸出的義務(第3款):如果人工智能業務經營者提供難以與現實區分的虛擬輸出,如聲音、圖像或視頻,他們必須明確通知或標明用户這些輸出是由人工智能生成的。如果這些輸出構成或部分構成藝術或創意表達,通知或標明可以採取不妨礙其展示或欣賞的方式。
2. 安全保障義務(第32條)
▪安全保障義務(第1款):對於累積運算量超過一定數量級的人工智能系統,人工智能業務經營者必須採取識別、評估、減輕人工智能風險的安全保障措施,並建立人工智能風險管理系統。
▪安全措施實施報告義務(第2款):適用前述安全保障義務要求的人工智能業務經營者必須向監管機構報告安全措施的實施情況。
3. 高影響人工智能的識別義務(第33條)
▪人工智能業務經營者必須主動識別相關人工智能產品和服務是否屬於高影響人工智能。如有必要,可以請求監管機構確認其是否屬於高影響人工智能。
4. 高影響人工智能的特殊安全保障義務(第34條)
▪提供和利用高影響人工智能的產品或服務的人工智能業務經營者必須採取進一步特殊的安全保障措施,以確保人工智能的安全性和可靠性,例如建立和運營風險管理計劃、建立和運營用户保護措施、對高影響人工智能進行人類監督等。
5. 高影響人工智能影響評估義務(第35條)
▪提供和利用高影響人工智能的產品或服務的人工智能業務經營者必須努力提前評估其對基本人權的潛在影響。
03、監管機構及處罰規則
根據《人工智能基本法》第40條,韓國科學技術信息通信部在發現或懷疑人工智能業務經營者存在違法行為時,可以要求人工智能業務經營者提交相關材料或進行必要的調查。如果確認違法,韓國科學技術信息通信可以責令人工智能業務經營者暫停違法活動或要求進行整改。
未能遵守該責令暫停或整改要求的人工智能業務經營者,將被處以最高3000萬韓元(約15萬元人民幣)的罰款。
此外,如果人工智能業務經營者未能履行前述提及的預先通知義務(第31條第1款),或落入域外適用效力的境外人工智能業務經營者未能指定本地代表,將直接導致最高3000萬韓元(約15萬元人民幣)的罰款。
來源:愚公法律評論(龔鈺律師團隊微信公眾號)