再談AIGC的關鍵問題:版權歸誰、官司何解、新秩序何來|對話律師_風聞
深响-深响官方账号-全球视野,价值视角。50分钟前
©️深響原創 · 作者|趙飛宇 吳鴻鍵
龍年春節,科技圈最大的新聞非Sora莫屬。
OpenAI發佈的Sora在視頻生成上的表現之驚豔,已經不用再多贅述。我們只需要知道,Sora標誌着AIGC再次突破天花板。它不只是科技圈的事,還會影響廣大視頻、影視、廣告領域的從業者。正如AI作圖此前對畫師羣體的衝擊那樣。
**技術已經帶領我們來到了一個“新世界”。**到了這裏,舊時的規則會逐漸失效,同時也有許多模糊地帶等待人們劃清邊界。例如,我用某個知名導演、攝影師的風格來生成視頻,那麼這段視頻的版權到底該歸屬誰?是我?還是AIGC平台?又或者那位導演也該佔一份?
各行各業也在面臨着“舊有模式受衝擊”的問題——紐約時報起訴OpenAI和微軟,狀告兩者涉嫌未經授權使用紐約時報數百萬篇文章訓練人工智能;版權圖庫網站Getty Images指出Stability AI從其圖庫中複製了超過1200萬張圖及相關的標題和元數據;好萊塢編劇罷工,要求限制製片方在編劇創作過程中對AI技術的使用。這些都是技術變革引發的反彈。
然而,工業革命、互聯網浪潮帶來的改變已經充分説明,技術變革是不可逆的。相比粗暴的“抵制”,劃分權責、制定新規則才是當務之急。圍繞以下三個關鍵問題,「深響」與相關法律界人士進行了探討:
用户使用AIGC平台製作內容,版權歸誰?版權問題的糾紛焦點究竟在哪裏?利益相關方如何應對變化?行業生態會如何演變?
版權歸誰,得具體情況具體分析
AIGC帶來了許多便利,即使用户不是專業畫手或攝像,只要掌握一定的提示詞技術,也能“站在巨人的肩膀上”做出專業內容。這帶來的問題是:AI生成的內容版權應該歸屬誰?如果出現糾紛,誰來承擔責任?
類似的問題已有法律案例。中國“AI文生圖第一案”的判決書顯示,原告李昀鍇出於興趣學習AI繪畫,他從2022年11月開始在社交媒體上發佈由AI生成的圖片。一些自媒體賬號未經允許李昀鍇使用相關圖片,且沒有署名來源。李昀鍇將其中一個自媒體號主告上法庭。
作為律師,李昀鍇希望通過司法判決來探索AIGC的邊界:用户用AI創作的內容是不是“作品”,版權是否歸屬用户?
判決書認為,李昀鍇使用開源模型Stable Diffusion生成的圖片屬於美術作品,且李昀鍇為著作權人,被告未經授權使用該圖片、去除圖片水印的行為,侵害李昀鍇信息網絡傳播權和署名權,須向其賠償500元併發佈道歉聲明。
需要注意的是,這樣的判例不能直接套用到所有的情況上。金誠同達律師事務所合夥人米新磊告訴「深響」,著作權歸屬的判決依據是在整個AI生成內容的過程中,人類智力和獨創性體現的佔比多少,使用者訓練地越精準,可選擇性越多,最終取得生成內容著作權的可能性越大。
另一種容易出現侵權爭議的情況是,用户用AI生成了某種風格化的圖片(比如:用宮崎駿風格的模型畫一隻貓)。「深響」從法律界人士處瞭解到,著作權法不保護風格,在很多法院判罰中,對風格的模仿並不一定被認為是侵權,所以用户“用宮崎駿風格的模型畫一隻貓”一般不構成侵權。
但是,如果用户是直接“餵給”AI一張宮崎駿的圖,告訴AI就按這個風格來生成圖片,這就構成了侵權。因為用户並未被授權使用宮崎駿的作品。
還有一種版權歸屬問題,出現在AIGC平台和用户之間。但這種衝突更多隻存在於“理論上”,實際操作中,相比版權歸屬問題,AIGC平台方對“把用户規模做大,賺更多會員費”更感興趣。為此,他們甚至願意為其用户承擔潛在的訴訟費用。
微軟、谷歌、OpenAI等多家公司都承諾,若用户因使用其提供的AIGC產品或服務而面臨第三方侵權索賠,公司同意承擔相應的賠償責任。以微軟為例,2023年9月7日,微軟發佈了Copilot版權承諾書,表示若商業用户因使用Copilot或其生成輸出而遭第三方基於版權的侵權訴訟,微軟將同意為該用户辯護並支付因案件而產生的賠償金。但前提是該用户已使用產品中內置的防護裝置和內容過濾器,並遵守了其他條款。
平台通過用户協議明確權利歸屬和責任劃分,是降低潛在衝突的一種方式。OpenAI則在服務條款中明確其賠償條款僅適用於付費用户,包括API用户和ChatGPT企業用户,而其餘數億的免費用户,則不會受到賠償條款的保護。
爭議焦點在平台和數據源之間
在版權爭議問題裏,用户側的行為往往會受到更多關注,但更核心的衝突,其實發生在AIGC平台和數據源之間。
我們都知道,AIGC的實現需要經過三個階段:一、數據採集;二、模型訓練;三、關鍵詞輸入。數據採集和模型訓練是平台開發者的前置步驟,內容輸入則由使用者來完成。
沒有足夠規模的數據去訓練和調試模型,就很難搭建一個足夠智能的生成式人工智能平台。米新磊告訴深響,“對於AICG而言,採集大量數據並利用數據來訓練和調試模型,是最核心的階段。”
在理想情況下,AI模型應當和擁有數據資源的網站簽訂授權協議,支付給對方足夠費用,然後用對方提供的接口去抓取數據。但事實是,當前的AI技術發展迅速,其數據來源卻往往處於“黑箱”狀態,難以判斷其合法性。
圖片來源:Unsplash
法律糾紛由此而生。像Getty
Images這樣的圖庫,收入來源於版權圖片的銷售。如果AIGC平台直接抓取數據,就威脅到了版權公司的利益。同樣的,新聞媒體、圖書出版商、影視公司的商業模式,也都建立在版權之上。對於企業而言,有效管理和利用版權資源能夠促進內容變現,提升核心競爭力。但AIGC技術的出現,打破了傳統版權模式的框架。
**問題的核心在於,各方要想辦法確保AI模型訓練數據的來源合法性,避免侵犯版權或個人隱私。**這有待於數據安全法、個人信息保護法、反不正當競爭法等法律的完善。
在一切得到釐清之前,從業者仍有可能因為平台數據源的不確定性惹到麻煩。
例如,在商業應用中,有的品牌會嘗試利用自己的素材訓練專有模型。原則上,只要品牌訓練模型的素材版權都屬於自身所有,那這個專有模型產出的內容就不會形成侵權。但在實操中,專有模型是在大模型的基礎上訓練得來的,而大模型的數據來源是否合規,外界很難知曉。
這些問題的解決都有待法律的完善。而在這個過程中,數據源和AIGC平台將持續博弈,行業新規則也會隨之產生。
訴訟不是終局,合作才是
目前,我們已經看到版權模式受益方和AIGC平台間的衝突,相關訴訟會不斷出現。但與其説衝突是新舊勢力間的激烈交鋒,不如説它是通向行業新秩序必經之路。
AIGC浪潮洶湧,傳統巨頭和科技新貴打官司,更多是想為自身爭取一個“定義未來行規”的談判席位。米新磊認為,隨着AIGC的發展,產業內各環節會形成新的生態,訴訟會促成新的合作。整體來看,AIGC行業新的規則和合作邊界會在發展中明確。
目前,國內AIGC領域的發展還處於起步階段,許多問題沒有完全顯現。相關法律糾紛仍停留在公益性階段。相比之下,由於美國存在更多相對成熟的AIGC產品,產業生態內的博弈得到了更多呈現。
在米新磊看來,Getty Images和《紐約時報》的訴訟可能是“以打促談”,目的不完全在於法庭上的勝負,而是通過法律行動促使雙方就版權使用、數據授權等問題達成協議,促進平台和內容生產者之間的合作。
這種做法在內容產業中並不少見。一個典型例子就是國內的短視頻平台與長視頻平台之間的博弈,與其説長視頻平台是要禁止抖音、B站等平台粉絲的“二創”行為,不如説是想與短視頻平台之間建立合作關係。
在關於AIGC的法律規定方面,米新磊認為,各國的方向還是“不斷優化”,對使用AIGC的方式做一些建議指導,或者是局部的調整。總體上還是鼓勵AIGC行業的發展。從業者應該關注的是數據使用的合法性、個人信息保護、版權問題以及遵守AIGC特定的監管要求。這些領域通常是法律隱患最為集中的地方,也是有關部門監管的底層邏輯。
以下為「深響」和金誠同達律師事務所合夥人米新磊的部分對話實錄:
Q:作為法律從業者去看這些AI生成的內容和我們普通人的關注點有哪些不一樣嗎?會優先想到什麼法律隱患?
A:我本來就是研究著作權法的,也一直在關注這個領域,所以我第一反應就是關於著作權的內容的合理使用的問題。因為它的原理是三步走,第一步先做數據採集,採集了數據之後,然後進行模型訓練,根據用户的需求訓練的差不多了,然後用户再用自己的一個關鍵詞輸入,通過關鍵詞不斷調整優化,最後生成出來一個產品。
第一步是核心,如果説數據抓取採集的時候並沒有獲得(對方)同意,那其實就有點灰色地帶,因為你的數據量比較大,採集的比較廣,然後把它揉在一起,怎麼去防止他的侵權行為?
Q: 平台的開發者是怎麼確保他們訓練AI模型的數據來源是合法經授權的?有沒有一個明文的法條是來保障這一個權益的?
A:數據是非常重要的資產,正常情況下你應該是獲得他(對方網站)的授權,跟他簽了授權協議,然後給他支付授權費用,然後他可能才給你提供接口,然後讓你去抓這些數據。但是當他不公開的時候,你要去強行抓取,或者是説你要去通過非法手段獲得,可能會違反數據安全法,個人信息保護法或者反不正當競爭法,還包括民法典中合同編的相關法條。所以這個層面其實是有一系列法律法規能去做規制的。
Q:未來隨着 AIGC的繁榮,各國家會產出一個法律法規明確規定説你要公開你的這個數據來源嗎?
A:不一定,目前從行業發展角度來説,總體還是鼓勵AIGC行業的發展,因為它可能是一個革命性的技術。從目前各國的法律規定來看,我覺得他們是在不斷優化,或者是説對於使用的一些方式進行一些建議指導,或者是局部的一些調整。**但是從總體的趨勢來説他沒有像比如説限制你的數據庫必須開源、數據庫必須全部披露這種根本性的阻礙政策。**在信息革命時代,數據是核心資產,也是兵家必爭之地,不太可能都進入免費的公有領域。
Q:用户使用AIGC時的著作權應該如何被保障?用户是否必須接受它可能會被傳播,會被其他人使用這樣一個結果?
A:你把文章放到網上不代表説別人就可以直接用,其實現在很多比如網絡小説什麼也是在網上發表,包括一些圖片也在網上都有,你不能説網上發表了,然後公開了別人用就是不侵權的。儘管平台會有類似免責的條款,但是從法律角度來判斷的話最終也屬於侵權。對於使用者來説,我用一些這樣的AIGC平台生成了相關內容並上傳到了網上,它同樣也是受版權保護的。
Q:平台方和AIGC使用者之間是否有利益博弈?比如生成出來的版權歸誰?違法的話責任誰擔?
A:理論上是這樣的,但是我感覺從實踐角度來説,那個好像不完全是這麼回事。
對於平台來説,他做一個AIGC工具,它是想讓用户去用的,它的目的是商業性,要麼我獲得流量,要麼我獲得用户,然後獲得更多的輸入,所以他是一個服務型的機構。他其實不太會去跟用户去爭用户所產生的產品的著作權的,這個對他沒意義。從這個角度來説,他們其實並不對立,而且這個應該是能劃分清楚的,只要在用户協議裏面明確,根據你(用户)的調教和訓練,最後產生的產品著作權都歸你,如果有什麼責任,也是用户承擔。對於平台來説更重要的可能希望更多的用户來用我這個(應用),它是靠這個賺錢,而不是靠生成的東西去賣錢。
尤其OpenAI甚至是考慮到如果用户面臨訴訟,我們(平台方)給你付錢,甚至於推出這樣的產品,這樣子的話用户就更不用擔心了。再者就是他(平台)肯定也是想盡量減少這種情況,他們其實也不斷的優化,儘量在最終呈現的結果上讓他減少侵權的風險。
Q:您有接觸過 AI 領域相關的這種case嗎?
A:目前雖説業內AI比較火,但是它實際上涉及到的案例沒有那麼多,在國內的話可能只有那個三四個左右。第一案是北京一家律師事務所起訴的,今年判的“AI文生圖第一案”的原告其實也是個律師,所以這兩個案例都帶點公益訴訟性質,是想基於自身對於這個行業的關注,然後通過塑造一個法律經典案例的形式,對行業內的規則起到指向性的作用。
國外產業發展的比我們要領先一點,那它所暴露出來的問題也會比我們更多一點。比如國外現在有一些案例,原告主張被告抓取數據訓練自己的模型用於盈利,同時它產出的產品和原作品高度相似,這個時候有兩類人會去起訴,第一類就是被抓取數據一方,比如2023年6月,大量消費者向美國舊金山聯邦法院提交了近160頁的起訴書,起訴OpenAI公司最為流行的ChatGPT和DALL-E是通過盜用私人信息運行的,這些被盜用的信息來自包括兒童在內的數億名互聯網用户,並且並未獲得用户的許可;同時,向OpenAI投資100億美元的微軟(Microsoft Corp.)也被列為被告。
第二類就是作品權利一方,比如美國作家協會(Authors Guild)、紐約時報,他們是直接生產內容的,如果在這個(AIGC)過程直接用到了那個作家的一些書裏面的東西,然後其實就有點洗稿那個意思了,新聞報道也一樣。此外還有美國最大的圖片生產商Getty Images,網上的文章和新聞報道用圖片都從他那買。如果説目前AI能通過免費抓取,然後再給你揉一下生成新的圖片,就相當於是直接動了它的利益。
同時,美國的版權局的著作權登記審核也要更嚴格,他會詢問你是怎麼生成的,如果你説是AI生成的,就不給登記,這是美國行政層面的態度。
所以美國的這些訴訟,更接近於目前產業生態的博弈。因為真的觸碰到巨頭的利益了。美國也會通過案例判決來給出司法層面的態度。
從國外的經驗來看,他們起訴的目的可能是以打促談,目的不是説一定要打這個官司,而是説通過官司,讓你拿我的授權,就相當於是你付我一個授權費,最後大家建立一個合作關係。
這個有點像國內前兩年短視頻平台跟長視頻平台之間的爭奪戰,抖音、B站好多up主用電影的資源去做二創,其實就是個侵權行為,所以後面愛奇藝這些長視頻平台,包括一些內容生產商、一些老牌電影公司,他們是聯合發聲,要去起訴或者是要求他們支付版權費用,其實也是想讓短視頻平台跟長視頻平台之間建立一個合作關係。
Q:未來AIGC相關法律的可能發展趨勢是什麼?
A:國務院立法計劃裏,人工智能法草案其實也在起草的準備過程中了,但是還不知道什麼時候能夠落地。其實立法是有一定的滯後性的,目前這個行業還在發展過程中,還有很多問題沒有顯現。產業的前景沒有明確的時候,貿然的立法未必是好事。
AIGC雖然是和人工智能相關,但它本質產生的一些糾紛,還是版權、知識產權、數據安全、個人信息保護等。而針對這些,在現有的法律框架下,我們之前的法律法規也都有,比如著作權法、個人信息保護法和數據安全法。這些也足夠去應對,只是還沒有集合起來推出來。
我們需要謹慎對待新產生的這些案例,但並不是説我們就一定要去立法給他框得規規整整,這樣反而會抑制科技的發展。
Q:針對AIGC領域從業者,有哪些法律相關的經驗建議,可以幫助從業者們儘可能避免法律隱患?
A:其實更大的風險是集中在平台一方的。
第一個建議,就是還是要緊密關注國內監管部門的政策,特別是涉及生成式人工智能的規章,是六七個部門一塊出台的,力度比較大,涉及到的監管部門也很多。監管一旦加強的話,你合規性做不到,就很容易出現問題。
第二個就是注意合規問題,目前對於AIGC也有一些具體要求。比如要求對於人工智能生成的內容要進行標識,你要讓大家知道這個是人工智能生成的東西,比如數字人主播等,不能沒有任何的提醒,在抖音b站這些平台已經有了,所以要注意合規風險。主要關注數據方面,個人信息方面和版權方面,這些構成了行業的底層監管邏輯。