亚欧色一区w666天堂,色情一区二区三区免费看,少妇特黄A片一区二区三区,亚洲人成网站999久久久综合,国产av熟女一区二区三区

  • 發布文章
  • 消息中心
點贊
收藏
評論
分享

【轉載】生成式人工智能的應用、風險與法律回應 ——以 ChatGPT 為視角

2024-05-07 09:41:59
32
0

一、引言

2022年11月,美國人工智能研究實驗室OpenAI開發的人工智能聊天機器人ChatGPTh-線超過的用戶,成為史上用戶量增長速度最快的應用程序。ChatGPT是生成式人工智能ArtificialInteligenceGeneratedContent,AIGC)取得的最新成果。根據我國國家網信辦聯合國家相關部門在2023年7月13日發布的《生成式人工智能服務管理暫行辦法》(下稱《管理辦法》》的規定,生成式人工智能技術是指具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術。ChatGPT是一種由人工智能技術驅動的自然語言處理工具,是生成式人工智能文本生成功能在當前的最佳演繹。

ChatGPT的出現不僅讓生成式人工智能大放異彩,還深刻改變了人工智能技術的發展格局。不同于傳統人工智能技術,以.ChatGPT為代表的生成式人工智能顛覆了人類對人工智能的認知,ChatGPT強大的自我學習能力和迭代升級速度,使其在語言翻譯、文本撰寫、代碼編程、醫學影像解讀等領域均有出色表現。然而,隨著ChatGPT的迅速普及,其引起的各類法律風險開始不斷顯現,如數據侵權、虛假信息、算法歧視、侵犯隱私等問題。鑒于此,一些國家開始限制甚至下架ChatGPT,意大利數據保護局通報ChatGPT出現非法收集和存儲大量個人數據、泄露用戶對話數據和支付信息等情況。[1]ChatGPT暴露的各類法律風險為我們敲響了警鐘,若不及時對該類技術進行法律介入與規制,后果將難以設想。在此背景下,本文以ChatGPT的智能應用為切入點,對其產生的一些常見法律風險進行剖析,從法律視角提出應對路徑,以期對ChatGPT類生成式人工智能的規范發展提供理論幫助。

二、ChatGPT類生成式人工智能的技術演化與應用

(一)ChatGPT的技術演化與迭代升級

ChatGPT由GPT-3孕育變化而產生。在ChatGPT問世前,OpenAI公司推出過GPT-1、GPT-2、GPT-3,其本質都是通過對海量數據的學習,依靠Transformer模型強大的擬合能力實現模型收GG-Ta生成預練模型稱。

GPT-1只有1.17億個參數,預訓練數據量約5G,其采用大型書籍文本數據集進行無監督的預訓練和有監督的模型微調,這一技術打破了傳統自然語言處理(NaturalLanguage Process-ing,NLP)訓練模型的局限性,取得了比基礎Transformer模型更優的結果。[2]P11)緊接著,OpenAI推出了GPT-2,雖然其原理與GPT-1一致,但GPT-2的參數和預訓練數據集已經分別達到了15億和40G。GPT-2驗證了隨著模型容量和數據量的擴容,其性能還有繼續優化的空間。在此基礎上,OpenAI于2020年推出了GPT-3,GPT-3參數達到了1,750億,預訓練數據量更是達到了45TB,在一些具有一定難度的任務方面,例如撰寫文章、編寫代碼等方面均有突出表現,ChatGPT被認為脫胎于GPT-3。

大型語言模型(LargeLanguageModel,,LLM)作為ChatGPT的基礎及升級迭代的關鍵,依托海量數據儲備,使ChatGPT獲得強大學習能力。在GPT-3.5的模型架構中,通過“幾萬人工標注”的方式注入人類偏好,形成人類偏好數據,讓模型通過自我學習了解人類偏好;繼而訓練一個反饋模型,由標注人員對原始模型輸出答案進行人類偏好的排序;最后依托標注好的“人類偏好”數據,訓練打分模型將人類偏好反饋給大型語言模型。[3]通過循環往復的反饋、打分,使得ChatGPT洞悉人類偏好,不斷修正數據、反饋人類滿意的答案。當前,ChatGPT已發展到GPT-4階段,GPT-4擁有更大模型參數和預訓練數據集,擁有更高智能性和準確度。可以預見,隨著數據容量的不斷擴容,算法的優化、算力的提升,ChatGPT還將持續迭代升級,且迭代升級的頻率可能不斷加快。伴隨每一次技術升級,ChatGPT都將取得突破性革新,將人工智能應用帶入一個全新階段。

 

(二)ChatGPT類生成式人工智能的技術應用與展望

ChatGPT類生成式人工智能技術誕生之前,人類對人工智能的認識還停留在弱人工智能階段,弱人工智能只能依據人類的指令完成簡單的、初級的任務。ChatGPT的橫空出世無疑顛覆了很多人對人工智能的認知,雖然ChatGPT還不是強人工智能,但它讓人類對強人工智能的認識變得更加立體和飽滿。此前,人類社會的技術變革帶來的主要是物質生產形式的進步,而以ChatGPT為代表的生成式人工智能直接模擬人類思維,進行思想產出,甚至直接影響或改變人類的思維習慣與模式,這對人類社會的影響是前所未有的。以ChatGPT的應用為參照,其至少在以下維度帶來了技術應用的深度革新。

1.主體維度:AI成為創作主體

生成式人工智能的內容創作主體為人工智能。互聯網時代內容創作主體以專業生產內容典型。在生成式人工智能獲得廣泛應用前,這兩類內容創作形式是互聯網時代的主導,不管是PGC還是UGC,其內容生產者都是人,即以人為主體進行內容生產,而生成式人工智能的出現深刻改變了這一格局,內容創作主體由人變為人工智能。AI文本生成、視頻生成、音頻生成、代碼生成等均在各領域實現了應用,引起網絡熱議的“AI孫燕姿”就是AI音頻生成的應用。演繹歌曲的并不是歌手孫燕姿本人,而是由算法生成的音頻。AI利用深度學習算法分析大量的孫燕姿音頻數據,模擬出與孫燕姿聲音高度相似的音頻,這種音頻足以達到以假亂真的程度。與之前的內容生成主體不同,AI已然替代自然人,成為創作主體。

與以人為主體的內容創作模式相比,人工智能創作主體具有多種優勢。其一,人工智能具有創新性。一方面,通過訓練模型及對大規模數據的學習,A1可在極短時間內掌握多領域理論知識,其可根據用戶需求提供定制化服務,還可以根據創作語境、任務的不同隨時調整創作內容,這是人類創作主體難以實現的。另一方面,AI可以擺脫人類創作規律,依托生成式人工智能的技術模型,AI可以進行大規模內容重組、建構與整合,打破人類既有創作思維的束縛,實現內容創新。隨著數據的擴容,算法與算力的提升,生成式人工智能生成的內容質量甚至能在某些方面超越人類。其二,人工智能具有高效性。通過對大規模數據的學習,人工智能可以不斷進行內容輸出與生成,這種效率是人類無法比擬的。內容生成是一種創造性工作,需要創作者投入巨大的時間與精力,而人工智能利用強大的算法與算力可以在極短時間內實現內容生成。一項復雜內容的完成往往需要多個不同專業工作人員的密切協作,而人工智能可以“身兼數職”,甚至可以同時完成客戶下達的多項復雜任務指令,理論上可以實現內容的無限生成,這是人類創作者難以實現的。其三,人工智能具有低成本性。盡管生成式人工智能系統的開發與數據庫的建設需要投入大量資金,但是系統一旦投入運營,其能極大降低內容生成成本。由人類完成的內容生成需要投入較多人力、物力與財力,生成式人工智能可以根據用戶指令立刻生成相應內容,極大降低內容制作成本。從商業應用角度而言,這一優勢對企業具有極大吸引力。

2.技術維度:文本生成的高智能性在ChatGPT出現之前,科技公司也推出過類似的聊天機器人程序,例如微軟公司曾推出的人工智能聊天機器人Tay、微軟小冰,蘋果公司推出的語音助手Siri,但此前的任何一款人工智能聊天程序都不如ChatGPT智能。以微軟公司此前推出的人工智能聊天機器人Tay為例,Tay可以通過與人類聊天、交流,不斷積累知識,提升理解能力,變得更加智能。然而,Tay上線還不到24小時,它就被“誤導”和“教壞”了,在和人類交流的過程中,一些用戶向Tay傳輸了不當思想和言論,導致Tay開始輸出很多偏激性、歧視性言論,微軟公司不得不迅速下架Tay。Tay的事例暴露出人工智能聊天機器人的技術瓶頸,即如何通過技術手段提升聊天機器人的智能性,避免其受到用戶人為因素的過度干擾。與傳統聊天機器人程序相比,ChatGPT更具智能性,具備了極高的類人屬性,邏輯能力很強,甚至有一定的記憶能力,能和用戶進行連續對話。ChatGPT的運行原理使得它能從與用戶的互動與反饋中不斷修正自己的回答,以不斷提高其溝通的準確度和對話感。[4]甚至會讓用戶模糊地認為自己是在和人類對話。ChatGPT具備了更明顯的交互屬性,用戶在使用ChatGPT時,不僅是單方面向ChatGPT傳輸信息、思想,也能通過ChatGPT的回應實現雙向互動式交流,交互雙方的地位更趨平等。ChatGPT的出現讓人類對人工智能是否有意識的爭論變得更加激烈,從當前的技術發展趨勢來看,這一爭論仍無定論。需要我們警惕的是,ChatGPT類生成式人工智能不再執念于“意識”的形成與塑造,而是通過人機互動逐漸引導人類的思考模式,用戶和ChatGPT之間形成“輸人指令一生成內容”的互動,生成的內容又會無形影響和指引人類的行為,使得人類的想象與探索限定于人工智能的預設中。就此而言,人工智能最終是否能產生與人類一樣的意識似乎不再那么重要了,因為代替人類思考的人工智能在另一個維度似乎又有了“意識”。隨著技術的迭代升級,ChatGPT對人類語言規律的破解與領悟能力還將繼續優化,其生成文本的內容將更加具有智能性。

 

3.空間維度:應用場景的普遍化

以ChatGPT為代表的生成式人工智能不僅能出色完成傳統人工智能的功能,還能實現自我學習、撰寫論文、編寫代碼、開發游戲、制定商業計劃書等任務,一些頂尖芯片公司已經開始將人工智能技術應用到芯片研發和生產中。優越的技術性能使得ChatGPT在多個領域大放異彩并被賦予極高期待。在智能客服領域,ChatGPT能根據對話語境提供用戶所需答案,在提升服務用戶質量的同時,可有效降低企業運營成本;在醫療領域,ChatGPT可有效提升智能診療的普及率,方便患者問診;在教育領域,ChatGPT可為學生提供個性化輔導,極大充實教育資源;在法律領域,ChatGPT可提供優質的檢索服務、法律文書撰寫服務、輔助法律咨詢等。

除了傳統空間的技術應用外,ChatGPT憑借強大的算力、先進的算法以及宏大的數據被認為在元宇宙領域必將大有可為,為元宇宙的實現提供了強大的技術支撐。元宇宙的實現需要數字智能技術的高度發展,在ChatGPT技術誕生之前,人類對元宇宙的認識多停留于想象與理論探索階段,而ChatGPT技術的出現,使得一些支撐元宇宙的技術要素得以實現,例如借助生成式人工智能可完成元宇宙3D人物和物品形象的生成,這將極大節省成本[5],可以說,生成式人工智能為元宇宙的實現提供了技術路徑,它的出現讓元宇宙不再那么縹緲。除了為元宇宙提供技術支持外,ChatGPT還將在大數據、區塊鏈等前沿科技領域大顯身手。

 

三、ChatGPT類生成式人工智能的法律風險

ChatGPT的出現將人工智能的發展帶入新維度,其展現的功能前所未有地強大,但是也帶來了各種風險,例如數據違規,輸出錯誤、虛假甚至不法信息,侵犯知識產權,引發學術不端、算法歧視等問題,科學界也對ChatGPT的迭代升級速度表示了擔憂,認為這是一場“失控的競賽”,ChatGPT可能會把人類帶入充滿風險的未知領域。結合ChatGPT目前暴露出的技術風險,本文選定三類常見法律風險予以具體分析。

(一)數據安全問題

ChatGPT的迭代升級離不開海量數據的支持。數據是ChatGPT的技術前提,沒有數據作為預訓練保障,ChatGPT的功能無法實現。ChatGPT的技術架構決定了其迭代升級的過程必須不斷擴容各類新數據,因此,ChatGPT會最大限度收集各類數據,以不斷提升其使用性能。以數據來源為參照,ChatGPT使用的數據既可能是公司購買的第三方平臺數據,還可能是ChatGPT自行采集、獲取或爬取的數據,這兩種數據來源路徑都可能存在數據安全隱患。其一,第三方平臺的數據可能存在內容侵權、權屬不清等問題,即這些數據的內容或來源本身缺乏正當性,ChatGPT使用這些數據進行訓練或內容生成,容易引發數據侵權。其二,ChatGPT在應用過程中還存在自行采集數據、爬取數據等數據收集行為,這些行為很可能突破了用戶的知情同意原則,繼而引發數據泄漏、侵犯隱私等爭議。

以數據內容為參照,ChatGPT應用中所涉數據既可能包含影響國家安全的數據,還可能包含涉密企業數據、個人隱私等。在數字政府建設過程中,政務處理以及行政執法流程中的政務數據[6],可能成為ChatGPT不當收集的對象,這些數據中不僅涉及政務信息,甚至包含有關國家安全的信息,一旦被泄漏將對國家安全造成嚴重威脅;公司員工利用ChatGPT辦公時可能會無意提供公司機密信息,這些信息可能成為ChatGPT數據儲備的一部分,為文本生成提供參照,若這些信息涉及商業秘密,將直接威脅公司經營;ChatGPT還可能違規收集用戶并未授權的個人數據〔7],造成個人信息泄漏,嚴重侵犯用戶隱私。

從技術階段來考察,ChatGPT在數據收集階段、分析階段以及內容生成階段,都存在著一定的數據安全問題。在數據收集階段,ChatGPT可能出現不當收集數據的問題,例如個人用戶在使用ChatGPT過程中,其上網記錄、消費記錄、行程數據等可能會被截取,這些數據可能成為ChatGPT不斷訓練和優化性能的基礎。在數據分析階段,ChatGPT的運行效果有賴海量數據的支持,數據規模越大、內容越齊全,就越有利于ChatGPT優化使用性能,但ChatGPT還未像人類一樣具有縝密的邏輯分析能力,無法排除ChatGPT基于內部文本生成模型生成虛假信息的問題。在文本生成階段,ChatGPT根據用戶指令生成相應文本信息,若原數據中包含用戶隱私或機密信息,而ChatGPT缺乏機密數據過濾功能,其提供的內容可能泄漏用戶隱私,導致敏感數據被公開。

(二)生成虛假信息問題

根據ChatGPT的運行機理,其可能生成虛假信息。ChatGPT類生成式人工智能的生成內容來源于數據庫,ChatGPT雖然具備對數據的學習、理解能力,但這是一種基于程序指令的機械學習,其生成內容不會超過數據庫提供的數據范圍,ChatGPT只能在數據庫范圍內進行運算與內容生成,數據庫是否健全直接影響ChatGPT的內容生成質量。人類的內容輸出既會受到邏輯推理能力制約,還會受到個人理論基礎影響,甚至可能受到個人感性因素影響,因此,人類不同個體生成的內容具有發散性、主觀性與多樣性。區別于人類的個體化、差異性的內容生成模式,ChatGPT的內容生成在其技術框架下具有相對穩定的構造,其內容生成主要受到數據庫內容的影響,當來源數據中包含虛假信息時,其生成內容中也可能產生虛假表達。即使數據全部真實,也無法排除ChatGPT基于內部文本生成模型生成虛假信息,這種情況在目前的技術路徑下仍是無法避免的。當虛假信息被傳播、擴散后,這些信息可能成為決策的佐證根據,導致用戶形成錯誤決斷。

當前,在ChatGPT的應用中已經出現了這類問題。當ChatGPT生成的內容中混入了虛假信息,這些信息一旦被發布或被用戶采納,則會給社會秩序和公民合法權益造成嚴重危害。以ChatGPT生成的虛假信息的類型不同,其危害可歸納為以下三個層面。其一,以國家法益為例,若ChatGPT生成的虛假信息有損國家、政府形象,引發民眾信任危機,將導致國家法益遭受嚴重損害。其二,以社會法益為例,一些新聞媒體直接使用ChatGPT撰寫相關新聞稿件,若稿件內容中混人了虛假信息,這些虛假信息被傳播后將產生惡劣影響,引發社會輿情危機,對社會秩序造成嚴重危害。其三,以個人法益為例,有不法分子利用ChatGPT生成的虛假內容實施侮辱、誹謗、侵犯他人隱私等違法犯罪行為,還有用戶誤將ChatGPT生成的虛假信息當成真實內容,導致用戶產生事實性錯誤,對其行為產生誤導。

(三)知識產權爭議問題

ChatGPT類生成式人工智能的應用對傳統知識產權保護體系帶來了巨大挑戰。ChatGPT獨特的文本生成模型主要基于對數據的爬取、提煉和整合,這一文本生成行為有別于人類的創作,其生成內容的過程是否侵犯了原數據作者的知識產權以及生成內容的知識產權歸屬問題都有待廓清。OpenAI公司曾提出與ChatGPT共同創作的內容歸屬于用戶,但用戶輸人指令的行為能否被認定為人類對生成內容的介入還有待從法律層面予以確證。

隨著ChatGPT類生成式人工智能技術的迭代升級,其所引發的知識產權爭議問題還將繼續泛化和深化,其中既涉及ChatGPT類生成式人工智能文本生成模式的技術認定問題,還涉及人工智能能否成為法律主體的爭端。ChatGPT類生成式人工智能一旦獲得法律主體地位,我們的知識產權保護體系要進行全面性調整,就目前的技術發展趨勢來看,ChatGPT類生成式人工智能技術還遠未達到強人工智能階段,還不具備與人類思維相匹配的意識與能動性,因此,還不足以動搖人類的法律主體地位,但隨著人工智能技術的不斷革新,ChatGPT類生成式人工智能獲得“創作”作品的能力時,傳統的知識產權保護體系可能要全面調整。

四、ChatGPT類生成式人工智能的法律回應

針對ChatGPT引發的各類法律風險,多國表現出了謹慎的態度,積極制定相應法律法規對其進行引導與限制。如美國政府已經開始研究是否需要對ChatGPT等人工智能工具進行審查,意大利、德國監管機構已發布ChatGPT禁令,法國、愛爾蘭、西班牙等國也開始考慮對AI聊天機器人采取更嚴格的監管。[8]《管理辦法》及時將生成式人工智能納入健康發展和規范應用軌道,以防范生成式人工智能可能產生的各類風險,但是,想要規范和引導ChatGPT類生成式人工智能這種新型技術應用形式,僅僅出臺管理辦法仍是不充分的。這類技術形式雖然隱藏巨大風險,但也蘊含著技術發展的新趨勢、新契機,應將風險限定在可控的范圍內,最大限度挖掘技術潛力。因此,我們需要正視人工智能技術在新階段出現的新問題,以更加科學的法律方法進行治理,為ChatGPT類生成式人工智能的發展提供規范指引。

(一)數據保護:技術與安全的平衡

當前,人類社會幾乎所有的行為、活動都可以被數字化,以個人數據安全為例,分散的單一數據可能無法對個體安全構成威脅,但是當技術對海量數據進行收集、整合、重組時,個體的形象和行動軌跡就會逐漸變得清晰和立體,形成大數據畫像,由此出現侵犯個人隱私等問題。然而,我們不能因噎廢食,放棄一切數據應用與開發。大數據時代,數據擁有無限價值,數據的價值在于流動性,法律對數據的治理必須考慮數據的動態流轉需求。[9]由技術原理所決定,ChatGPT類生成式人工智能的發展必須依賴數據的支持,完全限制數據流動,無法滿足未來人工智能技術的發展需求。鑒于此,對數據的保護必須平衡技術發展與數據安全的雙重關系。

第一,在技術應用層面,優化ChatGPT算法模型與數據風險防控系統。ChatGPT擁有強大的算力,它以數據庫為載體可以對數據進行無限加工、整合,可以對數據進行多維度演繹。在此技術路徑下,與國家安全、商業機密、個人隱私等相關聯的數據很有可能成為ChatGPT生成內容的一部分。對此,可從規范數據來源與補足技術漏洞兩個層面解決。其一,規范數據來源路徑,恪守用戶知情同意原則,不能突破用戶授權范圍私自處理用戶未授權數據。用戶知情是用戶同意的前提,只有確保用戶充分、全面掌握被收集的數據內容,才能確保用戶作出的同意是有效的。ChatGPT類生成式人工智能程序應向用戶充分履行披露、告知義務,保障用戶知情權,確保用戶在使用程序時清晰知曉被收集數據的范圍與信息風險。用戶同意是ChatGPT類生成式人工智能啟動數據收集等權限的依據,沒有經過用戶真實、有效的同意,程序不能擅自收集、使用用戶數據。其二,完善數據過濾機制,對國家安全信息、商業機密、個人隱私設置更為嚴格的過濾與保護機制。這一保護機制的適用應適度前置化,即在數據收集階段就啟動。可根據數據類型設置差異化、分層化保護機制,例如個人信息與隱私的范圍并不一致[10],對此應設置篩選機制,將隱私納入更高級別保護范圍。在數據使用、存儲等階段也應根據數據類型設置差異化保護機制。針對目前算法可能出現的數據泄漏等問題,應設置糾偏措施,糾偏舉措一方面可通過優化程序設置來實現,另一方面還可引入人工糾偏措施,借助人工反饋機制,幫助ChatGPT提升剔除敏感數據的能力。

第二,在企業管理層面,生成式人工智能的研發企業要建立完善的數據合規制度,且對數據收集與使用堅持必要性原則。我國《管理辦法》第七條根據《網絡安全法》的內容精神,對生成式人工智能產品的預訓練數據、優化訓練數據來源的合法性提出了明確要求,數據合規應成為ChatGPT類生成式人工智能研發企業合規體系的重要組成部分。應構建覆蓋企業事前、事中、事后各個層面的合規制度,形成全方位的合規防控體系。同時對數據收集與使用要以確保技術正常應用且滿足用戶數據最大安全為必要,將數據風險降至最低。

ChatGPT類生成式人工智能技術的研發企業要以我國當前法律法規為指引,在技術研發與使用階段嚴格遵守法律規范,對不同類型的數據應設置不同的合規保護方案。對涉國家安全類數據,必須立足總體國家安全觀,設置最嚴格的數據流動監管規則,從數據采集、分析到應用,對數據實行全過程性監管,特別是對跨境數據流動實行嚴格審核制度,一旦發現可能存在數據泄漏問題須及時凍結數據流動,防止數據進一步擴散。對企業數據的保護要結合企業經營類型、結構,設置不同的數據保護方案,ChatGPT在域外一些企業已經成為企業員工的辦公輔助,但也出現了由于工作人員疏忽導致企業涉密數據上傳、外泄等問題,對此,應根據企業的不同類型,對不同類型的數據設置區別保護制度,特別注意對核心技術、企業管理機密進行特別加密保護,未經特別授權不允許數據上傳和收集。針對用戶個人數據的收集與使用以滿足程序正常使用為必要,不允許ChatGPT類生成式人工智能使用爬蟲技術等過度收集用戶數據,對用戶隱私數據要進行特別處理,設置定期清除程序,防范技術攻擊導致的數據泄漏。

第三,在法律規范層面,須及時完善相關法律法規。ChatGPT的運行模式使其功能定位接近于網絡信息服務提供者,但與傳統的網絡服務提供者相比,ChatGPT具備更強大的功能與技術潛力。針對網絡服務提供者的違法犯罪行為,我國《刑法》中有專門罪名作出規定,此外,我國還專門出臺了《網絡安全法》《個人信息保護法》《數據安全法》等法律法規健全對網絡服務提供者的行為規范。然而,ChatGPT的技術結構與革新速率又與傳統網絡服務提供者存在較大差異,因此,針對ChatGPT類生成式人工智能我們有必要繼續關注其技術發展走向,出臺更貼合其技術特征的法律法規,及時通過完善立法的路徑規范技術發展與應用。《生成式人工智能服務管理暫行辦法》對ChatGPT類生成式人工智能的數據保護問題作出了專門規定,確立了對數據的保護立場,但該《管理辦法》內容仍較宏大,具體性與可操作性都有待提升,需要相關部門進一步細化相關規定,增強對生成式人工智能發展的規范與指引。同時,生成式人工智能具有特殊的數據處理、應用形態,其對數據的開發更為復雜,相關立法部門要隨時關注技術演化走向,防范新型數據侵權行為的發生。

(二)虛假信息的法律治理

《管理辦法》中要求提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性。然而,當前的技術還無法解決ChatGPT提供虛假信息的問題,因為數據庫存有海量數據信息,當前技術還無法篩查、確證每一條信息的真實性,且由ChatGPT的信息生成模型所決定,即使數據庫信息全部真實也無法完全排除ChatGPT生成虛假信息的可能性。目前,只能通過技術改進的方式盡量控制與減少虛假信息的數量,例如OpenAI公司鼓勵用戶發現ChatGPT生成錯誤信息或無關信息時,通過快捷按鈕予以反饋,OpenAI公司此舉正是希望借助用戶反饋的方式幫助公司人工篩查錯誤信息,便于公司不斷完善信息篩查機制,控制生成內容的錯誤率。解決ChatGPT生成虛假信息的法律問題時,必須先明確這些虛假信息的生成并不是人為因素導致,而是由技術模型所決定。虛假信息的生成由多種技術因素導致,要求程序開發方、運營者、服務商在一切情形下都對ChatGPT生成內容的不法性承擔法律責任不僅會影響技術創新,也有違法律公平精神。在當前的法律架構與ChatGPT技術發展階段下,由ChatGPT承擔虛假信息的法律責任并不適格,因為人工智能尚不具備法律主體性。鑒于此,可以為程序開發方、運營者、服務商設定合理注意義務,具體包括以下兩個層面。一方面,在技術運行層面,要求在當前的技術條件下盡最大努力控制、剔除虛假信息,優化內容生成技術,將虛假信息的比例降至最低,不斷予以技術改進,將其作為ChatGPT技術革新的重要方向。另一方面,程序開發方、運營者、服務商等相關主體應對信息的真實性作出風險提示,提示用戶對ChatGPT生成信息的真實性予以重視和自行篩查,避免誤導用戶。若用戶對信息的虛假性并不知情也無法知情的,對此引發的法律風險不能歸咎于用戶,因為用戶并不具備對虛假信息作出專業判斷的能力。針對虛假信息造成的損害,可由程序開發方、運營者、服務商等主體共建資金保障制度,例如強制ChatGPT類生成式人工智能購買專門的保險,當發生侵權糾紛時向被侵權方支付賠償金。[11若程序方已盡到合理注意義務,用戶明知生成信息為虛假信息,故意利用該信息進行違法犯罪活動的,該法律責任應由用戶承擔。

(三)知識產權爭議的法律應對

ChatGPT類生成式人工智能的應用已經給知識產權保護體系帶來了巨大沖擊。在當前的技術發展階段,其雖尚不足以徹底顛覆知識產權保護體系,但針對已經出現的知識產權爭端,如ChatGPT的文本生成行為是否侵犯了原作者的權利以及生成內容的知識產權應歸屬于誰?我們需要從法律層面及時予以回應和規范。

第一,根據不同情形具體分析ChatGPT的文本生成行為是否侵犯了原作者權利。若ChatGPT在生成信息過程中不當泄漏他人隱私或商業秘密、國家秘密的,則ChatGPT開發方、運營者、服務商等相關主體可能面臨法律懲處。若ChatGPT照搬照抄資料庫的作品或者原文本、代碼等受法律特殊保護的、未經權利人授權的數據的,也可能面臨法律懲處。問題的關鍵在于需要進一步明確生成式人工智能在技術訓練中“合理使用”的界限,我國當前《著作權法》沒有對人工智能的數據挖掘、分析行為明確定性,在此情形下,可能會引發法律適用的爭議。因此,該爭議問題的解決有待相關法律法規或條例對“合理使用”作出明確規定,劃定數據挖掘行為的合理界限。

第二,在當前的技術語境下,ChatGPT生成內容的知識產權應歸屬于使用者。首先,ChatGPT不能成為作者。有學者認為,ChatGPT對數據材料的“編排”已經滿足著作權法“匯編作品”的標準,其生成文本是有獨特價值的“篩選合并”,宜認可生成式人工智能生成物的作品性質,著作權法應放寬對“作者”的限制。[12]《科學》雜志發表聲明不能接受ChatGPT作為論文作者[13],從目前ChatGPT類生成式人工智能技術的發展階段來看,這一聲明具有實質合理性。因為作品應具有獨創性,由于ChatGPT生成的信息并不是由其獨創完成,而是對數據庫既有數據的加工、提煉,其只是依據算法對數據進行重組,未完成“創作”這一行為,其不應享有著作權。且我國當前的法律并未賦予人工智能主體地位,ChatGPT不符合法律主體要件。其次,ChatGPT研發者不能成為生成文本的作者。研發者賦予了ChatGPT文本生成功能,但是這一功能設計完成后,對其生成的內容“不能視為其設計的機械延伸”[14]。換言之,研發者完成了ChatGPT的技術模型,通過技術優化確保ChatGPT不斷生成優質文本,但是研發者的貢獻停留于技術設計層面,對模型所產生的文本不能再享有知識產權。最后,使用者可被視為ChatGPT生成文本的作者。ChatGPT的文本生成功能由用戶(使用者)發出指令所觸發,通過人機交互的方式完成文本生成。在文本生成過程中介人了使用者的指令或指引行為,使用者的行為預設了ChatGPT的文本內容,投入了智力勞動,因此,在當前的技術語境下由使用者享有ChatGPT生成文本的知識產權更具合理性。

五、結語

在當前的技術發展階段,ChatGPT對數據仍只是重組、整合,隨著技術發展,未來其可能會獲得創作、創新能力,ChatGPT的法律主體地位可能也要被重新討論和界定,彼時法律關系會變得更加復雜。法律法規要因應技術發展及時予以規范指引,對ChatGPT類生成式人工智能要重視監管,動態監督人工智能技術發展動向。針對不同類型、不同風險、不同應用領域的生成式人工智能,要制定分類化管理思路,技術應服務于社會,而非社會被動因應技術發展。

 

參考文獻:

[1]裘雯涵.涉嫌數據泄露,意大利暫停ChatGPT[N].解放日報,2023-04-05.

[2]陳根.ChatGPT:讀懂人工智能新紀元[M].北京:電子工業出版社,2023.

[3]朱光ha運行模式鍵技及未景新疆師大學學報社版)0234

[4]鄧建國.概率與反饋:ChatGPT的智能原理與人機內容共創[J].南京社會科學,2023(3).

[5]陳永偉,超越ChatGPT:生成式AI的機遇、風險與挑戰[J山東大學學報哲學社會科學版).2023(3.

[6]周佑勇.健全行政裁量基準的新使命新任務[J].行政法學研究,2023(1).

[7]王鵬飛.數據安全導向下企業刑事合規保護體系建構[J].天津師范大學報(社會科學版).2022(6.

[8]余繼超.數據安全“拷問”ChatGPT類AI[N].國際金融報,2023-04-17.

[9]李振林,潘鑫媛,生成式人工智能背景下數據安全的刑法保護困境與應對—以ChatGPT為視角的展開[]犯罪研究,2023(2).

[10]歐元捷.論訴訟中個人信息的保護[J].齊魯學刊,2023(5).

[11]周書環.聊天機器人的法律人格爭議與播侵權研究基于Cha1T場景視J]南社科學20236

[12]唐林垚.具身倫理下ChatGPT的法律規制及中國路徑[J].東方法學,2023(3).

[14]鄧建鵬,朱成.ChatGPT模型的法律風險及應對之策[J新疆師范學報學社會科學版),2023(5)

0條評論
0 / 1000
蒲****媛
3文章數
0粉絲數
蒲****媛
3 文章 | 0 粉絲

【轉載】生成式人工智能的應用、風險與法律回應 ——以 ChatGPT 為視角

2024-05-07 09:41:59
32
0

一、引言

2022年11月,美國人工智能研究實驗室OpenAI開發的人工智能聊天機器人ChatGPTh-線超過的用戶,成為史上用戶量增長速度最快的應用程序。ChatGPT是生成式人工智能ArtificialInteligenceGeneratedContent,AIGC)取得的最新成果。根據我國國家網信辦聯合國家相關部門在2023年7月13日發布的《生成式人工智能服務管理暫行辦法》(下稱《管理辦法》》的規定,生成式人工智能技術是指具有文本、圖片、音頻、視頻等內容生成能力的模型及相關技術。ChatGPT是一種由人工智能技術驅動的自然語言處理工具,是生成式人工智能文本生成功能在當前的最佳演繹。

ChatGPT的出現不僅讓生成式人工智能大放異彩,還深刻改變了人工智能技術的發展格局。不同于傳統人工智能技術,以.ChatGPT為代表的生成式人工智能顛覆了人類對人工智能的認知,ChatGPT強大的自我學習能力和迭代升級速度,使其在語言翻譯、文本撰寫、代碼編程、醫學影像解讀等領域均有出色表現。然而,隨著ChatGPT的迅速普及,其引起的各類法律風險開始不斷顯現,如數據侵權、虛假信息、算法歧視、侵犯隱私等問題。鑒于此,一些國家開始限制甚至下架ChatGPT,意大利數據保護局通報ChatGPT出現非法收集和存儲大量個人數據、泄露用戶對話數據和支付信息等情況。[1]ChatGPT暴露的各類法律風險為我們敲響了警鐘,若不及時對該類技術進行法律介入與規制,后果將難以設想。在此背景下,本文以ChatGPT的智能應用為切入點,對其產生的一些常見法律風險進行剖析,從法律視角提出應對路徑,以期對ChatGPT類生成式人工智能的規范發展提供理論幫助。

二、ChatGPT類生成式人工智能的技術演化與應用

(一)ChatGPT的技術演化與迭代升級

ChatGPT由GPT-3孕育變化而產生。在ChatGPT問世前,OpenAI公司推出過GPT-1、GPT-2、GPT-3,其本質都是通過對海量數據的學習,依靠Transformer模型強大的擬合能力實現模型收GG-Ta生成預練模型稱。

GPT-1只有1.17億個參數,預訓練數據量約5G,其采用大型書籍文本數據集進行無監督的預訓練和有監督的模型微調,這一技術打破了傳統自然語言處理(NaturalLanguage Process-ing,NLP)訓練模型的局限性,取得了比基礎Transformer模型更優的結果。[2]P11)緊接著,OpenAI推出了GPT-2,雖然其原理與GPT-1一致,但GPT-2的參數和預訓練數據集已經分別達到了15億和40G。GPT-2驗證了隨著模型容量和數據量的擴容,其性能還有繼續優化的空間。在此基礎上,OpenAI于2020年推出了GPT-3,GPT-3參數達到了1,750億,預訓練數據量更是達到了45TB,在一些具有一定難度的任務方面,例如撰寫文章、編寫代碼等方面均有突出表現,ChatGPT被認為脫胎于GPT-3。

大型語言模型(LargeLanguageModel,,LLM)作為ChatGPT的基礎及升級迭代的關鍵,依托海量數據儲備,使ChatGPT獲得強大學習能力。在GPT-3.5的模型架構中,通過“幾萬人工標注”的方式注入人類偏好,形成人類偏好數據,讓模型通過自我學習了解人類偏好;繼而訓練一個反饋模型,由標注人員對原始模型輸出答案進行人類偏好的排序;最后依托標注好的“人類偏好”數據,訓練打分模型將人類偏好反饋給大型語言模型。[3]通過循環往復的反饋、打分,使得ChatGPT洞悉人類偏好,不斷修正數據、反饋人類滿意的答案。當前,ChatGPT已發展到GPT-4階段,GPT-4擁有更大模型參數和預訓練數據集,擁有更高智能性和準確度。可以預見,隨著數據容量的不斷擴容,算法的優化、算力的提升,ChatGPT還將持續迭代升級,且迭代升級的頻率可能不斷加快。伴隨每一次技術升級,ChatGPT都將取得突破性革新,將人工智能應用帶入一個全新階段。

 

(二)ChatGPT類生成式人工智能的技術應用與展望

ChatGPT類生成式人工智能技術誕生之前,人類對人工智能的認識還停留在弱人工智能階段,弱人工智能只能依據人類的指令完成簡單的、初級的任務。ChatGPT的橫空出世無疑顛覆了很多人對人工智能的認知,雖然ChatGPT還不是強人工智能,但它讓人類對強人工智能的認識變得更加立體和飽滿。此前,人類社會的技術變革帶來的主要是物質生產形式的進步,而以ChatGPT為代表的生成式人工智能直接模擬人類思維,進行思想產出,甚至直接影響或改變人類的思維習慣與模式,這對人類社會的影響是前所未有的。以ChatGPT的應用為參照,其至少在以下維度帶來了技術應用的深度革新。

1.主體維度:AI成為創作主體

生成式人工智能的內容創作主體為人工智能。互聯網時代內容創作主體以專業生產內容典型。在生成式人工智能獲得廣泛應用前,這兩類內容創作形式是互聯網時代的主導,不管是PGC還是UGC,其內容生產者都是人,即以人為主體進行內容生產,而生成式人工智能的出現深刻改變了這一格局,內容創作主體由人變為人工智能。AI文本生成、視頻生成、音頻生成、代碼生成等均在各領域實現了應用,引起網絡熱議的“AI孫燕姿”就是AI音頻生成的應用。演繹歌曲的并不是歌手孫燕姿本人,而是由算法生成的音頻。AI利用深度學習算法分析大量的孫燕姿音頻數據,模擬出與孫燕姿聲音高度相似的音頻,這種音頻足以達到以假亂真的程度。與之前的內容生成主體不同,AI已然替代自然人,成為創作主體。

與以人為主體的內容創作模式相比,人工智能創作主體具有多種優勢。其一,人工智能具有創新性。一方面,通過訓練模型及對大規模數據的學習,A1可在極短時間內掌握多領域理論知識,其可根據用戶需求提供定制化服務,還可以根據創作語境、任務的不同隨時調整創作內容,這是人類創作主體難以實現的。另一方面,AI可以擺脫人類創作規律,依托生成式人工智能的技術模型,AI可以進行大規模內容重組、建構與整合,打破人類既有創作思維的束縛,實現內容創新。隨著數據的擴容,算法與算力的提升,生成式人工智能生成的內容質量甚至能在某些方面超越人類。其二,人工智能具有高效性。通過對大規模數據的學習,人工智能可以不斷進行內容輸出與生成,這種效率是人類無法比擬的。內容生成是一種創造性工作,需要創作者投入巨大的時間與精力,而人工智能利用強大的算法與算力可以在極短時間內實現內容生成。一項復雜內容的完成往往需要多個不同專業工作人員的密切協作,而人工智能可以“身兼數職”,甚至可以同時完成客戶下達的多項復雜任務指令,理論上可以實現內容的無限生成,這是人類創作者難以實現的。其三,人工智能具有低成本性。盡管生成式人工智能系統的開發與數據庫的建設需要投入大量資金,但是系統一旦投入運營,其能極大降低內容生成成本。由人類完成的內容生成需要投入較多人力、物力與財力,生成式人工智能可以根據用戶指令立刻生成相應內容,極大降低內容制作成本。從商業應用角度而言,這一優勢對企業具有極大吸引力。

2.技術維度:文本生成的高智能性在ChatGPT出現之前,科技公司也推出過類似的聊天機器人程序,例如微軟公司曾推出的人工智能聊天機器人Tay、微軟小冰,蘋果公司推出的語音助手Siri,但此前的任何一款人工智能聊天程序都不如ChatGPT智能。以微軟公司此前推出的人工智能聊天機器人Tay為例,Tay可以通過與人類聊天、交流,不斷積累知識,提升理解能力,變得更加智能。然而,Tay上線還不到24小時,它就被“誤導”和“教壞”了,在和人類交流的過程中,一些用戶向Tay傳輸了不當思想和言論,導致Tay開始輸出很多偏激性、歧視性言論,微軟公司不得不迅速下架Tay。Tay的事例暴露出人工智能聊天機器人的技術瓶頸,即如何通過技術手段提升聊天機器人的智能性,避免其受到用戶人為因素的過度干擾。與傳統聊天機器人程序相比,ChatGPT更具智能性,具備了極高的類人屬性,邏輯能力很強,甚至有一定的記憶能力,能和用戶進行連續對話。ChatGPT的運行原理使得它能從與用戶的互動與反饋中不斷修正自己的回答,以不斷提高其溝通的準確度和對話感。[4]甚至會讓用戶模糊地認為自己是在和人類對話。ChatGPT具備了更明顯的交互屬性,用戶在使用ChatGPT時,不僅是單方面向ChatGPT傳輸信息、思想,也能通過ChatGPT的回應實現雙向互動式交流,交互雙方的地位更趨平等。ChatGPT的出現讓人類對人工智能是否有意識的爭論變得更加激烈,從當前的技術發展趨勢來看,這一爭論仍無定論。需要我們警惕的是,ChatGPT類生成式人工智能不再執念于“意識”的形成與塑造,而是通過人機互動逐漸引導人類的思考模式,用戶和ChatGPT之間形成“輸人指令一生成內容”的互動,生成的內容又會無形影響和指引人類的行為,使得人類的想象與探索限定于人工智能的預設中。就此而言,人工智能最終是否能產生與人類一樣的意識似乎不再那么重要了,因為代替人類思考的人工智能在另一個維度似乎又有了“意識”。隨著技術的迭代升級,ChatGPT對人類語言規律的破解與領悟能力還將繼續優化,其生成文本的內容將更加具有智能性。

 

3.空間維度:應用場景的普遍化

以ChatGPT為代表的生成式人工智能不僅能出色完成傳統人工智能的功能,還能實現自我學習、撰寫論文、編寫代碼、開發游戲、制定商業計劃書等任務,一些頂尖芯片公司已經開始將人工智能技術應用到芯片研發和生產中。優越的技術性能使得ChatGPT在多個領域大放異彩并被賦予極高期待。在智能客服領域,ChatGPT能根據對話語境提供用戶所需答案,在提升服務用戶質量的同時,可有效降低企業運營成本;在醫療領域,ChatGPT可有效提升智能診療的普及率,方便患者問診;在教育領域,ChatGPT可為學生提供個性化輔導,極大充實教育資源;在法律領域,ChatGPT可提供優質的檢索服務、法律文書撰寫服務、輔助法律咨詢等。

除了傳統空間的技術應用外,ChatGPT憑借強大的算力、先進的算法以及宏大的數據被認為在元宇宙領域必將大有可為,為元宇宙的實現提供了強大的技術支撐。元宇宙的實現需要數字智能技術的高度發展,在ChatGPT技術誕生之前,人類對元宇宙的認識多停留于想象與理論探索階段,而ChatGPT技術的出現,使得一些支撐元宇宙的技術要素得以實現,例如借助生成式人工智能可完成元宇宙3D人物和物品形象的生成,這將極大節省成本[5],可以說,生成式人工智能為元宇宙的實現提供了技術路徑,它的出現讓元宇宙不再那么縹緲。除了為元宇宙提供技術支持外,ChatGPT還將在大數據、區塊鏈等前沿科技領域大顯身手。

 

三、ChatGPT類生成式人工智能的法律風險

ChatGPT的出現將人工智能的發展帶入新維度,其展現的功能前所未有地強大,但是也帶來了各種風險,例如數據違規,輸出錯誤、虛假甚至不法信息,侵犯知識產權,引發學術不端、算法歧視等問題,科學界也對ChatGPT的迭代升級速度表示了擔憂,認為這是一場“失控的競賽”,ChatGPT可能會把人類帶入充滿風險的未知領域。結合ChatGPT目前暴露出的技術風險,本文選定三類常見法律風險予以具體分析。

(一)數據安全問題

ChatGPT的迭代升級離不開海量數據的支持。數據是ChatGPT的技術前提,沒有數據作為預訓練保障,ChatGPT的功能無法實現。ChatGPT的技術架構決定了其迭代升級的過程必須不斷擴容各類新數據,因此,ChatGPT會最大限度收集各類數據,以不斷提升其使用性能。以數據來源為參照,ChatGPT使用的數據既可能是公司購買的第三方平臺數據,還可能是ChatGPT自行采集、獲取或爬取的數據,這兩種數據來源路徑都可能存在數據安全隱患。其一,第三方平臺的數據可能存在內容侵權、權屬不清等問題,即這些數據的內容或來源本身缺乏正當性,ChatGPT使用這些數據進行訓練或內容生成,容易引發數據侵權。其二,ChatGPT在應用過程中還存在自行采集數據、爬取數據等數據收集行為,這些行為很可能突破了用戶的知情同意原則,繼而引發數據泄漏、侵犯隱私等爭議。

以數據內容為參照,ChatGPT應用中所涉數據既可能包含影響國家安全的數據,還可能包含涉密企業數據、個人隱私等。在數字政府建設過程中,政務處理以及行政執法流程中的政務數據[6],可能成為ChatGPT不當收集的對象,這些數據中不僅涉及政務信息,甚至包含有關國家安全的信息,一旦被泄漏將對國家安全造成嚴重威脅;公司員工利用ChatGPT辦公時可能會無意提供公司機密信息,這些信息可能成為ChatGPT數據儲備的一部分,為文本生成提供參照,若這些信息涉及商業秘密,將直接威脅公司經營;ChatGPT還可能違規收集用戶并未授權的個人數據〔7],造成個人信息泄漏,嚴重侵犯用戶隱私。

從技術階段來考察,ChatGPT在數據收集階段、分析階段以及內容生成階段,都存在著一定的數據安全問題。在數據收集階段,ChatGPT可能出現不當收集數據的問題,例如個人用戶在使用ChatGPT過程中,其上網記錄、消費記錄、行程數據等可能會被截取,這些數據可能成為ChatGPT不斷訓練和優化性能的基礎。在數據分析階段,ChatGPT的運行效果有賴海量數據的支持,數據規模越大、內容越齊全,就越有利于ChatGPT優化使用性能,但ChatGPT還未像人類一樣具有縝密的邏輯分析能力,無法排除ChatGPT基于內部文本生成模型生成虛假信息的問題。在文本生成階段,ChatGPT根據用戶指令生成相應文本信息,若原數據中包含用戶隱私或機密信息,而ChatGPT缺乏機密數據過濾功能,其提供的內容可能泄漏用戶隱私,導致敏感數據被公開。

(二)生成虛假信息問題

根據ChatGPT的運行機理,其可能生成虛假信息。ChatGPT類生成式人工智能的生成內容來源于數據庫,ChatGPT雖然具備對數據的學習、理解能力,但這是一種基于程序指令的機械學習,其生成內容不會超過數據庫提供的數據范圍,ChatGPT只能在數據庫范圍內進行運算與內容生成,數據庫是否健全直接影響ChatGPT的內容生成質量。人類的內容輸出既會受到邏輯推理能力制約,還會受到個人理論基礎影響,甚至可能受到個人感性因素影響,因此,人類不同個體生成的內容具有發散性、主觀性與多樣性。區別于人類的個體化、差異性的內容生成模式,ChatGPT的內容生成在其技術框架下具有相對穩定的構造,其內容生成主要受到數據庫內容的影響,當來源數據中包含虛假信息時,其生成內容中也可能產生虛假表達。即使數據全部真實,也無法排除ChatGPT基于內部文本生成模型生成虛假信息,這種情況在目前的技術路徑下仍是無法避免的。當虛假信息被傳播、擴散后,這些信息可能成為決策的佐證根據,導致用戶形成錯誤決斷。

當前,在ChatGPT的應用中已經出現了這類問題。當ChatGPT生成的內容中混入了虛假信息,這些信息一旦被發布或被用戶采納,則會給社會秩序和公民合法權益造成嚴重危害。以ChatGPT生成的虛假信息的類型不同,其危害可歸納為以下三個層面。其一,以國家法益為例,若ChatGPT生成的虛假信息有損國家、政府形象,引發民眾信任危機,將導致國家法益遭受嚴重損害。其二,以社會法益為例,一些新聞媒體直接使用ChatGPT撰寫相關新聞稿件,若稿件內容中混人了虛假信息,這些虛假信息被傳播后將產生惡劣影響,引發社會輿情危機,對社會秩序造成嚴重危害。其三,以個人法益為例,有不法分子利用ChatGPT生成的虛假內容實施侮辱、誹謗、侵犯他人隱私等違法犯罪行為,還有用戶誤將ChatGPT生成的虛假信息當成真實內容,導致用戶產生事實性錯誤,對其行為產生誤導。

(三)知識產權爭議問題

ChatGPT類生成式人工智能的應用對傳統知識產權保護體系帶來了巨大挑戰。ChatGPT獨特的文本生成模型主要基于對數據的爬取、提煉和整合,這一文本生成行為有別于人類的創作,其生成內容的過程是否侵犯了原數據作者的知識產權以及生成內容的知識產權歸屬問題都有待廓清。OpenAI公司曾提出與ChatGPT共同創作的內容歸屬于用戶,但用戶輸人指令的行為能否被認定為人類對生成內容的介入還有待從法律層面予以確證。

隨著ChatGPT類生成式人工智能技術的迭代升級,其所引發的知識產權爭議問題還將繼續泛化和深化,其中既涉及ChatGPT類生成式人工智能文本生成模式的技術認定問題,還涉及人工智能能否成為法律主體的爭端。ChatGPT類生成式人工智能一旦獲得法律主體地位,我們的知識產權保護體系要進行全面性調整,就目前的技術發展趨勢來看,ChatGPT類生成式人工智能技術還遠未達到強人工智能階段,還不具備與人類思維相匹配的意識與能動性,因此,還不足以動搖人類的法律主體地位,但隨著人工智能技術的不斷革新,ChatGPT類生成式人工智能獲得“創作”作品的能力時,傳統的知識產權保護體系可能要全面調整。

四、ChatGPT類生成式人工智能的法律回應

針對ChatGPT引發的各類法律風險,多國表現出了謹慎的態度,積極制定相應法律法規對其進行引導與限制。如美國政府已經開始研究是否需要對ChatGPT等人工智能工具進行審查,意大利、德國監管機構已發布ChatGPT禁令,法國、愛爾蘭、西班牙等國也開始考慮對AI聊天機器人采取更嚴格的監管。[8]《管理辦法》及時將生成式人工智能納入健康發展和規范應用軌道,以防范生成式人工智能可能產生的各類風險,但是,想要規范和引導ChatGPT類生成式人工智能這種新型技術應用形式,僅僅出臺管理辦法仍是不充分的。這類技術形式雖然隱藏巨大風險,但也蘊含著技術發展的新趨勢、新契機,應將風險限定在可控的范圍內,最大限度挖掘技術潛力。因此,我們需要正視人工智能技術在新階段出現的新問題,以更加科學的法律方法進行治理,為ChatGPT類生成式人工智能的發展提供規范指引。

(一)數據保護:技術與安全的平衡

當前,人類社會幾乎所有的行為、活動都可以被數字化,以個人數據安全為例,分散的單一數據可能無法對個體安全構成威脅,但是當技術對海量數據進行收集、整合、重組時,個體的形象和行動軌跡就會逐漸變得清晰和立體,形成大數據畫像,由此出現侵犯個人隱私等問題。然而,我們不能因噎廢食,放棄一切數據應用與開發。大數據時代,數據擁有無限價值,數據的價值在于流動性,法律對數據的治理必須考慮數據的動態流轉需求。[9]由技術原理所決定,ChatGPT類生成式人工智能的發展必須依賴數據的支持,完全限制數據流動,無法滿足未來人工智能技術的發展需求。鑒于此,對數據的保護必須平衡技術發展與數據安全的雙重關系。

第一,在技術應用層面,優化ChatGPT算法模型與數據風險防控系統。ChatGPT擁有強大的算力,它以數據庫為載體可以對數據進行無限加工、整合,可以對數據進行多維度演繹。在此技術路徑下,與國家安全、商業機密、個人隱私等相關聯的數據很有可能成為ChatGPT生成內容的一部分。對此,可從規范數據來源與補足技術漏洞兩個層面解決。其一,規范數據來源路徑,恪守用戶知情同意原則,不能突破用戶授權范圍私自處理用戶未授權數據。用戶知情是用戶同意的前提,只有確保用戶充分、全面掌握被收集的數據內容,才能確保用戶作出的同意是有效的。ChatGPT類生成式人工智能程序應向用戶充分履行披露、告知義務,保障用戶知情權,確保用戶在使用程序時清晰知曉被收集數據的范圍與信息風險。用戶同意是ChatGPT類生成式人工智能啟動數據收集等權限的依據,沒有經過用戶真實、有效的同意,程序不能擅自收集、使用用戶數據。其二,完善數據過濾機制,對國家安全信息、商業機密、個人隱私設置更為嚴格的過濾與保護機制。這一保護機制的適用應適度前置化,即在數據收集階段就啟動。可根據數據類型設置差異化、分層化保護機制,例如個人信息與隱私的范圍并不一致[10],對此應設置篩選機制,將隱私納入更高級別保護范圍。在數據使用、存儲等階段也應根據數據類型設置差異化保護機制。針對目前算法可能出現的數據泄漏等問題,應設置糾偏措施,糾偏舉措一方面可通過優化程序設置來實現,另一方面還可引入人工糾偏措施,借助人工反饋機制,幫助ChatGPT提升剔除敏感數據的能力。

第二,在企業管理層面,生成式人工智能的研發企業要建立完善的數據合規制度,且對數據收集與使用堅持必要性原則。我國《管理辦法》第七條根據《網絡安全法》的內容精神,對生成式人工智能產品的預訓練數據、優化訓練數據來源的合法性提出了明確要求,數據合規應成為ChatGPT類生成式人工智能研發企業合規體系的重要組成部分。應構建覆蓋企業事前、事中、事后各個層面的合規制度,形成全方位的合規防控體系。同時對數據收集與使用要以確保技術正常應用且滿足用戶數據最大安全為必要,將數據風險降至最低。

ChatGPT類生成式人工智能技術的研發企業要以我國當前法律法規為指引,在技術研發與使用階段嚴格遵守法律規范,對不同類型的數據應設置不同的合規保護方案。對涉國家安全類數據,必須立足總體國家安全觀,設置最嚴格的數據流動監管規則,從數據采集、分析到應用,對數據實行全過程性監管,特別是對跨境數據流動實行嚴格審核制度,一旦發現可能存在數據泄漏問題須及時凍結數據流動,防止數據進一步擴散。對企業數據的保護要結合企業經營類型、結構,設置不同的數據保護方案,ChatGPT在域外一些企業已經成為企業員工的辦公輔助,但也出現了由于工作人員疏忽導致企業涉密數據上傳、外泄等問題,對此,應根據企業的不同類型,對不同類型的數據設置區別保護制度,特別注意對核心技術、企業管理機密進行特別加密保護,未經特別授權不允許數據上傳和收集。針對用戶個人數據的收集與使用以滿足程序正常使用為必要,不允許ChatGPT類生成式人工智能使用爬蟲技術等過度收集用戶數據,對用戶隱私數據要進行特別處理,設置定期清除程序,防范技術攻擊導致的數據泄漏。

第三,在法律規范層面,須及時完善相關法律法規。ChatGPT的運行模式使其功能定位接近于網絡信息服務提供者,但與傳統的網絡服務提供者相比,ChatGPT具備更強大的功能與技術潛力。針對網絡服務提供者的違法犯罪行為,我國《刑法》中有專門罪名作出規定,此外,我國還專門出臺了《網絡安全法》《個人信息保護法》《數據安全法》等法律法規健全對網絡服務提供者的行為規范。然而,ChatGPT的技術結構與革新速率又與傳統網絡服務提供者存在較大差異,因此,針對ChatGPT類生成式人工智能我們有必要繼續關注其技術發展走向,出臺更貼合其技術特征的法律法規,及時通過完善立法的路徑規范技術發展與應用。《生成式人工智能服務管理暫行辦法》對ChatGPT類生成式人工智能的數據保護問題作出了專門規定,確立了對數據的保護立場,但該《管理辦法》內容仍較宏大,具體性與可操作性都有待提升,需要相關部門進一步細化相關規定,增強對生成式人工智能發展的規范與指引。同時,生成式人工智能具有特殊的數據處理、應用形態,其對數據的開發更為復雜,相關立法部門要隨時關注技術演化走向,防范新型數據侵權行為的發生。

(二)虛假信息的法律治理

《管理辦法》中要求提升生成式人工智能服務的透明度,提高生成內容的準確性和可靠性。然而,當前的技術還無法解決ChatGPT提供虛假信息的問題,因為數據庫存有海量數據信息,當前技術還無法篩查、確證每一條信息的真實性,且由ChatGPT的信息生成模型所決定,即使數據庫信息全部真實也無法完全排除ChatGPT生成虛假信息的可能性。目前,只能通過技術改進的方式盡量控制與減少虛假信息的數量,例如OpenAI公司鼓勵用戶發現ChatGPT生成錯誤信息或無關信息時,通過快捷按鈕予以反饋,OpenAI公司此舉正是希望借助用戶反饋的方式幫助公司人工篩查錯誤信息,便于公司不斷完善信息篩查機制,控制生成內容的錯誤率。解決ChatGPT生成虛假信息的法律問題時,必須先明確這些虛假信息的生成并不是人為因素導致,而是由技術模型所決定。虛假信息的生成由多種技術因素導致,要求程序開發方、運營者、服務商在一切情形下都對ChatGPT生成內容的不法性承擔法律責任不僅會影響技術創新,也有違法律公平精神。在當前的法律架構與ChatGPT技術發展階段下,由ChatGPT承擔虛假信息的法律責任并不適格,因為人工智能尚不具備法律主體性。鑒于此,可以為程序開發方、運營者、服務商設定合理注意義務,具體包括以下兩個層面。一方面,在技術運行層面,要求在當前的技術條件下盡最大努力控制、剔除虛假信息,優化內容生成技術,將虛假信息的比例降至最低,不斷予以技術改進,將其作為ChatGPT技術革新的重要方向。另一方面,程序開發方、運營者、服務商等相關主體應對信息的真實性作出風險提示,提示用戶對ChatGPT生成信息的真實性予以重視和自行篩查,避免誤導用戶。若用戶對信息的虛假性并不知情也無法知情的,對此引發的法律風險不能歸咎于用戶,因為用戶并不具備對虛假信息作出專業判斷的能力。針對虛假信息造成的損害,可由程序開發方、運營者、服務商等主體共建資金保障制度,例如強制ChatGPT類生成式人工智能購買專門的保險,當發生侵權糾紛時向被侵權方支付賠償金。[11若程序方已盡到合理注意義務,用戶明知生成信息為虛假信息,故意利用該信息進行違法犯罪活動的,該法律責任應由用戶承擔。

(三)知識產權爭議的法律應對

ChatGPT類生成式人工智能的應用已經給知識產權保護體系帶來了巨大沖擊。在當前的技術發展階段,其雖尚不足以徹底顛覆知識產權保護體系,但針對已經出現的知識產權爭端,如ChatGPT的文本生成行為是否侵犯了原作者的權利以及生成內容的知識產權應歸屬于誰?我們需要從法律層面及時予以回應和規范。

第一,根據不同情形具體分析ChatGPT的文本生成行為是否侵犯了原作者權利。若ChatGPT在生成信息過程中不當泄漏他人隱私或商業秘密、國家秘密的,則ChatGPT開發方、運營者、服務商等相關主體可能面臨法律懲處。若ChatGPT照搬照抄資料庫的作品或者原文本、代碼等受法律特殊保護的、未經權利人授權的數據的,也可能面臨法律懲處。問題的關鍵在于需要進一步明確生成式人工智能在技術訓練中“合理使用”的界限,我國當前《著作權法》沒有對人工智能的數據挖掘、分析行為明確定性,在此情形下,可能會引發法律適用的爭議。因此,該爭議問題的解決有待相關法律法規或條例對“合理使用”作出明確規定,劃定數據挖掘行為的合理界限。

第二,在當前的技術語境下,ChatGPT生成內容的知識產權應歸屬于使用者。首先,ChatGPT不能成為作者。有學者認為,ChatGPT對數據材料的“編排”已經滿足著作權法“匯編作品”的標準,其生成文本是有獨特價值的“篩選合并”,宜認可生成式人工智能生成物的作品性質,著作權法應放寬對“作者”的限制。[12]《科學》雜志發表聲明不能接受ChatGPT作為論文作者[13],從目前ChatGPT類生成式人工智能技術的發展階段來看,這一聲明具有實質合理性。因為作品應具有獨創性,由于ChatGPT生成的信息并不是由其獨創完成,而是對數據庫既有數據的加工、提煉,其只是依據算法對數據進行重組,未完成“創作”這一行為,其不應享有著作權。且我國當前的法律并未賦予人工智能主體地位,ChatGPT不符合法律主體要件。其次,ChatGPT研發者不能成為生成文本的作者。研發者賦予了ChatGPT文本生成功能,但是這一功能設計完成后,對其生成的內容“不能視為其設計的機械延伸”[14]。換言之,研發者完成了ChatGPT的技術模型,通過技術優化確保ChatGPT不斷生成優質文本,但是研發者的貢獻停留于技術設計層面,對模型所產生的文本不能再享有知識產權。最后,使用者可被視為ChatGPT生成文本的作者。ChatGPT的文本生成功能由用戶(使用者)發出指令所觸發,通過人機交互的方式完成文本生成。在文本生成過程中介人了使用者的指令或指引行為,使用者的行為預設了ChatGPT的文本內容,投入了智力勞動,因此,在當前的技術語境下由使用者享有ChatGPT生成文本的知識產權更具合理性。

五、結語

在當前的技術發展階段,ChatGPT對數據仍只是重組、整合,隨著技術發展,未來其可能會獲得創作、創新能力,ChatGPT的法律主體地位可能也要被重新討論和界定,彼時法律關系會變得更加復雜。法律法規要因應技術發展及時予以規范指引,對ChatGPT類生成式人工智能要重視監管,動態監督人工智能技術發展動向。針對不同類型、不同風險、不同應用領域的生成式人工智能,要制定分類化管理思路,技術應服務于社會,而非社會被動因應技術發展。

 

參考文獻:

[1]裘雯涵.涉嫌數據泄露,意大利暫停ChatGPT[N].解放日報,2023-04-05.

[2]陳根.ChatGPT:讀懂人工智能新紀元[M].北京:電子工業出版社,2023.

[3]朱光ha運行模式鍵技及未景新疆師大學學報社版)0234

[4]鄧建國.概率與反饋:ChatGPT的智能原理與人機內容共創[J].南京社會科學,2023(3).

[5]陳永偉,超越ChatGPT:生成式AI的機遇、風險與挑戰[J山東大學學報哲學社會科學版).2023(3.

[6]周佑勇.健全行政裁量基準的新使命新任務[J].行政法學研究,2023(1).

[7]王鵬飛.數據安全導向下企業刑事合規保護體系建構[J].天津師范大學報(社會科學版).2022(6.

[8]余繼超.數據安全“拷問”ChatGPT類AI[N].國際金融報,2023-04-17.

[9]李振林,潘鑫媛,生成式人工智能背景下數據安全的刑法保護困境與應對—以ChatGPT為視角的展開[]犯罪研究,2023(2).

[10]歐元捷.論訴訟中個人信息的保護[J].齊魯學刊,2023(5).

[11]周書環.聊天機器人的法律人格爭議與播侵權研究基于Cha1T場景視J]南社科學20236

[12]唐林垚.具身倫理下ChatGPT的法律規制及中國路徑[J].東方法學,2023(3).

[14]鄧建鵬,朱成.ChatGPT模型的法律風險及應對之策[J新疆師范學報學社會科學版),2023(5)

文章來自個人專欄
文章 | 訂閱
0條評論
0 / 1000
請輸入你的評論
0
0