亚洲综合伊人,成人欧美一区二区三区视频不卡,欧美日韩在线高清,日韩国产午夜一区二区三区,大胆美女艺术,一级毛片毛片**毛片毛片,你瞅啥图片

您當(dāng)前的位置是:  首頁(yè) > 資訊 > IT與互聯(lián)網(wǎng) >
 首頁(yè) > 資訊 > IT與互聯(lián)網(wǎng) >

ChatGPT內(nèi)容很炫 ChatGPT所涉知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)的應(yīng)對(duì)

2023-03-28 10:13:18   作者:   來(lái)源:通信世界全媒體   評(píng)論:0  點(diǎn)擊:


  隨著人類社會(huì)進(jìn)入Web3.0時(shí)代,大數(shù)據(jù)與人工智能深刻地改變著人類社會(huì)的生產(chǎn)方式與產(chǎn)業(yè)經(jīng)濟(jì)結(jié)構(gòu)。近日,由美國(guó)OpenAI公司開(kāi)發(fā)的一款名為“ChatGPT”的智能聊天機(jī)器人引起了社會(huì)各界的廣泛關(guān)注。

  中共中央、國(guó)務(wù)院于2017年印發(fā)的《新一代人工智能發(fā)展規(guī)劃》指出,“在大力發(fā)展人工智能的同時(shí),必須高度重視其可能帶來(lái)的安全風(fēng)險(xiǎn)挑戰(zhàn),加強(qiáng)前瞻預(yù)防與約束引導(dǎo),最大限度降低風(fēng)險(xiǎn),確保人工智能安全、可靠、可控發(fā)展。”

  本文以ChatGPT為切入點(diǎn),選取人工智能聊天機(jī)器人所引起的知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)進(jìn)行討論。一是因?yàn)镃hatGPT的高度智能性主要表現(xiàn)在其能夠模仿人類的表達(dá)邏輯,生成的文本內(nèi)容與人類創(chuàng)作的作品高度相近,并且在多數(shù)情況下可以為用戶直接采用,因而版權(quán)歸屬問(wèn)題、用戶使用限度問(wèn)題是強(qiáng)人工智能體對(duì)當(dāng)前法律體系帶來(lái)的最直觀沖擊。二是強(qiáng)人工智能的發(fā)展以龐大的數(shù)據(jù)集為根基,缺乏足量的數(shù)據(jù)就無(wú)法對(duì)人工智能進(jìn)行訓(xùn)練,而數(shù)據(jù)集的調(diào)用又涉及原始創(chuàng)作者的著作權(quán)與商標(biāo)權(quán)。

  ChatGPT對(duì)當(dāng)前人工智能的突破

  由于以往的人工智能在“類人性”方面總是有所缺憾,無(wú)論是繪畫(huà)創(chuàng)作AI“微軟小冰”還是蘋果智能語(yǔ)音助手Siri,都難以完整地復(fù)現(xiàn)人類心智,因此這一定義在提出時(shí)很大程度上只是對(duì)未來(lái)的超前設(shè)想,描述了人工智能的發(fā)展遠(yuǎn)景。而ChatGPT的出現(xiàn)使人工智能技術(shù)向“類人性表達(dá)”的目標(biāo)無(wú)限趨近,其生成文學(xué)作品、法律文書(shū)、案例分析的能力足以表明,當(dāng)前生成式AI正從“技術(shù)層”向“應(yīng)用層”突破,現(xiàn)實(shí)地完成人類的高難度工作。具體而言,ChatGPT至少在通用性、智能性與邏輯性3個(gè)方面大幅領(lǐng)先于現(xiàn)有生成式AI。

  ChatGPT具有通用人工智能大模型的特征

  以往的人工智能多屬于小語(yǔ)言模型,其應(yīng)用僅限于特定場(chǎng)景和專業(yè)范疇。ChatGPT則實(shí)現(xiàn)了“小模型”向“大模型”的突破,能夠回答法學(xué)、計(jì)算機(jī)、文學(xué)、經(jīng)濟(jì)學(xué)等多種專業(yè)領(lǐng)域的問(wèn)題,這具有兩方面意蘊(yùn)。

  一方面,通用性使人工智能的決策模式與人的相似性進(jìn)一步提高,與AlphaGo等小模型相比,克服場(chǎng)景限制后的ChatGPT很難再被單純地定義為一種專業(yè)輔助工具,至少?gòu)耐庥^上看ChatGPT更接近助手或顧問(wèn)的角色。

  另一方面,通用性也標(biāo)志著人工智能技術(shù)逐步走向普適化、平民化應(yīng)用。統(tǒng)計(jì)公司Similarweb數(shù)據(jù)顯示,2023年1月ChatGPT單日平均獨(dú)立訪客數(shù)量已達(dá)1300萬(wàn)人次,而至2月初,單日用戶訪問(wèn)量已達(dá)2500萬(wàn)人次。在以往的小模型階段,人工智能的開(kāi)發(fā)主要是為了解決特定領(lǐng)域的專業(yè)難題,因此在多數(shù)情況下只有特定行業(yè)的專業(yè)人員能夠接觸、使用AI。通用性人工智能的出現(xiàn),使AI的應(yīng)用正式從小范圍特定人群走向普羅大眾,與此同時(shí)也將潛在風(fēng)險(xiǎn)向社會(huì)層面擴(kuò)散。

  ChatGPT具有高度智能化的特征

  OpenAI官網(wǎng)內(nèi)容顯示,ChatGPT的創(chuàng)新之處在于采用了RLHF(基于人類反饋的強(qiáng)化學(xué)習(xí))人工智能訓(xùn)練方法,該訓(xùn)練方法使得ChatGPT具有與以往人工智能不同的高度智能化特征。這一訓(xùn)練過(guò)程包含3個(gè)階段,首先是監(jiān)督學(xué)習(xí)階段,相比起AI無(wú)監(jiān)督自我學(xué)習(xí),監(jiān)督學(xué)習(xí)需要專業(yè)人員對(duì)ChatGPT待解決的問(wèn)題進(jìn)行人工數(shù)據(jù)標(biāo)注,為ChatGPT人工書(shū)寫(xiě)高質(zhì)量的答案。其次是訓(xùn)練獎(jiǎng)勵(lì)模型階段,專業(yè)人員通過(guò)建立獎(jiǎng)勵(lì)模型的方式對(duì)ChatGPT輸出的不同答案進(jìn)行打分,促使ChatGPT輸出高分答案。最后是強(qiáng)化學(xué)習(xí)階段,運(yùn)用PPO算法不斷強(qiáng)化ChatGPT的能力。

  RLHF訓(xùn)練方法極大地提升了ChatGPT的智能性,強(qiáng)化了生成式AI的功能,這一提升主要體現(xiàn)在以下兩個(gè)方面。其一,ChatGPT能夠基于人類反饋模仿人類的表達(dá)方式和表達(dá)邏輯。以往生成式AI所輸出的文本存在邏輯性較差、語(yǔ)序混亂、表達(dá)生硬以及情感缺失等問(wèn)題,與人類的表達(dá)方式相去甚遠(yuǎn),因此無(wú)法被用戶直接使用。而ChatGPT能夠?qū)W習(xí)、模仿人類的表達(dá)方式,輸出邏輯更嚴(yán)密、表達(dá)更健全的文本內(nèi)容,因此可以在不經(jīng)用戶改寫(xiě)或少量改寫(xiě)的情況下直接使用。其二,ChatGPT能夠精準(zhǔn)識(shí)別用戶指令,輸出與用戶需求高度匹配的答案。ChatGPT與之前的模型相比,其對(duì)話生成實(shí)現(xiàn)了從命令驅(qū)動(dòng)到意圖驅(qū)動(dòng)的轉(zhuǎn)換。ChatGPT在與用戶交流的過(guò)程中,用戶無(wú)需輸入繁瑣的要求和指令,僅需用日常語(yǔ)言輸入簡(jiǎn)單的想法,ChatGPT即可“心領(lǐng)神會(huì)”,完成用戶所指定的任務(wù)。此種對(duì)用戶需求精準(zhǔn)識(shí)別的能力能夠有效降低AI產(chǎn)品的使用門檻,但同時(shí)也加劇了AI異化為違法犯罪工具的風(fēng)險(xiǎn)。

  ChatGPT具有記憶性

  ChatGPT與當(dāng)前人工智能相比另一個(gè)重要突破就是能夠記住與用戶交流的內(nèi)容,并具有在前期對(duì)話的基礎(chǔ)上與用戶進(jìn)行持續(xù)交流的功能。使用者表示,ChatGPT能夠根據(jù)用戶的后續(xù)指令進(jìn)一步修正自己先前輸出的答案,也能夠質(zhì)疑不正當(dāng)?shù)奶釂?wèn)。記憶性特征使ChatGPT的運(yùn)用變得更加靈活多樣,用戶所獲得的答案并非一次性的,即使ChatGPT初次生成的內(nèi)容與用戶需求還存在一定的距離,用戶也無(wú)需親自進(jìn)行人工修改,而是可以逐步引導(dǎo)其增加、刪減部分內(nèi)容。

  ChatGPT所涉知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)的應(yīng)對(duì)

  人類技術(shù)發(fā)展史表明,新技術(shù)一旦在人類社會(huì)廣泛應(yīng)用,將不可避免地引發(fā)全新的法律風(fēng)險(xiǎn);ヂ(lián)網(wǎng)的普及引起了法學(xué)界對(duì)網(wǎng)絡(luò)暴力、通信信息詐騙、數(shù)據(jù)侵權(quán)、虛擬財(cái)產(chǎn)犯罪等風(fēng)險(xiǎn)的警惕與慎思,相應(yīng)的,以ChatGPT為代表的通用性、高智能性、記憶性人工智能的廣泛應(yīng)用,也會(huì)對(duì)既有法律體系與法學(xué)理論提出全新的挑戰(zhàn)。作為文本生成式AI,目前ChatGPT尚不具有生成圖像、音視頻以及聯(lián)通多用戶交流的能力,因此其被利用成為智能化犯罪工具的可能性尚處于較低水平,現(xiàn)階段ChatGPT在法學(xué)領(lǐng)域引起的沖擊更多地集中于知識(shí)產(chǎn)權(quán)領(lǐng)域,包含在數(shù)據(jù)源獲取與內(nèi)容生成兩個(gè)運(yùn)行階段之中。

  在數(shù)據(jù)源獲取階段,人工智能對(duì)數(shù)據(jù)集的使用可能涉及對(duì)原始作品權(quán)利人的侵權(quán)風(fēng)險(xiǎn)。在內(nèi)容生成階段,ChatGPT將進(jìn)一步引起人們對(duì)AI主體地位、AI生成物法律權(quán)屬問(wèn)題的反思。

  ChatGPT在數(shù)據(jù)源獲取階段的侵權(quán)風(fēng)險(xiǎn)

  算法、算力、數(shù)據(jù)是人工智能開(kāi)發(fā)的三大要素。ChatGPT的通用性、高智能性、記憶性除基于其特殊的訓(xùn)練方法外,更源于其所擁有的海量數(shù)據(jù)集。據(jù)統(tǒng)計(jì),ChatGPT背后所擁有的參數(shù)高達(dá)1750億個(gè),遠(yuǎn)超現(xiàn)有的其他生成式AI。根據(jù)國(guó)外人工智能學(xué)者Alan D.Thompson的研究,ChatGPT的數(shù)據(jù)源包含維基百科、書(shū)籍、期刊、Reddit鏈接、Common Crawl等。ChatGPT是通過(guò)學(xué)習(xí)互聯(lián)網(wǎng)上的現(xiàn)有數(shù)據(jù),并在此基礎(chǔ)上加工整理形成答案的,而社交網(wǎng)站、書(shū)籍、網(wǎng)頁(yè)數(shù)據(jù)無(wú)不包含著大量原始創(chuàng)作者的作品,這一過(guò)程并未經(jīng)過(guò)版權(quán)人許可,可能構(gòu)成對(duì)原始作品權(quán)利人的侵權(quán)。

  這一問(wèn)題在實(shí)踐中已經(jīng)出現(xiàn),在Andersen et al v Stability案中,以Andersen為代表的3位藝術(shù)家對(duì)一款A(yù)I繪圖工具提起集體訴訟,認(rèn)為AI公司在未經(jīng)許可的情況下將多位藝術(shù)家所創(chuàng)作的50億張網(wǎng)絡(luò)圖片用于AI機(jī)器學(xué)習(xí),其行為侵犯了藝術(shù)家們的權(quán)利。與此相近的是,意大利個(gè)人數(shù)據(jù)保護(hù)局取締了一款名為“Replika”的人工智能聊天機(jī)器人,認(rèn)為其非法收集、使用原始數(shù)據(jù)。該案雖然并非知識(shí)產(chǎn)權(quán)侵權(quán),但也同樣表明目前AI抓取、使用數(shù)據(jù)可能侵犯原始數(shù)據(jù)源之上的各種權(quán)利。

  對(duì)于數(shù)據(jù)源獲取階段的知識(shí)產(chǎn)權(quán)侵權(quán)風(fēng)險(xiǎn),筆者認(rèn)為,在解釋論上應(yīng)適度擴(kuò)張合理使用制度的范圍,以使其能夠適用于AI抓取公開(kāi)數(shù)據(jù)的情形。

  其一,數(shù)據(jù)抓取、分析是開(kāi)發(fā)人工智能程序的必要條件,未來(lái)強(qiáng)人工智能的進(jìn)一步發(fā)展更需要海量的數(shù)據(jù)源支撐。相關(guān)研究表明,人工智能大模型的訓(xùn)練至少需要62億的參數(shù)量。此時(shí)要求開(kāi)發(fā)者獲取全部產(chǎn)權(quán)人的許可并不現(xiàn)實(shí),知識(shí)產(chǎn)權(quán)法領(lǐng)域若不能弱化該風(fēng)險(xiǎn),將阻礙人工智能的技術(shù)創(chuàng)新。

  其二,AI開(kāi)發(fā)者利用數(shù)據(jù)集的行為具有合理使用的外觀。AI及其開(kāi)發(fā)者使用數(shù)據(jù)集的行為包含復(fù)制導(dǎo)入數(shù)據(jù)和AI學(xué)習(xí)分析數(shù)據(jù)兩個(gè)過(guò)程,而知識(shí)產(chǎn)權(quán)法之所以對(duì)復(fù)制行為進(jìn)行規(guī)制,是因?yàn)樵趥鹘y(tǒng)的出版領(lǐng)域復(fù)制與發(fā)行具有密切相關(guān)性,控制復(fù)制行為能夠有效阻止其后的發(fā)行行為。而現(xiàn)代計(jì)算機(jī)技術(shù)的出現(xiàn)使復(fù)制行為和傳播行為發(fā)生分離,單純復(fù)制行為的規(guī)制必要性大大降低,多數(shù)個(gè)人復(fù)制行為都被納入合理使用制度的框架,互聯(lián)網(wǎng)傳播行為成為法律規(guī)制的重點(diǎn)。而人工智能對(duì)數(shù)據(jù)源的使用恰恰具有單純復(fù)制行為的特征,開(kāi)發(fā)者所使用的數(shù)據(jù)源都是從互聯(lián)網(wǎng)上已公開(kāi)的內(nèi)容中抓取的,其獲取行為不具有非法性,而且開(kāi)發(fā)者利用數(shù)據(jù)訓(xùn)練人工智能,AI生成物在多數(shù)情況下不會(huì)復(fù)現(xiàn)原作品的內(nèi)容。

  ChatGPT在內(nèi)容生成階段的權(quán)屬爭(zhēng)議風(fēng)險(xiǎn)

  如前所述,ChatGPT具有通用性、智能性及強(qiáng)大的人類模仿能力,這使得其生成物具有與以往人工智能生成物相比更高的價(jià)值。而且ChatGPT已經(jīng)在社會(huì)層面得以普及,除部分IP受限制的國(guó)家和地區(qū)外,普通民眾也能直接注冊(cè)、使用ChatGPT。上述兩點(diǎn)使AI生成物的權(quán)屬問(wèn)題更實(shí)際地?cái)[在了知識(shí)產(chǎn)權(quán)法理論面前,如果說(shuō)之前法學(xué)界對(duì)AI生成物權(quán)屬的探討是前瞻性的,那么現(xiàn)在的探討無(wú)疑具有現(xiàn)實(shí)性。

  現(xiàn)有司法實(shí)踐對(duì)AI生成物權(quán)屬的判斷主要包含以下3個(gè)層面。一是從作品的角度入手,探討AI生成物是否符合著作權(quán)法理論中作品的含義。二是從創(chuàng)作行為的角度入手,探討AI的創(chuàng)作過(guò)程是否具有“獨(dú)創(chuàng)性”。三是根據(jù)智力成果的投入,確定作品應(yīng)歸屬于開(kāi)發(fā)者還是用戶。持肯定態(tài)度的觀點(diǎn)認(rèn)為,AI生成物在外觀上具有獨(dú)創(chuàng)性,并且能夠體現(xiàn)創(chuàng)造者的個(gè)性化選擇、技巧、判斷等因素。持否定態(tài)度的觀點(diǎn)強(qiáng)調(diào)作品必須是人的智力成果,創(chuàng)作行為也必須是人的智力活動(dòng),AI生成物缺乏人的智力參與,沒(méi)有傳遞軟件使用者的思想,不能被認(rèn)定為作品。

  事實(shí)上,從“獨(dú)創(chuàng)性”“作品”角度探討人工智能生成物的權(quán)利歸屬問(wèn)題不具有現(xiàn)實(shí)意義,因?yàn)锳I生成物和人類作品的核心差異并不在于作品外觀上是否具有獨(dú)創(chuàng)性特征,而在于是否由人所完成。正如華東政法大學(xué)王遷教授所言,“只有當(dāng)源自人類的相同內(nèi)容屬于作品時(shí),才有必要討論由人工智能生成的內(nèi)容能否被認(rèn)定為作品。”AI生成物的權(quán)屬問(wèn)題在根本上要解決的是AI所輸出的內(nèi)容是否具有賦予其法律保護(hù)的必要性,或者說(shuō),AI生成物如果不受法律保護(hù)而成為人人可隨意使用的內(nèi)容,是否會(huì)導(dǎo)致學(xué)術(shù)不端、抄襲泛濫?

  筆者認(rèn)為,在現(xiàn)階段有必要對(duì)AI生成物進(jìn)行法律保護(hù)。一是因?yàn)楫?dāng)前AI生成物已經(jīng)超出了對(duì)既有材料簡(jiǎn)單復(fù)制、加工、改寫(xiě)的階段,ChatGPT的高智能使其能夠輸出自身的觀點(diǎn),并且很難在互聯(lián)網(wǎng)上檢索到與輸出文本相似的內(nèi)容,換言之,ChatGPT將AI生成物的獨(dú)創(chuàng)性推到了一個(gè)前所未有的高度。二是由于AI生成物的隨意使用可能誘發(fā)學(xué)術(shù)不端。因此,在以ChatGPT為代表的具有一定程度獨(dú)立意識(shí)的高智能AI出現(xiàn)后,法律有必要對(duì)其生成物進(jìn)行保護(hù),以最大可能防止AI在學(xué)術(shù)科研中的濫用。

  需要明確的是,對(duì)AI生成物進(jìn)行法律保護(hù)并不意味著需要承認(rèn)人工智能的權(quán)利主體地位。而應(yīng)當(dāng)采用行為規(guī)制的方法,從限制用戶對(duì)AI生成物的使用范圍出發(fā),一方面利用行業(yè)自治規(guī)則等軟法要求使用者在作品創(chuàng)作中明確披露其對(duì)AI的使用情況,在排除AI生成內(nèi)容后對(duì)作品的創(chuàng)新性、實(shí)用性進(jìn)行重新評(píng)估,根據(jù)作者自身創(chuàng)作的部分來(lái)判斷作品質(zhì)量。另一方面也要強(qiáng)化技術(shù)治理的作用,加大反AI檢測(cè)技術(shù)的運(yùn)用,提升人類對(duì)AI作品的識(shí)別能力,積極利用技術(shù)手段監(jiān)管、反制技術(shù)所引起的風(fēng)險(xiǎn)。

  *本文刊載于《通信世界》總第916期 2023年3月25日 第6期原文標(biāo)題:《人工智能聊天機(jī)器人的知識(shí)產(chǎn)權(quán)風(fēng)險(xiǎn)及應(yīng)對(duì)以ChatGPT為切入點(diǎn)》

【免責(zé)聲明】本文僅代表作者本人觀點(diǎn),與CTI論壇無(wú)關(guān)。CTI論壇對(duì)文中陳述、觀點(diǎn)判斷保持中立,不對(duì)所包含內(nèi)容的準(zhǔn)確性、可靠性或完整性提供任何明示或暗示的保證。請(qǐng)讀者僅作參考,并請(qǐng)自行承擔(dān)全部責(zé)任。

相關(guān)閱讀:

專題

CTI論壇會(huì)員企業(yè)