大模型是一把“雙刃劍”
2024-06-24 16:13:02 來源:法人雜志 作者:惠寧寧

◎文 《法人》雜志全媒體記者 惠寧寧

AI大模型正席卷各行各業(yè),逐步與多個領(lǐng)域交叉融合,形成各具特色的AI大模型產(chǎn)品。但是,AI真的那么智能嗎?AI會不會欺騙你?AI“永生人”是意識存在嗎?泄露隱私、虛假信息越來越多,AI大模型時代怎么防范安全風(fēng)險?

有專家表示,現(xiàn)階段,大模型仍受到很多因素的制約,也產(chǎn)生了傳播虛假信息、侵害個人信息權(quán)益等問題,大模型面臨著新技術(shù)的兩面性。

6月3日,中國政法大學(xué)商學(xué)院產(chǎn)業(yè)經(jīng)濟(jì)系副教授叢穎男告訴《法人》記者:AI大模型的發(fā)展也帶來了倫理和法律上的挑戰(zhàn),如隱私保護(hù)、算法偏見、責(zé)任歸屬等問題。這要求社會在技術(shù)進(jìn)步的同時,也要對相關(guān)法律和倫理規(guī)范進(jìn)行更新和完善。

公眾的擔(dān)憂

近日,一款語言大模型的用戶王巖發(fā)現(xiàn),該大模型生成結(jié)果中有些無根據(jù)甚至錯誤的內(nèi)容。好在他一向嚴(yán)謹(jǐn),并且生成內(nèi)容屬于自己的專業(yè)領(lǐng)域,及時發(fā)現(xiàn)了錯誤,避免了不良后果。王巖遇到的情況被稱為“模型幻覺”。

現(xiàn)實中,“模型幻覺”可能導(dǎo)致公眾作出錯誤決策。如AI推薦的理財產(chǎn)品可能存在誤導(dǎo)性,導(dǎo)致投資受損;AI提供的醫(yī)療診斷或健康建議,如果基于錯誤數(shù)據(jù)或算法缺陷,可能損害患者健康等。一些虛假信息提供的產(chǎn)品或服務(wù)可能是偽劣的,對公眾財產(chǎn)和健康造成損害,甚至造成公眾恐慌、社會混亂,嚴(yán)重擾亂公共秩序,誘發(fā)群體性事件。

對于“模型幻覺”引發(fā)的法律問題,《法治日報》律師專家?guī)斐蓡T、北京大成(廣州)律師事務(wù)所高級合伙人張偉偉認(rèn)為,AI錯誤信息、虛假信息對公眾產(chǎn)生的危害,受害者可依據(jù)民法典等相關(guān)法律規(guī)定,追究AI錯誤信息、虛假信息的制造者、傳播者等主體的侵權(quán)責(zé)任,要求賠償損失。相關(guān)主體可能因違反個人信息保護(hù)法等法律法規(guī),面臨行政處罰。

“在特定情況下,如AI錯誤信息導(dǎo)致嚴(yán)重后果,或故意制造、傳播虛假信息構(gòu)成犯罪的,相關(guān)主體可能觸犯刑法,承擔(dān)刑事責(zé)任?!睆垈フf。

此外,AI大模型通常需要大量個人數(shù)據(jù)。如果這些數(shù)據(jù)未經(jīng)充分保護(hù),可能導(dǎo)致個人隱私被侵犯,涉嫌侵犯公民個人信息罪。如果AI突破計算機(jī)防火墻,非法入侵他人計算機(jī)信息系統(tǒng)獲取、修改數(shù)據(jù),還可能觸犯非法侵入計算機(jī)信息系統(tǒng)罪,非法獲取計算機(jī)信息系統(tǒng)數(shù)據(jù)、非法控制計算機(jī)信息系統(tǒng)罪等。

大模型廣泛應(yīng)用必然帶來不可忽視的安全問題。一項對IT行業(yè)領(lǐng)導(dǎo)者進(jìn)行的關(guān)于ChatGPT等大模型的調(diào)查顯示,安全性是受訪者最關(guān)心的問題,71%的受訪者認(rèn)為生成式人工智能會給企業(yè)數(shù)據(jù)安全帶來新的風(fēng)險。6月5日,在2024北京網(wǎng)絡(luò)安全大會期間,奇安信集團(tuán)董事長齊向東向記者介紹,解決有限的安全資源和100%的安全追求之間的矛盾,要靠AI驅(qū)動安全。AI能否真正驅(qū)動安全,則取決于數(shù)據(jù)、體系和標(biāo)準(zhǔn)。

“永生人”引發(fā)的思考

隨著AI和數(shù)字化被廣泛運(yùn)用,將逝者“復(fù)活”,已不僅出現(xiàn)在科幻電影中。AI技術(shù)可以通過個體的生活數(shù)據(jù)、聲音、視頻等信息,生成數(shù)字人分身,實現(xiàn)與人類交流互動。最近,商湯科技已故創(chuàng)始人、知名人工智能(AI)科學(xué)家湯曉鷗的數(shù)字人“現(xiàn)身”公司年會;音樂人包小柏借AI技術(shù)“復(fù)活”亡女;李玟、喬任梁等已故藝人被AI復(fù)活等話題引發(fā)熱議,同時也引發(fā)了人們對AI復(fù)活技術(shù)在法律和道德倫理方面的思考和擔(dān)憂。

▲今年 4 月,京東創(chuàng)始人劉強(qiáng)東 AI 數(shù)字人在短視頻平臺直播帶貨 CFP

天使投資人、資深人工智能專家郭濤表示,從法律角度來看,AI數(shù)智人“復(fù)活”技術(shù)涉及多個法律問題:一是版權(quán)問題,如果未經(jīng)逝者或其家屬同意,使用逝者的肖像、聲音等個人信息,可能涉及侵犯版權(quán)和隱私權(quán);二是人格權(quán)問題,如果AI數(shù)字人的表現(xiàn)形式過于逼真,可能會對逝者的人格權(quán)產(chǎn)生侵犯;三是商業(yè)利用問題,如果將AI數(shù)智人用于商業(yè)目的,可能會涉及不正當(dāng)競爭和廣告法等問題。

對于用AI復(fù)活已過世親人,有人認(rèn)為是對自己的安慰。也有人覺得,好不容易走出親人過世的陰影,突然間出現(xiàn)一個看似活靈活現(xiàn)的“人”,“讓人感到不適”。近日,《法治日報》律師專家?guī)斐蓡T、北京盈科(上海)律師事務(wù)所數(shù)智化建設(shè)委員會副主任李悅向記者表示,依照我國民法法理,姓名權(quán)和肖像權(quán)屬于人身權(quán)中的人格權(quán),始于出生,終于死亡。對于親屬使用AI技術(shù)“復(fù)活”已故親人聊以慰藉, 從肖像權(quán)角度考慮,在親人的范圍內(nèi)不會過多涉及侵權(quán)問題。但對于“復(fù)活”已故藝人,涉及的侵權(quán)責(zé)任比較明確,現(xiàn)行法律對于如何保護(hù)肖像利益已有約束。

“從道德倫理角度來看,AI數(shù)智人一是涉及尊重問題,逝者已矣,是否應(yīng)該將其形象、聲音等用于商業(yè)或其他目的;二是真實性問題,AI數(shù)智人可能會誤導(dǎo)公眾,讓人們誤以為逝者還在世;三是情感問題,對于逝者的親友來說,看到AI數(shù)智人可能會引發(fā)復(fù)雜的情感反應(yīng)。當(dāng)然這是一種有潛力的新興技術(shù),但在實際應(yīng)用中,需要充分考慮到法律和道德倫理問題,以確保其合理、合法使用。同時,也要通過法律法規(guī)和社會規(guī)范,引導(dǎo)和規(guī)范這一技術(shù)的發(fā)展和應(yīng)用?!惫鶟f。

知識產(chǎn)權(quán)的歸屬與歸責(zé)

著作權(quán)法保護(hù)的是人類智慧成果。因為人類畫圖,有勞動的創(chuàng)造力、時間和精力成本,所以要通過法律保護(hù)?,F(xiàn)在用AI來畫,對出圖的貢獻(xiàn)值完全不一樣。那么,同樣兩張圖,不考慮圖片質(zhì)量的情況下,怎么對作品本身進(jìn)行保護(hù)?

對此,李悅認(rèn)為,用AI創(chuàng)作的圖片是否享有著作權(quán)在不同國家有不同的意見。在美國,AI生成的作品不受著作權(quán)法保護(hù),而我國尚無明確法律規(guī)定。那么,用AI創(chuàng)作的圖片是否需要賦予著作權(quán)加以保護(hù)?記者搜索案例發(fā)現(xiàn),中國有關(guān)AI文生圖的司法判例中,法院支持AI創(chuàng)作圖有人的貢獻(xiàn)值在里面,都認(rèn)定AI生成圖片予以著作權(quán)保護(hù)。

“我認(rèn)為,對AI生成的圖片應(yīng)進(jìn)行著作權(quán)保護(hù)。雖然與手繪作品相比,使用AI創(chuàng)作的難度較低,但并非沒有人類的智力成果。例如,使用Stable Diffusion進(jìn)行圖片創(chuàng)作仍存在技術(shù)門檻。因此,可以賦予創(chuàng)作者對AI圖片的著作權(quán)。但在處理著作權(quán)侵權(quán)糾紛時,法院對侵犯用AI創(chuàng)作圖片著作權(quán)的案件,支持的賠償金額不宜過高?!崩類傉f。

那么,AI產(chǎn)生圖片本身會不會侵權(quán)?

“目前,主流的AI圖像生成工具通常通過重繪生成圖片,因而一般不會涉及侵權(quán)問題。但如果用戶要求AI生成特定IP的圖片并對外使用,如宮崎駿的作品、七龍珠等,將存在侵權(quán)風(fēng)險。許多主流公司已經(jīng)采取措施保護(hù)知名藝術(shù)家的作品。例如,藝術(shù)家可以向公司明確告知不希望自己的作品被用于訓(xùn)練數(shù)據(jù),AI生成的圖片就不會參考這些藝術(shù)家的風(fēng)格。” 李悅還建議,可以設(shè)立一個專項基金,用于未來產(chǎn)品侵犯知識產(chǎn)權(quán)的賠償。這種方式可以在一定程度上緩解侵權(quán)風(fēng)險,并顯示公司對知識產(chǎn)權(quán)保護(hù)的重視。

他還建議,對大模型科技公司責(zé)任和使用者責(zé)任進(jìn)行區(qū)分?!斑@兩者權(quán)利和義務(wù)不同,可以制定規(guī)范,規(guī)定科技公司如何保護(hù)知識產(chǎn)權(quán)并管理內(nèi)容生成,確保AI生成的內(nèi)容不涉及暴力血腥等不良內(nèi)容,落實負(fù)責(zé)任的AI開發(fā)和應(yīng)用。而對于普通用戶,可以強(qiáng)化引導(dǎo),以顯著及通俗易懂的方式幫助他們理解和遵守平臺的使用規(guī)范。”

商業(yè)先行還是監(jiān)管先行?

AI大模型的發(fā)展離不開商業(yè)的支持。商業(yè)公司通常擁有更多資源和能力推動AI技術(shù)研發(fā)和應(yīng)用。如果商業(yè)先行,可以更快地推動AI技術(shù)的創(chuàng)新和應(yīng)用,促進(jìn)相關(guān)產(chǎn)業(yè)發(fā)展。同時,商業(yè)公司也需要在競爭中不斷完善自己的產(chǎn)品和服務(wù),以滿足市場需求和用戶需求。

但在缺乏有效監(jiān)管的情況下,商業(yè)公司可能過度追求利潤,忽視對用戶和社會的責(zé)任,從而導(dǎo)致AI技術(shù)的濫用和誤用。此外,商業(yè)公司之間的競爭也可能導(dǎo)致資源浪費(fèi)和重復(fù)勞動,降低整個行業(yè)的效率。

2023年,國家網(wǎng)信辦等七部門公布《生成式人工智能服務(wù)管理暫行辦法》,旨在促進(jìn)生成式人工智能健康發(fā)展和規(guī)范應(yīng)用,維護(hù)國家安全和社會公共利益,保護(hù)公民、法人和其他組織的合法權(quán)益。

監(jiān)管可以有效規(guī)范AI技術(shù)的研發(fā)和應(yīng)用,防止濫用和誤用,保護(hù)用戶和社會的利益。通過制定相關(guān)法規(guī)和標(biāo)準(zhǔn),可以明確AI技術(shù)的使用范圍和限制,引導(dǎo)商業(yè)公司合理競爭,促進(jìn)行業(yè)的健康發(fā)展。

然而,監(jiān)管先行也存在一些挑戰(zhàn),AI技術(shù)的發(fā)展越來越迅速,監(jiān)管需要跟上技術(shù)發(fā)展的步伐,不斷更新和完善相關(guān)法規(guī)和標(biāo)準(zhǔn)。這需要監(jiān)管機(jī)構(gòu)具備較高的專業(yè)能力和技術(shù)水平。同時,監(jiān)管也需要平衡商業(yè)利益和社會利益之間的關(guān)系,避免過度干預(yù)市場運(yùn)行。

對此,張偉偉認(rèn)為,商業(yè)與監(jiān)管應(yīng)當(dāng)并重,在不同階段選擇不同的監(jiān)管力度,保證AI商業(yè)能夠快速形成規(guī)模化市場。同時,也要保證AI不是脫韁野馬,必須在法律、監(jiān)管的框架之下有序發(fā)展。

“這實際是一個多方協(xié)同、平衡發(fā)展的問題。商業(yè)先行和監(jiān)管先行并不是非此即彼,而是需要綜合考慮多個方面。在推動AI大模型的發(fā)展過程中,應(yīng)該加強(qiáng)商業(yè)和監(jiān)管之間的合作和協(xié)調(diào),共同推動AI技術(shù)的健康發(fā)展?!睆垈ケ硎?,商業(yè)公司應(yīng)積極履行社會責(zé)任,遵守相關(guān)法規(guī)和標(biāo)準(zhǔn),確保技術(shù)的安全和可靠。監(jiān)管機(jī)構(gòu)也應(yīng)該加強(qiáng)監(jiān)管力度,制定符合實際情況的監(jiān)管政策,促進(jìn)AI技術(shù)的合理應(yīng)用和發(fā)展,多方協(xié)作才能讓AI商業(yè)在秩序之路上有序、高速發(fā)展。

編審|渠 洋

責(zé)編|白 馗

校對|張波 張雪慧

編輯:劉曉瑩