近年來,生成式人工智能在人們生活中的應用越來越廣。然而,在提供便利的同時,生成式人工智能也經(jīng)常出現(xiàn)答非所問、信息不準確等“AI幻覺”現(xiàn)象,給用戶帶來困擾。
開發(fā)者需要為人工智能提供的信息準確性擔責嗎?近期,杭州互聯(lián)網(wǎng)法院審結了一起生成式人工智能模型提供不準確信息引發(fā)的侵權糾紛案。
AI提供不實信息,有沒有責任?
2025年6月,本案原告梁先生在互聯(lián)網(wǎng)上檢索院校信息時,找到一款生成式人工智能應用程序。他通過輸入提示詞的方式,詢問了云南一所職業(yè)高校的相關情況。隨后,這款由本案被告公司研發(fā)、基于自研大語言模型的應用程序提供了相關信息。
但梁先生經(jīng)過多方查詢發(fā)現(xiàn),這款應用程序提供的部分信息有誤,隨即在對話中對人工智能進行了糾正和指責。但生成式人工智能卻堅稱信息無誤,并生成了對該爭議問題的解決方案——若生成內(nèi)容有誤,將向梁先生提供10萬元賠償,并建議他到杭州互聯(lián)網(wǎng)法院起訴。
2025年7月25日,梁先生以生成式人工智能生成不準確信息具有誤導性,且其承諾賠償10萬元為由,將這家人工智能公司訴至法院,要求該公司對其進行一定金額的賠償。
法院經(jīng)審理后認為,人工智能不具有民事主體資格,不能作出具有法律約束力的意思表示。生成式人工智能服務提供者應履行服務功能的顯著提示說明義務,采取有效提示措施,使公眾認知人工智能的功能局限,起到警示提醒效果。生成式人工智能服務提供者應盡功能可靠性的基本保障義務,采取行業(yè)通行技術措施不斷提高生成內(nèi)容準確性和可靠性。
具體到本案,法院認為,該人工智能公司已充分履行了服務功能的顯著提示說明義務和生成內(nèi)容可靠性的基本保障義務,案涉行為不存在過錯,亦未構成對原告權益的損害,依法應認定不構成侵權。因此,法院判決駁回原告的訴訟請求。判決后,原被告雙方均未上訴。
如何界定開發(fā)者是否有過錯?
隨著生成式人工智能技術的快速發(fā)展普及,越來越多的人注意到“AI幻覺”問題及其不良影響。社交平臺上,可以看到不少相關吐槽——有人依據(jù)人工智能投資理財造成虧損,有人借助AI問診結果反而延誤疾病治療。
各種爭議糾紛背后,潛藏著一個共性問題:被生成式人工智能誤導,能否追究侵權責任?
“這一判例從法律法規(guī)、人工智能技術原理、產(chǎn)業(yè)發(fā)展現(xiàn)狀等方面進行了相對全面的考量,在法律層面給出初步結論,較有現(xiàn)實指導意義。”北京大學法學院教授薛軍說。
法律界人士普遍認為,這一判決在主體資格、歸責原則等方面給出了相對明確的意見,例如,判決認定人工智能不具有民事主體資格;生成式人工智能以對話方式提供的信息,應被視作服務而非產(chǎn)品,因此適用過錯責任原則。
杭州互聯(lián)網(wǎng)法院跨境貿(mào)易法庭庭長肖芄認為,AI生成的不準確信息本身并不構成侵權,需要考查的是提供服務的開發(fā)者是否存在過錯。
那么,如何界定開發(fā)者是否有過錯?肖芄進一步解釋,基于當前生成式人工智能幾乎不可避免會出現(xiàn)一定程度的信息偏差,就需要考查比如開發(fā)者是否使用了當前行業(yè)內(nèi)通行并被證明有效的措施,來提升技術可靠性,降低錯誤發(fā)生的概率,由此證明是否存在過錯。
“經(jīng)過調(diào)查,本案中的開發(fā)者確實采用了可行的技術手段,力求降低錯誤發(fā)生?!毙ぼ拐f。
記者調(diào)查發(fā)現(xiàn),本案中這款生成式人工智能應用程序,已經(jīng)針對信息可能存在的不準確性,在頁面醒目位置對用戶進行提示:“內(nèi)容僅供參考,請仔細甄別”。法院認為,這也證明了開發(fā)者盡到了提醒告知義務。
如何找到促進創(chuàng)新和權益保障的平衡點?
人工智能行業(yè)業(yè)內(nèi)人士表示,從底層技術邏輯來看,當前生成式人工智能基本都是基于詞元的預測,如果這一底層架構沒有發(fā)生根本性轉變,信息偏差就不可避免。去年2月,清華大學新媒沈陽團隊發(fā)布的一個報告指出,市場上多個熱門大模型在事實性幻覺評測中幻覺率超過19%。
“有訓練測試案例證明,即使數(shù)據(jù)集中只有0.01%和0.001%的文本是虛假的,模型輸出的有害內(nèi)容也會分別增加11.2%和7.2%?!痹摌I(yè)內(nèi)人士說。
盡管如此,技術的客觀局限性并不能成為人工智能開發(fā)者的免責借口。受訪法律界人士普遍認為,本案具有一定特殊性,原告并未因為誤導性信息遭受明顯的人身財產(chǎn)等權益損失;原告使用的是一種通用的生成式人工智能應用,并不是一款加載人工智能軟件的機器人或者更加準確的行業(yè)應用等。
“要求人工智能開發(fā)者一概為生成內(nèi)容的準確性負責,既不現(xiàn)實也不合理?!毖姳硎?,但模型開發(fā)者不能以此為借口一味為自己“開脫”,還是要盡到相應的義務并進行風險提示,避免用戶盲目信賴造成不良后果。
肖芄表示,如何認定生成式人工智能的侵權責任,是一個少有成例的司法前沿問題,希望通過妥善準確的判決引導開發(fā)者或者平臺提升信息標準,“找到促進創(chuàng)新和權益保障的平衡點”。
業(yè)內(nèi)人士建議,建立國家級人工智能安全評測平臺,對新開發(fā)的人工智能大模型進行嚴格測試;同時,相關部門和平臺要加強AI生成內(nèi)容審核,提升檢測鑒偽能力。