美國人工智能研究實(shí)驗室OpenAI推出的大型預(yù)訓(xùn)練人工智能語言模型ChatGPT,正成為很多年輕人關(guān)注和熱議的焦點(diǎn)。近日,中青報·中青網(wǎng)記者街采多名年輕人,了解他們對ChatGPT的看法。不少人驚嘆ChatGPT回答問題的高效,也有人直言ChatGPT回復(fù)的內(nèi)容“僅是機(jī)械組合,充滿套路”。還有一些年輕人表示擔(dān)憂,ChatGPT使用不當(dāng)會造成法律風(fēng)險,存在泄露數(shù)據(jù)隱私、侵犯知識產(chǎn)權(quán)等問題。
ChatGPT的熱度在“狂飆”,年輕人使用需注意避開哪些“坑”?
“ChatGPT這類人工智能產(chǎn)物能推動科技進(jìn)步,有利于輔助人類的生產(chǎn)生活,但它不能替代人類的智力活動,因為它沒有人類所獨(dú)有的情感和思想。”中國文字著作權(quán)協(xié)會總干事張洪波認(rèn)為,ChatGPT涉及龐大數(shù)據(jù)的算法加工,可能會侵犯到一些用戶隱私,人工智能大數(shù)據(jù)的開發(fā)者,應(yīng)遵守相關(guān)的法律規(guī)定和社會倫理道德,保證所收錄的數(shù)據(jù)不侵犯他人的權(quán)益。
華中科技大學(xué)法學(xué)院副教授滕銳在接受中青報·中青網(wǎng)記者采訪時表示,ChatGPT是大量不同的數(shù)據(jù)集群訓(xùn)練出來的語言模型,目前其背后仍是“黑盒”結(jié)構(gòu),即無法確切對其內(nèi)在的算法邏輯進(jìn)行分解,所以不能確保使用ChatGPT過程中,其所輸出的內(nèi)容不會產(chǎn)生攻擊傷害用戶的表述。
“如果ChatGPT的回復(fù)是錯誤或虛假信息,會具有極大的誤導(dǎo)性,有潛在法律風(fēng)險。”在他看來,ChatGPT難免存在一些侵犯用戶隱私的內(nèi)容。此外,若回復(fù)中存在過度借鑒他人作品的情況,使用不當(dāng)就有可能侵犯他人的著作權(quán)。
北京京師(上海)律師事務(wù)所高級合伙人李陽律師分析,ChatGPT這類的AI軟件沒有獨(dú)立人格,不具備我國著作權(quán)法規(guī)范中“作者”的主體資格。AI軟件有可能使用未經(jīng)授權(quán)的作品作為素材,只要是網(wǎng)絡(luò)上公開的數(shù)據(jù)和信息,就有可能成為被AI學(xué)習(xí)的數(shù)據(jù),除了主動詢問軟件開發(fā)者,基本沒有其他有效方式可以阻止。
李陽認(rèn)為,作者很難查清楚自己的作品是否被AI用來“學(xué)習(xí)”了,“權(quán)利人如果要進(jìn)行維權(quán),在當(dāng)前法律體系下難度很大”。
“目前大部分國家的知識產(chǎn)權(quán)法規(guī)定,人工智能程序自身不能成為作者。”滕銳指出,ChatGPT的內(nèi)容本質(zhì),是基于它所擁有的數(shù)據(jù)進(jìn)行表達(dá)意志的創(chuàng)作,是作為被人類所利用的客體和工具,不具備法律人格,不能承擔(dān)相應(yīng)的法律責(zé)任,如果ChatGPT侵害了他人的著作權(quán)或泄露他人隱私,由它的權(quán)利人或使用者來承擔(dān)相應(yīng)的法律責(zé)任。
李陽認(rèn)為,在我國,作品創(chuàng)作完成之日即產(chǎn)生了受法律保護(hù)的著作權(quán),建議作者有意識地保護(hù)自己的智力成果,當(dāng)發(fā)現(xiàn)作品被剽竊時,建議被侵權(quán)作者積極采取應(yīng)對措施,運(yùn)用法律武器維護(hù)合法權(quán)益,如可自行向有關(guān)行政主管部門提出投訴,委托專業(yè)的知識產(chǎn)權(quán)律師,向侵權(quán)方發(fā)出律師函或協(xié)助作者發(fā)出書面警告等。
“推動構(gòu)建人工智能治理體系,政府加強(qiáng)監(jiān)管和研發(fā)者保持自律尤為重要。”滕銳說,要避免ChatGPT引發(fā)數(shù)據(jù)安全問題,如泄露商業(yè)秘密及違背保密義務(wù),需從法律層面明確ChatGPT產(chǎn)品的應(yīng)用范圍,推進(jìn)數(shù)據(jù)的分類分級,規(guī)定不同種類數(shù)據(jù)的保護(hù)級別和措施。他建議,在內(nèi)容保護(hù)上,原創(chuàng)性數(shù)據(jù)要受到知識產(chǎn)權(quán)法的保護(hù);在技術(shù)監(jiān)管中,要定期將算法合規(guī)納入大數(shù)據(jù)安全體系,對其使用情況進(jìn)行安全審計、評估驗證等。
“行業(yè)自律也非常重要,ChatGPT的所有人要注意數(shù)據(jù)安全合格,也要確保獲取個人信息具有合法性。”滕銳認(rèn)為,將倫理道德融入人工智能的全生命周期,才能促進(jìn)大規(guī)模的人工智能應(yīng)用“向善發(fā)展”。
在武漢大學(xué)法學(xué)院教授孫晉看來,在人工智能大數(shù)據(jù)的時代背景下,數(shù)據(jù)隱私泄露問題愈演愈烈,ChatGPT作為數(shù)字技術(shù)的應(yīng)用,開發(fā)者和使用者都是第一責(zé)任人。他提醒,由于ChatGPT的算法和算力均很強(qiáng)大,如果開發(fā)者或使用者實(shí)施壟斷與限制競爭行為,濫用市場支配地位,會具有便利性和隱蔽性,會對反壟斷法帶來新挑戰(zhàn)。
孫晉強(qiáng)調(diào),人工智能開發(fā)者要堅持“技術(shù)中立”和“科技向善”的原則,開發(fā)者的道德水準(zhǔn)和法律邊界意識,決定其設(shè)計軟件的發(fā)展方向。同時,使用者也要秉持這兩項原則,杜絕利用新技術(shù)實(shí)施違法犯罪的行為,如侵犯公民個人隱私、侵犯商業(yè)秘密、商業(yè)詆毀、虛假宣傳、網(wǎng)絡(luò)詐騙、洗錢等。
在張洪波看來,利用人工智能技術(shù)實(shí)施違法犯罪,具有偵查難度,也需科技去甄別和偵破。滕銳認(rèn)為,機(jī)器人走上更高智能階段的同時,人類利用機(jī)器人違法犯罪的現(xiàn)象也會出現(xiàn),從刑法的角度來看,人工智能不具有刑法意義上的辨認(rèn)和控制自己行為的能力,但可對機(jī)器人背后的自然人進(jìn)行處罰。
2006年年底我國互聯(lián)網(wǎng)大規(guī)模爆發(fā)“熊貓燒香”病毒及其變種,該病毒通過多種方式進(jìn)行傳播,造成很大危害。這個案例令滕銳至今印象深刻。他說,“熊貓燒香”病毒主要是由當(dāng)時年僅20多歲的小伙子李俊制作,李俊沒有法律意識,利用新技術(shù)違法,以破壞計算機(jī)信息系統(tǒng)罪被判處有期徒刑四年。“年輕人在勇于嘗試類似ChatGPT的新鮮事物過程中,不能利用新技術(shù)去做違法之事。”
目前,為了避免學(xué)生過于依賴人工智能類工具,防止作弊,多國學(xué)校已經(jīng)發(fā)出禁令,禁止學(xué)生在學(xué)校內(nèi)使用類似于ChatGPT的人工智能工具完成學(xué)習(xí)任務(wù)和考試。“這是警示年輕人,要明白人工智能技術(shù)是人類的輔助工具,并不能替代人類進(jìn)行智力創(chuàng)作,如果年輕人完全依賴,會影響創(chuàng)新創(chuàng)作能力。”張洪波說。
在張洪波看來,人工智能工具可以幫助人類快速處理字?jǐn)?shù)多、容量大的文本內(nèi)容,最終的智力創(chuàng)作成果,還是要人類自己來完成。開發(fā)者開發(fā)設(shè)計人工智能工具的目的,應(yīng)該是讓人類學(xué)習(xí)生產(chǎn)生活更方便、快捷、準(zhǔn)確,而不是懶惰和消極。
“任何一項新數(shù)字技術(shù)出現(xiàn)時,年輕人的反應(yīng)最敏銳,對新事物的接受能力也很強(qiáng)。他們不僅僅是消費(fèi)者,也有可能是未來新技術(shù)的創(chuàng)造者。”孫晉提醒,年輕人也要注意,網(wǎng)絡(luò)不是法外之地,利用新技術(shù)時,不要觸碰道德和法律底線。
中青報·中青網(wǎng)記者 先藕潔 見習(xí)記者 劉胤衡
免責(zé)聲明:凡本網(wǎng)注明“來源:XXX(非駐馬店廣視網(wǎng)、駐馬店融媒、駐馬店網(wǎng)絡(luò)問政、掌上駐馬店、駐馬店頭條、駐馬店廣播電視臺)”的作品,均轉(zhuǎn)載自其它媒體,轉(zhuǎn)載目的在于傳遞更多信息,并不代表本網(wǎng)贊同其觀點(diǎn)和對其真實(shí)性負(fù)責(zé),作品版權(quán)歸原作者所有,如有侵犯您的原創(chuàng)版權(quán)請告知,我們將盡快刪除相關(guān)內(nèi)容。凡是本網(wǎng)原創(chuàng)的作品,拒絕任何不保留版權(quán)的轉(zhuǎn)載,如需轉(zhuǎn)載請標(biāo)注來源并添加本文鏈接:http://zhspmw.cn/business/show-253-286703-0.html,否則承擔(dān)相應(yīng)法律后果。