最近,人工智能工具如 ChatGPT 和 Copilot 在程序員中爆發(fā)式增長,為他們提供了更多幫助。然而,這些人工智能助手可能會(huì)刪除代碼中的注釋(這些注釋本來用于明確版權(quán)和歸屬指南),從而使人類程序員對知識(shí)產(chǎn)權(quán)侵權(quán)一無所知,但仍會(huì)在法律上承擔(dān)責(zé)任。
為了解決這個(gè)問題,圣路易斯華盛頓大學(xué)的研究人員開發(fā)了一個(gè)名為 CodeIPPrompt 的自動(dòng)化測試平臺(tái),用于評估語言模型生成的代碼是否存在知識(shí)產(chǎn)權(quán)侵權(quán)。該平臺(tái)可以給用戶提供一個(gè)風(fēng)險(xiǎn)評分,表示生成的代碼與受版權(quán)保護(hù)的內(nèi)容有多相似。
盡管 CodeIPPrompt 不能確定人工智能生成的代碼是否構(gòu)成知識(shí)產(chǎn)權(quán)侵權(quán),但該工具可以指導(dǎo)人們?nèi)绾问褂萌斯ぶ悄埽槲磥淼闹R(shí)產(chǎn)權(quán)侵權(quán)提供潛在的緩解策略和其他保護(hù)措施。
這項(xiàng)研究的分析表明,在最先進(jìn)的開源模型和商業(yè)產(chǎn)品中,如 CodeRl、CodeGen、CodeParrot、Copilot、ChatGPT 和 GPT-4等中,版權(quán)侵權(quán)問題普遍存在。
研究人員表示,作為用戶,大家有責(zé)任道德地使用人工智能,并正確理解人工智能技術(shù)及其產(chǎn)生的內(nèi)容。
對于人工智能生成的代碼是否構(gòu)成知識(shí)產(chǎn)權(quán)侵權(quán),需要通過法律途徑來判斷,當(dāng)用戶因使用人工智能工具而面臨版權(quán)侵權(quán)的指控時(shí),這個(gè)問題只能在法庭上得到解決。
這項(xiàng)研究為 AI 的持續(xù)發(fā)展提供了指導(dǎo),并為未來提供了可能的緩解策略和其他知識(shí)產(chǎn)權(quán)侵權(quán)的保護(hù)措施。


產(chǎn)品與服務(wù)
聯(lián)系站長
關(guān)于我們