向AI證明“我不是AI”的學(xué)術(shù)新困局何解 專家建議
將AI生成內(nèi)容納入學(xué)術(shù)誠信規(guī)制體系
□ 本報記者 趙麗
□ 本報實習生 宋昕怡
畢業(yè)季的喧囂漸息,因“AI率”檢測新規(guī)引發(fā)的爭論仍在持續(xù)。
一面是學(xué)生絞盡腦汁“降A(chǔ)I率”,只為“向AI證明自己不是AI”以獲得答辯資格,催生了“代降A(chǔ)I率”的隱秘灰色產(chǎn)業(yè);另一面是教師在教學(xué)中對AI“介入”的困惑:查還是不查?用還是不用?
這一學(xué)術(shù)監(jiān)管難題正困擾全球教育系統(tǒng)。當論文寫作任務(wù)恰好落入AI最擅長的領(lǐng)域,依賴“AI率”檢測來評判,是否已偏離了教育的初衷?有高校人士坦言,高等教育正經(jīng)歷“山呼海嘯般的改變”,關(guān)鍵在于如何合理使用AI。
對此,《法治日報》記者近日采訪了首都師范大學(xué)教育政策與法律研究院副院長蔡海龍、北京外國語大學(xué)法學(xué)院教授姚金菊。
面臨準確率瓶頸
記者:在社交平臺上,“代降A(chǔ)I率”服務(wù)明碼標價。不少學(xué)生認為當前AIGC率(生成式人工智能參與度)檢測處于“博弈期”——既難精準識別AI內(nèi)容,又易誤傷原創(chuàng)。這類檢測技術(shù)是否尚不成熟?
蔡海龍:主流的論文AI檢測系統(tǒng)主要使用困惑度和突發(fā)性指標來計算AI率,并結(jié)合論文的語言模式和風格特征進行整體識別。就當前來看,此類技術(shù)還遠未成熟,其穩(wěn)定性和可信性都面臨不小的挑戰(zhàn),漏報和誤報情況也時有發(fā)生,難免誤傷真實原創(chuàng)內(nèi)容。
姚金菊:目前AIGC檢測技術(shù)確實處于典型的“博弈期”。一方面,AI生成內(nèi)容的“人類化”速度正在加快。新一代大語言模型生成的文本不僅語法規(guī)范、結(jié)構(gòu)清晰,而且在風格模仿、用詞邏輯等方面不斷趨近人類。這直接削弱了傳統(tǒng)檢測工具賴以判斷的“語言指紋”,也使檢測系統(tǒng)面臨更高的誤判風險。
另一方面,AIGC檢測技術(shù)的發(fā)展相對滯后。目前市面上的檢測工具,無論是商業(yè)的還是學(xué)術(shù)的,都面臨準確率的瓶頸。研究和實踐表明,這些工具不僅存在大量的“漏報”(未能識別出AI生成內(nèi)容),還存在令人擔憂的“誤報”(將人類原創(chuàng)內(nèi)容標記為AI生成)。例如,一些行文流暢、結(jié)構(gòu)清晰、語法嚴謹?shù)娜祟愖髌?,恰恰因為其“完美”而易被誤判為AI生成。
記者:這種困境下,若學(xué)生陷入“用AI寫,再用AI查改”的循環(huán),是否淪為低效的文字游戲?
姚金菊:當一些高校將AI檢測結(jié)果等同于學(xué)術(shù)誠信評估依據(jù),學(xué)生便被迫進入“規(guī)避AI率”的游戲——寫完后自查,再不斷微調(diào)語言、變換結(jié)構(gòu),甚至將其文字改為邏輯不通的語句,只為壓低一個概率性指標,不僅浪費時間,更背離了寫作的學(xué)習初衷。這實質(zhì)上暴露出當前一些學(xué)校對AI的態(tài)度還停留在防范和壓制階段,缺乏真正的引導(dǎo)機制。
蔡海龍:學(xué)校如果過度依賴AI檢測工具來評價學(xué)生的論文,那么勢必會導(dǎo)致學(xué)生投入更多的時間和精力來學(xué)習如何規(guī)避檢測。加強對論文的AI率檢測,短期內(nèi)或許可以形成震懾效應(yīng),但長此以往,無疑會使論文寫作變?yōu)橐粓鰺o休止的“貓鼠游戲”。
避免“算法一票否決”
記者:AI工具已深度融入寫作流程(如潤色、邏輯優(yōu)化),邊界模糊。禁止恐推高監(jiān)管成本,促使隱蔽使用甚至催生灰色服務(wù);鼓勵又可能導(dǎo)致AI取代學(xué)生思考,削弱能力培養(yǎng)?!安锳I率”政策,簡單禁止或鼓勵是否都不可行?
蔡海龍:必須承認開展論文AI率檢測確實能夠在一定程度上避免學(xué)生對于AI寫作的過度依賴,從而捍衛(wèi)必要的學(xué)術(shù)標準和學(xué)術(shù)底線。
但就現(xiàn)實而言,任何極端的處理方式——簡單禁止或全面鼓勵都并不可取。取消檢測,可能導(dǎo)致學(xué)生直接提交AI成果,引發(fā)嚴重學(xué)術(shù)不端,損害學(xué)術(shù)公正,并使評價體系失效。過度強化檢測,技術(shù)上難實現(xiàn),且加劇“貓鼠游戲”,限制學(xué)生接觸學(xué)習AI技術(shù)的機會,造成與社會脫節(jié)。這要求相關(guān)部門深刻思考培養(yǎng)目標與評價方式,構(gòu)建適應(yīng)AI時代的新理念新方法。
姚金菊:“查AI率”應(yīng)進入一個“規(guī)則導(dǎo)向、彈性治理”的階段,既承認AI的合理性,也明確其使用邊界。為此,需要從以下三方面完善制度配套:
首先,建立國家規(guī)范,統(tǒng)一使用邊界。通過出臺統(tǒng)一規(guī)范,對AI工具的使用范圍、申報制度、違規(guī)行為進行法律明確。可區(qū)分具體使用情境,將AI使用劃分為“允許使用”(資料搜集、語言潤色)、“應(yīng)申報使用”(生成段落、內(nèi)容輔助)、“禁止使用”(完全代寫、考試中使用)三類情境,并制定清晰可操作的邊界判定標準,防止“一刀切”式懲戒;
其次,完善高校操作機制。設(shè)立AI使用聲明制度,要求學(xué)生在提交論文時申報使用情況,并保留寫作過程記錄(草稿、生成對話等)。同時,設(shè)立救濟程序,對AI檢測結(jié)果高風險的內(nèi)容提供人工復(fù)核,避免“算法一票否決”;
最后,重塑科研評價方式。從注重結(jié)果轉(zhuǎn)向重視過程與思維,增加口試、草稿痕跡、思維導(dǎo)圖、小組互評等方式,減少“一次性最終文本”作為唯一成果的依賴。此外,還應(yīng)開設(shè)AI素養(yǎng)課程,讓學(xué)生了解模型邏輯、生成偏差與倫理風險,具備負責任使用AI的能力。
立法形成清晰規(guī)則
記者:目前高校對生成式AI,比如ChatGPT的管理,主要通過黑白名單、場景劃分、使用披露、倫理教育和懲戒機制。是否存在全國性統(tǒng)一規(guī)范缺失的問題?
姚金菊:近兩年,我國各高校已經(jīng)著手制定相關(guān)管理規(guī)范,但除少數(shù)高校給出了AI工具使用指導(dǎo)意見,大多數(shù)高校對此仍缺乏系統(tǒng)性、規(guī)范化的管理。
各高校間規(guī)范標準不一,如閾值設(shè)定、禁用場景差異大,可能導(dǎo)致跨校學(xué)術(shù)交流時標準混亂。且目前檢測工具也不一致,技術(shù)可靠性尚不穩(wěn)定,易造成誤判。另外,由于學(xué)科差異性較大,AI應(yīng)用風險不同,僅憑校級規(guī)范統(tǒng)一管理易造成“一刀切”的風險,不利于AI工具的合理使用。
目前現(xiàn)有規(guī)范多數(shù)針對學(xué)生的AI工具使用行為,對于教師評審使用行為鮮有提及,相應(yīng)處罰更是無從談起。在國家層面應(yīng)結(jié)合國際標準,設(shè)置基礎(chǔ)紅線,明確絕對禁止項(AI代寫論文、偽造實驗數(shù)據(jù));強制披露要求(模型名稱、使用比例、生成內(nèi)容標注格式),以及通用處罰標準,而高校層面則應(yīng)保留學(xué)科適配權(quán),允許高校在國家框架下制定細則。
蔡海龍:應(yīng)對AI深度滲透教育,需構(gòu)建完備的規(guī)則體系:
明確輔助與代寫的法律界定。立法應(yīng)當形成清晰的規(guī)則,明確區(qū)分可接受的AI輔助使用與構(gòu)成學(xué)術(shù)不端的代寫行為,消除實踐中的模糊地帶。
將AI生成內(nèi)容納入學(xué)術(shù)誠信規(guī)制體系?,F(xiàn)有的學(xué)術(shù)誠信制度還沒有就AI生成內(nèi)容的問題作出有效回應(yīng),迫切需要修訂學(xué)術(shù)規(guī)范,強制要求對AI生成內(nèi)容進行透明標注,并將未聲明使用AI的行為明確定性為學(xué)術(shù)不端,配套建立梯度化追責機制。
確立AI參與創(chuàng)作的知識產(chǎn)權(quán)歸屬原則。在現(xiàn)行法律否認AI著作權(quán)主體資格的前提下,明確規(guī)定人類創(chuàng)作者對AI輔助產(chǎn)出內(nèi)容的主體權(quán)責,同時推動立法建立動態(tài)調(diào)整機制,適應(yīng)技術(shù)迭代衍生的新型權(quán)益關(guān)系。
編輯:趙亞銘