杨幂乱人伦中文视频在线观看,www.四虎.,成人爽爽大片在线观看,天天曰天天操av,亚洲日本va午夜中文字幕,黄色在线资源,成年女人18级毛片毛片免费观看

法治號 手機版| 站內搜索

網上有害信息舉報

生成式人工智能在律師法律服務中的應用及其邊界

2025-08-15 11:41:37 來源:《中國律師》2025年第5期 -標準+

隨著大模型從通用基礎能力向垂直場景深化、多模態(tài)融合與本土化落地的跨越式發(fā)展,包括法律服務在內的諸多行業(yè)領域面臨著顛覆性的影響。生成式人工智能在釋放法律服務新生產力的同時,也潛藏著顯著的安全倫理風險。就律師服務而言,如何更好地平衡生成式人工智能的應用與風險成為了一個極具挑戰(zhàn)的問題。

一、生成式人工智能助推下的法律服務變革

從早期的法律數(shù)據(jù)庫,到后來的在線法律服務,再到如今的法律機器人,法律服務不斷從信息化、自動化邁向智能化。隨著大模型的興起,生成式人工智能正在推動法律服務迎來新的變革。

2022年11月,OpenAI推出ChatGPT,這款能夠對話的大模型應用引發(fā)全球關注。同樣在2022年,專注于法律垂直領域的人工智能服務商Harvey正式成立。這家法律科技公司通過自然語言交互幫助律師或者其他客戶完成法律信息檢索、法律文書生成等任務,并支持多輪對話優(yōu)化輸出結果。此外,律商聯(lián)訊(LexisNexis)等法律信息服務商也很快接入大模型,提供生成式人工智能法律服務。在大模型的助力之下,法律科技公司DoNotPay推出的“機器人律師”甚至嘗試參加庭審,其開發(fā)者還聲稱要以此取代部分律師。

2023年2月,復旦大學推出國內對話式大模型MOSS;同年3月,百度發(fā)布大模型文心一言,隨后研究機構和科技企業(yè)紛紛推出各自的大模型,我國快速邁向“百模大戰(zhàn)”的競爭發(fā)展態(tài)勢。除了法律科技公司,最高人民法院于2024年11月發(fā)布了“法信法律基座大模型”,這是國內首個法律行業(yè)AI基座大模型。今年1月,DeepSeek-R1因其超強推理能力、開源、低成本路徑,在我國“百模大戰(zhàn)”中脫穎而出,并引發(fā)全球關注。DeepSeek掀起的技術革新浪潮不僅改變了“百模大戰(zhàn)”的發(fā)展態(tài)勢,也使得生成式人工智能應用在我國迎來了爆發(fā)期??梢灶A見,以DeepSeek為代表的大模型應用將對我國的法律服務行業(yè)產生重大影響。

二、律師服務中生成式人工智能的應用潛能

人工智能技術很早就被應用在了法律領域,法律信息檢索是其中最核心的功能。隨著機器學習與自然語言處理等技術的迅猛發(fā)展,人工智能在法律服務中的應用日益多元化。不論是國內還是國外,律師及律所一直在探索借助人工智能技術優(yōu)化法律服務。隨著生成式人工智能的快速崛起,律師在法律研究、日常工作、對外宣傳等諸多方面的能力都可以借助大模型技術工具得以提升。律師執(zhí)業(yè)的核心在于法律咨詢、法律文書等方面,生成式人工智能在這些領域均有著重要的應用潛能。

(一)法律信息檢索

法律信息檢索是律師提供法律咨詢等服務的基本前提和重要環(huán)節(jié),即便再有經驗的律師仍然需要通過法律信息檢索等手段明確具體的法律服務方案和內容。在大模型出現(xiàn)前,律師可以通過各種免費的網絡信息平臺進行法律或者案例檢索,也可以通過付費方式獲取不同的專業(yè)化法律信息檢索服務。對于免費的法律信息平臺而言,律師往往無法獲得精準的檢索結果,因此需要花費較多的時間成本;對于付費的法律信息檢索服務而言,律師一般可以獲得相對精確的檢索結果,但這類服務通常面向機構用戶而非律師個人。大模型出現(xiàn)后,律師通過合理的提示,可以免費獲得相對精準的檢索結果,一定程度上節(jié)省了時間和費用成本。

對律師而言,生成式人工智能賦能法律信息檢索既是機遇也是挑戰(zhàn)。當前,以DeepSeek為代表的中國生成式人工智能服務正在為普通百姓實現(xiàn)“技術平權”。在這樣的科技應用背景下,沒有任何法律基礎的人也可以選擇求助于大模型來解決法律問題,這勢必會降低人們對律師服務的需求。實踐中,越來越多的當事人已經在嘗試通過大模型進行法律信息檢索,進而對代理律師的法律服務方案提出質疑。隨著大模型的繼續(xù)迭代并逐漸融入民眾的日常生活,普通百姓的法律信息檢索能力也會不斷提升,這將進一步考驗律師的法律服務能力。

(二)法律文書生成

不論是律師提供的訴訟法律服務還是非訴服務,律師服務的正式交付物通常是各種法律文書,包括訴訟文書、合同文本、法律意見書等。在大模型出現(xiàn)前,人工智能技術就已經逐步應用到各類法律文本審查或生成場景中,但由于文書生成的形式和質量的局限,這類服務無法有效滿足用戶需求。然而,生成式人工智能對法律文書的生成產生了較大的影響。通過大模型,律師能夠極為迅捷地獲取幾乎任何形式的法律文書,而且可以通過提示不斷調整優(yōu)化法律文書的內容質量。

法律文書生成極大地提升了律師日常工作效率,同樣也會對律師服務形成根本性的挑戰(zhàn)。越來越多的當事人選擇大模型生成法律文書,從而自助完成法律救濟。如果說訴訟服務在庭審等關鍵環(huán)節(jié)律師仍將發(fā)揮重要作用的話,在非訴服務中律師將面臨著更大的挑戰(zhàn)。越來越多的法律科技公司通過引入大模型,以較低的費用為非訴客戶提供服務。

三、律師服務中生成式人工智能的應用邊界

生成式人工智能在法律服務領域有著諸多優(yōu)勢和應用潛能,但也存在著多方面的挑戰(zhàn)。律師執(zhí)業(yè)過程中有必要對大模型應用于法律服務的局限性有清晰的認識,也要高度重視大模型應用潛在的數(shù)據(jù)安全和職業(yè)倫理風險。

(一)無法完全消除的“幻覺”

DeepSeek-R1模型的性能可以直接對標全球頂級推理模型OpenAI o1,但相較于閉源且推理過程不透明的OpenAI o1模型而言,DeepSeek-R1能夠主動呈現(xiàn)深度思考過程,從而在一定程度上打破大模型“黑盒子”的生成邏輯。雖然在法律服務場景中,律師可以看到大模型的整個推理過程,但這并不意味著大模型生成內容就絕對靠譜。不論是GPT-4o或者DeepSeek-V3等全能屬性強的通用模型,還是OpenAI o1或者DeepSeek-R1等專家型的推理模型,都可能生成根本不存在的法律或者案例。不論是法律服務或者其他行業(yè)領域,“一本正經的胡說八道”是大模型的通病。

大模型生成與事實不符的內容通常被描述為“幻覺”(Hallucination),其基于統(tǒng)計建模與概率預測生成文本,而非真正理解語義或事實邏輯。這決定了大模型在生成內容時必然存在編造信息、輸出錯誤的風險,“幻覺”是大模型的固有局限。即使模型經過不斷優(yōu)化或擴展,也只能減少幻覺頻率或局部影響。不論是法律信息檢索還是法律文書生成都難以避免“幻覺”的影響,在某種程度上應對“幻覺”問題也可能成為律師服務的重要工作內容。只有正視“幻覺”的局限性,律師才能夠對生成式人工智能的應用有更加清醒的認識。這樣律師才能夠更好地擺脫技術依賴,并有效地改變潛在客戶或者當事人的認識偏差。

(二)不容忽視的安全倫理風險

法律服務不可避免會涉及案件信息或者法律文書等數(shù)據(jù)或者個人信息處理。在這個意義上律師及其所在律師事務所也屬于《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護法》所調整的數(shù)據(jù)處理者或個人信息處理者。雖然律師在執(zhí)業(yè)過程中可以通過同意豁免等法律機制自主決定大模型的使用,但人機交互過程中仍然需要遵循正當性、必要性原則,履行去標識化等數(shù)據(jù)處理的法定義務。在實踐中,一些律師直接將未經任何脫敏處理的當事人信息或者法律文書信息提交大模型進行法律檢索或文書生成,這樣的做法既不符合職業(yè)倫理,還可能涉嫌違法。

保密既是律師執(zhí)業(yè)過程中的基本權利也是其基本義務。除非法律特別規(guī)定或經當事人同意,律師在執(zhí)業(yè)過程中應當對知悉的當事人隱私、商業(yè)秘密以及其他未公開信息等嚴格保密。大模型的特點或者能力可以概括為兩個主要方面,即泛化和涌現(xiàn),前者可以形象地概括為“舉一反三”,后者則可以形象地概括為“無中生有”。律師在向大模型提供當事人信息時,可能被模型記錄并用于后續(xù)訓練,導致保密信息被永久留存甚至泄露。由于大模型的內部運行邏輯不透明,律師也無法完全確認數(shù)據(jù)是否被徹底刪除或是否被泛化或者涌現(xiàn)使用。因此,律師對生成式人工智能應用時潛在的保密等職業(yè)倫理風險同樣不容忽視。

編輯:劉海濱