高校人工智能治理的“堵”與“疏”
http://m.hai34.com2025年12月17日 09:42教育裝備網
當前,生成式人工智能在我國高校被廣泛應用,越來越多的師生使用人工智能輔助教案設計、課后答疑、文獻檢索和數據處理等。但相關探索多具有自發性和盲目性,有可能會引發學術不端、數據隱私泄露、知識產權侵權等風險。為此,有高校出臺“AI禁令”,并配套使用人工智能生成內容檢測系統,以防范師生在科學研究等環節不當使用生成式人工智能。
一些高校出臺“AI禁令”,采取“一刀切”的方式實施人工智能使用治理,其實是在需要“疏”的領域進行了“堵”,而對真正需要“堵”的法律合規風險卻有所忽視。高校人工智能治理的核心應在于采取“堵疏結合”的復合型路徑:清晰地認識其技術原理和風險類型,并在此基礎上,總結實踐經驗,一方面以完善的法律合規體系設“堵”,防范技術固有缺陷帶來的風險,另一方面以主動的教育引導做“疏”,釋放技術賦能教學的巨大潛能。
區分“技術缺陷”與“性能濫用”。采取“堵疏結合”策略的前提,是科學區分不同的生成式人工智能風險。當前,生成式人工智能給高校帶來的風險可分為兩大類:一類是源于生成式人工智能技術本身固有的缺陷,如“幻覺”問題、數據隱私泄露、知識產權侵權等。這類風險破壞了基本的法治與安全底線,是高校人工智能治理中需要堅決“堵”住的漏洞。另一類則源于相關技術工具強大的生成性能被人為濫用,尤其是在學術寫作中的不當使用。這類風險與學生的學習方式、創新能力培養息息相關,是治理中需要積極“疏”導的關鍵領域。
以“堵”為基:補齊法律合規短板。“堵疏結合”的第一步,是建立堅實的法律與倫理“堤壩”。長期以來,我國高校在數據隱私保護、知識產權歸屬、信息安全等領域的法律合規體系建設相對滯后。特別是隨著“AI服務本地化”浪潮的興起,許多高校開始為師生提供自有的、本地化部署的大模型服務。這一轉變使高校不再僅僅是學術誠信的監管者,更成為法律所定義的“網絡運營者”“個人信息處理者”“數據處理者”和“生成式人工智能服務提供者”。為此,需盡快補齊合規短板,建立清晰、完備的數字校園法律合規校規體系,從而有效應對因技術缺陷引發的各類風險。這既是保護學生,也是保護大學自身的必要屏障。
近日,教育部教師隊伍建設專家指導委員會發布的《教師生成式人工智能應用指引(第一版)》,著力引導教師科學、安全、合規、理性地應用生成式人工智能。下一步,我國高校應盡快制定明確的學校大模型服務指南、用戶協議與隱私政策,建立數據安全與分級管理制度,完善相關糾紛處理機制。這不僅是履行法定義務,更是為接下來的創新技術應用與教育引導提供一個安全、可信的基礎。
以“疏”導流:從技術圍堵轉向教育引導。在應對學術不端這一“性能濫用”風險時,正確的思路是“疏”而非“堵”。當前高度依賴人工智能生成內容檢測的技術圍堵路徑并不可靠。首先,無論是商業化的自動檢測工具還是數字水印技術,這些技術手段目前都無法做到穩定鑒別人工智能生成文本,誤判率較高,不能作為認定學術不端的可靠法律證據。其次,上述做法將導致高校陷入一場注定落后的“貓鼠游戲”。大模型技術的迭代速度遠超檢測技術,任何檢測方法都可能在短時間內失效。英美一些高校在走入“死胡同”后,普遍對強制使用此類檢測工具持否定態度,轉而探索更具建設性的教育引導方案。
面對“性能濫用”的風險需轉換思路,將治理重心從“技術圍堵”轉向教育引導。首先,教育主管部門應出臺措施,規范商業化人工智能檢測平臺,使其回歸作為學術判斷的“輔助定位”,減少高校對“堵截”技術工具的依賴。其次,高校應正視檢測技術的局限性,采取更寬容和靈活的治理策略,為人機協同的教與學探索,留出必要的彈性空間。最后,高校應回歸教育本源,引導師生理解人工智能原理、善用人工智能工具,將外部的技術挑戰轉化為內部促進高等教育變革創新的契機。如《上海交通大學關于在教育教學中使用AI的規范》即鼓勵在合規前提下積極探索人工智能使用方式;《清華大學人工智能教育應用指導原則》亦支持師生勇于探索人工智能的創新性應用,并將對優秀實踐給予肯定、推廣。
。愓脤幭等A東政法大學法律學院博士研究生,孫平系華東政法大學法律學院副研究員)
責任編輯:董曉娟
本文鏈接:TOP↑











首頁












