生成式人工智能学术性使用的治理机制研究

  • 来源:互联网周刊
  • 关键字:生成式人工智能,学术性使用,合理边界
  • 发布时间:2025-06-07 13:31

  文/刘京尚 西北政法大学商学院

  摘要:生成式人工智能的迭代升级引发其在学术领域的深度渗透,随即催生学术伦理失范与治理难题等复合性挑战。现有制度框架虽针对这种风险治理进行了探索,但普遍面临治理原则缺位、使用程度检测困难、合理边界划定不明、多元主体责任配置失衡等结构性困境。对此,本文构建积极性伦理原则,提出系统化治理理念;通过双重制度设计、耦合技术构想、指标体系构建和合理边界划定实现“四位一体”多边校准;设计包含企业平台、高校教育等在内的多元主体协同治理机制,为平衡技术创新与学术伦理提供了创新构想和方向启迪,助力构建人机协同的学术生态良性发展格局。

  关键词:生成式人工智能;学术性使用;合理边界

  引言

  本文中,生成式人工智能(generative artificial intelligence,GAI)是指依赖生成模型,通过学习数据分布并加以模仿,进而生成文本、图像等新内容的人工智能子领域;“学术性使用”则指学生和科研工作者为实现知识生产,在课程作业及学术写作中对于GAI的辅助性使用。2022年ChatGPT 3.0问世以来,GAI市场应用模型数量急剧增长、技术日益完善,给其学术性使用创造了极为肥沃的土壤[1],但也使传统代写、剽窃等学术不端行为呈现智能化、隐蔽化特征。针对上述风险治理,学界普遍认为应当多措并举:侯利阳与李兆轩注重宏观监管制度设计,通过改革考核标准等举措限制滥用行为[2];李志锴与张骁则认为应通过技术革新、政策制定等方式加以规范[3]。既有研究虽达成普遍共识,但仍存在治理理念较为消极、使用程度检测机制缺失、合理使用边界模糊、各主体责任划定不明等问题。

  1. 主体性伦理原则与系统化治理理念

  人工智能(AI)作为机器智能的进阶形态,本质是人类智慧的延伸。因此,针对GAI学术性使用的治理核心在于规避技术异化风险,通过解析技术机制、构建伦理框架,重塑工具与主体的边界[4]。与此同时,GAI学术性使用治理应做到“循水施治”,即把握“因势利导、循序渐进、疏堵结合、标本兼治”的治理理念,紧跟技术前沿、对接现实需求,将硬性监管与软性渗透相结合,明晰边界后在实践中积极利用,同时做到“以标治本、以本束标、标本兼治”,为GAI学术性使用治理拓宽理论可行域。

  2. 使用程度检测机制设计及边界划定

  2.1 双重制度设计——自动披露义务和举证责任倒置

  GAI学术性使用应建立规范化披露机制,作者须在论文中明确标明辅助痕迹[5]:首先,于正文GAI生成内容后插入人工智能生成内容(artificial intelligence generated content,AIGC)专用标识符,并在页脚注具体说明辅助情形;其次,须在文末设置独立章节,系统阐述GAI介入环节及综合使用程度。最后,引入举证责任倒置机制,当相关机构发现疑似违规时,应由研究者承担证明使用合规性的责任,而非由质疑方提供不当使用证据。

  2.2 耦合技术构想——技术框架

  要实现学术成果中GAI使用程度的精准鉴别,本质上仍依托于技术路径的研发落地,本文尝试构建“生成路径逆向检测+操作痕迹正向追踪”的双向验证耦合机制。

  生成路径逆向检测主要包括注意力权重回溯和生成轨迹可视化。由于人类创作文本注意力分布呈现随机弥散特征,而GAI生成文本具备层级聚焦性,因此可通过Transformer可视化工具实现权重解析,通过开发参数重构算法,将输出文本反推至各解码层[6],通过注意力分布特征区分人为创作和GAI生成文本。与此同时,基于开源模型权重,可建立文本生成概率热力图,实现文本token选择概率与人类常用词汇库偏离度的对比检测。

  操作痕迹正向追踪包括创作过程全记录和多源数据交叉分析两大步骤。针对文档编辑时间戳密度,人类创作与GAI生成文本具有脉冲式和连续均匀分布的显著区分;在光标移动轨迹上,人类写作通常伴随高频删改;在外部资源调用记录上,GAI生成文本可能出现突然插入专业术语而无文献查阅记录的显著特征。针对上述区分,可通过嵌入式检测模块进行捕获,随后建立操作行为特征矩阵,如表1所示。

  2.3 指标体系构建——“GAI介入指数”

  现行法律规定试图强制性要求规范GAI学术性使用,但并未明晰具体使用情形和合理边界,这导致两极分化:学者因畏惧违规而排斥技术;学生滥用GAI却无据可查。而该问题的有效解决,则依赖于统一的指标构建及明确的边界厘定。

  基于此,本文提出“GAI介入指数”概念,即通过“环节权重”“行为特征异常值”“跨平台关联度异常值”三大系数,结合文本特征、行为数据和学科差异,输出介入指数,从而量化评估GAI使用程度,为学术审查提供客观依据。

  除此之外,还须根据学术论文呈现形式提炼关键指标,并分配各环节权重(如表2所示)。行为特征主要包括编辑间隔和删除率,通过大量实证数据可提取常规行为特征值,将待测作品数据与之比对可构造“行为特征异常值”;同时通过操作痕迹正向追踪可统计出待测作品每小时内跨平台关联的总频次,与常规数据比对可构造“跨平台关联度异常值”指标。将各环节行为特征异常值与跨平台关联度异常值相结合,乘以该环节权重,再将所有环节加总求和,即可计算出待测作品的“GAI介入指数”。

  2.4 合理边界划定

  结合上述步骤得出待测作品“GAI介入指数”后,划定合理使用边界,如表3所示。

  表3中动态校准空间的设计,一方面赋予相关机构灵活调整的权利,另一方面则可结合学科差异,将不同学科领域的最终指数赋以不同的学科调整系数。针对理论数学、临床医学等创新性要求较高的领域,GAI替代可能性较低的研究领域,可适当放宽标准;针对文学、管理学等GAI替代风险较高的人文社科领域,实行更加严格的标准。

  例:理论数学论文:GAI介入指数×0.8(放宽标准)

  文学研究论文:GAI介入指数×1.2(严格标准)

  3. 多方协同治理模式构建

  针对GAI学术性使用,各主体应着力构建多方协同治理体系,开展跨领域合作[7],实现技术创新与制度革新双轨并进。

  3.1 企业责任:开发复合智能平台

  科技企业应依托商业、技术和资源优势建立“监管+服务”复合平台:风险管控模块整合主流GAI写作工具,依据学术研究全流程提供合规辅助服务,通过技术协议转移风险;检测模块则开发“GAI介入指数”评估系统,基于语义指纹分析、操作日志追溯等技术生成检测报告,以此实现商业价值与社会责任的有机统一。

  3.2 高校改革:重塑教育生态体系

  各大高校则应从教学机制创新和人才素养培育两方面寻求破局之道。一方面,高校推行过程性评价,在论文中期实施“研究路径溯源”审查,构建多元考核矩阵,辅以算法异常检测。另一方面,开设“科研教育工作坊”强化全过程学术伦理培养,将GAI学术性使用纳入课程体系[8]。

  3.3 出版机构:构建技术治理闭环

  学术期刊应严格审查、制定人工智能使用规范[9],同时开发基于大模型同源性的检测系统,设定“GAI介入指数”合理阈值,超过规定限度则启动人工复核,对于不当使用的文章进行退稿处理。除此之外,可构建动态评估数据库,通过机器学习持续优化检测模型。

  3.4 评价体系:深化学术价值革命

  学术评价应突破传统体系限制[10],推行“三维评价模型”:研究过程维度重点考察问题发现、方法创新等过程性要素;成果质量维度引入学界认可度、社会影响力等非量化指标;学术伦理维度建立学术信用积分制度。同时实施学术资源“阳光配置”,通过区块链技术实现科研经费流向透明化,构建“学术贡献-资源配置”的正向反馈机制。

  4. 具体案例应用分析

  以西北政法大学“婚姻家庭法”课程论文为例,一学生在文献综述环节使用“文心一言”扩展关键词,数据分析阶段借助“ChatGPT”完成模型构建,根据上文技术框架测得两环节GAI介入指数分别为12%、38%,总指数达50%。根据三级边界划定,该论文触发动态校准机制。高校随即调取其操作日志,文献检索记录显示4次跨平台跳转:浏览器→文献库→AI工具→数据分析软件,数据分析阶段光标移动轨迹呈现连续均匀分布特征,删除率仅为3%,低于人类写作均值。举证责任倒置程序启动后,该学生提交原始数据采集表及GAI使用声明,结合学科调整系数,最终介入指数修正为45%,教学委员会认定其使用合规。

  该案例通过过程性审查与教育干预,彰显了动态校准有效性、技术检测精准性及制度协同性,验证了治理体系在平衡技术赋能与伦理约束中的实操价值。

  结语

  随着GAI深度介入学术生产,如何在技术与伦理间构建动态平衡已成为数字时代的核心命题。本文立足于治理模式探究,提出“人类智慧驾驭机器智能”的伦理准则和系统化治理理念;通过“自动披露义务+举证责任倒置”的制度设计、“生成路径逆向检测+操作痕迹正向追踪”的技术构思、“环节权重+行为特征异常值+跨平台关联度异常值”三大系数联合的“GAI介入指数”构建、“动态空间校准”的边界划定,构建了四位一体治理体系;最后明晰各主体权利义务,推动形成多方联动的责任共同体。

  受材料及篇幅所限,本文在制度设计的丰富性、技术框架的可行性、指标构建的合理性、边界划定的科学性等相关问题上仍存在研究空间,有待另文再考。人工智能与学术伦理的共轭演进呼唤持续的理论创新,本文期望通过治理模式的探索,推动学术共同体在技术浪潮中坚守伦理底线,最终实现“人机共智”的学术发展蓝图。

  参考文献:

  [1]姜涛,叶思雨.生成式人工智能浪潮下的学术生态:机遇、挑战及应对[J].河北科技大学学报(社会科学版),2024,24(2):85-92.

  [2]侯利阳,李兆轩.ChatGPT学术性使用中的法律挑战与制度因应[J].东北师大学报(哲学社会科学版),2023(4):29-39.

  [3]李志锴,张骁.人工智能生成内容(AIGC)应用于学位论文写作的法律问题研究[J].学位与研究生教育,2024(4):84-93.

  [4]洪涛.哲学视角下生成式人工智能的法律主体证否及其融贯治理[J/OL].兰州学刊,1-16[2025-04-19].http://kns.cnki.net/kcms/detail/62.1015.C.20250414.1838.002.html.

  [5]张继红.生成式人工智能生成内容标识义务研究[J].法商研究,2024,41(4):187-200.

  [6]李彤.基于Transformer的自然语言生成算法研究[D].西安:西安电子科技大学,2022.

  [7]周莎,张尚.生成式人工智能应用于学术研究的风险及其预防机制[J].黑龙江高教研究,2024,42(3):1-7.

  [8]刘瑶瑶,梁永霞,李正风.生成式人工智能与科研伦理:变革、挑战与展望[J].科学观察,2024,19(4):1-8.

  [9]黄鑫鑫,盛杰,徐云峰,等.人工智能冲击下新型学术不端的特点及防范对策[J].中国传媒科技,2024(6):55-58.

  [10]宋兆祥,司林波.人工智能赋能新时代教育评价改革的逻辑、边界与路径——构筑智慧教育评价生态的变革之路[J].教育科学研究,2024(11):59-65.

  作者简介:刘京尚,本科在读,liu_jingshang@126.com,研究方向:人工智能,电子商务,数据治理方向。

……
关注读览天下微信, 100万篇深度好文, 等你来看……
阅读完整内容请先登录:
帐户:
密码: