The site is currently under configuration

Will be available soon......

数智时代的东亚高等教育观察

返回上一级
发布日期:2025.10.16 来源:《云际》第13期

高等教育中人工智能的应用:来自欧盟的经验

欧盟《人工智能法案》(AIA)已于2024年8月1日生效,并将在2027年全面施行。作为首个针对人工智能(AI)的全面监管框架,该法案一经出台便引发全球广泛关注。由于其跨行业的监管模式,AIA有望影响人工智能工具在教育领域的发展与应用。考虑到社会经济背景的差异,目前尚难断言该法案会成为全球通行的范本。然而,AIA所体现的政策取向在一定程度上确立了参考标准,或许未来将引导相关议题的讨论。随着生成式人工智能(Generative AI)及其他AI驱动工具在教育中日益普及,解读AIA及其影响具有重要意义。本文旨在提供源自法案制定者的顶层监管视角,以帮助相关高校领导者和政策制定者更深入地把握该领域的核心问题。

02888a17-d7e0-4aef-83a8-631b9c55cb44.png

欧盟《人工智能法案》

AIA如何规范教育

AIA采用基于风险的框架,将人工智能系统按照其对健康、安全及基本权利的潜在风险进行分级管理。其中,教育等被视为高风险的应用领域将面临更为严格的审查,而对被认定为“不可接受风险”的系统则予以全面禁止。


在教育领域,AIA中两项禁令影响尤为直接:其一是对情绪识别类AI的禁用,其二是对生物特征分类的禁用。


首先,AIA禁止教育机构中使用AI推断个体情绪,理由在于此类系统的科学有效性存疑,以及教育情境中固有的权力不对称。尽管在医疗或安全考量下这类技术被特别允许使用,但该禁令范围广泛,可能阻碍一些本可带来积极作用的技术落地。例如,即便某些工具能够通过识别学生的专注度或挫败感,帮助教师调整教学进度或澄清难点概念,但这类技术在现行法律下仍然被禁止。换言之,一种能在数学难题教学中识别学生困惑并提示教师进行个别辅导的AI系统,极有可能被视为违法。


其次,法案还禁止使用AI进行生物特征分类,推断个人种族、政治观点或宗教信仰等敏感属性。这一禁令旨在回应学界和社会广泛关注的风险:AI可能通过识别数据中的隐性模式而固化或放大偏见,最终导致歧视性结果。然而,仅仅剔除敏感属性并不能确保公平性。事实上,在某些情况下,这类信息对于合理解读学生表现具有关键意义。例如,若AI作文评分工具因耗时过长或语法错误而降低分数,便可能系统性地不利于母语非英语的学生,或缺乏教育资源的学生。越来越多的研究表明,忽视敏感属性本身反而可能无意中加剧差距。

除上述禁令外,AIA还将大多数与教育相关的AI系统归类为“高风险”,体现出此类工具对学生未来发展所可能带来的深远影响。在法案的附件三中,以下几类教育应用被明确列为高风险:
  • 招生:用于决定学生入学资格或录取的AI系统;

  • 评估:用于评定学习成果的AI工具,如自动化考试评分系统;

  • 分流:用于判断学生适合的教育水平或学习轨道的AI系统;

  • 监控:用于检测考试作弊行为的AI监考工具。


被列为高风险的系统必须遵守法案的严格要求。AI系统的提供者(无论是教育科技公司,还是自主研发AI的大学)都负有实施健全的风险管理、确保高质量且无偏见的数据、提供详细技术文档,并保证人工监督等义务。换言之,若某所大学开发了一套自动化评分的AI系统,该校便成为“高风险AI供应方”,须建立完善的治理体系以符合AIA的标准。相较之下,若大学购买的是已符合要求的第三方解决方案,则仅作为“使用方”,所承担的义务相对较少。


对于既非禁用也非高风险的系统,只要是与个体直接交互的,则仍需遵守透明性义务,即在系统设计中必须有相应提示,让用户明确知晓自己正在与AI交互。

此外,AIA专设章节规范“通用人工智能”(General-Purpose AI,GPAI),即能够执行广泛任务的模型,如大型语言模型。尽管该部分并未明确针对教育领域,但其规则将对教育产生深远影响,因为未来大多数教育AI工具都将建立在此类通用模型之上。

然而,AIA监管模式的一大局限在于,当代大型语言模型无需专业技术即可被轻易改造并广泛应用。例如,一名教师可能会直接使用现成的大型语言模型进行作业评分,而这在AIA框架下属于“高风险应用”。在这种情形下,相关合规义务可能全面适用,从而使个体教师在实践中几乎不可能自行定制AI工具。这种情况很可能迫使教育者依赖具备充足资源的大型商业供应方,因为只有后者才能确保满足繁复的合规要求。


1.png

来源:数字教育委员会


推动教育发展:AIA的潜在局限

尽管AIA通过风险分级的方法来规制人工智能,降低风险、维护基本权利的方式是合理的,但其中一些要求与禁令可能会在无意中阻碍教育创新。


eb9838e7-339c-4ecb-bddc-89586fd83077.png

来源:Freepik


一个值得关注的问题是:将大量学习支持型AI工具一概视为“高风险”,可能会抑制教育实践中的探索与试验。该法案并未对具体应用进行风险与收益评估,即在实施更严格监管之前权衡某一工具的潜在益处与风险,而是依据提供方所声明的“预期用途”来进行分类。


这种做法在逻辑上是合理的,因为它与欧盟现有的监管框架(如产品安全法规)相一致。然而,法案在附件III中对高风险应用程序的描述往往过于抽象和笼统,导致分类范围过于宽泛。例如,一个仅为学生提供实时个别反馈、但并不影响成绩的AI辅导系统,与决定大学录取的AI系统同样被划入“高风险”范畴。在缺乏对公共利益进行评估的情况下,仅凭假定风险来实施监管,可能妨碍某些对教育具有高度价值的AI工具的使用。

这种“一刀切”式的做法在很大程度上可以解释为,像AIA法案这样的横向立法,难以进行精细化的风险与收益评估。这不仅需要庞大的风险与收益数据库,还需要复杂的评估方法以及深入的领域专业知识。因此,尽管AIA的风险分类在防范非法歧视等方面具有积极作用,但其具体的实施却可能削弱有益的教育创新。

此外,AIA高度强调管控风险的预防性措施。这必然会减少开展教学方法实验和实际使用数据收集的空间,而这些数据正是未来进行更精细风险分类的必要基础。欧盟以外的政策制定者可以选择另一种方式:仅当有充分证据表明风险已经达到显著程度时,才启动额外的监管审查。

法案的某些具体禁令也可能约束教育中有价值的教学策略。全面禁止情绪识别可能扼杀一些能够帮助识别学生兴趣、压力或其他影响学习的重要因素的有益工具。这类信息有助于教师在学生落后于课程节奏之前提供额外支持,或识别出哪些学生高度专注并准备好迎接更具挑战性的学习内容。通过机制所有形式的情绪推断,该禁令扼杀了旨在以负责任、保护隐私的方式利用这些信息的教学创新。尽管学术研究本身不直接受到法案约束,但这些限制也可能对这些领域的相关研究产生“寒蝉效应”。

由于AIA的核心目标在于规避风险,它也难以激励开发那些旨在培养创造力、批判性思维或适应性教学的方法。同时,“高风险”应用所需满足的合规义务过于繁复且资源消耗巨大,从风险评估、数据治理到详尽的记录保存和质量管理,对小型教育科技企业与高校而言往往难以负担。结果可能导致教育工具的多样性受到限制,创新机会集中在少数大型供应商手中,进而加剧市场集中化。


欧盟以外的高等教育:平衡创新与伦理的路径探析 

理解AIA的立法意图与实施挑战,也为其他地区的教育领导者与政策制定者探索替代性路径提供了契机。


高等教育领导者

为避免自上而下的强制推行,高校领导者应从一开始就让教师与学生共同参与人工智能相关的决策过程。这意味着需要建立包容性机制,使教师、管理人员与学习者能够协作评估AI系统,开展全面的风险-收益分析,并确保所采纳的工具契合机构价值与教学目标。

在机构层面,高校领导者可以考虑“内嵌式监管”的路径。与其完全依赖外部合规机制,不如在AI系统中直接嵌入安全保障与责任机制。例如,一所大学可以开发定制化的AI工具,并在其中融入本校的学术诚信政策,从而在系统被不当使用时进行识别与纠正。通过将责任性与监管机制纳入技术设计阶段,高等教育领导者可以在最大化AI优势的同时减少意外风险。

值得注意的是,通用型AI工具为个体教师提供了前所未有的机遇,使他们即使不具备技术或编程能力,也能独立利用强大的AI技术。例如,一位历史教授可以利用现成的大语言模型开发定制化的写作指导工具,对学生论文提供反馈。虽然在欧盟框架下,AIA的规定可能会使此类由教师主导的创新面临较大阻力;但在其他地区,政策制定者或许能够探索一条兼顾风险防控与教育创新的道路,在扩大AI可及性的同时提升教育质量。

政策制定者

在教育领域推动有效的AI治理,需要从僵化的自上而下约束转向以伙伴关系和信任为基础的更智能的框架。

首先,必须明确职能分工。监管机构应专注于其核心任务:通过确保AI工具公正无偏见、保护学生数据与保障安全,来确保基本权利与公平。而教育工作者则应始终掌控教学实践——决定哪些工具最适合其学生,以及如何将其融入课程。这种分工确保了安全与公平得到优先考虑,同时避免扼杀课堂创新。

其次,政策制定者应当认识到,“一刀切”的方法并不适合AI治理。要满足高等教育的独特需求,更有效的做法是针对特定行业制定对应的AI监管法规。大型研究型高校的情况与中小学或科技初创企业截然不同,相关规则理应有所区分。这既可能意味着为高等教育制定专门的AI监管框架,也可能表现为引入灵活的“公共利益测试”,即在评估新工具时权衡其已被验证的教育效益与其对学生潜在的风险。

最后,政策应当强调支持而非惩罚。与其仅处罚滥用,政策更应帮助学校与开发者负责任地采用AI。这可以通过提供灵活的合规途径来实现,例如简化的检查清单或分阶段的合规截止期限,从而保证成本可控,尤其是对小型机构而言。将新规则、完善的培训计划与合作举措相结合,将进一步指导教育界安全有效地使用这些强大的工具。


结语

没有任何单一的监管框架能够确保人工智能在高等教育中的负责任应用。虽然广泛的禁令与复杂的风险分类能够提供强大的安全保障,但它们同样可能抑制创新,而这种创新正是培养未来人才所必需的——尤其是在资源匮乏的环境中,AI本可以成为实现教育公平的重要工具。保护隐私和反歧视等基本权利固然正当,但这一目标不应以牺牲受教育权为代价。

人工智能的兴起,要求教育者主动把握其在课堂中的潜力,同时防范滥用。学生、教师和管理者的AI素养将在这一过程中发挥关键作用。唯有培养起注重真实参与与学术诚信的学术文化,才能在应用AI时保持教育的核心价值。随着AI素养逐渐成为各行各业的关键能力,教育者更需积极引导学生掌握这一能力。

在欧盟之外,由于相关政策框架仍在不断形成中,更具灵活性的监管方式——在监督与创新之间取得平衡——或许更能契合本地需求。此类路径既能保护个体权利,又能承认AI在扩大高质量教育可及性方面的潜力。若能辅以系统性的培训、跨界合作和清晰的指引,这种平衡的治理模式将赋能教育者,以公平、有效的方式利用新技术,提升学生学习成效,守护教育的核心价值。



  • 罗伯特·马哈里
    本文作者
    罗伯特·马哈里是斯坦福大学CodeX 中心副主任,拥有哈佛法学院与麻省理工学院媒体实验室联合授予的法律人工智能法学博士学位。他的研究聚焦于计算法律,旨在利用技术分析和优化法律体系,提升法律实践效率,拓展司法可及性,并增强司法系统效能。他与全球公共和私营机构合作,将计算法律方法应用于实际场景。


  • 加布里埃尔·马齐尼
    本文作者
    加布里埃尔·马齐尼是人工智能治理与监管领域的顶尖专家。他曾担任欧盟委员会小组组长,领导欧盟《人工智能法案》的起草工作,并在与欧洲议会和欧盟理事会的立法谈判中担任首席顾问。自2017年以来,他还参与了制定欧洲人工智能方针的早期政策工作,包括《人工智能白皮书:通往卓越与信任的欧洲之路》,以及新兴技术责任方面的相关工作。


Previous

往期云际