2025年8月18日电
近年来,人工智能技术迅猛发展,以前所未有的速度渗透到社会的各个领域,从工业制造到医疗健康,从金融科技到智慧城市建设,人工智能在推动生产力提升、改善生活质量的同时,也带来了诸多不容忽视的风险与挑战。当下,建立健全人工智能监管制度已成为全球共识,刻不容缓。
人工智能的发展可谓日新月异。大语言模型和多模态技术持续引领潮流,大模型从单纯注重训练转向强化推理能力,通过强化学习和知识蒸馏技术,推理效率大幅提升。多模态技术的进步,使得 AI 生成的内容愈发丰富多样,如商汤的秒画、Sora 等模型,能够轻松实现文生图、文生视频,极大拓展了应用边界。斯坦福大学《2025 年人工智能指数报告》显示,AI 系统在复杂基准测试中的性能不断突破,OpenAI 的推理模型 o3 在数学、编程等领域表现超越部分人类专家,谷歌的 “双子座 2.0 闪电思维” 在物理和工程问题的解决上也展现出惊人能力。与此同时,通用人工智能(AGI)加速临近,专家预测其可能在未来 2 - 6 年内实现,AI 智能体也迅速崛起,有望在 2025 年底接管企业核心业务环节。
然而,随着人工智能的广泛应用,其潜在风险逐渐显现。在数据安全方面,人工智能系统对海量数据的依赖,使得数据泄露风险大增,一旦发生数据泄露事件,将对个人隐私和企业商业机密造成严重损害。算法偏见问题也屡见不鲜,由于训练数据的偏差或算法设计的缺陷,人工智能在决策过程中可能产生不公平的结果,如在招聘、贷款审批等场景中对特定群体造成歧视。此外,人工智能系统还可能遭受恶意攻击,被黑客利用进行破坏或窃取信息,对社会稳定和经济安全构成威胁。
面对人工智能带来的风险,世界各国纷纷行动,积极构建监管体系。欧盟《人工智能法案》于 2024 年 8 月正式生效,这是全球首部针对人工智能衍生风险制定的监管法案。该法案依据人工智能对健康、安全和自然人基本权利的潜在风险进行分类,设置不同法律义务与责任,如禁止涉及不可接受风险的人工智能应用,对高风险应用则要求履行事前评估等义务,并进行事中、事后持续监测。美国以行业管理标准为主,辅之以部门立法,自 2016 年起不断加大监管力度,发布了《人工智能应用监管指南》等多部相关法律制度和指南,并成立国家人工智能资源研究工作小组,构建 AI 研究网络基础设施体系。英国制定人工智能政策白皮书,提出安全与稳健性、透明度和可解释性等五项监管原则。韩国则采用立法与行业监管相结合的方式,持续完善人工智能监管体制机制。
我国也高度重视人工智能监管工作。近年来,陆续出台了网络安全法、数据安全法、个人信息保护法以及《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等一系列法律法规,在防范人工智能风险方面发挥了积极作用。但随着人工智能技术的飞速发展,监管需求日益增长,相关法律法规仍存在一些短板,如法律体系尚不完善,缺少专门的人工智能安全监管法律,部分关键领域存在立法空白等。
在这一背景下,加快完善人工智能监管体系迫在眉睫。一方面,需进一步加快人工智能立法进程,推动相关立法工作列入国家立法规划,制定具有前瞻性的专门法律,为技术研发、应用和管理提供坚实的法律依据和保障。同时,聚焦重点领域,制定更具针对性的法规政策和行业规范,强化对技术滥用的法律约束。另一方面,要建立健全风险评估与分类分级监管机制,全面评估人工智能系统在数据、技术、应用等层面的潜在风险,根据风险等级实施差异化监管措施。此外,还应加强人工智能伦理治理,引导企业和科研机构承担社会责任,规范数据采集与使用,防止虚假信息传播,并深入开展伦理教育和宣传。同时,明确监管主体,成立专门监管机构,加强跨部门协同合作,建立社会多元共治机制,形成监管合力。
人工智能的发展既带来了巨大机遇,也伴随着诸多风险。建立有效的监管制度,是确保人工智能安全、可靠、可控发展的必然选择。全球各国需携手共进,积极探索适合本国国情的监管模式,共同应对人工智能带来的挑战,让这一强大的技术更好地造福人类社会。
