手机看中经经济日报微信中经网微信
当前位置     首页 > 国际经济 > 正文
中经搜索

关上“潘多拉魔盒”?规范AI发展,各国纷纷出手

2023年04月13日 07:11   来源:环球时报   

  【环球时报综合报道】4月11日,中国国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(简称《征求意见稿》),该办法是国内生成式人工智能(AI)领域的首份监管文件。同一天,美国也传来考虑出台措施监管人工智能的消息。据《华尔街日报》11日报道,美国商务部周二就人工智能问责措施正式公开征求意见,包括有潜在风险的新人工智能模型在发布前是否应该通过认证程序。此外,英国、意大利、加拿大等国也先后宣布收紧人工智能的监管政策。

  关上“潘多拉魔盒”?

  《征求意见稿》共包含21条举措,强调了安全评估和算法备案的前提性和必要性。《征求意见稿》明确指出,办法中所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术,并对生成式人工智能服务提出了多方面要求,包括“提供生成式人工智能产品或服务应当遵守法律法规的要求”“提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责”“要求用户提供真实身份信息”等。

  多位专家在12日接受《环球时报》记者采访时都表示,《征求意见稿》的发布,主要是明确了生成式人工智能先规范再发展的总基调,目的是完善生成式人工智能的应用环境,为生成式AI在国内应用创造条件。

  近段时间,生成式人工智能技术掀起新一轮生产力革新的科技浪潮,全球各大科技公司争相抢滩布局。然而,人工智能热度蔓延的同时,由其产生的概念乱象及安全问题也引发诸多担忧。

  美国法学教授特利4月3日在《今日美国》发文称,自己收到一封邮件,被告知有人在测试生成式人工智能时发现他莫名出现在了该工具给出的性骚扰学生者名单中;路透社5日报道称,澳大利亚赫本郡郡长胡德被生成式人工智能误列为澳大利亚储备银行子公司一桩外国贿赂丑闻的“犯案者”……许多人表示,人工智能打开了“潘多拉魔盒”,呼吁政府出台监管措施。

  除了中国、美国外,英国、意大利、加拿大、法国、西班牙等国家也都开始行动起来。据英国《金融时报》报道,英国政府于3月发布了第一份人工智能白皮书,概述了人工智能治理的5项原则。此外,据路透社报道,3月底,意大利政府宣布禁止使用一款人工智能聊天机器人,并限制相关公司处理意大利用户信息数据,同时对其隐私安全问题立案调查。加拿大广播公司4月4日报道称,加拿大联邦隐私监管机构宣布,已对美国人工智能研究公司OpenAI展开调查,因该公司涉嫌“未经同意收集、使用和披露个人信息”。

  与多国纷纷出手加强AI监管形成对比的是,印度暂时没有计划监管人工智能的使用和发展。据美国福克斯新闻网报道,印度电子和信息技术部上周发布一份声明,详细阐述了印度对人工智能发展及安全方面的立场,表示相信人工智能会拉动印度商业的增长,政府正在政策和基础设施方面采取一切必要措施,以发展该国的人工智能行业。

  科技巨头也在商讨AI开发使用标准

  通常情况下,政府收紧监管意味着大型科技企业自由发展的空间和力量被遏制,会招致行业的反对,然而这一次,许多科技公司却发声呼吁政府制定监管规定,甚至在一些企业内部,限制使用人工智能的规定已经实施。

  据韩国《国民日报》报道,包括三星、SK海力士在内的多家韩企正在采取限制使用相关人工智能工具的措施,严防员工泄密。LG电子公司也要求员工进行“人工智能及数据使用”方面的培训。在日本,出于对信息泄露的担忧,包括软银、日立、富士通和三井住友银行在内的日本公司已开始限制在业务运营中使用交互式人工智能服务。

  一些人工智能企业也主动寻求制定新的监管规定。据《华尔街日报》11日报道,“我们认为,强大的人工智能系统应该接受严格的安全评估”,OpenAI在最近的一篇文章中表示:“需要监管来确保安全评估得到采用,我们积极与各国政府接触,探讨可能采取的最佳监管形式。”

  美国福克斯新闻网报道称,12日,微软、谷歌、苹果、英伟达等人工智能开发领域的头部企业将商议制定AI技术开发使用标准,讨论如何以最负责任的态度继续开发人工智能。

  “要在发展与安全之间找到平衡点”

  其实,人工智能监管的“火苗”并不是最近才被点燃。早在2021年4月,欧盟委员会就提出了《人工智能法案》条例草案,这被视为欧盟在人工智能以及更广泛的欧盟数字战略领域的里程碑事件。只不过提案的推进并没有想象中顺利,欧洲议会议员们尚未就提案基本原则达成一致。

  美国国家标准与技术研究院也于今年1月发布了《人工智能风险管理框架》(AI RMF)1.0版,旨在指导机构组织在开发和部署人工智能系统时降低安全风险,避免产生偏见和其他负面后果,提高人工智能可信度。

  清华大学新闻与传播学院教授、清华大学元宇宙文化实验室主任沈阳12日接受《环球时报》记者采访时表示,各国都高度重视人工智能的监管问题,因为人工智能技术存在着较大的不确定性和不可控性。目前有必要将人工智能的行业发展引导到安全的、正确的道路上,防止重大黑天鹅事件出现,造成不可挽回的损失。

  对于未来人工智能方面的监管前景,浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林告诉《环球时报》记者,在立法方面,中国目前走在前列,《征求意见稿》内容还将在实践过程中继续完善。他同时也表示,未来监管要在生成式AI发展和安全有序推进之间找到平衡点,一是要给予人工智能生成内容适当包容;二是继续细化规则,这会让企业行为的确定性大大增强,更有利于生成式AI产业的发展。

 


(责任编辑:马常艳)

分享到:
中国经济网版权及免责声明:
1、凡本网注明“来源:中国经济网” 或“来源:经济日报-中国经济网”的所有作品,版权均属于
  中国经济网(本网另有声明的除外);未经本网授权,任何单位及个人不得转载、摘编或以其它
  方式使用上述作品;已经与本网签署相关授权使用协议的单位及个人,应注意该等作品中是否有
  相应的授权使用限制声明,不得违反该等限制声明,且在授权范围内使用时应注明“来源:中国
  经济网”或“来源:经济日报-中国经济网”。违反前述声明者,本网将追究其相关法律责任。
2、本网所有的图片作品中,即使注明“来源:中国经济网”及/或标有“中国经济网(www.ce.cn)”
  水印,但并不代表本网对该等图片作品享有许可他人使用的权利;已经与本网签署相关授权使用
  协议的单位及个人,仅有权在授权范围内使用该等图片中明确注明“中国经济网记者XXX摄”或
  “经济日报社-中国经济网记者XXX摄”的图片作品,否则,一切不利后果自行承担。
3、凡本网注明 “来源:XXX(非中国经济网)” 的作品,均转载自其它媒体,转载目的在于传递更
  多信息,并不代表本网赞同其观点和对其真实性负责。
4、如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。

※ 网站总机:010-81025111 有关作品版权事宜请联系:010-81025135 邮箱:

精彩图片
关于经济日报社关于中国经济网网站大事记网站诚聘版权声明互联网视听节目服务自律公约广告服务友情链接纠错邮箱
经济日报报业集团法律顾问:北京市鑫诺律师事务所    中国经济网法律顾问:北京刚平律师事务所
中国经济网 版权所有  互联网新闻信息服务许可证(10120170008)   网络传播视听节目许可证(0107190)  京ICP备18036557号

京公网安备 11010202009785号

关上“潘多拉魔盒”?规范AI发展,各国纷纷出手

2023-04-13 07:11 来源:环球时报

  【环球时报综合报道】4月11日,中国国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(简称《征求意见稿》),该办法是国内生成式人工智能(AI)领域的首份监管文件。同一天,美国也传来考虑出台措施监管人工智能的消息。据《华尔街日报》11日报道,美国商务部周二就人工智能问责措施正式公开征求意见,包括有潜在风险的新人工智能模型在发布前是否应该通过认证程序。此外,英国、意大利、加拿大等国也先后宣布收紧人工智能的监管政策。

  关上“潘多拉魔盒”?

  《征求意见稿》共包含21条举措,强调了安全评估和算法备案的前提性和必要性。《征求意见稿》明确指出,办法中所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术,并对生成式人工智能服务提出了多方面要求,包括“提供生成式人工智能产品或服务应当遵守法律法规的要求”“提供者应当对生成式人工智能产品的预训练数据、优化训练数据来源的合法性负责”“要求用户提供真实身份信息”等。

  多位专家在12日接受《环球时报》记者采访时都表示,《征求意见稿》的发布,主要是明确了生成式人工智能先规范再发展的总基调,目的是完善生成式人工智能的应用环境,为生成式AI在国内应用创造条件。

  近段时间,生成式人工智能技术掀起新一轮生产力革新的科技浪潮,全球各大科技公司争相抢滩布局。然而,人工智能热度蔓延的同时,由其产生的概念乱象及安全问题也引发诸多担忧。

  美国法学教授特利4月3日在《今日美国》发文称,自己收到一封邮件,被告知有人在测试生成式人工智能时发现他莫名出现在了该工具给出的性骚扰学生者名单中;路透社5日报道称,澳大利亚赫本郡郡长胡德被生成式人工智能误列为澳大利亚储备银行子公司一桩外国贿赂丑闻的“犯案者”……许多人表示,人工智能打开了“潘多拉魔盒”,呼吁政府出台监管措施。

  除了中国、美国外,英国、意大利、加拿大、法国、西班牙等国家也都开始行动起来。据英国《金融时报》报道,英国政府于3月发布了第一份人工智能白皮书,概述了人工智能治理的5项原则。此外,据路透社报道,3月底,意大利政府宣布禁止使用一款人工智能聊天机器人,并限制相关公司处理意大利用户信息数据,同时对其隐私安全问题立案调查。加拿大广播公司4月4日报道称,加拿大联邦隐私监管机构宣布,已对美国人工智能研究公司OpenAI展开调查,因该公司涉嫌“未经同意收集、使用和披露个人信息”。

  与多国纷纷出手加强AI监管形成对比的是,印度暂时没有计划监管人工智能的使用和发展。据美国福克斯新闻网报道,印度电子和信息技术部上周发布一份声明,详细阐述了印度对人工智能发展及安全方面的立场,表示相信人工智能会拉动印度商业的增长,政府正在政策和基础设施方面采取一切必要措施,以发展该国的人工智能行业。

  科技巨头也在商讨AI开发使用标准

  通常情况下,政府收紧监管意味着大型科技企业自由发展的空间和力量被遏制,会招致行业的反对,然而这一次,许多科技公司却发声呼吁政府制定监管规定,甚至在一些企业内部,限制使用人工智能的规定已经实施。

  据韩国《国民日报》报道,包括三星、SK海力士在内的多家韩企正在采取限制使用相关人工智能工具的措施,严防员工泄密。LG电子公司也要求员工进行“人工智能及数据使用”方面的培训。在日本,出于对信息泄露的担忧,包括软银、日立、富士通和三井住友银行在内的日本公司已开始限制在业务运营中使用交互式人工智能服务。

  一些人工智能企业也主动寻求制定新的监管规定。据《华尔街日报》11日报道,“我们认为,强大的人工智能系统应该接受严格的安全评估”,OpenAI在最近的一篇文章中表示:“需要监管来确保安全评估得到采用,我们积极与各国政府接触,探讨可能采取的最佳监管形式。”

  美国福克斯新闻网报道称,12日,微软、谷歌、苹果、英伟达等人工智能开发领域的头部企业将商议制定AI技术开发使用标准,讨论如何以最负责任的态度继续开发人工智能。

  “要在发展与安全之间找到平衡点”

  其实,人工智能监管的“火苗”并不是最近才被点燃。早在2021年4月,欧盟委员会就提出了《人工智能法案》条例草案,这被视为欧盟在人工智能以及更广泛的欧盟数字战略领域的里程碑事件。只不过提案的推进并没有想象中顺利,欧洲议会议员们尚未就提案基本原则达成一致。

  美国国家标准与技术研究院也于今年1月发布了《人工智能风险管理框架》(AI RMF)1.0版,旨在指导机构组织在开发和部署人工智能系统时降低安全风险,避免产生偏见和其他负面后果,提高人工智能可信度。

  清华大学新闻与传播学院教授、清华大学元宇宙文化实验室主任沈阳12日接受《环球时报》记者采访时表示,各国都高度重视人工智能的监管问题,因为人工智能技术存在着较大的不确定性和不可控性。目前有必要将人工智能的行业发展引导到安全的、正确的道路上,防止重大黑天鹅事件出现,造成不可挽回的损失。

  对于未来人工智能方面的监管前景,浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林告诉《环球时报》记者,在立法方面,中国目前走在前列,《征求意见稿》内容还将在实践过程中继续完善。他同时也表示,未来监管要在生成式AI发展和安全有序推进之间找到平衡点,一是要给予人工智能生成内容适当包容;二是继续细化规则,这会让企业行为的确定性大大增强,更有利于生成式AI产业的发展。

 


(责任编辑:马常艳)

查看余下全文