查看原文
其他

围绕AI行业规范化发展,全球已在政策层面展开探索

东西游戏 2023-10-16

免责声明

本梳理仅作海外动向及未来某种可能性的分享。所展开的讨论和研究的目的都只限于了解海外趋势,探讨未来行业中某些新兴概念的本质、真实的价值及存在的风险。所有相关内容均无任何倡导与推广之义。敬请注意相关概念炒作风险并遵守本土法律法规。



AI技术与应用飞速发展的背景下,不可避免出现了新的行业规范问题。


今年4月,《生成式人工智能服务管理办法(征求意见稿)》(下文简称“《办法》”)发布,为期一月,向全社会公开征集意见。


除了中国市场,近期全球多个国家也都开始探索和推进人工智能行业规范化,以法律、官方文件、政府政策、行业指南等方式规范并引导行业健康发展。


   


美 国


2023年4月11日,美商务部下属国家电信与信息管理局(NTIA)发布了《人工智能问责政策征求意见》(AI Accountability Policy Request for Comment),向全社会公开征集意见,征集时间截至2023年6月12日。



《人工智能问责政策征求意见》(下称“《问责政策》”)表示,推进可信赖的人工智能(AI)是一项重要的联邦目标。此前美众议院提出了《2020年国家人工智能倡议法》(the National AI Initiative Act of 2020),在科学和技术政策办公室(OSTP)内建立了国家人工智能倡议办公室(NAIIO),以协调和支持人工智能的研发、教育、培训及研究基础设施。


此外,近年来美在人工智能领域颁布了一系列法律,包括《芯片与科学法案》(CHIPS and Science Act),都旨在推进可信赖的人工智能的应用、研究,并希望确保美国在公共和私营部门开发和使用可信赖人工智能方面的领导地位。


OSTP在2022年10月发布的《AI权利法案蓝图》(Blueprint for an AI Bill of Rights)中提出了人工智能的五项原则:安全有效的系统、算法歧视保护、数据隐私、通知和解释、可替代性原则。


此次发布的《问责政策》就是基于以上五项原则,尝试构建人工智能系统问责制度。《问责政策》全文包含34个问责问题,覆盖人工智能责任目标、现有资源和模型、问责项目、问责制投入和透明度、有效问责的障碍、人工智能问责政策等方面。


 


欧 盟


欧盟的《人工智能法案》(Artificial Intelligence Act)提案将于5月11日进行的关键委员会投票,预计6月中旬预计进行全体投票。此法案于2021年4月发布,经历过数次修订,并于2022年12月发布了最新版本。




《人工智能法案》采取了统一通用立法的模式,体现出欧盟希望该法案成为欧盟人工智能治理领域基本法,并影响全球的人工智能治理进程。


《人工智能法案》以风险分类预防为治理路径,根据人工智能系统与其使用的用途、场景等,将其划分为不可接受的风险、高风险、有限的风险、最小的风险四个级别。法案主要规制高风险人工智能系统提供者的行为,要求高风险人工智能系统投放市场之前履行建立风险评估系统、提供高质量数据集、减少风险和歧视性结果、记录活动以确保结果的可追溯性、向用户提供清晰和充分的信息等义务。


此外,《人工智能法案》规定主管部门应建立人工智能监管沙箱(AI Regulatory Sandbox),人工智能系统在投入市场前,可以在沙箱的受控环境中进行测试和验证,以及处理基于其他目的合法收集的个人信息。


该法案还有一个特点是重视保障用户知情权。《人工智能法案》第13条规定“透明度和向用户提供信息”,要求高风险人工智能系统提供者应随附以适当的数字格式或以其他方式使用的说明。其中包括与用户相关,可访问和可理解的简明、完整、正确和清晰的信息,以及高风险人工智能系统的性能特征、功能和局限性,包括预期目的、可能对个人健康和安全或其他基本权利产生的风险、人为监督措施等。


在2022年12月发布的最新版本中,《人工智能法案》将通用型人工智能系统(General purpose AI systems)也纳入规制范围。



英 国


2023年3月29日,英国政府科学、创新和技术部(DSIT)发布了人工智能监管白皮书《人工智能监管:一种支持创新的方法》(AI regulation: a pro-innovation approach)。在这份白皮书中,DSIT提出了监管机构应考虑的五项原则,以建立公众对人工智能技术的信心,促进行业创新。



这五项原则包括:安全性、可靠性和稳健性;适当的透明度和可解释性;公平;问责制和治理;可竞争性和补救措施。


此外,英国政府还表示将出资2万英镑建立一个新的监管沙箱,为人工智能企业提供测试环境,支持创新者将新想法推向市场。




其他规范化动作


除了上述以法律、法案、监管白皮书等书面形式探索行业规范化发展的国家与地区,近期也有一些国家与地区的相关机构,对以ChatGPT和OpenAI为代表的AI工具和公司采取了监管措施,或做出相关表态。


意大利

今年3月31日,出于对数据隐私的担忧,意大利个人数据保护局(DPA)宣布从即日起禁止使用ChatGPT,限制OpenAI处理意大利用户信息,并开始立案调查。


数据保护局负责人Pasquale Stanzione表示:“如果 OpenAI 愿意采取有用的措施,我们准备在4月30日重新开放ChatGPT。”



西班牙

西班牙国家数据保护局(AEPD)发表声明,称该机构已经正式对ChatGPT可能的违反法律行为展开初步调查程序。此前,西班牙国家数据保护局要求欧洲数据保护委员会将ChatGPT列为全体会议上需要重点讨论的一项主题,西班牙数据保护局认为需要在欧洲层面采取统一行动以应用《通用数据保护条例》。尽管,西班牙国家数据保护局在声明中为实施人工智能等创新技术进行了辩护,但同时指出实施创新技术的同时需要遵循现行法律法规。



法国

近日法国财长布鲁诺·勒梅尔(Bruno Le Maire)表示,人工智能技术需要监管,因为会面临很多伦理方面的挑战,但法国不希望像意大利那样阻止对ChatGPT的访问。


“我认为我们必须迅速开始反思ChatGPT的最佳监管方式,这必须在国家和欧盟层面进行。”勒梅尔说道。他具体谈到了关于数据的来源,以及使用AI撰写新闻或研究人员的报酬等问题。



德国

4月3日,德国数据保护专员乌尔里希·凯尔伯(Ulrich Kelber)表示,德国可能会效仿意大利,以数据安全方面的担忧为由屏蔽OpenAI的聊天机器人ChatGPT。凯尔伯透露,德国已请求意大利就其临时禁令提供更多信息。



加拿大

4月4日,加拿大隐私专员办公室(OPC)宣布对ChatGPT的开发机构OpenAI展开调查,涉及“OpenAI未经同意收集、使用和披露个人信息”的指控。该机构的一位隐私专员表示,人工智能技术及其对隐私的影响是OPC的优先事项,“我们需要跟上快速发展的技术并保持领先,这是我作为隐私专员重点关注的领域之一。”



印度

4月4日,印度电子和信息技术部(Ministry of Electronics and Information Technology)在一份声明中称,该部门已经评估了与人工智能相关的道德问题和偏见与歧视风险,正在实施必要政策和基础设施措施,以在该国培育一个强大的人工智能部门,政府没有考虑制定法律或监管人工智能的发展。


印度电子和信息技术部认为,人工智能的扩展将对印度的创业和商业发展产生“动力效应”。“人工智能是数字经济和创新生态系统的动力提供者。政府正在利用人工智能的潜力,通过数字公共平台提供以公民为中心的个性化和互动服务。”


Hello!
我们在为更加闭环、更加高效的服务模式做准备
欢迎加入限定白名单
与我们一起探索

点击图片,了解上期内容



东西游戏近期相关内容








您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存