美国白宫提出十条AI监管原则,避免政府过度干预AI发展

人工智能是把“双刃剑”。

美国白宫提出十条AI监管原则,避免政府过度干预AI发展

作者 | 李冬梅

据路透社消息,美国白宫 1 月 7 日提出了 10 条监管人工智能 (AI) 发展和使用的原则,旨在限制当局对人工智能的“过度干预”,并表示希望欧洲官员也能避免采取激进的方式去干涉人工智能的发展。

人工智能是把“双刃剑”

据普华永道(PwC)2018 年的一项研究显示,到本世纪 30 年代中期,全球 30% 的工作岗位面临着被自动化替代的风险,其中 44% 是受教育程度较低的基础劳动力。该研究还称,到 2030 年,自动化将使全球 GDP 增加 15 万亿美元。2019 年 2 月,美国总统川普签署了一项行政命令,要求联邦政府机构把更多资源和投资用于与人工智能有关的研究、推广和培训,这些举措都是为了让人工智能能够更大的发展自由。由此可见,人工智能技术的发展所带来的红利是巨大的。

在人工智能大火的当下,各公司正竞相将人工智能和深度机器学习整合到自己的业务中,以保持竞争力。然而,企业和专家表示,Deepfake、GAN 等深度造假技术的日臻成熟对控制、个人隐私、网络安全和伦理等方面存在威胁。另一方面,并不是所有国家或个体都有能力或意愿学习和掌握这项技术,因此当人工智能产生一个新的突破后,就会造成较为严重的层级分化,也就是所谓的“智能鸿沟”——更多更好的资源掌握在一少部分了解人工智能技术的人的手中,其结果就是使掌握这项技术的国家或个体对另一群不了解人工智能的国家和个体产生“降维打击”的压倒性优势。

美国白宫提出十条AI监管原则,避免政府过度干预AI发展

2018 年,白宫就人工智能问题与来自各行各业的 30 多家大公司举行了会议,其中包括福特汽车公司、波音公司、亚马逊公司和微软公司,白宫承诺不会阻碍这项技术的发展。但针对人工智能在发展中存在的问题,各国政府还是需要采取必要的监管措施。适当监管避免“一刀切”

1 月 7 日,美国白宫提出了 10 条监管人工智能 (AI) 发展和使用的原则,旨在限制当局对人工智能的“过度干预”,并表示希望欧洲官员也能避免采取激进的方式去干涉人工智能的发展。

白宫在一份简报中说,联邦机构应该“在对人工智能采取任何监管行动之前进行风险评估和成本效益分析,重点是建立灵活的监管机制框架,而不是进行一刀切式的监管。”

特朗普政府表示,各机构应该“推广值得信赖的人工智能”,并“必须考虑公平、非歧视、开放、透明、安全”。白宫以美国食品和药物管理局(Food and Drug Administration)为例,目前该机构正在考虑如何监管医疗设备制造商对人工智能和机器学习技术的使用。

美国白宫提出十条AI监管原则,避免政府过度干预AI发展

除美国之外,欧洲国家也制定了相应的 AI 监管制度。去年,欧盟委员会的人工智能高级专家组发布了一套伦理准则,欧盟领导人正在考虑采取监管行动。对此,白宫提醒欧洲和盟友们应该避免采取严厉的扼杀创新的模式。白宫表示,“避免 AI 技术出现垄断的最佳方法就是确保美国和我们的国际伙伴仍然是全球创新中心。”

美国一些州已经对人工智能应用提出了担忧。2019 年 9 月,加州立法机构通过了一项为期三年的禁令,禁止州和地方执法机构使用带有人脸识别软件的随身摄像头。这样的监管措施是为了回应人们提出的威胁公民自由的技术的问题。美国一些城市还投票禁止执法部门使用面部识别技术。白宫出台的这十项监管原则包括:

  • 公众信任人工智能
  • 公众参与
  • 科学诚信与信息质量
  • 风险评估与管理
  • 灵活性
  • 收益和成本
  • 公正和不歧视
  • 公开透明
  • 安全和保障
  • 机构间协作

 结语反观国内,随着近几年人工智能在各行业的逐渐落地,国内相关企业也就人工智能监管问题提出了相应规范。2019年11月,国内发布了首份医疗AI法律及监管报告,报告内容涉及如何对健康医疗数据、个人信息进行合法使用;医疗人工智能产品在使用过程中产生的医疗问题,该由谁承担责任;如何对医疗人工智能产品的知识产权进行保护等问题,这些都是医疗AI在蓬勃发展急需解决的难题。 2019年12月举办的第三届中国人工智能法律与伦理论坛上,各界与会代表围绕法学视角下的网络安全问题、人工智能时代的科技创新与安全理论、人工智能安全问题、大数据应用中的隐私和公平性问题四个议题进行了深入交流和研讨,力求团结企业、个体和公众力量制定出适合我国国情的人工智能监管规范。

本文为专栏文章,来自:AI前线,内容观点不代表本站立场,如若转载请联系专栏作者,本文链接:https://www.afenxi.com/79178.html 。

(0)
AI前线的头像AI前线专栏
上一篇 2020-01-06 09:57
下一篇 2020-01-12 13:50

相关文章

关注我们
关注我们
分享本页
返回顶部