跳到内容

人工智能法:法律如何适用于AI

Guv Callahan.

11月13日,2020年

人工智能法则:法律如何适用于人工智能

;博客;人工智能;人工智能法:法律如何适用于AI

人工智能(AI)采用在过去五年中飙升。2015年,Gartner发现,只有25%的企业正在使用或计划使用AI解决方案。但到2019年,那个号码有上升到37%.显然,随着技术的改善和企业在AI采用中看到价值,这一趋势只会继续。在2020年Cognilytica调查来自公司和政府机构的1,500名代表,近90%的受访者表示,他们将在此期间正在进行中未来两年

尽管人工智能的迅速应用为企业和个人创造了令人兴奋的新机遇,但它也提出了一个重要问题:现行法律适用于人工智能吗?这种新技术应该如何监管?

没有容易的答案 - 监管机构在AI系统中努力跟上unbate的进步。即便如此,世界各地政府正在努力及时了解这些发展,并确保现行的法律法规随着新的挑战而保持相关。在本文中,我们将探讨AI条例的必要条例,专家意见是最佳制定它的最佳方式,以及这些法规在未来可能看起来像什么。

需要人工情报监管

AI已经拥有消费者和企业的无数申请,效益广泛。

人工智能的好处

例如,流程自动化的创新减少了众多行业中单调、重复的任务。在其他地方,算法推动了超个性化,以便用户在购物或消费媒体时获得更好的医疗体验或更精心策划的体验。预测分析系统提供洞察,以推动更好、更明智的决策。以及自动语音识别(ASR)系统rev.ai.让视频会议软件比以往任何时候都更容易获得实时标题能力

尽管有了这些进步,人工智能的应用仍处于初级阶段。但这种情况不会持续太久。麦肯锡全球研究所研究表明,到2030年,AI每年可以提供额外的全球经济产量13万亿美元。由于这种不断的进步,对如何管理该技术的规则或法规来说,越来越关注。

人工智能的潜在风险

虽然AI提供 - 并将继续提供 - 许多福利和尖端解决方案,专家认为它也造成了相当多的风险。这些问题包括但不限于:

  • 偏离偏置面部和语音识别算法的歧视
  • 数据隐私
  • 自动车辆造成的人伤
  • 基于AI的决策方面
  • AI伦理
  • 故意恶意使用人工智能

这些专家包括主要科技公司的首席执行官。2020年1月,谷歌首席执行官桑达尔·皮查伊强调了对人工智能进行监管的必要性,他写道:“人们确实担心人工智能的潜在负面后果,从深度造假到对面部识别的恶意使用。虽然我们已经做了一些工作来解决这些问题,但未来将不可避免地面临更多挑战,没有一家公司或行业能够单独解决这些问题。”

在达沃斯世界经济论坛上,微软首席执行官布拉德史密斯相似的情绪。

“我们不应该在开始提出原则,道德规范方面,甚至在适当的规则到管理AI之前等待这项技术。”

与任何新的新兴技术一样,AI不完善。由于企业和消费者仍然讨论如何将其实施到最大潜力,政府仍处于规范的早期阶段。

人工智能目前如何监管?

当然,政府在监管中扮演的角色要复杂得多,这在很大程度上要归功于技术极其复杂的本质。例如,现代机器学习系统是如此复​​杂,并且消耗了这种令人难以置信的数据,这解释了他们如何对立法者做出决定 - 更不用说调节它 - 是一个很高的秩序。

还考虑到AI在许多不同领域和行业的许多应用程序 - 医疗保健,金融服务,刑事司法,教育,保险,只是为了命名几个。传统的监管方法可能是无效的,非常难以制定。

这就是为什么目前许多政府对人工智能法律采取尝试性的做法。在很多情况下,现在判断人工智能将对社会产生何种广泛影响还为时过早。现有的法律和法规适用于人工智能应用的非常具体的领域。

自主车辆

根据cognilytica,24个国家和地区(包括美国)已为自治车辆运营制定了法律,其中八次考虑到使自动车辆能够运作。这个特殊的AI应用程序是对规定的成熟,因为它对人类构成了明显的身体危险。这些自治车辆靠近人们,硬件或软件中的任何错误都可能具有致命的后果。

在美国,联邦议员和监管机构主要关注自动驾驶汽车,美国交通部(Department of Transportation)目前正在调查如何最好地监管自动驾驶汽车。在州一级,60%的州已经制定了与自动驾驶汽车相关的某种形式的立法,无论是测试还是部署。

数据隐私和分享

如果不讨论数据监管,就不可能讨论人工智能监管。数据是人工智能的补给,训练它独立执行功能和做出决策。根据cognilytica在美国,有31个国家和地区有禁止法律,限制未经事先同意或有其他限制的数据共享和交换。

除了这两个主要领域,主要的AI监管仍然缺乏全世界。但这并不意味着它不会在路上左后来。

法律将如何适用于未来的人工智能?

这并不是说规定会对AI的研发产生负面影响。事实上,许多专家认为,一些规定实际上允许AI茁壮成长。实际规则和法规将使公众对技术的信任,推动采用,并允许研究人员和科学家培养更先进的解决方案。

“如果你想让人们相信这些东西,政府就必须发挥作用,”麻省理工学院(mit)计算机科学和人工智能实验室(Computer Science and Artificial Intelligence Laboratory)的首席研究科学家丹尼尔·韦茨纳(Daniel Weitzner)说纽约时报2019年。

软法在AI规则中的作用

虽然政府讨论了在AI,研究人员和专家周围制定立法的最有效方法,但这些法律应该只有一块拼图。为了让AI景观真正茁壮成长,“软法”也应该被视为政府法规的可行补充。

Gary Marchant是亚利桑那大学法学教授,描述软法“阐述了实质性预期但不由政府直接强制执行的框架,并包括专业指南,私人标准,行为准则和最佳实践等方法。”

软法律的概念已经存在了几十年,包括美国绿色建筑委员会1993年的能源和环境设计领导(LEED)认证标准,该标准一直被广泛使用到今天。

Marchant认为软性法律方法特别适用于AI,因为该领域正在推进任何传统立法系统的速度太快。技术公司每年筹集数十亿美元的投资美元,以推动新的进步和发现。在一年中,政府机构通过新立法,这完全有可能转变技术景观。

传统方法的限制

此外,人工智能领域的复杂性——以及它在各个行业的众多应用——不适合一刀切的立法方法。当然,自动驾驶汽车和高风险车辆需要政府的密切监管。但是,一个由主要公司、民间组织、专家和政府提供意见的框架可以帮助开发者根据适当的道德和原则进行创新。

人工智能的软法律框架确实存在,包括艾斯洛玛尔AI原则和新加坡的人工智能治理框架模型.开发这些资源是为了帮助组织负责地部署和实施人工智能。专家们一致认为,在正式的政府监管和软法律之间找到正确的平衡将是未来人工智能法律的一个重要组成部分。

皮查伊说:“好的监管框架将考虑安全性、可解释性、公平性和问责制,以确保我们以正确的方式开发正确的工具。明智的监管还必须采取适当的方式,在潜在危害(尤其是在高风险地区)和社会机会之间取得平衡。”

免费电子书:如何过渡到使用更多A.I.