对机器的补救措施

2017 年 12 月 6 日
作者
  • Dunstan Allison-Hope 肖像

    邓斯坦艾莉森霍普

    196体育app 副总裁

当决策由机器而不是人类做出时,196体育如何确保获得补救?这是 196体育app 和国际企业责任圆桌会议(ICAR) 上周在联合国商业与人权年度论坛的联合会议上考虑的一个复杂问题。

通过极大地提高196体育的分析能力,人工智能 (AI) 有可能解决人类面临的一些最紧迫的挑战,包括与医疗保健、教育、交通、反恐和刑事司法相关的挑战。然而,正如196体育在 关于 ICT 行业首要人权优先事项的新入门读物中指出的那样,人工智能带来了新的和以前无法预见的人权风险,涉及非歧视、隐私、儿童权利、言论自由和获得公共服务。

例如,在法庭上做出量刑决定提供信贷渠道识别潜在恐怖分子时使用 AI 可能会导致歧视性决定。使用基于语音识别的人工智能设备可能会对隐私权和儿童权利产生影响,而一些人则表示担心机器决定社交媒体帖子是否符合服务条款可能会对言论自由产生负面影响。

联合国商业与人权指导原则 (UNGPs) 的第三个支柱规定,应为此类侵权行为的受害者提供补救机会。196体育的会议考虑了在人工智能背景下确保获得补救措施的三个新挑战:

  1. 当违规行为是由机器和算法而非人类做出的决定导致时,保证补救
  2. 当有数亿权利人和数十亿决定时提供可操作的申诉机制
  3. 当数十家公司而非单个企业行为者通过不同基于人工智能的产品和服务的交互与侵犯人权行为相关联时,保障获得补救的机会

尽管这些讨论看似假设,但技术发展迅速,各行各业的公司都在迅速将 AI 集成到他们的产品、服务和运营中。

Microsoft 副总裁兼副总法律顾问 Steve Crown 提出了以下挑战:了解伤害何时发生,确定谁可能有过错,并确定可以使受害者恢复到先前状态的补救措施。 Crown 举了一个例子,一位年轻女性的目标是根据零售数据分析投放广告,表明她怀孕了——而她的父亲是通过直邮而不是从他的女儿那里发现这一事实的。在这种情况下,是否发生了侵犯隐私的情况,如果发生了,应该采取什么补救措施,公司如何才能阻止它再次发生?

牛津大学数据伦理研究员兼艾伦图灵研究所研究员 Sandra Wachter 提出了“解释权”的概念,该概念可能会在新的欧洲通用数据保护条例 (GDPR) 下生效。当决策由机器做出时,例如获得信贷或就业机会。

然而,Wachter 强调说,一旦人参与到这个过程中,GDPR 中的这项权利就会消失——即使人作为橡皮图章参与其中——而且许多公司将反对透露有关决策算法的细节,因为这是商业机密。桑德拉提出了另一种基于反事实的“解释权”模型,反事实描述了导致该决定的事实(例如收入或教育成就),可以向权利人提供有意义的信息,而无需传达内部逻辑算法。桑德拉还表示赞成成立一个独立的监管机构来审查公司并确保问责制。

谷歌自由表达和人权顾问亚历克斯沃尔登谈到了如何部署机器来协助判断互联网用户上传的有争议的内容,例如仇恨言论和恐怖主义内容。考虑到上传的内容量巨大,这些机器可能特别有用——但虽然机器可以筛选大量内容来识别案例,但只有人类对上下文和语言有必要的理解才能做出最终决定。

贯穿始终的一个主题是人工智能将在196体育的生活中发挥越来越重要的作用,而且它将被许多行业使用,而不仅仅是科技公司。总体而言,我对 UNGPs 在人工智能时代的应用得出了三个结论。

首先,所有经济部门都必须了解人工智能对人权的影响,例如零售、金融服务、能源、医疗保健、交通、基础设施和公共部门。

其次,196体育应该从权利人的角度考虑获得补救的机会。人工智能极其复杂,世界上只有极少数人知道它是如何工作的。如果人工智能要在减轻伴随风险的同时发挥其潜力,公民社会、权利人和弱势群体必须从渠道中受益,以有意义地参与有关其应用的讨论并获得补救。参与 AI 开发的专业社区将从对道德问题和权利人观点的深刻理解中受益,正如Partnership in AIAI Now等倡议开始发生的那样。

最后,有必要评估在 AI 背景下开发的补救措施是否符合 UNGPs 中规定的补救有效性标准,例如合法、可访问、可预测、公平、透明、权利兼容和基于关于参与和对话。

这些问题的答案只会随着时间的推移出现(不幸的是,196体育不能只问 Alexa、Siri 或 Cortana!),并通过确定用例来证明如何获得有效的补救措施。196体育期待有机会与来自各行各业的成员公司合作,进一步探讨这些重要的对话。

主题

让196体育谈谈 196体育app 如何帮助您实现业务转型和实现可持续发展目标

联系196体育