AI伦理的边界在哪里?谷歌完成AI项目伦理审查 AI用法引争议
今年6月,谷歌继微软、Facebook和其它公司之后,公布谷歌人工智能工作七项原则。(1)必须对社会有益,(2)避免创建或加强偏见,(3)建立和测试安全,(4)负责的人,(5)把握隐私设计原则,(6)坚持高标准的科学卓越,和(7)适用于符合所有原则的用途。
6个月后的今天,它就其执行这些指导方针的努力跟进了最新进展。谷歌负责全球事务的高级副总裁肯特·沃克(KentWalker)在一篇博客文章中表示,已经建立一个评估新项目、新产品和新交易正式审查架构,目前已完成100多项审查。一些人已经决定修改视觉语音识别研究,推迟通用面部识别等技术商业应用。
Google AI
沃克说:“AI原则应该如何应用必须深思熟虑,当原则发生冲突时如何做出权衡,以及如何在给定情况下降低风险等。”
谷歌AI伦理审查团队由研究人员、社会科学家、伦理学家,人权专家、政策和隐私顾问,法律专家,社会科学家们处理初始评估和日常操作,第二组高级专家从一系列学科在Alphabet-Google的母公司提供技术、功能和应用专业知识。一个由高管组成的委员会负责处理更复杂和困难问题,包括影响谷歌产品和技术的决策。
最近,谷歌因为Maven项目而受到批评。Maven是五角大楼一个有争议研究项目,它利用人工智能提高军用无人机目标识别能力。根据Maven项目合同,它向五角大楼提供了开源AI框架TensorFlow。它还计划建立一个类似谷歌地球监视系统,允许国防部分析人员和承包商点击建筑物、车辆、人群和地标,查看与之相关的一切。谷歌的参与促使数十名员工辞职,另外4000多人签署了一封公开反对信。今年夏天,这封信促使谷歌起草了一份内部道德政策,指导谷歌参与未来军事项目。
Google
准确地说,谷歌并不是唯一的一家有争议人工智能应用而受到批评公司。
今年夏天,亚马逊将Rekognition,一种基于云计算的图像分析技术,通过亚马逊网络服务部门提供给佛罗里达州奥兰多市和俄勒冈州华盛顿县执法部门。亚马逊对美国公民自由联盟提出了质疑。在一项准确性测试中,Rekognition公司证明,当它从一个公共来源提供了2.5万张脸部照片,并将其与国会议员的官方照片进行比对时,错认了28张罪犯。
今年9月,Intercept的一篇报道透露,IBM与纽约市警察局合作开发了一种系统,允许官员根据肤色、头发颜色、性别、年龄和各种面部特征搜索人。通过使用其提供大约50个摄像头拍摄的数千张照片,人工智能学会了识别衣服颜色和其他身体特征。