当前位置:首页 >> 云计算

Nature评论白宫发布的最新报告人工智

云计算  |  2019-12-01  |  来源:潜江物联网云平台

Nature评论白宫发布的最新报告:人工智能研究中的一个盲点 物联中国

日期: 17:44:40来源:物联中国 点击:504次 核心提示:对人工智能未来影响的耽忧正在分散研究人员部署目前系统的注意力──Kate Crawford,Ryan Calo芝加哥警察使用算法系统来预测哪些人在 对人工智能未来影响的耽忧正在分散研究人员部署目前系统的注意力──Kate Crawford,Ryan Calo

芝加哥警察使用算法系统来预测哪些人在枪击案中存在最大嫌疑,但这种方式被证明效力很低

本周,美国白宫发表了一篇有关人工智能的报告──这份报告是今年五月、七月分别于西雅图,匹兹堡,华盛顿和纽约举行的四次研讨会的成果

在这些形成报告的活动中,来自世界各地不同行业的思想家会聚到一起,讨论人工智能将怎样改变我们的生活;许多发布会展现了使用机器学习和其他人工智能技术解决各种生活中复杂问题的前景这些技术包括了识别皮肤的变化预警初期癌症的风险、减少数据中心的能源消耗等

这些研讨会着重提出了关于目前人工智能研究的盲点目前自动系统已经被部署在大多数重要的社会机构中,从医院到法庭但还未出现一个人们普遍认同的方式来评估这些应用对人类的持续影响

近年来,人工智能的技术有了长足的进步在这样的发展中,各学科研究人员和设计者需要建立一种所谓人工智能的社会制度分析他们需要评价技术对社会,文化和政治环境的影响

社会制度的分析可以探究例如:AiCure──一种提醒病人按时用药,同时传输数据给医生的运用──是如何改变医患关系的这样的研究同时也可以探索使用历史记录预测犯罪产生的方式,是不是会致使边缘化社区警力使用过度或,它可以研究为什么高级投资者有权使用人力和算法来做出投资决策,而低收入的贷款者还在纳闷为何他们的贷款申请被不断谢绝

奇点问题

「人们担心计算机会变得过于聪明,最终控制这个世界,但是真正的问题是它们依然不够聪明,却已经控制了整个世界」这是计算机科学家 Pedro Domingos 在他 2015 年的著作「The Master Algorithm」中的总结语虽然很多研究者谢绝接受「技术奇点」的概念,认为这1领域还有待发展,但他们依然支持将未经受检验的人工智能系统直接引入社会框架

由于人工智能研究者的热情,一些智能系统已被使用在了医生的指点诊断中它们被运用在律师事务所,向委托人估算打赢官司的成功率,告知金融机构应该接受哪些借贷申请,同时也告诉雇主应当雇佣谁

分析师期待人工智能系统不断进入这些领域目前市场分析者将人工智能应用估值为 10 亿美元级别,IBM 的首席执行官 Ginni Rometty 曾说她预计人工智能系统在未来十年中存在 20000 亿美元的机会固然,未来难以预测,部份缘由是没有构成关于「什么是人工智能」的共识

在未来,人工智能在进行预测和做出决定方面将不会弱于人工操作的系统但目前,工程师们还在优化人工智能,使得它们能够发现和消除人类中存在的偏见研究表明在目前一些环境中,人工智能的缺点正在不成比例地增加已受种族,性别,社会经济背景影响的弱势人群的压力

在 201 年的一份报告中,谷歌的研究者发现通常被用于黑人的名字相比「白人名字」有更高(25%)的几率被标记以投放犯法记录搜索的广告在 ProPublica 在 2016 年 5 月的另一项有关种族的研究中,他们发现用于判断再次犯法危险的专用算法错误地把黑人的危险性估计为白人的两倍

三个工具

如何能够避免这样的情况?目前,有三种主要模型可以回答有关人工智能对于社会和伦理影响的问题:服从,「设计值」和思惟实验所有3种模型都很有价值,它们不能单独使用,而且仅仅这三个工具也不够

部署和服从通常,公司在运作进程中会以遵守行业标准和法律义务为准则,这可以减少政府,媒体和其他监督机构的调查这类方式在短期内有效,以谷歌为例,他们在 2015 年系统将一对非裔夫妇贴上黑猩猩标签的事件后改进了图象识别算法公司被建议在人工智能系统中添加「红色按钮」,用以在系统失控后有能力作出反应

一样的,Facebook 在用户关于普利策将照片被系统删除的抗议后添加了豁免规则,让儿童裸体的照片不再被屏蔽,那是一张越战中一名女孩在凝固汽油弹袭击中哭喊流亡的著名照片在上个月,很多人工智能的领导者,包括微软,亚马逊和 IBM,形成了合作关系来促进公众理解,开发共同标准所以,「部署和服从」方式可以临时做出改变,如果行业准则缺乏独立性,没有得到充分地讨论,它可能会被认为是不适当的新的人工智能合作体系邀请了伦理学家和公民社会组织加入但目前仍有顾虑存在,科技公司仍可以完全自由地公开测试他们的人工智能系统,在此之前并不用进行中期乃至初期的持续性研究

设计中的价值观在包括 Batya Friedman,Helen Nissenbaum 等初期设计者提出技术的伦理以后,研究者和公司以此为基础,不断发展自己的敏感值设计或进行「负地创新」来保证可能的利益相干者和他们的利益目标人群或其他的技术被用来建立人们关于个人隐私,环境等议题的广泛观点关于潜在用户的价值观被代入了技术产品的设计中,不论是应用还是自动驾驶汽车在这种情况下,人工智能系统的开发者需要更加遵循这些准则

然而,这些工具总是在建立系统的假设上工作机器根本不能告诉设计者,政策制定者和整个社会系统会被如何建立,也不会告诉人们它所遵循的准则过于老旧或不可靠,不能被医院,法庭这样的重要基础设施采用

在预测肺炎时,一名病人被人工智能系统错误的评定为低风险

思惟实验过去几年中,假想的情形已主导了围绕人工智能的社会影响的公众议题

人类将会创造出将最终统治我们或毁灭我们的高智能系统的可能性已经得到了非常广泛的讨论另外,来自 1967 年的一个相关的思维实验 电车难题(The Trolley Problem) 已经焕发出了新的生机这类情形引发了关于和罪责的问题在电车难题中,一个人要末让奔驰中的电车碾过有5个人正在上面施工的轨道,要末需要调整方向让电车驶向另一个只会给一个人带来危险的轨道许多评论者将这个假想的情形应用到了自动驾驶汽车上 他们认为自动驾驶汽车将不能不做出事关道德伦理的自动决策

但是和机器人末日一样,自动驾驶汽车权衡「杀人决策」的可能性只提供了一个关于道德推理的狭隘框架电车难题对于我们目前所面临的更广泛的社会问题仅具有一点点指导性 我们面临的问题是:对自动驾驶汽车而非公共交通进行大规模投资的价值;在自动驾驶汽车上路运营之前需要达到怎样的安全程度(和应当使用甚么工具来决定这个程度);以及自动化载具对交通拥堵、环境和就业的潜在影响

社会系统分析

我们认为需要第四种方法,一个实际的、普遍可用的社会系统分析(social-systems ysis),彻底搞清人工智能系统对所有方面的所有可能的影响在每一阶段它都伴随着社会影响 从概念,到设计,到部署和管理

第一步,跨学科、政府部门和产业的研究人员需要开始调查不同社区接触信息的方式有何不同,财富和基础服务塑造人训练人工智能系统所需的数据

比如,在芝加哥和伊利诺伊,算法生成的热点图正被用于识别与枪击事件最相关的人上个月发布的一项研究表明这样的热点图效力低下:它们增加了应该被警察视为目标的人的可能性,但并未减少犯罪

而社会系统方法会将热门图基于的社会和政治历史数据斟酌在内这可能需要需要咨询社区成员,并根据其反馈来权衡关于周边警务的警务数据,无论这些反馈是正面的还是负面的这也意味着将监督社区和法律机构所发现的数据计算在内社会系统分析也会询问系统给出的风险与奖励是否被均衡的运用,所以在此案例中,也就是警方是否使用类似的技术识别哪一个警官更可能有不当行动,比如说暴力

有另外一项例子:2015 年的一项研究展现了机器学习技术被用于预测在大部分情形下哪些病人会发展成肺炎并发症但该研究犯了一项严重错误:即使有的病人是高风险的哮喘病人,它也建议医生将这类病人放回家因为医院会自动地将哮喘病人放到重症护理,在系统被训练的数据中,这些病人很少有「进一步医治」的记录有了社会系统分析,就能查看底层的医院指南以及其他的保险政策等构成病人记录的因素

类似地,社会系统分析会问人们是否和何时会遭到人工智能系统的影响,这样的分析也需要提出关于这些系统的工作方式的问题金融分析师一直被限制他们利用机器学习的方式,由于客户期望他们剖析、解释所做的决策而如今,已使用人工智能决策的人无法做出这样的解释

社会系统的分析需要用到哲学、法律学、社会学、人类学和科学技术研究等许多学科它必然也会需要对社会、政治和文化价值与技术变革和科学研究的相互影响进行研究只有通过提出关于人工智能的影响的更为宽泛的问题,我们才能得到对人工智能的更加全面和综合的理解 这比单独通过计算机科学或犯法学进行分析好多了

也存在一些希望像下个月将在纽约举办的「Fairness, Accountability, and Transparency in Machine Learning meeting」这样的研讨会就是一个很好的例子但是资助者(政府、基金会和企业)应当在实现我们描述的人工智能上进行更多的投资

人工智能既会带来技术上的变革,也会带来文化上的变革这类似于过去产生过的技术拐点 如印刷机和铁路的出现自动化系统正在改变工作场所、街道和学校我们需要确保这些改变是有益的,然后才能将它们进一步地构建到我们日常生活的基础设施中

孩子干咳比较厉害什么药效果好

小孩子老是发烧是怎么回事

宝宝健脾胃推拿

贵州牛皮癣医院哪家好

阜新白斑疯医院

蚌埠治疗输卵管堵塞费用

南阳附睾炎专科医院
昆明治疗妇科到什么医院好
杭州治疗癫痫哪家好