忽略这一点,人工智能变人工智障的CS
TheEconomist译者
弯月责编
伍杏玲以下为译文:如今,人工智能已经深入生活的方方面面,我们的社会更加依赖于算法做决策,而不是人。这些系统已经在银行、电子商务、医疗保健以及治安等领域显现出了强大的潜力。然而,人们越来越担心算法的控制权过多,尤其是当人们将决定权交给机器的时候,例如自动驾驶汽车或法庭判决等场合。如果因此而阻碍人工智能的使用,那么社会和经济就有可能无法享受人工智能带来的各种潜在优势。HannahFry是伦敦大学学院高级空间分析中心的数学家,多年来她一直在研究这些系统。不过人们对她的更多了解来自BBC的公开讲座和纪录片,她是一名数学和科学领域的知名人士。在她最新的著作《HelloWorld》一书中,Fry女士揭开了这种技术的神秘面纱,她通过回顾历史向我们解释了如何采用数据驱动的决策,并提供了清晰的利弊分析。使用人工智能的好处在于,AI可以更快更准确地执行任务,而缺点是如果数据有偏差,那么输出可能有偏差。TheEconomist针对社会应当如何利用这项技术,对Fry女士进行了采访。在本文中,首先我们会详细报道此次采访的内容,而后面的部分是《HelloWorld》一书中有关刑事司法系统和“随机森林”算法的节选。自动化会失误,人类才是考虑的核心TheEconomist:所有的数据都有偏差,那么我们是否应该推迟算法系统的引入,直到我们确信我们已经发现并解决了算法系统中的关键性问题,还是说我们应该降低标准:“尽最大努力”来发现和修正偏差,同时在发现漏洞的时候,可以随时发布代码和补丁?HannahFry:大家在这个问题上很容易产生一种误解。当看到算法会引发别的问题时,我们就想着完全抛弃这些算法,并认为我们应该坚持依赖人类的决策来解决问题,直到更好的算法出现。然而,实际上人类也存在偏见,而且还会受到各种问题的迷惑。其实,这完全取决于你需要的精准度。例如,你可以在足球比赛中引入“视频助理裁判”,但你不能不负责任地以相同的方式在医疗保健领域引入一个有问题的系统。总的来说,总体目标必须是建立最公平、最统一的系统。这意味你必须承认完美是不可能的,而且权衡利弊也在所难免。然而,同时也意味着我们应该设法鼓励利用算法做决策,尽管它们也难免会出错。TheEconomist:刑事司法系统有时会吹嘘“与其让一个无辜的人入狱,不如释放一个罪犯”的价值观。我们是否应该拒绝在法庭上采用算法来做出严肃的决定(即宣判),因为我们永远也不确定这是否是盲目的正义?HannahFry:每个刑事司法系统都必须在保护无辜的人被诬告和保护犯罪受害者之间找到某种平衡。实现这种平衡并非易事,而且司法系统也并非完美——而且也从未尝试做到完美。这就是为什么“合理地怀疑”和“充分的理由”之类的词汇是基本的法律用语:这类的系统必须接受绝对的确定性是无法实现的。然而,即使在这些约束之下,法官的决定里面仍然可能有前后矛盾和运气的成分。人们无法保证做出公平和一致的决策。而法官与我们其他人一样,有时也无法放下潜在的偏见。如果你谨慎地对待这些问题,那么我认为我们有可能通过使用算法来支持法官的决定,从而将这类问题降到最少。你必须确保以一种更公平地方式使用系统,还要确保不会意外地加剧已经存在的偏差。TheEconomist:你是否担心最终人类会把生活中重要的权利交给机器,就像我们已经由于电子地图的出现而丧失了方向感?HannahFry:我认为,随着自动化的发展,我们的确会失去一些技能。例如,现在我连自己的电话号码都记不住,更不用说我以前知道的那一长串电话号码了,而且我的书法也一落千丈。但我并不觉得自己非常担心这方面的问题。历史上我们也曾经历过担心技能退化的问题。飞行员就曾有过这样的经历:自动驾驶越好,初级飞行员手动控制飞机的技术就越差。以前在手术室里,初级外科医生可以通过在开放式手术中协助咨询顾问的方式(他们的手会接触患者,触摸和感觉身体)进行训练,而如今他们可以观看咨询顾问坐在控制台操作的微创手术,而且还有内部的摄像机在屏幕上放映。如果有一天我们真的进入无人驾驶汽车普及的阶段,而我们却不认真考虑如何保持我们的驾驶技术的话,那么人们在没有辅助的情况下的驾驶能力会下降,我们仍然希望我们能够人为介入,并在紧急情况下采取行动控制汽车。为了避免这个问题,你可以采取一系列措施,例如时不时地故意关闭机器。但我认为,我们应该承认自动化有时也会出现失误,而且我们应该确保人类(以及他们的需求和失误)始终应该是我们考虑的核心。TheEconomist:当算法进入医学、法律和其他领域时,算法得出的决定只能作为“建议”,人类在这个过程中仍然有最终的决定权。然而,根据行为心理学的大多数研究表明这只是一种假象:算法对人类有着非凡的影响。我们怎样才能从现实的角度克服这个问题呢?HannahFry:通常人们都很懒惰。我们喜欢采用简单的方法,我们喜欢推卸责任,我们喜欢走捷径,如此一来我们就不必思考了。如果你设计的算法可以告诉你答案,而你却希望人们会再三检查这个答案,提出质疑,并且还知道在适当的时候提出别的答案,那么实际上你在自掘坟墓。人类本身就不擅长做这种事情。但是,如果你设计的算法能够坦然地承认它们的不确定性——公开和坦诚地向你的用户说明它们做决定的过程,以及在这个过程中经历的所有混乱和模糊,那么我们就知道什么时候我们应该相信自己的直觉。我认为这是IBM的沃森最好的一个功能,它参加了美国的智力竞赛节目《危险边缘》(Jeopardy)!而且还获胜了。虽然该节目要求选择一个答案,但该算法在此过程中还考虑了替代方案,并表明了每种方案的正确概率。这也是最新的卫星导航的好处:它们并不会为你决定路线,而是会给你三个选择,并告诉你利弊。你可以通过这些信息做出明智的决定,而不是盲目地交出控制权。TheEconomist:有什么事情是人类能做,机器却做不了的吗?为了帮助人类在算法时代依然蓬勃发展,我们的社会需要做出哪些改变?HannahFry:人类可以比机器更好地理解背景和细微的差别。我们的适应性更强。如果你把我们带到一个全新的环境下,我们知道如何表现,这是最优秀的人工智能也望尘莫及的。除此之外,这是一个人类的世界,而不是算法的世界。因此,人类始终应该居于新技术思想的前沿和中心。这话看似显而易见,然而实际情况却并非如此。最近的趋势有意将新算法迅速推向世界,并通过现实世界中的真实用户进行现场实验,而不是停下来思考这些算法是否弊大于利,或发现它们有问题后推迟采用这些算法。(我说的就是你:社交媒体。)我认为社会需要坚定立场:有些新技术(例如新药)需要谨慎使用并提前考虑最坏的情况。我认为我们构建的算法应该诚实地表明它们的弱点,并坦诚地说明完美往往都是不可能的。但最重要的是,我认为我们构建的算法应该接受人类的失误,而不是视而不见。面向司法的数学式节选自HannahFry的著作《HelloWorld:HowtobeHumanintheAgeoftheMachineBook》(出版社:Doubleday,出版日期:年)算法不能决定某人是否有罪。它们无法衡量辩护方和起诉方的辩论,分析证据,或决定被告是否真的有悔意。所以我们不能指望算法在近期内取代法官。然而,算法也有意想不到的用处,比如使用个人的数据来计算他们今后再次犯罪的概率。而且,由于许多法官也会根据罪犯是否会再次犯罪的概率来判决,因此这种算法非常实用。司法系统使用数据和算法已有将近一个世纪的历史了,第一次的使用可以追溯到20世纪20年代美国的一宗案子。当时,根据美国的制度,被定罪的罪犯将被判处最高刑期,然后在一段时间过后才有资格获得假释。数万名囚犯依据此律获准提前释放。有些人重获自由,而有些人则没有。但总的来说,他们的案例为自然实验提供了完美的环境:你能否预测罪犯会违反他们的假释条款吗?芝加哥大学的加拿大社会学家ErnestW.Burgess对预测充满了兴趣。Burgess是量化社会现象的重要支持者。在他的职业生涯中,他一直在尝试预测退休和婚姻成功产生的影响。年,他成功地建立了第一个预测工具,这个工具可以根据测量的结果(而不是直觉)预测犯人再次犯罪的概率。Burgess利用美国伊利诺伊州三所监狱中三千名囚犯的各种数据,找出了他认为对于决定某人是否会违反他们的假释条款“可能有着重大影响”的21个因素。其中包括犯罪的类型、在监狱中服刑的月份和囚犯的社会类型——他根据二十世纪早期社会科学家所
转载请注明:http://www.abuoumao.com/hyls/8281.html