所罗门的密码:如何避免权力和信任被滥用|硅兔赠书福利

硅兔赛跑

共 3103字,需浏览 7分钟

 · 2022-07-04


作者| 詹姆斯·斯塔夫里迪斯
美国塔夫茨大学弗莱彻学院院长
曾著有《海权:海洋帝国与今日世界》


从美国海军学院毕业后,我在公共服务领域工作了40年,长期以来一直在分析公共服务领域面临的机遇和威胁,并领导了大量的工作以抓住机遇、减轻威胁。我很幸运能够与美国及其盟国政府中的许多令人敬佩的同事共事。我们一起经历了冷战、冷战后的恐怖主义威胁,以及此后几年地缘政治和地缘经济格局加速变化等不同时期。如今,随着数字技术的迅猛发展,全球变革进程的加速促进了各国的和平与繁荣,但它同时也是一种威胁。

我们已经看到,技术的发展在近代史上促成了一系列关键性转变:从两极分化的世界,到出现众多新参与者的多极全球秩序;从模拟经济到数字经济,达到了前所未有的连通性和匿名性;从技术为精英服务到技术为大众服务,带来了全新的教育和参与方式;从体力劳动者到脑力工作者,产生了新的工作和收入分配方式。



目前,我们正处于第五次巨变之中,即从纯线性计算系统过渡到更具认知能力的拟人技术。神经网络和机器学习技术的应用使计算机系统能够在最少的监督下进行学习,识别复杂的模式,并向人们提供建议和决策。有些决定只是一些细枝末节的小事,为我们的日常生活带来了一点儿便利;有些决定则会对世界各地的人们产生举足轻重的影响。这两种类型的应用都在飞速增长,主要由商业界和政界参与者悄无声息地推动着。他们中的大多数人都怀有崇高的目标,想要让这个世界变得更美好。在很大程度上,世界确实变得更好了。但即便如此,这些先进的认知技术所带来的影响深远的连锁反应和出人意料的后果,使它们既是人类的灵丹妙药,又是潘多拉魔盒。

十多年前,作为一名军队指挥官,我远程监督遥控飞机在伊拉克、阿富汗和非洲之角进行空袭。这些系统非常高效,并降低了附带损害的可能性。几年后,作为一名四星上将和北约指挥官,我在利比亚也大量使用了同样的技术。2011年的战役是人类历史上重大空战中附带损害最少的战役。但每一次行动,我们都坚持让至少一人处于整个行动流程之中。那时在我看来,如果我们决定将人类排除在整个流程之外,我们迟早要面对一些关键的技术、伦理道德的问题。如今兴起的相关讨论其实已经酝酿很长时间了。

类似的关键性讨论正在人工智能技术的各个领域展开,我们都将参与到这些讨论中来。当利用人工智能多方位分析知识、形成新的见解和智慧时,它们就成了那些掌权者手中强大的指挥和控制工具,而不了解这些认知系统的人将处于绝对的劣势。这种权力的不平衡展示了这一迅速扩张的领域的阴暗面。但我们必须记住,权力也在于这些新兴的人工智能模型能否整合各种数据流,并为棘手的复杂问题提供可行的解决方案。人类用来研发人工智能技术的非凡能力突破了人类大脑的限制,弥补了人类的弱点,这也是这个新的认知时代所带来的光明一面。

我们可以想象一下人类在保护自然资源和防止气候变化方面所面临的复杂问题。在美国,当我们寻求更公平的医疗保健方式时,我们总是把这个问题看作金钱和福利之间的零和博弈,往往忽视了更全局化的视野,放弃了更加健康的生活。那么,现实生活中的多样性和生产力所带来的种种挑战我们又该如何应对呢?这是一项难以平衡的难题,使我们长时间陷入刻板印象和疏远之中。所有这些重大挑战的复杂性可能会让我们不堪重负,所以我们往往会寻求简化思维,找到快速而简单的答案。



在我们的生活和工作中,所有人都必须处理那些使大脑达到极限或超越极限的难题。我在职业生涯中也遇到过类似的难题,无论是作为一名驱逐舰舰长,还是作为一名最高指挥官,无论是作为一名世界一流学院的院长,还是在日常生活中作为父亲和丈夫,无一例外。但让我们成功的是我们的适应性和可塑性,即我们能将这些挑战转化为个人和社会成长的新视野。在这方面,人工智能和认知计算系统能够帮助我们做出决策,带来巨大的收益。

想象一下,一个复杂的人工智能系统可以预测出下一次世界粮食危机将在哪里发生,然后重新调整全球供应链,先发制人地解决瓶颈问题。事实证明,我们已经在着手研究这个问题了。想象一下,以人工智能为基础的心理健康干预措施可以大幅降低精神病患者的自杀率。已经有聪明人在研究这个问题了。我们正在开发新技术,帮助文盲通过计算机视觉技术参与经济活动。开发人员已经创建了一些方法,采用更有趣、更个性化、更高效的方式来教儿童学习语言、数学和其他科目。一些研究人员正在研发创新的激励机制来帮助雇主激励员工,让他们的工作更有意义,并为他们提供更深层的使命感。还有一些人击败了网络恐怖分子,利用认知计算系统来预测恐怖分子的攻击模式,从而对攻击做出迅速反应。

这些发展让我备受鼓舞,但作为一个过去几十年来一直致力于保护和领导人们的人,我知道,如果人们被错误的价值引导,那么权力和信任就会被滥用。在抵达光明之前,人们必须先穿过黑暗。这就是为什么我们需要设计和应用这些认知技术,使它们为全人类服务,而不仅仅是为权贵服务。我们要确保收获有益的结果,利用这些认知技术的潜力,限制它们的破坏力,我们需要再次广泛号召世界精英开展全球协作。我鼓励大家参与其中,成为这一过程的一部分。



如果我们希望人工智能系统给人类提供指导,那么我们必须首先确保人工智能系统了解我们,反之亦然。在这方面,我们还有很多工作要做。人工智能系统需要反映人类的推理方式,同样重要的是,它们应该以人类可以理解的方式解释自身的决定和行动,尤其在生死攸关的重大决定上。它们应该建立相应的可行性创新机制,对用于分析和学习的数据进行检查并纠正偏差。它们不应该被用于压迫他人、歧视少数族裔或者欺骗和利用那些缺乏数字化经验的人。

《所罗门的密码》是我读到的第一本全面系统地描绘人工智能系统的书籍。这本书阐述了智能机器如何在世界各地创新发展,以及由此形成的价值、权力和信任在不同社会形态所表现出的不同形式。奥拉夫·格罗思马克·尼兹伯格两人为我们的思想构建了一部预告片,勾勒出了未来10~15年认知系统影响人类生活的可能路径。两位作者描绘了一幅宏大的未来愿景,并说明了我们需要做些什么来实现这一愿景。他们并不回避我们在前进过程中所要面对的危险和陷阱,所以他们描绘了一个充满希望、妙趣横生,又困难重重的未来。同时,他们并没有陷入不切实际和过分简化的乌托邦或反乌托邦的幻想之中。

这是一种负责任的领导力,它适用于战场上的士兵、经济利益相关者、接受教育的学生,以及我们所有公民。如果我们想要进入人类发展的下一个阶段,那么设计和控制新一代智能机器的人必须要拥有同样的领导力。


应部分读者要求硅兔君放上链接,小伙伴们可以按需戳

无论是在医学、金钱还是人类情感方面,由AI驱动的技术在我们的生活中扮演着越来越重要的角色。随着我们将更多决定权交给机器,我们面临着关于保持安全、保住工作和掌控我们生活方向的新问题。这些问题将挑战人类对价值、权力和信任的理解。新的AI技术可以驾驶汽车、治疗受损的大脑并推动工人提高生产力,但它也可以威胁、操纵我们,并使我们与他人疏远。它可以让国家与国家对立,但它也可以帮助国际社会应对一些重大的挑战,从粮食危机到全球气候变化。

针对这些问题,作者从伦理学的角度入手,在全面分析当前世界各国AI发展水平的基础上,探讨了人类与AI共生、协作的关系,并为读者描绘了未来AI的应用前景。‍


📖硅兔福利来袭:

科技是一把双刃剑,你认为人类与AI如何共生共存?


我们将结合点赞数和留言质量,抽取3名幸运读者,送出《所罗门的密码》一本。


👇评论区留下你的想法参与活动吧~


 别忘了点关注,不迷路啊。
👇👇👇

全球首款AR隐形眼镜,元宇宙入口这次真的打开了?!
浏览 27
点赞
评论
收藏
分享

手机扫一扫分享

举报
评论
图片
表情
推荐
点赞
评论
收藏
分享

手机扫一扫分享

举报