托比·沃尔什: 人类的AI未来
发布时间:2025-04-16    作者:zhangjie

人们经常问我,对于人工智能带来的挑战,我是乐观还是悲观。我说两者兼有。

未来很少会像我们预期那般发展。就拿人工智能来说吧。我们担心机器霸主的崛起。好莱坞也为我们提供了大量的科技题材电影,让我们为之忧心忡忡。你一定对它们耳熟能详。

在《终结者》中,施瓦辛格扮演的可怕的T-800机器人正与人类开战。《银翼杀手》中的泰瑞尔公司“连锁六型”人造人生化机器人,在一场血腥的异世界机器人叛变后,带着哈里森·福特逃离了现场。还有最近网飞(Netflix) 电影《阿特拉斯》(Atlas)中不受控制的人工智能哈兰,它被程序设定为拯救人类于危难之中,但却基于人类历史上的破坏性行为试图毁灭人类本身。

我个人最喜欢的是《2001太空漫游》中的智能电脑HAL 9000。HAL会说话、会下棋、会管理空间站,还有杀人的意图。HAL说出了有史以来计算机最著名的一句台词:“对不起,戴夫。恐怕我做不到。”为什么人工智能总是试图杀死我们?

我们的人工智能未来正在迅速到来,但它并不是这些具有致命野心的有意识的机器人。我们的人工智能未来要平凡得多,也阴险得多。

这并不奇怪。很早以前就有人预言过这种未来。例如1909 年,在一篇名为《机器停止了》(The Machine Stops)的短篇小说中,伟大的英国小说家EM 福斯特就描绘了一幅我们数字未来的预言图景。这篇小说讲对了很多事情。它在一个多世纪前就预言了全球化、互联网、视频会议以及我们当前数字现实的许多其他方面。这是一个关于高科技天堂驶向可怕的血腥停顿的令人毛骨悚然的故事。在不知不觉中,故事中的人类变得如此依赖作为社会中介的技术,以至于当机器发生故障时,社会本身也随之崩溃。

30年前卡尔·萨根(Carl Sagan)在他的著作《恶魔萦绕的世界:科学是黑暗中的烛光》一书中的精彩论述,应成为当今每一位政治家、教育家和关心社会的公民的必读书目。早在1995年,萨根就预言性地写道:

我预感到我的子女或孙辈时代的美国——那时美国已成为一个服务和信息经济体;那时几乎所有关键的制造业都滑向其他国家;那时令人敬畏的技术力量掌握在极少数人手中,没有一个代表公众利益的人甚至能够掌握这些问题;那时人们失去了制定自己的议程或对当权者提出有知识的质疑的能力;那时我们紧握水晶,紧张地查阅星座运势,我们的批判能力下降,无法区分什么是感觉良好、什么是真实,几乎在不知不觉中,我们重新滑向了迷信和黑暗。美国的愚昧化最明显地表现在极具影响力的媒体中实质性内容的缓慢衰退,30秒的声音片段(现在已经缩短到10秒甚至更短),最低共同标准的节目,对伪科学和迷信的轻信,尤其是对无知的赞美。

这种未来似乎已经到来。不仅是美国,澳大利亚乃至其他所有西方民主国家都是如此。萨根的每一个预言都成真了。

黑夜开始笼罩我们。在这片黑暗中,我们已经对组成我们社会的许多机构失去了信任。

Eye divider

让我夜不能寐的问题

我们已经对政府和政治失去了信任。在澳大利亚公共服务委员会于2023年进行的 《澳大利亚民主信任度和满意度》调查中,四分之三的澳大利亚人不信任他们的政党。超过一半的人不信任政府本身,无论是州政府还是联邦政府。

我们已经对新闻业失去了信任。在同一项调查中,只有三分之一的人信任报纸,只有一半的人信任公共广播公司。事实上,随着观众人数减少且日益老龄化,我们中的大多数人已经完全关掉了广播电视。

我们对宗教等其他重要的社会粘合剂也失去了信任。我们中只有五分之一的人仍然去教堂、寺庙、清真寺或犹太教堂。这是一个戏剧性的下降。上世纪50年代时,约有一半的澳大利亚人定期去教堂。

我们甚至失去了对科学的信任。在这一《信任与满意度》调查中,只有61%的受访者信任科学报告。现在科学真理经常受到争议。从气候变化到新冠病毒,公众呈过度怀疑状态。像我这样的科学家越来越不敢把头伸出护栏,生怕被射来的炮弹击中。

是什么导致了这种信任的丧失?这对我们的社会正在产生什么影响?这些问题开始让我夜不能寐。尤其是当我看到我所从事的人工智能领域正在助长这种信任缺失。

Drone divider

社会是如何分裂的

我们很难确定这种不信任的原因和影响,因为社会毕竟是一个有点模糊的概念。但对社会——对我们许多人所珍视的价值观,如民主、公平和言论自由——最大的威胁或许是社会本身正在分裂。我们很难不发现许多技术驱动因素正在促成这种分裂。

识别出这些驱动因素只是一个开始。因为我们只有识别出这些与社会对抗的力量,才有希望培育社会。

首先,也是我认为最重要的,是社交媒体。当然,最大的诡计是称其为“社交媒体”,而事实上,将其称为“反社交媒体”可能来得准确一点。它本应将我们联系在一起,但它非但没有做到这一点,反而将我们两极分化,越离越远。

“社交媒体”这个名称的另一个问题是,尽管名字里有一半叫媒体,但奇怪的是,我们并不认为社交媒体是媒体的一部分。然而,对许多人来说,社交媒体是他们的主要新闻来源。脸书可以说是这个星球上最大的新闻机构,尽管出于经济和法律原因,它现在正疯狂地努力摆脱这一角色。

社交媒体正在成为人类的主要分心工具。它正在介入我们彼此间的许多关系。澳大利亚人平均每八分钟看一次手机。我们中有一半人说,如果丢了手机将无法继续日常生活。我们沉迷于手机带来的多巴胺刺激。

造成这种信任破裂的第二个技术驱动因素是广播电视的消亡并代之以人工智能流媒体服务。我们现在所看到的往往是算法的选择。我们生活在一个微定位的世界里,人工智能算法会过滤我们所看到的内容。

人们在网飞上观看的内容中约有80%不是他们原本想看的,而是算法推荐的。YouTube每月有50亿活跃用户,全球每天观看的YouTube内容超过10亿小时。我们观看的内容不再是广播。而是窄播。

传统广播公司的受众持续减少。而从内容到传播方式都在适应这些新的、更短的传播方式。

第三个技术驱动因素是不实信息和虚假信息的兴起。社交媒体上的算法鼓励内容引起人们的反响,不实信息和虚假信息会引起反响。脸书声称鼓励有意义的参与,但实际上它鼓励的是引诱你点击的标题党。

我们习惯于相信自己的所见所闻。但是我们正在进入这样一个世界,在这个世界里,我们不得不接受这样一种观点,那就是我们看到或听到的任何东西都是假的。

蒂莫西·斯奈德(Timothy Snyder)在2017年出版的《论暴政:二十世纪的二十堂课》(On Tyranny: Twenty Lessons from the Twentieth Century)一书中,很好地描述了一个我们什么都不能相信的社会所带来的影响:

“抛弃事实就是抛弃自由。如果没有什么是真实的,那就没有人可以批评权力,因为没有批评的基础。如果没有什么是真实的,那么一切都是奇观。”

可悲的是,真理本来就是一个很可替代的概念。但情况会变得更糟。曾经用于生成虚假内容的那些工具如今遍地都是并且易于使用。自从Stable Diffusion和Midjourney等人工智能生成工具问世以来,深伪内容已成为世界各地每次选举中都会出现的不受欢迎的现象。毫无疑问,它们很快就会出现在澳大利亚。

在大多数国家,我们对使用传统媒体影响选举有着严格的法律规定,但社交媒体颠覆了这一规定。那些拥有最佳算法和最有说服力谎言的人可以赢得选举。

Eye divider

无知崇拜

第四个驱动因素是人们越来越不喜欢甚至蔑视专家,尤其是科学专家。这种排斥的背后有很多因素,比如社会中日益加剧的不平等(部分原因是技术颠覆和全球化),以及阴谋论和其他形式的错误信息的兴起(同样是由算法驱动的)。

然而,还有一个更深层次的问题,那就是在许多国家,由于一些奇怪的原因,我们并不重视政治中的智慧。科幻小说作家艾萨克·阿西莫夫(Isaac Asimov)早在1980年就指出了这个问题:

美国存在着对无知的崇拜,而且一直如此。反智主义的压力一直是缠绕我们政治文化生活的一根线,滋生它的是一个错误的观点,即民主意味着“我的无知和你的知识不分上下”。

无知在科学技术领域最为普遍。遗憾的是,对改变我们社会的科学技术一无所知是完全可以接受的。卡尔·萨根早在1995年就警告过这个问题:

我们安排了一个全球性的文明,在这个文明中,大多数至关重要的因素都深深依赖于科学技术。我们的安排也使得几乎没有人了解科学技术。这是一剂灾难药方。我们可能会暂时侥幸躲过,但这种无知与权力的混合体迟早会在我们面前爆炸。

第五个驱动因素是数字技术正在摧毁旧式媒体的收入。这使得新闻媒体越来越难以负担照亮我们民主的重任。科技公司现在占据了所有数字广告支出的90%,约占所有广告总支出的一半。

在澳大利亚,出台《新闻媒体议价准则》(News Media Bargaining Code)是一次勇敢的尝试,通过让大型技术平台为其平台上提供或链接的新闻内容向本地新闻出版机构付费,来防止新闻业的沉沦。但目前还不清楚这些平台是否准备长期以这种方式支持传统媒体。

造成信任破裂的第六个技术驱动因素是,数字技术掏空了社区得以聚集的城市广场。社会有赖于我们拥有共同的愿景。

很多人都不知道,他们所看到的互联网是只为他们量身定做的。即使我们浏览同样的新闻网站,我们也会看到不同的新闻报道,基于我们此前的喜好。而在亚马逊这样的网站上,我们看到的几乎每一件商品和价格都是专为我们定制的。它是由算法根据我们之前想买的东西及愿意支付的价格为我们选择的。我们在网络上几乎没有共同之处。

我们常常认为我们的超能力是我们的智慧。但我们的超能力实际上是我们的社会。它是我们聚集在一起集体解决共同问题的能力。但要做到这一点,我们必须有共同的目标。而数字技术正在破坏这种共同愿景。我们越来越多地生活在自己的数字泡沫中。

导致信任破裂的第七个因素是人工智能加持下的监控。同样,如果你想把监控范围扩大到一个国家,那么数字技术就是完美的选择。

在中国,有一个面部识别系统可以在一分钟内扫描十亿张脸。它基本上可以做到对整个国家的人口进行实时监控。而且它正被用来追踪和迫害维吾尔族——这是中国西北部的相当大的一个民族。如果你对该国的意图有任何误解,它被称为“天网”——即《终结者》系列电影中的人工智能电脑——或许对你有所帮助。

在西方,我们看到这种现象正在浮现,并被绝妙地称为“监控资本主义”。当某个产品是免费的,那么你才是真正的产品。而大部分数字经济都围绕着收集并出售关于你的数据展开。

数字监控是阴险的。即使你实际上没有被监视,但你或会被监视的可能性也会改变你的行为。

当然,这一切都与对我们的承诺背道而驰。技术原本应当是一种向善的力量。正如社交媒体本应将我们拧成一股绳。但在现实中,它却让我们分道扬镳。

Drone divider

我们怎么被引诱到如此田地

对于我们来到目前的处境,我们不应该感到惊讶。我们是被引诱到这儿的。一开始,这些数字技术似乎是件好事。在2010到2011年中东“阿拉伯之春”的一系列起义中,社交媒体让那些以前没有发言权的人有了发言权。它帮助动员了那些争取民主的人们。同样,在2008年奥巴马当选美国总统的选举中,社交媒体让年轻人、有色人种和其他代表人数不足的选民参与了投票。这一切在当时看来都是不可思议的。

但很快,同样的技术就被用于不那么正面的目的。在英国脱欧公投中,它们被用来散布不实信息,并被用来压制选票,以便选出像唐纳德·特朗普这样更极端的候选人。现在,我们看到俄罗斯等国利用同样的手段在其他国家进行选举干预。

这并不是技术第一次威胁要扰乱社会。从蒸汽机到电力等其他技术已经极大地改变了我们的生活。在许多方面,人工智能与过去的这些变革并无二致。它将改变我们生活的几乎方方面面:我们如何出生、生活、工作、娱乐和死亡。但有一点人工智能革命可能会有所不同,那就是它改变我们生活的速度。

工业革命花了50多年的时间。电力用了几十年。就连互联网也花了十年左右才站稳脚跟,因为我们必须让人们上网。而人工智能革命则不同。我们已经铺设好了管道。只需要告诉你某个人工智能服务的网址或应用程序接口,然后你就可以开工了。

大量资金正在投入人工智能领域。2024年,人工智能领域的投资约为5亿美元。每一天。我们从未见过如此巨大规模的投资。而这一切都已初见成效。在推出ChatGPT后一年内,OpenAI从没有收入到年收入超过10亿美元,公司估值达到1000亿美元左右。这在资本主义历史上是绝无仅有的。人工智能堪称有史以来最大的淘金热。

因此,我们很容易感到悲观。因为认为不可抗拒的力量正在发挥作用而悲观。因为经济激励巨大且与公共利益不符而悲观。因为这些科技公司比许多国家都要强大而悲观。但是,一切还需静观其变。未来仍未注定。它是我们今天所做出的各种抉择的产物。

Eye divider

我们有能力塑造未来

技术塑造社会,但社会也可以塑造技术。我们可以拉动一些杠杆,来强化我们的社会并抵御那些分化的力量。有这么多的杠杆可以拉动,这本身就应该让我们稍稍放心。

首先,我们可以要求平台对其提供的内容承担更多责任,就像我们要求传统媒体对其提供的内容承担责任一样。数字平台不能再以“它们只是一个中介”为借口。事实上,现在它们越来越多地提供平台自己创造的人工智能生成的内容,因此这种说法显然是错误的。

其次,我们可以保护那些容易被操纵或受到伤害的人,包括16岁以下的青少年。十年后,我想我们会像今天看待烟草和酒精一样来看待社交媒体。处于成长期的幼小心灵需要得到保护。

最近做出的禁止深伪色情内容的决定,就是一个很好的例子来保护那些正在受到伤害的人。但这只是需要解决的最明显的危害之一。还有很多其他的危害,比如人肉搜索和网络欺凌。可悲的是,除非我们有所作为,否则人工智能很可能只会让这些伤害更加普遍。

第三,我们可以通过监管来确保政治广告的真实性。大多数国家对商业产品广告的真实性都有严格的法律规定。但在政治广告中,你几乎什么都可以说。过去,如果你说了不真实的话,每个人都会看到。但现在,你可以对每个选民说不同的谎言。别人看不到你所看到的谎言。

第四,我们可以对深伪进行监管。虚假内容会破坏我们对许多机构的信任。对比一下另一个领域,在那里假货会带来危险。我们理所当然地担心假币会破坏我们对金融体系的信心,因此我们对伪造货币有严厉的惩罚措施。我们需要对深伪技术采取同样的措施。

遗憾的是,这并不像禁止虚假内容那么简单。我们必须在采取此类措施和维护言论自由之间取得平衡。例如,我们可以讽刺性地模仿政客,这是政治进程的重要组成部分。我们必须在减少虚假内容和支持讽刺辩论之间走好这一微妙的钢丝。

第五,我们需要采用数字水印等技术措施来减少深伪内容的影响,并保护知识产权。事实上,这正是区块链的完美应用,我们终于找到了可以在区块链上做的好事!

第六,我们可以恢复对新闻媒体的财政支持,因为它在照亮我们的民主制度方面发挥着重要作用。《新闻媒体议价准则》正是这样一种尝试。我们可以加倍努力,向技术公司征税,来确保我们能够揭露在黑暗中滋生的谎言和腐败,从而保护民主。

第七,我们可以开发能够扩大民主的数字技术。例如,全世界有7000多个城市正在使用参与式预算来决定各州、住房管理局、学校和其他机构的预算。《纽约时报》称之为“行动中的革命公民学”。它深化了民主,打造出更强大的社区,并能更公平地分配公共资源。

第八,我们可以利用数字技术提高透明度。令人遗憾的是,围绕试图将阿桑奇引渡到美国的长期争论分散了人们对维基解密等网站具备的革命性潜力的关注。这些网站鼓励并保护吹哨人,通过揭露不法行为来帮助维护民主。互联网过去是、现在仍是提高民主透明度的强大力量。

第九,我们可以加强数字隐私。在许多方面,我们正处于隐私保护的技术低谷。要做任何有趣的事情,我们都需要与科技巨头及其人工智能算法分享我们的个人数据。但联合学习等技术的进步,即在不与科技巨头共享我们个人数据的情况下训练人工智能模型,有望让我们重获隐私。事实上,人工智能将变得越来越智能和小巧,我们的个人数据不会离开我们的设备。

第十,我们可以确保获取数字技术是一项基本人权。如果我们不这样做,世界就会分裂成拥有数字技术的人和那些没有数字技术的人。使用互联网的权利正变得与言论自由等其他基本权利同等重要。在新冠封锁期间,我们了解到澳大利亚有多少儿童在家中没有任何电子设备来上网。这种情况不能再继续下去了。

Drone divider

未来掌握在我们手中

归根结底,人工智能等数字技术有潜力提高信任度。但我们需要做出一些正确的选择,以确保它们能够做到这一点。

人们经常问我,对于人工智能带来的挑战,我是乐观还是悲观。我说两者兼备。我乐观地认为,人工智能最终会带来巨大的好处。

但在短期内,我是悲观的。可悲的是,我们的后代将继承一个更糟糕的世界,这是由气候紧急情况到全球不安全等一系列问题造成的,而且正如我在本文所概述的,对我们现在最需要的机构的不信任。

未来需要我们谨慎、明智、坚定地利用人工智能来建立而不是破坏我们对社会的信任。如果我们明智地使用像人工智能这样的技术,我们可能在回头看时会把现在看成一个新时代的开始,一个对我们民主制度的信任会逐渐增加而不是逐渐减少的新时代。

那么,我们信任人工智能吗?也许还不能,但只要作出正确的选择,我们能够信任它。

本文节选自《怀疑的时代:在不实信息的世界中建立信任》(Age of Doubt: Building Trust in a World of Misinformation),由Tracey Kirkland和Gavin Fang编辑,莫纳什大学出版社(Monash University Publishing)于今年三月发行。

文章来源:ABC中文

本所新闻

更多 >>

今日评论

更多 >>

今日评论

更多 >>