事实如此浪漫

全暴力即将来临,而世界还没有准备好

新兴的生物、纳米和网络技术使犯罪分子能够以任何地方的任何人为目标,而且由于民主化,规模越来越大。 通过一张生命的未来研究所YouTube /

n暴力的未来, Benjamin Wittes和Gabriella Blum讨论了一个令人不安的假设场景。尼日利亚“充斥着大量的垃圾邮件和网络诈骗活动”,一名独行者诱骗妇女和少女下载恶意软件,让他能够监控和记录她们的活动,以达到敲诈的目的。真实的故事涉及一名加州男子,他最终被联邦调查局抓住,并被判入狱六年,但如果他在世界其他地方,他可能会逃脱惩罚。Wittes和Blum指出,许多国家“既没有意愿也没有手段来监控网络犯罪,起诉罪犯,或向美国引渡嫌疑人。”

换句话说,技术使犯罪分子能够以任何地方的任何人为目标,而且由于民主化,规模越来越大。新兴的生物、纳米和网络技术正变得越来越容易获得。政治学家丹尼尔·德尼(Daniel Deudney)用一个词来形容这种结果:“全方位暴力”。杀手与被杀人数的比率(K/K比率)正在下降。例如,计算机科学家斯图亚特·罗素生动地说描述他说:“一个非常非常小的四轴飞行器,直径一英寸,可以携带一到两克的形状电荷。”“你可以从中国的无人机制造商那里订购。你可以编写代码说:‘这里有成千上万张我想要瞄准的东西的照片。“1锥形装药可以在9毫米的钢铁上打个洞,所以你也可以在别人的头上打个洞。一辆半牵引式拖车可以装下三百万辆。你可以开着三辆卡车沿着I-95公路带着一千万的武器袭击纽约市。他们不需要非常有效,只有5%或10%的人需要找到目标。”制造商将生产数以百万计的这种无人机,就像现在的枪支一样可供购买,罗素指出,“除非你有一百万士兵,否则数百万支枪根本不重要。”你只需要三个人来编写程序并发布。”在这种情况下,K/K比率可能是3/1,000,000,假设10%的准确率和每架无人机只有一个1克的聚能装药。

新兴技术会让国家体系过时吗?很难看出为什么不可以。

这是完全horrifyingly-unprecedented。然而,未来的恐怖分子或精神变态者将不仅仅拥有互联网或被称为“屠杀机器人”的无人机这个视频来自生命未来研究所的研究人员,还有合成生物学、纳米技术和先进的人工智能系统。这些工具使得跨越国界的破坏变得微不足道,这就提出了一个问题:新兴技术会让国家体系过时吗?很难看出为什么不可以。英国哲学家托马斯·霍布斯认为,证明国家存在合理性的是“社会契约”。人们放弃某些自由以换取国家提供的安全,因此国家作为中立的“裁判”,可以在人们陷入纠纷时进行干预,惩罚偷窃和谋杀的人,并执行利益冲突双方签署的合同。

问题是,如果任何地方的任何人都可以攻击任何地方的任何人,那么国家就会变得——而且正在变得——无法履行其作为裁判的主要职责。这是一种走向无政府状态的趋势,正如霍布斯所说,“所有人对抗所有人的战争”——换句话说,每个人都生活在一种状态中,害怕被邻居伤害。事实上,在最近,“脆弱世界假说”,发表于全球政策牛津大学哲学家尼克·博斯特罗姆(Nick Bostrom)认为,抵御全球灾难的唯一方法是采用一种普遍的、侵略性的监控系统,他称之为“高科技圆形监狱”(High-tech Panopticon)。听起来反乌托邦吗?对我来说确实如此。博斯特罗姆写道:“创建和运营高科技Panopticon需要大量的投资,但由于相机、数据传输、存储和计算的价格下降,以及人工智能内容分析的快速发展,它可能很快就会在技术上可行,而且价格适中。”博斯特罗姆深知其弊端——一个国家的腐败分子可能利用这种监视手段达到极权主义目的,或者黑客可能敲诈毫无防备的受害者。然而,事实是,比起遭受一个接一个的全球灾难,这可能仍然是一个更好的选择。

社会如何反击全暴力?一个策略可能是一个超级智能机器——本质上是一个极其强大的算法——专门设计来公平管理。然后,我们可以让算法承担政治责任,只要它像“哲学家之王”那样管理,就不会经常担心收集到的数据被滥用或滥用。当然,这是一个不切实际的提议。甚至在现实世界中,人工智能在司法系统中的使用也充满了问题问题.但在这一点上,我们是否有更好的办法来防止国家体系在广泛的技术授权的重压下崩溃呢?

也许会出现一个全新的想法,能够保护当前的体系——如果我们想要保护它的话。或许新兴技术不会像我和其他人预期的那样赋予人们力量。可能是攻击技术实际上会落后于防御技术,使其很难执行成功的攻击。也可能是,在全暴力和民主化削弱国家之前,文明会因为与气候变化相关的压力而崩溃,这些压力包括致命的热浪、特大干旱、沿海洪水、海平面上升、冰川和极地冰盖融化、荒漠化、食物供应中断、疾病爆发、生物多样性丧失,物种灭绝和大规模迁移。如果我们最终再次以狩猎采集者的方式生活,主要的担忧将是棍棒和石头,而不是设计病原体和人工智能。

文明是一种实验。我们可能不会得到我们期待的结果。所以人类最好抱最好的希望,做最坏的打算。

Phil Torres是研究全球灾难风险的学者,著有多本书。他的文章,《超级智能和治理的未来:在历史终结时优先考虑控制问题》(Superintelligence and the Future of Governance: On priorities of the Control Problem at the End of History),出现在2018年的选集中,人工智能安全和安全.他的文章已发表在时间板岩,鹦鹉螺, Motherboard,和原子科学家公报。在推特上关注他@xriskology

得到了鹦鹉螺必威开户官网

最新和最受欢迎的文章投递到您的收件箱!


加入讨论