简历阅读- - -机器行为需要成为一门学科

关闭

你已经阅读了每月两篇免费文章中的一篇。学习更多的知识。

关闭

机器行为需要成为一门学科

为什么研究人工智能行为的人只能是那些制造人工智能的人?

如果生理学家是唯一在各个层面研究人类行为的人会怎么样呢:从人体如何运作,到如何社交

W如果生理学家是唯一从各个层面研究人类行为的人:从人体如何运作,到社会规范如何出现,到股票市场如何运作,再到我们如何创造、分享和消费文化,那该有多好?如果神经科学家是唯一负责研究犯罪行为、设计教育课程和制定打击逃税政策的人,那会怎么样?

尽管人工智能对我们的生活影响越来越大,但我们对人工智能的研究是以这种方式进行的——由一个非常特定的群体进行的。那些科学家创建人工智能代理——即计算机科学家和机器人专家——几乎完全是同一类科学家研究AI代理的行为。

我们无法通过查看源代码来证明人工智能是道德的,就像我们无法通过扫描人类的大脑来证明人类是优秀的一样。

当这些计算机科学家和机器人专家创造他们的代理来解决特定的任务时——这不是一项小任务——他们通常专注于确保他们的代理完成预期的功能。为此,他们使用了各种基准数据集和任务,使得客观和一致地比较不同的算法成为可能。例如,电子邮件分类程序应该使用一些被人类标记的“基本事实”来达到将电子邮件分类为垃圾邮件或非垃圾邮件的准确性基准。计算机视觉算法必须在像ImageNet这样的人类注释图像数据集中正确地检测目标。自动驾驶汽车必须在各种天气条件下成功地从A点行驶到B点。游戏代理必须击败最先进的算法,或赢得特定荣誉的人类,如国际象棋、围棋或扑克的世界冠军。

这项针对人工智能个体行为的任务研究,虽然范围狭窄,但对人工智能和机器人领域的进展非常有用。它能够基于客观的、广泛接受的标准对算法进行快速比较。但这对社会来说就足够了吗?

人工智能代理 Rahwan伊亚

答案是否定的:为了正确诊断问题和设计解决方案,必须在不同的抽象层次上对智能代理(人类或人工)的行为进行研究。这就是为什么我们有各种各样的学科关注不同规模的人类行为研究。从生理学到社会学,从心理学到政治学,从博弈论到宏观经济学,我们获得了关于人类个体和集体如何发挥作用的互补观点。

在他1969年的里程碑式著作中,人工科学,诺贝尔奖得主赫伯特·西蒙写道:“自然科学是关于自然物体和自然现象的知识。我们问,是否也不能有关于人造物体和现象的‘人造’科学知识。”与西蒙的愿景一致,我们主张需要一个新的、独特的机器行为科学学科:智能机器表现出的行为的科学研究。

这门新学科关注的是机器的科学研究,而不是作为工程的人工制品,而是作为具有独特行为模式和生态的新一类行为者。至关重要的是,这一领域与计算机科学和机器人技术重叠,但又不同于它们,因为它以观察和实验的方式对待机器行为,而不必诉诸于机器的内部机制。机器行为学类似于动物行为学(也被称为行为学)和行为生态学,它们研究动物的行为,但不一定关注生理或生物化学。

人工智能知识差距:假设AI系统的数量和描述这些系统行为的研究数量之间存在差异。 Manuel Cebrian和Iyad Rahwan


O对于机器行为这一新领域的定义,有一些需要注意的地方。研究机器行为并不意味着人工智能算法具有能动性——从某种意义上说,它们对自己的行为负有社会责任。如果某人的狗咬了一个旁观者,狗的主人要承担责任。尽管如此,研究狗的行为还是很有用的,因此也能有效地预测狗的行为。类似地,机器嵌入到更大的社会技术结构中,人类利益相关者负责部署它们,并对它们可能给他人造成的伤害负责。

复杂的人工智能代理往往表现出内在的不可预测性:它们展示出的紧急行为是无法精确预测的——即使是它们自己的程序员也无法精确预测。

第二个警告是,机器表现出与动物和人类根本不同的行为,所以我们必须避免任何过度拟人化或zoomorphification机器的倾向。即使从人类和动物行为的研究中借鉴科学方法可能被证明对机器的研究是有用的,但机器可能表现出不同的智能形式和行为模式,甚至是在性质上不同的外星人

有了这些警告,我们认为,一个独特的新学科与研究机器行为将是新颖和有用的。我们不能通过简单地查看源代码或内部架构来研究机器,原因有很多。首先是复杂性导致的不透明性:许多新的人工智能架构,比如深度神经网络(Deep Neural Networks),可能表现出不容易解释的内部状态。我们通常不能通过查看源代码来证明人工智能是最优的或道德的,就像我们不能通过扫描人类的大脑来证明人类是优秀的一样。此外,我们今天认为符合道德和对社会有益的东西可能会随着时间的推移而逐渐改变,社会科学家能够追踪这些东西,但人工智能社区可能无法跟上,因为这不是衡量他们成就的方式。

Rahwan伊亚

不考虑内部架构而研究机器行为的另一个动机是知识产权保护造成的不透明性。许多常用的算法,如新闻过滤和产品推荐算法,由于工业机密的原因,都是黑盒。这意味着驱动这些算法的内部机制对拥有和运营这些算法的公司之外的任何人都是不透明的。

第三,复杂的人工智能代理往往表现出内在的不可预测性:它们表现出的紧急行为是无法精确预测的——即使是它们自己的程序员也无法精确预测。这些行为只有通过与世界和环境中其他行为体的交互作用才能显现出来。算法交易程序当然就是这样,它可以展示前所未见的行为制度通过复杂的市场动态。事实上,艾伦·图灵(Alan Turing)和阿朗佐·丘奇(Alonzo Church)证明,如果不实际运行算法,就不可能确保算法满足某些特性。除非我们执行代码并观察其行为,否则我们验证特定代码段总是满足理想属性的能力存在基本的理论限制。

但最重要的是,计算机科学和机器人技术之外的人对机器行为的科学研究,为机器影响的重要经济、社会和政治现象提供了新的视角。计算机科学家和机器人专家是地球上最有才华的人。但他们根本没有接受过正式的培训,学习诸如种族歧视、道德困境、股市稳定或社交网络谣言传播等现象。虽然计算机科学家已经研究了这种现象,但也有来自其他学科的有能力的科学家,他们有重要的技能、方法和观点。在我们作为计算机科学家的工作中,我们经常被我们的社会和行为科学合作者所折中。他们经常强调我们最初的研究问题是如何的不正确,或者我们对特定社会科学方法的应用是如何的不恰当。忽略重要的警告或得出过于强烈的结论。我们已经学会了——艰难地学会了——减缓处理大数据或构建机器学习模型的冲动。

Sapolsky_TH-F1

机器人不能跳舞

机器人有创造力吗?云机器人技术(机器连接到云端的超级计算机)的进步给自动驾驶汽车、外科手术机器人和其他“智能”设备带来了巨大的计算能力。但是一个机器人,即使是一个充满了人工智能的机器人,也能有创造力吗?阅读更多

在现状下,来自计算机科学和机器人领域之外的评论家和学者的贡献往往整合得很差。这些学者中的许多人一直在发出警告。他们担心的是,能够行动、适应并表现出突发性行为的人工智能代理可能会产生广泛的、意想不到的后果,而这些行为往往违背其创造者最初的意图行为,而这些意图行为可能从根本上是不可预测的。

伴随着这种可预测性的缺乏,人们担心人类可能会失去对智能机器的监督。一些人记录了许多看似良性的算法可能对个人或社区造成伤害的案例。其他人对人工智能系统的存在表示担忧黑盒他们的决策依据对那些受影响的人来说是不透明的,这削弱了他们质疑这些决策的能力。

人工智能机器越来越多地调节我们的社会、经济和政治互动——这只是未来的冰山一角。

虽然这些重要的声音在教育公众人工智能系统的潜在不利影响方面取得了巨大的进步,但他们仍然是旁观者——而且往往会在人工智能社区引发内部反弹。此外,许多当代讨论依赖于专家收集的轶事证据,并仅限于具体案例。我们仍然缺乏一个统一的、可扩展的、科学的方法来研究人工智能代理的行为,让社会科学家和计算机科学家可以无缝合作。当凯西奥尼尔写了纽约时报“从本质上说,没有一个独特的学术研究领域认真对待理解和批评技术在我们生活中所扮演的角色——特别是负责我们生活中许多决定的算法——的责任。”考虑到新的人工智能算法激增的速度,这种已部署算法的数量和我们对这些算法的理解之间的差距只会随着时间的推移而增加。

最后,我们预期通过研究机器行为可以获得巨大的经济价值。例如,如果我们能证明给定的算法满足某些道德、文化或经济行为标准,我们就可以这样营销它。因此,消费者和负责任的公司可能开始要求这样的认证。这类似于消费者开始要求在生产他们消费的商品和服务的供应链中达到某些道德和环境标准。机器行为科学可以为人工智能代理的客观认证奠定基础。


一个人工智能机器越来越多地充当我们的社会、经济和政治互动的中介:信用评分算法决定谁能获得贷款;算法交易程序在股票市场上买卖金融资产;优化调度算法当地治安;项目算法的判决现在影响谁被假释;在我们的城市环境中,自动驾驶汽车驾驶着几吨重的金属箱;机器人绘制我们的家庭地图,并进行定期的家庭清洁;算法会影响谁与谁进行匹配网上约会;很快,致命的自动武器可能会决定武装冲突中谁死谁活。这只是未来的冰山一角。在不久的将来,软件和硬件代理由人工智能(AI)驱动的技术将渗透到社会的各个方面。

不管它们是否具有拟人化的特征,这些机器都是居住在我们这个世界上的新一类代理——有些人甚至说,是物种。我们必须利用一切可以利用的工具来理解和调节它们对人类的影响。如果我们做得对,也许人类和机器可以在一种健康、互惠的关系中共同繁荣。为了使这种可能性成为现实,我们需要用一种新的科学学科来直面机器行为。


Iyad Rahwan是麻省理工学院媒体实验室的媒体艺术和科学副教授,也是可扩展合作小组的主任和首席研究员。

Manuel Cebrian是麻省理工学院媒体实验室的研究科学家,也是研究经理可扩展合作集团的成员。

加入讨论