|

财经

具身智能可以为自身行为负责吗

来源:经济观察报

媒体

2025-05-31 14:03:22

(原标题:具身智能可以为自身行为负责吗)

刘诚/文

近期,具身智能产业发展迅猛,其关注的是如何将感知、行动和环境交互融入机器学习和人工智能的发展中,从而打造更加灵活和自主的智能体。

那么,当具身智能具有一定的身体和智力之后,从经济和社会治理角度看,它是否构成自身人格,又能否承担自我责任?

具身的双重含义

具身智能指智能体(机器人或程序)通过与物理世界或模拟环境的交互来学习和应用知识的能力。相较于一般的人工智能,具身智能最显著的区别便在于“具身”。“具身”有两层含义。第一层含义是具有“身体”,用身体感知环境。这种智能不仅仅依赖于传统的计算资源,还强调了身体性体验的重要性,即智能体的身体与其所处环境之间的互动对于学习和发展复杂行为至关重要,为人工智能的未来描绘出一幅更加真实、动态且复杂的图景。

以往,人工智能强调的数据输入、运算过程、结果输出。具身智能不再被动地等待数据投喂,而是凭借其身体主动感知周遭环境,自主收集数据,并借助身体的不同部位灵活作出反应。

在自然生物界,具有一定智力的生物都是通过身体来感知的,比如用耳朵听声音、用眼睛看物体、用鼻子闻气味。具身智能也是在模拟身体感知的过程,它的外表不再是冷冰冰的铁皮,而是各种密集的传感器,从不同方面捕捉现实世界的各种信息,形成多元化的判断,从事多任务工作。“具身”的第二层含义是具有“身形”,用不同的身体形态适应环境。换言之,具身智能不仅具有身体,还有不同的身形,且身形对其智能的学习成长及场景的落地应用具有重要价值。

具身智能的核心理念是“身体就是智能的一部分”,这意味着智能体的行为、感知能力以及学习过程都与其物理形体密切相关。

现实中,我们接触比较多的是机器臂和人形机器人。例如,一个拥有手臂和抓握装置的机器人需要理解如何使用这些肢体来完成特定任务,比如拾取物体或进行装配工作。这一过程不仅涵盖了对物体及其所处环境的深刻理解,还要求通过不断的实际操作来精细调整和优化其动作策略。

特别指出的是,机器人的身形不一定要模仿人类,也可以模仿动物及其他生物,即仿生机器人。例如,仿生鸟机器人可以通过尝试不同的飞行姿态,学习如何在空中更稳定、更高效地飞行;仿生蛇机器人可以通过身体的摆动和触觉反馈,在复杂地形中灵活移动,避开障碍物。

从具身智能的发展趋势看,人工智能已然实现了根本性的飞跃,不再局限于对人类感官的简单放大,也不再仅仅是人类认知和行动的辅助工具,而是逐步确立起自身独特的价值与“生命”,并从认识活动的边缘和辅助角色,跃升至中心与主导位置,这一认识论构成了非人类中心认识论的一个重要分支。

总之,具身智能强调人工智能的智能程度和它的身体及身形存在着很强的相关性,身体不是等待加载算法的机器,其本身应该参与算法的进化。这种方法模仿了自然界生物的学习方式,强调了实践和经验积累的重要性。

工具与人格争议

具身智能是一种比较高级的智能体,既能用身体感知世界、加速学习,又能通过为其设计不同身形来加快应用场景落地。毫不讳言,它是一种极好的工具,大大提高人类的工作效率,甚至可以轻松从事一些人类无法胜任抑或危及人类生命健康的工作。

但当我们讨论具身智能的身体时,尤其是当看到一个个逼真的人形机器人时,我们不禁要问:他们这么像人,且这么聪明和理性,它们是否具有主体性或法律人格,能否为自身错误承担责任?

对这个问题,社会各界有很大争议。

一方面,即便具有智力和身体,人形机器人仍是机械化的机器。就像所有信息技术一样,人工智能的特点是“简化”和“闭合”。“简化”是将任务或问题分解为一组需要按顺序执行的操作过程,“闭合”作为“简化”的必要补充,意味着“隔离式和黑箱式顺序操作”,以确保其执行不受外部干扰。

人工智能的使用让任务标准化和正式化,使得决策过程更像机器的运转。特别是,在许多情况下,决策者无法充分解释人工智能是如何产生结果的。

即使人工智能生成的结果需要人类决策跟进,一个依靠算法作为核心管理机制的组织也可能成为一个“数字牢笼”。在这种情况下,很少有人能了解AI系统是如何工作的,甚至连人工智能的开发人员都不甚了解,也不知道如何影响它。

因此,就像我们认为机器不具有人格一样,具身智能无论再智能也难以形成人格。

另一方面,人工智能可能产生了一种非理性的理性,脱离了人类现实,若让它独立行事可能违背人类的世界观和价值观。

本质上看,人工智能及其算法试图建立收入数据集(如性别、年龄、社交网络等)与输出数据集(如消费倾向、是否获得面试资格、犯罪概率等)之间的最佳关联,为达此目的,其会反复调试选取变量及其权重。但这些变量和权重可能未反映政策原则和法律形态,而是凌驾于政策和法律之上,或将导致权力滥用。

甚至,具身智能发现的主要是数据间的相关关系,并非现实世界的相关关系,更不是理性认知层面的因果关系,由此得出的分析和判断可能严重脱离现实。比如,在是否犯罪的问题上,算法给出的最大权重变量可能是人的肤色和长相,根据肤色和长相将人划分三六九等。

倘若让具身智能大行其道,可能产生一种与人类世界格格不入的平行世界,导致秩序混乱。

因此,大多数人都坚持认为,具身智能体仍然只是工具,不具有人格属性。

被问责主体依然是人

一个行为心理学的分析是:人们通常倾向于遵循默认选项,而非质疑它。具身智能是特别有吸引力的默认选项,因为它们通常以“非意识”的形式出现——带有科学客观性和合理性的气质。然而,具身智能并非尽善尽美,难免出现偏差,甚至引发系统性谬误。但问题在于,出错时该向谁问责?

一方面,具身智能难以自主承担责任。随着具身智能智能水平的提高,在理想状态下,一个负责任的算法运行,应当深刻洞察其运行所带来的影响,审慎权衡所涉及的伦理困境,并采取对卷入其中的各方行动者负责的措施,以确保算法的运行能够尊重他人的伦理义务与传统。

但目前而言,正如我们难以相信机器能够自我负责一样,目前我们同样无法期待具身智能实现自我负责。当具身智能犯错时,作为惩罚,我们可以对其身体作出停用或报废,就像对人类罪犯的坐牢或死刑。然而,这种措施可能仍然无法达到预期的惩戒效果。

作为一种工具,具身智能在使用过程中,可能会因程序正当性、歧视与平等保护、隐私和透明度、权力滥用等问题而遭受指责。例如,在美国威斯康星州诉卢米斯一案中,被告质疑COMPAS系统对其风险评分的公正性,认为依赖该系统进行判决剥夺了他受到公平审判的权利。卢米斯指出,由于COMPAS的源代码专有且不透明,加之该系统可能对男性存在偏见,因此其风险评估的结果可能并不准确。

另一方面,人类不能因为具身智能的使用而“甩锅”。具身智能的使用已将人类的判断从以决策程序为核心转移到处理异议和投诉阶段。自然而然地,社会规则的重点也随之转向事故后的责任追究问题。

目前,社会上讨论比较多的是自动驾驶(或较高级别的辅助驾驶)导致的事故问题。现行的社会制度和法律规定仍然要求人必须在旁边(或远程)盯着AI的自动化过程,出现紧急情况时及时替代AI,且最终发生事故时由人负责。换言之,人类不应借由AI的自动化特性来规避事故所应承担的责任。

特别需要指出的是,一些具身智能体发生的事故是由人类恶意使用造成的,此时必然要由人来承担后果。

具身智能使用者背后的两面性并不总是清晰的,关怀和控制之间的两种动机也不总是相分离的,我们应重视使用者的主动性与自发性。

比如,一些上市公司被发现通过向AI系统投喂虚假的“利好信息”,误导AI系统给出错误答案,并利用这些答案误导投资者,以此来宣传公司业绩积极,达到操纵股市的目的。实际上,AI得出的分析结果是有人故意投喂的,并不是客观可信的。

还有人使用AI技术恶意篡改版权作品,并试图掩盖抄袭和盗版事实。面对这些事故,人们或许会企图借助具身智能作为挡箭牌,以逃避责任,而这正是未来社会治理亟需关注的重点。

对行政和司法机关而言也是如此,不能逃避责任。纵观古今,行政机关和司法机构等公共组织,不能简单地躲在一般规则后面声称他们“仅仅是在执行规则”。

进入AI时代,无论数据是否易得,都不应成为免除核实数据是否真实反映实际情况责任的借口。换言之,倘若司法机构使用AI工具做出错误判决,则不能简单将责任归咎于AI系统,更不能用AI系统去辩称那些“明显不公正的错误判决”是公正的,并据此强迫各方接受这种结果。

fund

首页 股票 财经 基金 导航