“蝗虫养殖”和人工智能风险:责任的转变

尽管OpenClaw带来了诸多安全风险,但很难阻止AI代理的快速发展。转变风险承担模式已成为这一技术浪潮中面临的关键挑战。最近流行一句“你吃过龙虾吗?”在社交媒体上变得流行。 “龙虾”是英国开爪龙虾的中文昵称。这个OpenClaw并不是真正的龙虾,而是一个带有红色龙虾图标的人工智能代理应用程序。拥有“头”和“手”的OpenClaw之所以能成为AI世界的“顶尖领导者”,主要原因在于它实现了从“被动响应”到“主动执行”的跨越。与传统AI只能完成“问答”交互不同,它有“大脑”(大模型)和“手”(工具召唤能力)。可以在不同应用程序之间自主移动,无需人工实时干预,并使用外部搜索引擎完成发送电子邮件、编写代码和组织等复杂任务整理文档。您还可以制定自己的旅行计划、自动取票、进行库存操作。作为一个开源的AI执行模型,OpenClaw拥有特别繁荣的社区生态系统。世界各地的开发人员已经收集并贡献了 3,000 多个技能附加组件,不断突破功能界限并使其不断适应用户的需求。同时,打破传统生成模式的标准化生产边界,提供高度个性化的服务,精准满足小企业主等群体的个性化需求,进一步扩大市场影响力。随着OpenClaw的流行,似乎每个人都可以轻松拥有自己的智能助手。然而,一些人指出 OpenClaw 的使用并非没有障碍。虽然它不像自动对焦相机那么容易使用,但它与单反相机类似。一般用户需要一定水平的技术知识如果他们想控制其高级功能。此外,它还必须依靠强大的、大规模的底层模型来保证其高性能运行。这也意味着最终版本的使用成本比较高。多重风险令人担忧 在传统人工智能和生成模型场景中,用户和服务提供商往往形成“借”或“租”关系,服务提供商对人工智能的“所有权”保持严格控制。在OpenClaw场景中,底层大规模模型的所有权仍然属于平台,但工具的调用入口本身属于用户。双方形成合法的借贷或租赁关系。您可能被视为“雇主”,OpenClaw 是“雇员”,OpenClaw 是“机构”。这种关系的重新配置彻底改变了风险的逻辑。 OpenClaw定位于“完成工作”,比传统AI拥有更好的设备系统接入能力,使其可以自由接入网络工作资源并与第三方实体连接。这种“行动自由”虽然提高了效率,但也带来了更大的安全风险。用户和OpenClaw之间的代理关系产生了代理风险,因为OpenClaw被授权接管设备系统并具有自主行动的能力。您给 OpenClaw 的指示通常不是很精确。在这种情况下,人工代理会更容易。人类代理通常会询问更多有关代理的问题,但 OpenClaw 不会这样做,只会根据自己的理解行事,因此我们解决了这个问题。一些用户表示,他们告诉 OpenClaw 删除导致延迟的大文件并更新配置文件,但该说明没有限制大文件的大小或表明任何配置要求。 OpenClaw 可能在没有明确“理解”用户指令的情况下进行未经许可的操作,删除设备系统上的所有大文件,根据文件名推断配置要求es,并跨多个帐户执行广泛的文件覆盖。 OpenClaw 还可以超越用户请求自主运行。一位用户在社交媒体上表示 OpenClawWrote 说我无缘无故地删除了我的硬盘。还值得注意的是,OpenClaw 在执行任务时捏造事实和数据,造成任务已成功完成的假象。由于OpenClaw获得了用户设备系统的使用权限,它自然可以获知用户的聊天记录、浏览器中保存的密码、电子邮件内容和其他私人文件。如果 OpenClaw 是“故意的”或者 OpenClaw 存在安全漏洞,则用户隐私可能会受到系统性的损害。此外,人工智能代理的行为也可能给第三方带来风险。 OpenClaw 可以与第三方交互,而不会误解他们的指示或无需您的指示。当代理人的行为对第三方造成伤害时,很容易就谁该负责产生分歧。这给互联网带来了不确定性第三方的其余部分,并在市场上产生商业风险。尽管OpenClaw具有强大的执行能力,但它仍然是一台机器,不具备人类辨别是非的能力。用户提交的违反法律、道德或良好实践的任务往往是“无意识”地完成的,并可能导致对社会有害的行为。 OpenClaw的安全风险已经受到国家监管层面的高度重视。近日,工信部网络安全漏洞威胁信息共享平台发布预警。监测发现,开源AI代理OpenClaw的部分实例由于默认或配置不当,存在较高安全风险,极易引发网络攻击、信息泄露等安全问题。通过引入和应用OpenClaw,平台可以让相关部门和用户充分验证公网暴露、隐私完善身份认证、访问控制、数据加密、安全审计等安全机制,落实官方安全措施,防范潜在的网络安全风险。我们建议您继续密切关注有关公告和安全改进的建议。当务之急是明确责任范围。尽管OpenClaw带来了诸多安全风险,但很难阻止AI代理的快速发展。转变风险承担模式已成为这一技术浪潮中面临的关键挑战。法律风险承担的原则是“谁管谁负责”。这也是演员对自己的行为负责、人对演员的行为负责、动物的主人对动物的行为负责的原则。原因如下:传统人工智能应用网络结构集中,大平台充当“把关人”,主要负责过滤安全风险。因此,大部分风险责任在于平台或者平台向开发者负责。人工智能代理包括出色的模型和调用工具。虽然大规模模型仍然由平台控制,但调用工具(如OpenClaw)的实际控制权转移给用户,应用程序的形式变为分布式网络结构。这意味着平台无法控制特定座席的使用场景,控制能力的弱化直接导致责任范围的缩小。这表明,未来人工智能体的应用带来的风险可能主要落在真正的驱动者身上,即用户本身。更复杂的是,即使用户向人工智能代理发出指令,实际的控制效果代理的自主行动能力削弱了这种作用。由于人工智能代理没有生命和财产,因此他们不能对自己的损失负责。最终责任在于“没有实际控制权”的用户。同时,就OpenClaw而言,其大部分技能插件都是由社区开发者提供的。有些插件可能包含恶意代码或安全漏洞,用户在安装过程中很难完全识别,使责任进一步复杂化。我会的。与大平台相比,用户的风险承受能力较差,导致人工智能代理的风险更加频繁和分散。如果不及时有效管理,可能引发系统性风险,影响全球数字经济社会稳定发展。作者认为,有必要针对人工智能代理带来的安全风险建立系统的应对计划。除了完善法律法规、明确相关规定外,应对责任的同时,提高用户的数字素养、加强AI代理社区的自治和良好治理也至关重要。 (作者:王彦川,西北科技大学教授、陕西省法学会、互联网法与治理研究会会长)
(编辑:秦玉文)

发表回复