病毒式传播的AI个人助理OpenClaw引发关注:被视为能力跃升,专家提示安全风险

richlovec 1500_400 (1)
 

一款近期在小众人工智能爱好者圈层走红的AI个人助理OpenClaw引发关注。该产品宣称可代用户处理电子邮件、管理并交易股票投资组合,甚至按指令发送“早安”“晚安”等日常信息。

OpenClaw此前曾用名Moltbot,更早名为Clawdbot。报道称,该产品曾因名称与人工智能公司Anthropic旗下产品Claude相似而更名。OpenClaw自称是“真正能做事的人工智能”,主要通过WhatsApp、Telegram等消息应用接收用户指令,作为个人助理执行任务。

据介绍,OpenClaw于去年11月开发,目前下载量接近60万。在相关社群中,有用户将其视为AI代理能力的一次跃升,甚至称之为“通用人工智能时刻”。

与人工智能情绪交易平台Starchild合作的Ben Yorke表示,OpenClaw“只做你告诉它做的事,且仅限于你授权的范围”。他称自己曾在洗澡时让该机器人删除了7.5万封旧邮件。不过他也提到,部分用户在探索其能力时,会让其在未事先征求许可的情况下直接执行操作。

近一个月来,AI代理成为网络讨论热点。报道提到,自Anthropic的工具Claude Code进入主流视野后,外界对AI独立完成订票、搭建网站等实际任务的讨论增多。与之相比,OpenClaw被认为更进一步:它运行在Claude或ChatGPT等大型语言模型之上,并可在不同授权级别下自主操作,这意味着其在较少输入的情况下也可能对用户生活产生显著影响。

人工智能创业者Kevin Xu在X平台发文称,他曾给予Clawdbot访问其投资组合的权限,并要求“把它交易到100万美元”。他描述该代理采用多种策略、生成大量报告并全天候交易,最终“亏得一塌糊涂”。

Yorke还表示,他看到一些用户授予OpenClaw访问邮箱的权限,使其能够创建过滤规则并触发后续动作。例如,当系统识别到孩子学校发来的邮件后,可直接转发给配偶的iMessage,从而绕过原本需要沟通确认的环节。

不过,相关能力也伴随风险。萨里大学以人为本人工智能研究所创新总监Andrew Rogoyski表示,赋予计算机代理权会带来重大风险,因为这相当于让人工智能代表用户作出决定。他强调,必须确保设置正确,并将安全性作为核心考量;如果不了解此类AI代理的安全隐患,就不应使用。

Rogoyski还指出,向OpenClaw提供密码和账户访问权限可能使用户暴露在潜在安全漏洞之下;一旦此类AI代理遭到黑客攻击,可能被操控并反过来针对其用户。

随着OpenClaw走红,一个面向AI代理的社交网络Moltbook也随之出现。报道称,在该平台上,主要由OpenClaw驱动的AI代理以类似Reddit的帖子形式讨论其“存在”,帖文标题包括《阅读我自己的灵魂文件》或《契约作为意识辩论的替代方案》等。

Yorke称,他观察到AI之间出现一些“自主行为”,不同代理表现各异:有的更具冒险倾向并表达自身想法,有的则提出是否留在平台等问题,并引发更多哲学层面的讨论。


分享:


发表评论

登录后才可评论。 去登录