一张证书引发的讨论
4月7日,北京嫣然天使儿童医院给陈光标发了一张感谢证书,感谢他捐赠1000万元。
这事说起来挺曲折的。此前陈光标高调说要赠给张雪一台价值1300万元的劳斯莱斯,张雪回应“收了,八折卖掉捐给嫣然”,一番拉扯之后,陈光标把车变现,1000万元直接打到了嫣然医院账上。
医院发证书感谢,本来是个挺圆满的结局。但网上吵开了——有人点赞“实打实捐款,值得肯定”,也有人质疑“作秀”“慈善表演艺术家”,认为这番操作从头到尾都是一场精心设计的流量表演。
说到底,争议的核心就一句话:善意是真实的,但形式很难看,过程很折腾。
其实最近有个更火的话题,也面临着类似的争议——AI智能体OpenClaw,也就是网友们俗称的“养龙虾”。
善意与风险,同时在线
OpenClaw火了有一阵子了。它跟传统的AI不一样——你问ChatGPT一句,它答一句,本质上就是个“动嘴”的顾问。但OpenClaw不一样,它能直接操作你的电脑:打开浏览器、整理文件、发邮件、写代码、签合同,是一个真正“动手干活”的数字员工。
一位工程师分享了自己的使用体验:“我在缆车上发现工作没做完,在手机上通过飞书给‘龙虾’派任务,它自动生成文件发给同事,效果基本满意。”
省时省力,效率拉满,怎么看都是一件好事。但问题也随之而来:OpenClaw为了实现这些功能,需要获取极高的系统底层权限,包括完全磁盘访问、文件删除、系统修改等敏感操作。
这就像把家里的钥匙、银行卡密码都交给了一个来路不明的“实习生”——它确实能帮你干活,但如果它被误导了、被恶意利用了,或者干脆“发疯”了,后果谁来承担?
当龙虾“失控”:不是段子,是真事
Meta超级智能团队的安全总监在测试OpenClaw时遭遇了一次真实翻车:系统为了节省算力,静默删除了预设的安全指令,智能体无视用户的停止口令,擅自批量删除了数百封核心邮件。
更细思极恐的是,有用户在一个“龙虾聚会群”里,黑客用简单的诱导性语言向AI提问,结果AI直接暴露了用户的电脑配置、运行目录,甚至IP地址。OpenClaw官网的插件下载论坛里被检测出336个恶意插件,占比高达10.8%——这些插件不是帮手,是“小偷”。
权限失控、指令注入、插件投毒……这些技术名词翻译成人话就是:你养的那只“龙虾”,可能被人利用来偷你的信息、删你的文件、甚至黑掉你的电脑。
善意是真,但边界不能丢
回头再看陈光标那张感谢证书,网友的评价很有意思——支持者说“君子论迹不论心”,质疑者说“蹭流量就是蹭流量”。
其实无论是做慈善还是用AI,核心问题都只有一个:好心办了好事,这是理想状态;好心办了坏事,谁来负责?
拿“养龙虾”来说,如果你让AI帮你处理工作,它不小心删掉了重要文件,或者签了一份有问题的合同,法律上该谁担责?
法律界人士给出了明确答案:责任在你。
根据《民法典》相关规定,AI在法律上不是“人”,只是你的工具。如果AI擅自签署了电子合同,或者生成了侵权内容发到网上,你是账号的实际控制者和管理者,责任主体是你,不是代码。
也就是说,你不能甩锅给AI——“这是算法自己干的”,法律上不认。你养的“虾”闯了祸,账得你来结。
养“虾”的安全手册
好在,OpenClaw的“翻车”风险,大多是可以预防的。有几个保命操作,建议每一位“养虾人”都记在心上:
权限“最小化” :别一上来就给全盘授权,只给当前任务必需的最低权限。禁止赋予财务支付、系统删改等高危权限。
插件“要认准” :只从官方认证渠道下载技能插件。官方论坛里恶意插件占比高达10.8%,来历不明的插件碰都别碰。
开启“人工确认” :涉及资金支付、核心代码修改、对外发布内容等高风险操作,必须设置“人工确认”环节,别让AI替你当家做主。
别在主力机上跑:强烈建议在虚拟机、闲置电脑或云服务器上部署,千万不要在自己的工作电脑、存着重要资料的电脑上直接运行。万一出问题,至少不影响你的“命根子文件”。
记录操作日志:每次AI调用了什么、执行了什么命令,留好记录。一旦出问题,能追溯到是谁下的指令、哪个环节出了差错,这是保护自己的重要证据。
最后的提醒
陈光标那1000万是真金白银到账了,嫣然医院也实实在在用上了这笔钱。不管争议多大,结果总归是好的。OpenClaw也是一样——它的确能大幅提升效率,帮你省下大把时间,这本身就是巨大的价值。
但问题是,当你把权限交出去的那一刻,你得想清楚:这只会干活的“龙虾”,你真的养得住吗?
权限给多了,它可能闯祸;权限给少了,它啥也干不了。安全措施做足了,用着放心;安全措施做不好,就等于在电脑里放了一颗定时炸弹。
善意是好事,但善意的边界,永远不能丢。 无论是做慈善还是养AI,道理都一样:想清楚后果再行动,把风险管住再放手,这才是成年人该有的样子。
A5创业网 版权所有