60天狂飙3000亿!河南小伙“养龙虾”发大财,如今被投资者买疯了 3月初的深圳,有人抱着笔记本排队,有人拖着小主机,还有人干脆把服务器塞进箱子里赶来,只为让工程师帮忙把一个叫OpenClaw的软件装进自己的电脑里。 几分钟注册完成,指令敲下去,它就能自己开软件、找文件、写代码、调接口,把原本要反复点鼠标的流程接过去跑。 有人拿它做旅游网页,二十分钟就能搭出可用的页面,放在过去往往要花上更久的工时。 这种从会聊天到能动手的变化,让它在网上有了更生动的名字,龙虾。 养龙虾的意思很直白,把一个开源智能体框架部署好,再接入大模型当大脑,让它拥有手和眼,能接管键盘鼠标和浏览器去完成任务。 它不自产生智能,背后要接DeepSeek、GPT之类的模型,再配上工具权限、文件路径、账号登录这些现实细节,才算真正能干活。 热度起来后,新兼职也跟着出现。 有人专门上门安装和调试,按设备收基础费用,遇到公司要做定制流程,价格直接按需求往上走。 需求侧也很真实,有的设计团队会在下班前把资料搜集的任务丢给它,让它夜里跑完,第二天只验收结果。 当龙虾从玩具变成生产工具,比较也就换了题目。 过去两年大家盯着谁更聪明,到了2026年,开发者更在意谁更会干活。 智能体任务不是答题,模型要能拆步骤、读写文件、反复调用工具,还得在中间环节不迷路,任何一处出错都可能整单失败。 这也催生了专门面向OpenClaw任务的榜单PinchBench。 它用自动化检查加上大模型裁判的方式做评分,核心指标是任务成功率,同时也会看速度和成本。 按3月11日更新的数据,成功率前排已经挤成一团。 Claude Sonnet 4.6做到86.9%,Claude Opus 4.6是86.3%,GPT-5.4是86.0%,差距很小。 国产模型也进了第一梯队,Kimi K2.5为84.8%,MiniMax M2.1为82.2%,DeepSeek V3.2为81.9%。 更扎眼的是,很多人常用的GPT-4o成功率只有64.7%,说明聊天好用不等于跑流程稳。 成本在智能体场景会被放大。 一趟完整任务的Token消耗可能是普通对话的数倍到十几倍,有人按月算账要花上千美元。 安装很便宜,长期养起来很贵,这句话在圈子里传得很快。 当钱开始烧,选模型就变成工程决策。 要做对外的生产流程,优先看成功率。 要频繁迭代原型,更看速度和稳定。 预算紧张的个人项目,就得把每次运行的成本摊到成功率里算性价比。 也有人发现,中型模型有时更稳。 它们推理路径短、响应快,在多步骤工作流里不容易绕远路,适合当数字员工的常驻大脑。 就在龙虾热把开发者推向现实账本时,监管也给了降温提醒。 3月8日,工信部发布紧急预警,指出OpenClaw在默认或不当配置情况下存在较高安全风险。 智能体具备持续运行、主动执行、调用系统与外部资源的能力,信任边界又容易模糊,缺乏权限控制、审计与加固时,可能被指令诱导或被接管,带来越权操作、信息泄露一类问题。 落到操作层面,关闭不必要的公网访问、补全身份认证与访问控制、做好数据加密和日志审计、及时跟进安全公告,属于最低成本的护栏。 企业也需要把敏感任务划清边界,把账号、密钥、文件权限分层管理,不把全套钥匙一次性交出去。 这条安全线并不妨碍产业往前走,反倒逼着产品更像能进办公室的工具。 一些地方已经开始把开源社区、产业落地、人才支持和合规要求一起打包推进,既要热度,也要可控。 在这条链条的另一端,资本市场把注意力投向提供大脑的公司。 一家做多模态大模型的公司在2026年1月完成上市后,股价在两个月里走出惊人的涨幅,市值迅速膨胀。 它的创始人来自河南商丘,早年靠读书走出小城,本科读数学,后续在科研体系里把模式识别和人工智能一路深耕。 在一家视觉AI公司做了多年工程化落地后,他选择创业,把方向押在低成本高性能的多模态模型架构上。 当OpenClaw把任务执行变成全民体验,能提供稳定模型、价格可控、又能出海变现的公司,很容易成为资金追逐的对象。 龙虾热看起来像一场全民装机活动,背后其实是工具形态的切换。 接下来一段时间,排队装机的热闹会散去,留下来的会是能把权限、成本、成功率算清楚的人。 谁能把龙虾养得省钱又安全,谁就更可能把它变成长期生产力。


用户76xxx40
这消息也太慢了,前天百度热搜是花钱装龙虾,昨天花钱卸龙虾也上百度热搜了,你今天才发装龙虾的消息