在 AI 热潮中,一场惊心动魄的操盘大戏悄然上演。操盘手们敏锐地捕捉到市场对 AI 概念的狂热,纷纷涌入相关板块。他们借助各种手段,如夸大业绩预期、制造虚假消息等,推高 AI 概念股的股价。起初,股价如火箭般飙升,投资者们盲目跟风,纷纷投入大量资金。然而,泡沫终究会破裂,当真相逐渐浮出水面,那些被操纵的股价开始大幅下跌,投资者们遭受惨重损失,留下一地狼藉,这场 AI 泡沫操盘的闹剧也以投资者的伤痛而告终。
最近各大科技圈,都在讨论Builder.ai破产崩塌的这件事情。
要知道,Builder.ai一度是当红辣子鸡,妥妥的独角兽企业,微软、软银、卡塔尔投资局先后下注,总融资额超4.5亿美元,估值飙升至13亿美金,媒体称其为“AI时代的开发神器”、“下一个Stripe+OpenAI的结合体”。
但前不久,这个曾经光芒万丈的AI独角兽,烂尾了:网站虽然没有下线,但客服消失,全球项目冻结;员工讨薪、客户维权、投资人追责;公司同时在英、美、印、新五地申请破产……
这不是一场普通的创业失败,这是一次AI时代的公开爆雷。
如果我们要写一本《AI泡沫操盘实录》,Builder.ai的故事足以占据第一章。
一、从宴宾客,到楼塌了
让我们从2016年,故事的开场说起。
那时候的Builder.ai还叫做Engineer.ai,由连续创业者Sachin Dev Duggal 创办,此人是那种“简历自带神话滤镜”的人物:14岁开始职业生涯、17岁为德意志银行打造套利系统、21岁在帝国理工一边读书一边做Nivio这家公司,估值一个亿。
它的“新创业项目”主打的是一个看似激进但令人着迷的愿景:“用AI帮你写App。”
当时是2016年,AI还停留在“图像识别+语音助手”阶段,离真正的代码自动化离商用还有五六年光景。但Duggal不等了,他抢先一步,提出“AI构建软件”的蓝图:开发者可以退休,企业可以免掉外包,人人皆程序员。讲真,这个蓝图谁不心动?
2020年,疫情爆发,全球中小企业被迫“线上化”,No-Code赛道开始升温。
Builder.ai顺势去掉“Engineer”身份,摇身一变,成了更具力量感的“Builder”——不再只是写代码的工程师,而是一个能为你建造未来的工具型平台。
彼时,他们打出一句极具传播力的Slogan:“就像点披萨一样简单,生成App。”
这句Slogan很厉害,它简单、快乐、去工程师、极致隐喻,比任何一篇技术白皮书都有效。从印度创投圈一路传到硅谷,从创业大会到VC私董会,Builder.ai成了“无代码+AI”赛道的辣子鸡。随之而来的,就是高举高打的融资节奏。
微软、软银、卡塔尔投资局等巨头接连下注,媒体称它为“下一个Stripe+OpenAI的结合体”。
2023年的春天,Builder.ai完成D轮融资,单轮获得2.5亿美元。估值高达12亿至15亿美元,迈入“超级独角兽”行列。
这轮融资里,卡塔尔投资局是主投方,微软则以“战略合作”身份参股,号称要将Builder.ai打造成“开发者未来的新操作系统”,而创始人Duggal也获得2023年安永英国年度企业家奖获得者,可谓是春风得意。
正是在这一阶段,他们推出了最具争议的“AI产品”:一个名为Natasha的AI项目经理。
Natasha自动理解用户需求,调配资源、生成代码、交付版本,还能智能推荐迭代功能——顶得上一个永不罢工的PM+CTO+工程师团队。
2025年初,公司对外发布2024年营收预测:2.2亿美元。数字漂亮,增速惊人,财务模型倍受资本市场追捧。Duggal也被邀请到各大重要会议发言演讲,并以此2.2亿为估值基础推动新一轮融资。
但到了年终,一场内部审计揭开了真相:实际营收只有5500万美元,仅是预测的四分之一。
而且多名前销售员工承认,公司长期存在“签了未执行合同也计入销售额”“项目重复入账”等“销售灌水”行为。美国检察官启动初步调查后,发现部分合同文档为伪造或无客户授权,认定这是系统性伪造财报。
更令人不安的是,虚假的技术叙事也被瞒不住了。Builder.ai最核心的技术卖点,是它的AI项目经理“Natasha”。
公司宣传它能理解用户需求、自动生成功能建议、调配资源、实时交付代码、持续反馈优化。
但据前员工匿名爆料,Natasha的“AI能力”不过是一个前端聊天界面,背后连接的是印度海得拉巴的数百名外包工程师。这些工程师按照模版分工,一点一点手动拼接与整合,而“AI”只是替他们遮脸的面具。
2025年2月,Duggal以一种近乎荒诞的方式“卸任”:他辞去CEO职务,自封为“Chief Wizard”(首席魔法师),官方解释为“进入创新探索阶段”,但在业界,这更像是为将要落下的铁锤预留逃生门。
真正掌舵公司的是新任CEO Manpreet Ratia,一个财务出身的执行型角色。外界普遍的解读是公司已进入“断臂求生”的阶段。
果真,2025年5月初,被欠了5000万的债主Viola Credit以债务违约为由,直接冻结Builder.ai账户中的3700万美元。但此时,公司全球账户仅剩500万美元,且大部分锁在印度本地账户中,无法自由调动。
员工无法领工资,媒体纷纷曝出裁员、客户维权、创始人涉及洗钱案等消息。终于,5月20日,Builder.ai被迫同时在英国、美国、新加坡、印度、阿联酋发起破产程序,运营冻结,项目中断,投资人集体追责。
这场AI神话,正式终结。
回头看,你不得不感慨,现实比小说精彩。
一个从未真正有技术的公司,仅仅从“一句口号”开始,用“一个角色”包装技术,用“几轮融资”积累神话,靠讲故事,就能拿到微软、软银、卡塔尔投资局等超过4.5亿美元的投资。
但,你不可能在所有时间骗过所有人,企业的崩塌只是时间问题。
更值得警惕的是,Builder.ai只是一块浮出水面的冰块,冰山之下,还有一大群靠“AI幻想叙事”推动融资、签单与市值的公司。
二、披着“AI”外衣的AI公司
我们梳理了一些披着“AI”的外衣,他们讲述着看似炫目的技术未来,却在现实中依赖人工操作、虚构数据、甚至伪造合同的假AI公司:
Nate:“AI购物体验”?其实是菲律宾呼叫中心
Nate自称是一款AI自动代购助手,用户只需点击“Buy”,系统便会自动跳转各大电商平台帮你结账、下单、支付,全流程“无人工干预”。
但据SEC调查,自2019年起,Nate其实雇佣了大批菲律宾呼叫中心员工,手动为用户操作下单流程,甚至连付款验证也是人肉复制。公司在内部明令员工不得对外公开真实运作方式,并在融资路演中伪造AI演示。
目前,创始人面临电信诈骗与证券欺诈双重指控,最高或面临20年监禁。
Joonko:AI招聘平台?实为合同伪造剧本
以“AI匹配多元候选人”的名义起家,Joonko号称拥有超过100家企业客户和10万求职者,后台由人工智能自动为企业推荐最符合DEI(多样性、平等、包容)政策的人才。
SEC的调查显示,公司客户列表大量造假,简历数据伪造,AI能力被严重夸大。但Joonko靠这些指标从投资者手中骗取了2500万美元,并用虚构对账单、美化数据维持“高速增长”的假象。
目前,创始人面临刑事起诉,公司已破产。
Innodata:AI平台?实为“模板工厂+外包编辑”
这是一家声称拥有“生成式AI数据工程平台”的老牌企业,其旗舰产品Goldengate被包装为企业内容生成的AI引擎。
但集体诉讼文件显示,这个平台大部分内容由海外外包工人使用Word模板手动填充,而非自动化生成。AI只存在于PowerPoint演示里,现实中不过是低成本人工流水线。
目前公司面临诉讼,股东提起集体索赔,还无法预测案件结果,也无法保证不会对其财务状况造成重大不利影响。
Evolv:AI安检系统?误识水瓶为武器
Evolv Technologies自称其AI安检系统“Evolv Express”能无接触精准识别武器,常用于学校、演唱会、体育场馆。
然而,FTC指出,该系统经常漏报刀具、枪械,却将水瓶、笔记本电脑误识为高风险目标,导致大量误报与信任危机。与此同时,公司夸大了系统销售数量与检测准确率。
目前,CEO被解雇,CFO辞职,公司被调查财务造假行为。
GitLab、Delphia、Global Predictions:AI加持金融与开发?实则营销
GitLab:声称AI自动生成代码功能卓越,误导投资者。声明与真实能力严重不符,导致股价重挫20%。
Delphia:号称“用AI分析社交数据做投资决策”,但SEC调查后认定其模型并无AI深度,仅是传统数据筛选逻辑,罚款22.5万美元。
Global Predictions:自称是“首个人工智能财务顾问”,提供AI预测+税务收割服务。实则虚构管理资产规模、AI能力,最终被罚17.5万美元。
这些公司一个共同点:AI是它们故事中的主角,却不是产品中的主角。
而且他们有一套“AI洗白AI washing”的模板:
首先,用一个酷炫的AI名词(Natasha、Goldengate、Evolv Express)遮盖实际流程;
接下来,用虚构客户、虚高营收、幻觉指标撑起估值;
再用路演视频和PPT制造技术错觉;
重点来了,一定要将人工操作伪装为自动化流程;一旦资金耗尽,便以“首席创新官”、“战略顾问”等名义悄然卸任。
以前,在环保行业有洗绿(Greenwashing),在ESG有道德洗白,而在AI时代,我们看见了AI washing。
这并不是一家公司、一个骗子或者一轮泡沫的问题,而是整个产业链条从讲故事、到融资审批、再到舆论评价体系的多重勾连。
每一个人都急于站上“AI”的浪潮之巅,但更多的人等来的是泡沫。
三、AI创业者与投资者的五大避雷指南
很多人在看到这些AI公司崩塌的案例,第一反应是:“这说明AI不靠谱。”
这是一个误判。
AI从来不是这场闹剧的主角,真正的主角,是“AI包装”。
特别是在这个AI爆发的节点上,各种AI技术鱼龙混杂,公司参差不齐,那AI从业者以及投资人怎么避雷呢?
看清楚你投的是“智能”,还是“人工+PPT”?
投资人和客户都不应满足于“会讲故事的创始人”,而是提出具体技术验证要求:
提示对照表:AI模块哪些功能靠模型、哪些靠人工?
要求公开demo(可视频录制)+ traceable input-output logs;
观察模型行为是否具备泛化能力还是“预设结果拼接”。
现实往往很简单:真AI的表现,不会只有一句营销语那么空洞。
引入“软件托管机制”
软件托管机制,即:开发中客户资金由第三方托管,源代码交由中立方保管,若项目违约或中断,资金可退、代码可交。
在Builder.ai事件中,数以百计的客户项目“蒸发”,有用户称损失达6.5万美元。若实施托管(Escrow),这种损失至少可以部分缓解。
这一措施不仅是为了保护客户,也能让真诚创业者在失败时能保留最低限度的声誉资产。
引入第三方AI模型审计
技术不是“信仰”,而应该像财务一样被审计。
会计信息要被审计,AI模型也应该。尤其是面向公众、承担功能交付责任的模型,必须:
经权威第三方验证其架构来源、训练数据、安全边界;
公布其Bias控制与不可控异常比例;
标注训练是否包含合规、可追溯的数据集;
英国Turing Institute与欧盟AI ACT正在酝酿AI审计机制,中国也需要有相应的机制跟上。
“慢投资”“抢到不算安全,看清楚才稳健”
在Builder.ai背后,是一次典型的“恐错心理投资”:微软、软银、卡塔尔都疯狂押注,其实是FOMO在作祟——是不是我不投就会错过下一个OpenAI?
于是尽调流程简化、合同风险容忍度上升、媒体话术照抄……一切只为跑得快,却忘了技术周期和真实交付之间存在巨大的时间滞后。
建议LP、GP之间建立“冷启动缓冲协议”:AI项目投前必须经历多轮评估节点,设置“不可跳过”的尽调门槛。
设立清晰的、强制的披露机制
绿色洗白让我们懂得了“环保承诺”不能只看字眼;AI洗白则呼唤一个清晰的、强制的披露机制:
每个使用“AI”字样的产品,必须标注:AI技术类型+功能范围+是否使用开源模型+可审查参数范围;
类似“食品营养表”或“电器能效标签”的披露框架;
对虚假声明设置法律责任,强化监管对AI叙事的“入口把关”。
Builder.ai的崩塌,它让我们意识到,不是AI不靠谱,而是我们太容易轻信那些打着AI旗号的、没有交付诚意的伪技术公司。
更重要的是,它也提醒我们:我们需要的不是更多“大词”、“新概念”,而是更真实的模型边界、更耐心的治理节奏,以及对“技术就是责任”这一信仰的重新敬畏。
因为,真正的AI信任,不是用宣传建成的,而是用结构、用验证、用责任感一砖一瓦搭建出来的。