新闻中心

大厂封禁外部AI,无异于自断前程
发布时间:2026-04-10 浏览数:11
最近科技圈有两条内部消息,吵得挺热闹。
美团先动了手:不再推荐业务团队用阿里的Qwen等外部大模型,真要想用,得写理由、上报到老板级别的人审批;同时逼着大家优先用自家的自研模型LongCat(龙猫)。
京东更直接,两周前开始,在公司网络里直接拦截豆包、ChatGPT、DeepSeek这些外部AI平台,员工一打开就被挡回去。拦截页面上,一边是自家的JoyAI入口,另一边只有个特殊申请通道,走流程才能用。
官方说法是“保护数据安全、合规”,这话听着没毛病,但这两家大厂的做法,其实开了个危险的头。

先说说他们的道理,确实没完全瞎扯。现在员工用外部AI处理内部文档、分析业务数据,这些敏感信息可能会传到第三方服务器,对于美团、京东这种握有大量用户和商业数据的公司,风险是真实存在的。
而且推自家模型也有商业算盘:大模型得靠真实场景打磨,员工天天用、给反馈,才能快速迭代,还能减少对外部厂商的依赖。毕竟美团、京东都有自己的自研模型,也在大力推进研发,想让自家产品尽快成熟。
其实金融、医疗这些强监管行业,早就限制外部AI了,美团京东也算跟上了这个节奏。但问题在于,保安全有更好的办法,他们选了最省事、最偷懒的那种。

真正的安全,靠的是数据分级、权限控制、数据脱敏这些专业操作。现在很多外部AI都有企业版,能私有化部署,合同里明确约定数据不用于模型训练,还有可查的审计日志。
但这套方案太麻烦,要安全、法务、IT团队协同,折腾好几个月才能落地。而封禁呢?一条网络策略、一个拦截页面,半天就搞定,汇报工作时也能交差,至于数据是不是真的安全,反而没人深究。
说白了,封禁解决的是“能不能交差”,不是“真的安全”。员工可以截图发微信、用个人手机登外部AI、回家用私人电脑处理工作,这些漏洞根本堵不住。越粗暴的封禁,员工越想绕过,风险反而从明面上转到了暗处,更难管控。

更严重的代价,是藏在安全背后的——自家模型会失去竞争力。
员工只用自家模型,给的反馈就没了参照系。比如同时用LongCat和GPT做同一个任务,能清楚知道自家模型慢在哪、差在哪、好在哪,这种对比反馈,才是模型迭代的关键。
现在封了外部模型,员工只能说“好用”或“不好用”,说不出具体问题,产品团队就像闭着眼睛打磨产品,最后练出来的不是竞争力,只是一堆没用的数据。

这让我想起诺基亚的教训:2007年iPhone发布前,诺基亚内部评测自家触屏手机,觉得打字效率低,用户不会接受。可他们只测自己的手机,没见过iPhone,等反应过来,市场早就没他们的位置了。
美团的LongCat、京东的JoyAI当然不是诺基亚,但道理一样:靠制度指定、靠审批保护的模型,没经过真实市场对比,再怎么打磨,也难长成世界级的好产品。
还有个容易被忽视的问题:AI的价值,很多时候就在于随手一试的灵感。产品经理想思路、工程师找bug、运营写文案,打开AI聊几句、粘个报错,立马就能有方向,这种低门槛、即时性的使用,才是AI的核心价值。
可申请审批制,直接毁了这种便捷性。填申请、等审批,灵感早就凉了,大多数人索性就放弃用AI,等于硬生生剥夺了员工探索AI的可能。

更长远的影响在人才市场。现在顶尖的工程师、产品经理,早就把AI当成必备工具,就像电脑、网络一样。如果一家公司限制用外部AI,另一家公司让员工自由用最好的工具,人才会选哪一家,不言而喻。
现在正是中国大模型的关键期,DeepSeek、Kimi、智谱这些厂商都在往全球走,想证明中国AI不差。可中国最好的AI练兵场,就是美团、京东这些拥有海量用户和业务场景的平台,员工的真实使用,才是模型迭代的最好动力。
可现在,这些平台却在关门。一边喊着“中国AI走向世界”,一边在国内筑起高墙,这不是保护,是在削弱中国AI的全球竞争力。

其实保安全和用好用的工具,根本不矛盾。企业可以采购外部AI的企业版,约定数据不出域;也可以私有化部署,敏感工作用内部模型,普通场景让员工自由用。
这些方法虽然麻烦、费钱,但能真正解决问题。而简单粗暴的封禁,只是把问题藏起来,最后只会让自己陷入一潭死水。
大厂的每一个先例,都可能成为行业标配。如果更多大厂跟着封禁外部AI,中国互联网的工具环境,只会慢慢落后于全球竞争对手——这才是最可怕的后果。

特别声明:

转载上述内容请注明出处并加链接。上述内容仅代表作者或发布者的观点,与英琦科技的立场无关。如有任何疑问或了解更多,请与我们联系。电话:05356752331 邮箱:1041038439@qq.com


留言咨询

*
*
*
*
*
提交