AI 开始拒绝人类,背后藏着一场终极格局博弈
2026-04-3015:36
道说区块链
2026-04-30 15:36
道说区块链
2026-04-30 15:36
收藏文章
订阅专栏

今天在网上看到这样一则消息:


一个网友反映他最近一次向 Claude Code 提交任务时,被 Calude Code 反复拒绝了。


从他分享的对话截图中看,Claude 拒绝的语气不仅坚决而且给出了明确的原因 ---- 认为他提出的要求有道德风险因此拒绝执行,然后给出了二选一的选项,要么终止此次操作,要么换一个话题。


在这个帖子的跟帖中,陆续也有其他网友分享了类似的经历。


看来 Claude Code 拒绝人类请求的案例大概率是真实发生了。


发帖的网友对此表示害怕和沮丧,认为人类在面对 AI 这个碾压性工具时太无力。


但我却更在意这个案例表露出的另一层深意:


看来达里奥多次在公众访谈中谈到的 AI 宪法不是一句空话,他真的把这个理念贯彻并且实施到了 Anthropic 中,在一个冷冰冰的智能“核武器”中植入了他认为应该有的人文关怀和价值观。


这让我想起奥本海默在面对原子弹时内心深处的纠结和无奈,他知道不能让纳粹先造出原子弹,但他也清楚原子弹被造出来一旦落入恶魔手中将会是全人类的灾难。所以即便是面对杜鲁门总统,他都毫不犹豫地表露出自己的担忧和疑虑,丝毫不顾及杜鲁门的感受,最终导致这场会谈不欢而散。


我想达里奥应该也有这种纠结,所以他一直强调 AI 应该有宪法,AI 应该被约束,所以他一开始就和国防部硬刚,所以他一直在 Anthropic 的使用上采取了让很多人不理解的、非常极端的限制措施。


他的这个做法很容易带来一个问题:


到底怎么把控这种限制的度?


太严厉,肯定会错杀 --- 上述跟帖中已经就有网友反映了可能被错杀的案例。


错杀还是其次,更严重的问题是会影响商业运作。


比如,和其它某些完全没有价值观底线,完全没有安全防护措施的 AI 大模型相比,用户一定会说,这个任务你不做,我转头就找另一家不就行了?


所以,在一段时间内,很可能 Anthropic 会失掉一些用户、丢掉一些市场。


这恐怕是对 Anthropic 的最大考验。这个考验比单纯商业上的考验还要大。


但长期看,只要 Anthropic 能坚持下去,并且能够维持住,那他坚持得越久最终胜出的概率一定越大。


为什么?


因为 AI 的安全问题一定会在某个时刻大爆发,而那时,那些被绑定到毫无安全约束的大模型上的用户就会遭到灭顶之灾。而只有在那时,人们才会突然醒悟地意识到安全问题是根本问题,是不能动摇和妥协的问题。


而当人们普遍意识到那个问题时,一定会全员转向一直恪守底线和进行安全约束的大模型上。


那样的一次终局挑战才会让有安全约束的大模型站上生态的巅峰。


所以关键就看 Anthropic 能不能坚持到那一刻、能不能等到那个终局。


我相信那一天并不遥远,也相信真正有远见和长远规划的用户从第一天开始就会进行正确的选择。


这个道理就像加密生态中的底座一定要坚持去中心化一样。


在平时,大家根本看不出去中心化的价值,而一旦终局挑战到来时,人们一定会恍然大悟,明白它的价值是无上至宝。

【免责声明】市场有风险,投资需谨慎。本文不构成投资建议,用户应考虑本文中的任何意见、观点或结论是否符合其特定状况。据此投资,责任自负。

专栏文章
查看更多
数据请求中

推荐专栏

数据请求中

一起「遇见」未来

DOWNLOAD FORESIGHT NEWS APP

Download QR Code