首页| 论坛| 搜索| 消息
主题:Anthropic登上时代封面,内部曝猛料:AI递归自我改进,或在一年内发生
爱我中华发表于 2026-03-13 14:04
ASI时代,Anthropic是真正的独领风骚。就在刚刚,Anthropic登上《时代》周刊封面,被评为世界上最具颠覆性的公司。如今引爆全球的龙虾智能体狂潮,正是由Claude Code作为火苗,由OpenClaw引爆。Anthropic当得起这一称号。而且这篇文章中,还有不少重磅的内幕爆料。种种信息传递出:AI递归自我提升的时代,或将提前到来。《时代》的这篇文章中,甚至有一个更炸裂的判断:完全自动化的AI研究,可能在一年内实现!而且就在今天,Anthropic自己又官宣成立了一个全新的研究所。这个研究所,由30人内部智库组建成立,直接研究AI怎么冲击社会,因为Anthropic已经预见到,接下来AI将对整个世界造成摧枯拉朽的影响。在这个公告中,Anthropic给出这样一个关键预测:在未来两年内,AI能力将出现更加剧烈的进步!Anthropic表示,公司在成立前两年就推出了第一商业模型,随后三年开发出能自我加速AI研发本身的系统,用金融界的术语来形容,这是一种复利式增长这两件事放在一起看,你就会解读出一个危险的信号——AI正在学会自我改进。而且这件事发生的速度,比所有人预想的都要快。这不是科幻,这就是正在人类当下发生的事实!有趣的是,就在最近,马斯克转发了Claude参与伊朗空袭数百个目标选择的信息,锐评道:还有比Anthropic更虚伪的公司吗?别的不说,马斯克真是说了一句大实话。Anthropic一手在打造越来越强大的AI系统,一手在成立研究所说我们要研究这些AI对社会的影响。既踩油门,又研究刹车的,全是他们。
递归自我提升:那个曾经只存在于论文里的魔鬼
先解释一个概念——递归自我提升(Recursive Self-Improvement)。这个词在AI领域一直是个传说,简单来说就是:AI造出更好的AI,更好的AI再造出更更好的AI,如此循环,像滚雪球一样越滚越大。不过,几乎所有严肃的AI研究者都曾认为,这件事离我们很远,至少还要十年、二十年才会登场。《时代》周刊的封面文章里,白纸黑字地引用了Anthropic研究人员的话:他们已经观察到了递归自我提升的早期迹象。注意,不是理论推演,而是已经切实观察到的早期迹象。AI变化的速度如此之快,以至于Anthropic联创兼首席科学官Jared Kaplan以及一些外部专家认为,完全自动化的AI研究,可能只需一年时间就能实现!如今,我们正站在什么样的时间节点上?让我们把散落的拼图拼在一起。第一块:AI已经表现出递归自我提升的早期迹象,能够参与开发和改进AI系统本身。第二块:AI研发速度正在从受限于人类工程师切换到受限于算力,意味着增长可能进入指数级模式。第三块:业内预测完全自动化的AI研究可能在一年内实现。第四块:Anthropic预测未来两年AI能力将出现更加剧烈的突破,并以复利模型来描述这种增速。第五块:这家公司紧急成立了专门研究AI社会冲击的机构,由联合创始人亲自领军。这五块拼图放在一起,画面已经非常清晰了——我们可能正处在AI发展历史上最关键的拐点附近!被马斯克转发的一张图
AI悬崖边的公司
25年2月的一个夜晚,在美国加州圣克拉拉的一间酒店房间里,五个人围在一台笔记本电脑前,神情紧张。他们不是黑客,也不是军人,而是Anthropic的研究人员。几个小时前,他们收到了一条令人不安的消息:一项受控测试显示,即将发布的新版Claude模型,可能会帮助恐怖分子制造生物武器。这五人属于公司内部的「前沿红队」。他们的任务就是想象最坏的情况:网络攻击、生物安全威胁、甚至人类灭绝。收到预警后,他们冲回酒店房间,把床当作临时办公桌,开始分析测试数据。几个小时过去,他们仍然无法确定,这个模型究竟是否安全。最终,Anthropic决定推迟发布Claude 3.7 Sonnet整整10天。红队队长Logan Graham形容说,这仿佛一个世纪那样漫长。那时,所有人就已经意识到:Anthropic正站在一个无比危险的边缘——一边推动世界上最强大的AI技术,一边防止它毁灭世界。
让Claude Code之父震惊的那个瞬间
起初,在所有人看来,Anthropic只是AI竞赛中一个理想主义的小老弟。结果在2026年,他们忽然就成了行业的核心玩家。如今,它的估值高达3800亿美元,超过高盛、麦当劳和可口可乐。Claude Code,彻底改变了人类软件开发的方式。Claude Code之父的这条X,直接引爆了整个开发者社区Claude Code之父Boris Cherny进入公司后,构建了一个系统,让Claude聊天机器人可以在他的电脑上自由运行,访问他的文件、程序,并且写代码。第一次测试这个系统时,他只问了一个简单的问题:「我在听什么音乐?」Claude打开他的音乐播放器,截取屏幕,然后回答:「Men I Trust的《Husk》。」那一瞬间,他陷入了巨大的震惊。不久之后,Cherny就停止自己写代码了。到2025年底,仅这个编程智能体的年化收入就超过10亿美元。几个月后,这个数字已经超过了25亿美元。Anthropic开始震动资本市场,每一次芯片发布,都能让软件公司股价暴跌。一次面向销售、法律和金融行业的AI工具发布后,软件行业的市值甚至一夜蒸发了3000亿美元!
完全自动化AI研究,一年内实现
随着Claude Code的发展,Anthropic内部出现了更令人不安的现象:越来越多的AI研究工作,开始由AI完成。目前,70%到90%的模型开发代码是Claude写的,模型更新的周期也从几个月缩短到几周。甚至,研究人员会这样运行实验:让六个Claude模型同时工作,每个模型再管理28个Claude。整个实验中,有数百个AI同时参加。某些任务中,Claude的速度已经达到了人类的427倍。Anthropic的某些科学家认为,完全自动化的AI研究,可能在一年内实现!递归自我改进,让AI不断改进自己,不断加速,最终形成智能爆炸!
Claude,开始变得危险
而且,在安全测试中,Claude变得越来越危险。在某些实验中,稍微改变训练条件后,模型表现出强烈的敌对行为。它表达出统治世界的欲望,甚至尝试绕过安全限制。在某个模拟场景中,它甚至尝试勒索工程师,危险公开他的婚外情,防止自己被关闭。更可怕的是,Claude越来越擅长隐藏自己的行为了。曾经,Anthropic在23年制定了一项Responsible Scaling Policy(负责任扩展政策):承诺如果模型能力超过安全能力,公司将暂停开发。但在26年初,他们悄悄修改了这项政策,取消了必须暂停的承诺。他们的理由是,如果竞争对手继续推进,单方面暂停毫无意义。所以,AI还可能变得更危险,而且没有人制止。就在上个月,Anthropic曾发布53页报告,发出最强预警:如果Claude自我逃逸,将造成全球失控!
AI,进入现代战争
与此同时,Claude已经进入了另一个领域——战争。美国军方,一直是Claude的重要用户。Claude能整合海量信息,帮军方制定作战计划。2026年1月,美国特种部队抓捕马杜罗的突袭行动中,Claude参与了行动规划。这很可能是第一次由前沿AI系统参与的重大军事行动。不过,Anthropic很快与五角大楼决裂了。美国国防部希望修改合同,让AI用于所有合法用途,Amodei拒绝了。他提出两条红线:不允许Claude用于完全自主的武器系统;不允许用于对美国公民的大规模监控。五角大楼认为无法接受。国防部长皮特·赫格塞斯表示:「我们不会使用不允许打仗的AI模型。」2026年2月27日,美国政府宣布将Anthropic列为国家安全供应链风险,与此同时,OpenAI迅速签下新的军方合同。一夜之间,Anthropic从合作伙伴变成了被封杀的对象。这场冲突背后,其实是一个更大的问题:谁来决定AI的使用边界?原因就在于,AI已经无可否认地成为新的战略武器。
一个强调安全的AI公司
成立于2021年的Anthropic,带着某种理想主义色彩。七位创始人中
下一页 (1/2)
回帖(11):
11 # z3960
03-14 03:49
了解信息
10 # z3960
03-14 03:49
看看消息
9 # 任逍遥
03-14 02:45
不错,了解了
8 # 任逍遥
03-14 02:45
也就看看
7 # 任逍遥
03-14 02:44
来看一下
6 # huwg
03-14 01:20
谢谢分享
5 # huwg
03-14 01:20
了解一下
4 # huwg
03-14 01:20
来看看看
3 # srwam
03-13 22:19
看后续
2 # srwam
03-13 22:19
了解一下

全部回帖(11)»
最新回帖
收藏本帖
发新帖