⚠️ 马斯克警告:2027年失业潮开始,你只剩1095天 _ 达沃斯完整解读:2030年不是奇点,是普通人的“死局”。

Conteúdo do Vídeo OriginalExpandir Vídeo
  • 马斯克与Larry Fink的对话揭示了未来AI的影响和重要性。
  • 马斯克提出AI将在203年超越人类智慧。
  • 他强调解决物理瓶颈的重要性,以避免未来的死局。
  • 马斯克不仅关注股价,还在讨论全球生存与竞争。
  • 未来三年内每个人都需要思考自身的转型与适应。

如果让你在全球首富和华尔街之王之间选一个信源,你会听谁的? 今天马斯克和贝莱德的CEO Larry Fink在达沃斯的对谈刷屏了。这场深度对话绝大多数媒体的标题都是马斯克预言203年AI超越人类,或者特斯拉股价要起飞。但是我在看完全程回放后好几遍,我确实感到几倍发凉,因为这场对话全球只有不到1%的人看懂了真正的信号。

马斯克埋了五个预言,每一个都在未来四年内兑现,而大多数人只盯着股价涨跌。就在这场对话的六天前,1月16日,川普刚刚宣布解除对华AI芯片的出口禁令,全网欢呼。华尔街以为马斯克会感谢总统,结果在视频的14分47秒,马斯克当着全球投资人的面直接开火。他说:“We are terrifying ourselves to death”,我们在用关税自杀。什么意思? 原来大家只看到了1月16号的解禁芯片,但没注意到两天前1月14号,多家媒体报告白宫悄签了另一个行政令,对半导体设备和光伏组件加征25%的进口关税。

马斯克在台上直接甩出数据,打脸中国每年新增30万G瓦的太阳能装机,这比全世界其他国家加起来还多。而我们在干什么? 我们在给变压器和太阳能板加关税。这就是为什么这场对话不是在聊股价,而是在聊生死,因为马斯克给出了一个恐怖的时间表:203年,AI算力将超越全人类智慧总和,距离那一天可能只剩下不到4年了,掐指一算,总共就14天。

而在这场AI竞赛里,马斯克看到的赢家可能不是华盛顿,而是太平洋对岸。为什么呢? 因为数据不会撒谎,中国每年培养20万的STEM工程师是美国的两倍,中国的博士数量也是美国的两倍。马斯克卖的不是车,他是在卖一张文明保险。

今天这期视频咱们也不聊虚的,我们用倒计时的逻辑拆解马斯克在达沃斯论坛的最重要的对话,以及未来五年里到底布了什么样的局。他为什么说如果不解决三个物理瓶颈,203年不是起点,而是死局,以及你手里那些钱该怎么换上诺亚房主的船票。

大家先赞好,看好运不断。很多人问我:Allen,马斯克以前也跳票,Cybertruck晚了三年,FSD承诺了十年,为什么这次关于203年的预言你要这么当真? 答案很简单,因为这次他赌上的不仅是幸运,而是数千亿美元的CapEx资本支出。

咱们都熟知的一句老话就是,不要看这个人说了什么,要看他的钱包里的钱花向了哪里。马斯克正在德州和田纳西建全球最大的AI超算中心,预计投入超数百亿美元。这个不是炒作,这个是all-in的赌注。他在访谈里说了一句非常恐怖的话,传统的摩尔定律靠把晶体管做小来提升性能,在206年已经失效了。在芯片制程卡在2纳米再往下走,物理成本成指数级爆炸。以前靠技巧,现在要靠堆规模。

马斯克的新公式是:AI智力=芯片数量×单芯片算力×电力供应,而这三个变量里,芯片数量能靠钱解决,单芯片算力可以靠英伟达,但电力供应这是物理世界的硬约数。这就是为什么当Larry Fink问他43%的年回报率是怎么来的时候,马斯克的回答不是什么商业模式,而是一句话:因为我投资一个新物种的生命维持系统。

如果在203年,美国电网撑不住,那这个物种就会死在摇篮里,或者更糟糕的是它会诞生在别的地方。所以他疯狂地造Megapack电池,建光伏电厂,甚至要在太空建数据中心。这不是多元化进行,而是他第一性原理物理上面的必然。

下面这段话是整场访谈的精华。我们来切到视频14分52秒和15分30秒,有这么一段二人的对话。我给大家演绎一下。拉瑞说:“那么AI对全球金融服务业的奇效?”马斯克说:“拉瑞,你们数据中心的降压变电站到货了吗?” 拉瑞愣住了,他说:“那个是采购部门的事。” 马斯克说:“不,那是所有人的事。现在变压器的交付周期是24个月,没有电,你的金融模型就是一堆废代码。” 注意这个细节,拉瑞掌管十万亿美元的巨头,想把话题拉到他的主场,就是金融的影响,而马斯克关注的却是物理领域。

拉瑞想聊ROI,想聊市值管理,但马斯克脑子里装的全都是电压、电流和电阻,这就是金融思维和工程师思维的区别。金融给大家看到的是美元是货币,工程师看到的是焦耳是物理。现在GPT-5训练一次耗电量相当于一个小城市的一年的用电量,马斯克预测到203年AI的电力需求会增长10倍,而美国的电网还是上世纪70年才造的,连增长率只有可怜的3%-4%。这就是一场物理学的车祸,而且那个该死的1月14号的关税令让进口核心电力设备变得更贵、更慢。

这就是马斯克为什么在台上直接开火:中国正在建设10G瓦的核电站,每年部署30G瓦的太阳能,而我们呢? 我们在用关税卡死自己。30G瓦是个什么概念? 相当于每年新建五个加州电网的总容量,所有人在卷算法,而聪明的人已经在卷电网了。我们在两周前刚做的那期视频,马斯克26年的访谈刚刚展开,谈过他对中国的电网电力设施的大力看好,今天老马又给我们上课了。

所以当你在股市里抢英伟达股票的时候,马斯克在干什么? 他在通过特斯拉Energy疯狂地囤积带轮子的电池,就是Megapack。 他甚至在访谈里暗示了一个疯狂的计划:如果地球上的电网扩容太慢,为什么不把数据中心搬到天上? 这个我们之前也讲过,这并不是科幻。

下一部分我要告诉你让Larry Fink当场失语的概念,就是轨道数据中心,以及为什么Starship根本就不是为了去火星,而是为了拯救地球的算力危机。为什么太空的温度是零下270度,反而是AI的天堂? 为什么马斯克说这个项目两到三年内就会看到原形? 如果你不想在203年醒来时发现自己的工作被一个在太空运行的AI取代,那么接下来的十分钟你可一定要仔细听。

访谈里有一个瞬间,当马斯克说“Orbital Data Center”,就是轨道数据中心,Larry Fink的笔停了。作为一个管理着十万亿美元的人,他的第一反应不是兴奋,而是职业性的质疑。Larry Fink皱眉说:“伊朗,这听起来很酷,但坦白说,你想让我的客户等多久? 十年,十五年,这个风险太高了。” 马斯克身体前倾盯着Larry说:“197年你们投资亚马逊的时候,华尔街也说贝佐斯是疯子,结果亚马逊用了14年才盈利,但早期投资人赚了多少倍。” 李瑞沉默,老马说:“太空数据中心我只需要三年就能看到正现金流,因为我不用等市场教育,AI已经把市场教育完了。”

各位,这段话的信息密度极高。Larry Fink问的是华尔街最关心的问题,就是ROI的回收期。但是马斯克的回答暴露了一个更深层的商业逻辑:数据中心为什么一定要在地球上争桑拿? 我们来看举数据:205年全球超大型数据中心的运营成本构成:服务器硬件35%,冷却系统40%,电力传输15%,其他10%。看到了吗? 40%的钱不是花在算力上,而是花在给芯片吹空调上,而在太空,宇宙背景温度2.7K,基本等于零下270度,这是物理定律,免费送引的无限液氮冷却系统,而且没有昼夜交替,它能把24小时365天全功率运行效率是地面的5倍。

马斯克的核心逻辑是极其暴力的:既然地球上的地皮又贵,电费也贵,还要被环屏卡脖子,那我为什么不把最耗能的AI大脑搬到那个又冷又亮、还没有监管的地方呢? 这个不是航空项目,这是宇宙级的商业地产套利。但是等等,我们做风险分析。我从来不相信完美的故事,如果这个事这么简单,那为什么Google Cloud、AWS不做? 我认为这里有三个马斯克没有在台上说的致命的隐形成本,我们可以展开聊一下。

第一个就是辐射的防护成本,宇宙射线每秒都在轰击芯片,两纳米制成的晶体管比这个病毒还小,一颗高能粒子就能直接击穿整块芯片。你需要厚重的铅层或者水层屏蔽,这会让卫星重量翻倍,运输成本也翻倍。第二个就是维修的不可能性,地面数据中心换了一个风扇50美元20分钟修好,但太空数据中心换了一个散热片,可能这个卫星直接报废,或者你花几百万美元发射一次维修。第三个就是地缘政治的靶子,这是连Larry Fink都不敢当众深聊的。就是如果发生了冲突,你在轨道上的AI大脑就直接是最显眼的反卫星武器的靶镖。

别以为我在天马行空、危言耸听,这在前不久205年,中国空间站已经完成了国产AI加速芯片的载轨道测试。这不是单纯的技术竞赛,而是21世纪的算力高边疆的争夺战。谁控制了近轨道的算力,谁就控制了下一代AI的训练权,这比石油更重要,比芯片更重要,因为算力是AI时代的主权。这所以说马斯克敢做,因为他愿意承担别人不敢承担的政治风险和技术风险。这也就是为什么特斯拉可以跑出43%的年回报率,而Larry Fink管理的资产只能躺平拿下21%。高风险才要高回报,但是前提是你得先把那几万吨服务器用一个不会破产的方式送上天。

这就是为什么整个计划的成败其实都压在了一个东西上,就是那个不锈钢的大罐子——Starship。我知道看到这里很多人会说,Alan,你讲了半天这个太空数据中心的好处啊,但是有一个死穴。按照以前两万一公斤的成本发射,把一个10吨重的数据中心送到轨道上,光运费就要20亿美元,这就像用波音78去运煤炭,运费比货还贵10倍。

咱们大概讲个历史,二战后全球贸易的爆发,不是因为大家突然有钱了,而是因为在1956年,一个叫Malcolm的卡车司机发明了标准化的集装箱。在此之前,从纽约运货到伦敦,光装卸就要5天,人工成本占用70%。集装箱出现之后,装卸时间降到6小时,成本降到原来的三十分之一。Starship就是太空时代的集装箱船,当运费从2万块降到了20块,太空就不再是科研机构的专属领地了,它变成了工业园区,变成了算力工厂。

所以AI需要无限算力,算力需要无限能源,地球能源增速太慢,必须要去太空。太空运输需要低成本,Starship就是这个低成本的重要的绊脚石。看到了吗? 这个不是几个单独的项目,而是一条锁死的供应链。如果Starship失败,马斯克的整个AI帝国就像多米诺骨牌一样崩塌。这也是为什么就算SARS-CoV-2在23年炸了三次,24年又炸了两次,华尔街依然给它几千亿的估值,因为聪明人看懂了它不是在造火箭,它是在铺设21世纪的铁路。SARS-CoV-2不是运输工具,它是连接地球算力和太空能源的脐带。

好,现在我们有了太空无线的大脑算力,有了廉价的公路,那么接下来的问题才关乎在座每个普通人的命运。谁在地球上执行AI下达的指令呢? 马斯克说在206年1月份,也就是现在,特斯拉德州工厂里已经有数十台Optimus晴天柱机器人在24小时轮班工作,它们不吃饭,不睡觉,不抱怨加班,不做工会。在21分23秒这个时间点,Larry问了一个让全场气氛骤降的问题,他说:“伊朗,我能理解这个是提升效率,但是如果工厂里全是机器人,那么失业的工人怎么办? 没工资,他们怎么消费? 谁来买你的车?” 这个问题感觉挺扎心,结果老马面无表情,停顿了一会儿,直接问:“Larry,失业的是工作,不是人人会去做更有创造性的事,更有意义的事。”

莱瑞说:“比如什么呢?” 王马说:“比如定义问题、解决问题的事,就交给规矩生命就好了。” 听听这个回答,这是典型的工程师的简化思维,马斯克刻意回避失业工人怎么办这个问题,因为真实的答案太复杂了,不适合在镜头前展开。真相是什么? 在他的逻辑里,这个并不是他所需要担心的问题,这是社会系统需要重构的问题。

我们现在给在座的每一个人算笔账:假如你是老板,雇一个人类工人工资五万美金,一年社保八千,培训成本五千,还要担心人的情绪、生孩子、跳槽等等,每年都要付出。但是买一台Optimus晴天柱机器人,购买成本两万五,假设电费每年两千,维护一千,工作时长每天可以干到二十个小时,使用寿命至少说到五年。这个是资本支出,买断后编辑成本几乎为零,算下来机器人每小时的劳动力成本大概是多少钱? 可能每小时只要6毛8,即0.6美元。

当劳动力比一杯星巴克还便宜的时候,你的工资凭什么值钱? 如果你现在30岁,从事到屏幕前出现的这些重复性的工作,别以为你能干到退休。207年,OPMAS将正式面向公众开售,203年AI的智力将超越全人类总和,你还剩三年的转型窗口,不是五年,不是十年,是三年。因为27年机器人的开售不是终点,而是多米诺牌的第一张。

当你的老板发现隔壁工厂换了机器人人工成本降低60%,他没有选择只能跟进,否则呢? 就会被市场淘汰。这个就是资本主义内卷的终极形态。207年不是机器人的元年,而是人类劳动力大贬值的元年。所以你看,马斯克在座的其实是构建一个不需要碳基生命参与的闭环经济体:太空太阳能到轨道数据中心到AI算力到星舰运输到地面机器人执行到产品自动生产。在这个闭环里,人类的位置在哪里呢?

这也引出了今天最让我细思极恐的一个问题:就是地球上的生意这么完美,这么闭环,赚钱为什么马斯克还要像疯了一样非要在205年前把10万人送上火星呢? 难道仅仅是为了完成他儿时的梦想吗? 还是说他看到一个连Larry Fink都不敢在台上说出的文明风险呢?

最后一部分我要告诉你马斯克真正的恐惧是什么,为什么他说人类意识是黑暗宇宙中的一支蜡烛,以及在这场大戏拍里作为普通人你要怎么做才能成为那幸存的1%。如果你想在203年的那天醒来,不是被AI宣布你的岗位已优化,那么接下来的8分钟可能是你人生中最重要的8分钟。

讲到这里,我知道很多人已经非常焦虑了,包括我。确实也蛮焦虑的。Alan是不是太悲观了? 机器人取代人类,AI超越智慧听起来就像世界末日,但其实咱们也不是悲观主义,我是比较现实的这么一个人。在整场访谈里,Larry Fink一直在追问这个钱回报率的问题,但在最后,掌管着10万亿美元的男人居然问了一个钱解决不了的问题。他说:“老马,老实说,你已经是世界首富了,你可以买下任何东西、游艇、艺术品、岛屿,值得吗?”

老马回答的声音很轻,他说:“Larry,你觉得恐龙是因为缺乏金融工具才灭绝的吗?” 老马说650万年前一颗小行星撞击地球,恐龙统治了地球1.6亿年,为什么在一夜之间消失了呢? 不是因为它们不够强大,是因为它们没有Plan B,没有太空计划。这就是马斯克和其他企业家的根本区别。

莱瑞看到的是季度财报,马斯克看到的是地质纪元。紧接着马斯克说出了整场反弹最具哲学性的一句话:“我认为我们应该把意识看作浩瀚黑暗中的一支微弱的烛光,我们应该竭尽全力确保这支蜡烛不会灭。” 这个熄灭不是羞耻。这是马斯克真正的世界观。

莱瑞听到这里也没有再追问回报率了,因为他听懂了在文明生死这个问题面前,十万亿美元也只是个数字。但是马斯克并没有停留在哲学层面,他紧接着提到一个天体物理学的理论,就是大过滤器。让我翻译一下这个恐怖的理论:宇宙有138亿年历史,银河系有20亿颗恒星,按照盖利人说应该到处都是外星文明,但我们什么都没看到。这就是著名的费米悖论。

大过滤器理论认为,也许在文明进化的某个阶段存在着一道所有文明都会遇到的致命关卡,可能是核战争、气候崩溃、AI失控、小行星撞击,或者我们现在完全想不到的黑天鹅事件。而大部分文明都没能通过这道关卡,它们消失了,就像我们看不到它们一样。老马认为我们人类现在正在接近这道关卡。

现在你听明白了吗? 为什么他要疯狂推进Starship? 因为如果人类只在地球上,一颗小行星就能让我们全灭。为什么他要all-in AI? 因为如果不主动掌控AI,它可能以不可控的方式出现。为什么要建机器人? 因为如果劳动力永远缺失,我们就永远被困在地球的资源限制里面。为什么要造太空数据中心? 因为算力是AI的上限,而地球的能源可能撑不住203年。

所以,当你回头看之前的布局,Starship等于逃生通道,Optimus等于劳动力解放,太空数据中心等于算力无限化,火星等于文明备份,这一切都说得通了。这不是几个独立的商业项目,而是一整套完整的通过大过滤器的工程方案。马斯克不是在做生意,而是在给人类文明买一份保险。

所以马斯克在访谈的最后说:“I'd rather be optimistic and wrong than pessimistic and right。” 他说,我宁愿做一个乐观错的人,也不愿意做一个悲观对的人。这个不是鸡汤,这是一个看清了大过滤器的人做出的理性选择。因为如果你选择悲观、选择恐惧、选择不行动,你就已经主动放弃了通过过滤器的机会。

但是如果你选择乐观、选择行动,哪怕最后错了,至少你尝试过了,你让这个人生体验变得有趣了,至少那颗蜡烛没有在你手里熄灭。那么哲学讲完了,马斯克可以去拯救人类文明,那我们普通人呢? 我们没有百亿美元,造不了火箭,也去不了火星,我们能做什么呢?

我知道很多人看到这里会跟我一样有一种无力感。Alan你说这些我们都懂,你之前的视频也都讲过了,但是我只是个普通人,我也改变不了世界,我也阻止不了203年。我能做些什么呢? 我的回答是:你改变不了世界,但是你可以改变自己,或者是你的后代看待世界的方式,如果你有孩子,或者是你自己也是,都可以的。

我们来做一个有趣的思想实验:假设今天是203年,也是1月2号,整整四年后的今天,你的孩子刚满18岁。你就坐在他的对面,他问你:“爸妈,在206年的时候就知道AI会改变一切,那你为我做了什么准备?” 你会怎么回答? 我给你买了学区房,但那时候AI家教比人类老师强10倍,而且免费;我让你学编程,但是AI写代码比你快10倍,,而且不会有bug;我存了笔教育基金,但大学文凭在203年可能跟现在的驾照一样普通。

我能想到的唯一答案是,我教会了你三样AI到203年依然学不会的东西。第一个就是提问题的能力,不是回答问题,而是定义问题。AI能解方程,但是它不知道该解哪个方程,未来的高薪工作就是那些能够提出AI答不出问题的人。第二个是审美能力,不是画得像,而是画得美。AI能生成一千张图,但它不知道哪一张能打动人心,审美是人类最后的壁垒,因为它没有标准答案。第三个是不被恐惧支配的能力

207到203,这三年世界会很混乱,很多人会因为害怕失业、害怕未来而做出错误的选择,比如拒绝学习新工具,比如把孩子锁在旧世界的教育体系里。但你要记住,恐惧是文明的刹车,好奇心是文明的油门。

所以今天咱们也不给投资建议,但我建议你今晚回家,拿出一张纸和一支笔,写给203年的自己,或者你的孩子一封信,告诉他:“我在206年的1月2号看完了艾伦·陈的这个视频,看清了未来的轮廓,我决定做以下三件事。如果203年我打开这封信时发现我做到了,那我就是个先知;如果我什么都没做,我就是个鸵鸟。”

这封信封起来,写上日期203年1月2号,起封。到时候你会知道今天的你是勇敢的还是懦弱的。这个不是投资建议,这是一种文明的选择。我会把这封信的模板放在评论区,好几个版本,也会放在我的X平台adventure那里供您取用。

好了,信写完了,很多人会问我写完了信具体该看什么接下来呢? 我给大家一个认知的升级时间表,告诉你在未来的四年,每个关键节点应该观察什么信号,应该做什么准备。

如果说26年的第二季度4月-6月份该看什么,我觉得该看Starship连续试飞回收成功。如果能够连续的成功回收,那太空经济已经不再是科幻,而是什么时候来的问题。如果失败,马斯克的整个时间表可能会推迟至少两年。到了年底10月-12月,看特斯拉会不会公布Optimus在工厂的实际数据。如果官方宣布良率超过90%,那么27年开售板上定停;但是如果良率低于70%,可能还要继续跳票。

你要做的是什么呢? 就是拿出你的工作职责清单,逐条问自己这个任务机器人能做吗? 如果80%的答案是能,那这个就是你最后的转型时间窗口。27年的第二季度4月到6月,要紧盯Optimus的公开售价。如果价格能够做到2万美元以下,那么失业潮会比所有的经济学家预测都快;如果价格在三万以上,我觉得可能还有个一到两年的缓冲期。

如果你是老板就要开始计算机器人的回本周期,如果你是员工就要评估我到底还能干多少年。

2028年要看AI有没有通过多模态图灵测试。什么意思? 就是AI不仅能聊天,还能看、听、操作物理世界。如果这个发生了,那距离起点估计只剩两年。如果没发生,马斯克可能高估了AI的进化速度,这个时候再准备已经晚了。你要做的是验证,你要做的是在206年那封信里的计划是否已经在执行了。到了209年底,要看马斯克有没有在火星上插上第一面旗。如果成功了,那么人类就可以成为多行星的物种;如果失败了,那么至少他试过,而且我们也见证过了历史。

这时候打开206年,就是现在你写的那封信,看看你是先知还是鸵鸟。在这个信息爆炸的时代,比钱更值钱的是判断力。当别人还在争论马斯克是不是在吹牛的时候,你已经在用这些信号来验证,并且准备你的未来了。先知和韭菜的区别不是谁更聪明,而是谁更早开始观察,并且开始行动。

所以拿起你的笔,现在就给未来的自己写信吧。最后,我也不想让你在评论区给我评论什么ABC的选择题。我想让你做一件事,就是看完这期视频,你是真的相信——不是百分之百相信,哪怕只有百分之五十的相信203年会是一个分水岭。那么,现在对着屏幕前给出自己一个承诺:我要在207年之前,学会一项AI无法替代的技能,或者拥有一项AI需要的资产,或者教会我的孩子不被恐惧支配。 我觉得至少要做到一项。大声说出来,或者评论区打出来,或者留在你这个写给自己的203年的信里面。

最后重温老马这句话:悲观的人永远正确,但乐观的人永远快乐。这就是为什么我们要看清真相,但依然热爱生活。 我是Allen,带你用第一层逻辑看清世界。如果这期视频对你哪怕有一点启发,请帮我点赞、留言、转发,这对我非常重要。我们在203年见,不是在AI的葬礼上,而是在新世纪的入场仪式上。关于这场对话还有很多隐藏的细节,包括Larry看到某句话时脸色突变的瞬间,我把它发在了X平台上。我也会在X平台上一路更新如何让自己变强,普通人如何翻身,如何搞钱,如何学习AI的硬知识和成长路线。请在领取未来信的模板同时,记得关注我。这期视频就到这里了,看完再赞。我们下期再见,我会鼓励大家为未来感到积极和有信心。