萝卜快跑周订单突破 25 万笔,总里程达 2.4 亿公里
近日,百度旗下自动驾驶出租车业务萝卜快跑(Apollo Go)方面表示,截至 10 月 31 日,完全无人驾驶的每周订单数已超过 25 万笔。这一规模与 Alphabet 旗下 Waymo 在今年 4 月披露的美国每周乘坐量相当。萝卜快跑同时披露,至今未发生涉及人员伤亡的重大事故,并称其平均每 1010 万公里发生一次安全气囊触发事件。
图源:百度
从运营与里程数据来看,萝卜快跑累计完成 1700 万次订单,总自动驾驶里程达 2.4 亿公里,其中完全无人驾驶里程为 1.4 亿公里。主要运营城市包括中国大陆的北京、上海、深圳、武汉,并正向香港、迪拜、阿布扎比及瑞士等地拓展。Waymo 目前的运营范围则集中在美国的旧金山、洛杉矶与凤凰城,并通过合作在奥斯汀与亚特兰大提供服务。
在车型与技术路径上,Waymo 多使用深度改装的电动 SUV 平台;萝卜快跑则以与江铃汽车合作开发的第六代 Robotaxi 车型 Apollo RT6 为主,支持电池快换与高冗余传感与计算架构,目标在限定区域内实现 L4 级自动驾驶能力。
iOS 26.1 上线:AirPods 实时翻译已支持中文
苹果正式发布 iOS 26.1,在常规外观与易用性调整之外,最大亮点是 Apple Intelligence 与 AirPods 实时翻译的语言覆盖范围显著扩大,让 AI 功能更贴近更多地区用户的母语环境。
图源:苹果
此次 Apple Intelligence 新增对中文(繁体)、丹麦语、荷兰语、挪威语、葡萄牙语(葡萄牙)、瑞典语、土耳其语与越南语的支持,意味着系统级写作、理解、视觉与上下文能力的本地化进一步完善。
面向听说场景的 AirPods Live Translation 则新增中文(简体与繁体)、日语、韩语与意大利语,覆盖范围几乎翻倍;功能支持 AirPods Pro 2、AirPods Pro 3 与 AirPods 4(ANC),并依赖连接的 iPhone 上的 Apple Intelligence 执行翻译模型,形成耳机采集、手机侧本地推理的协作路径。
除了 AI 相关更新外,26.1 也带来若干体验改进:新增 Liquid Glass 透明度切换,满足对界面对比度的不同偏好;锁屏左滑呼出相机可在「设置 → 相机」关闭,减少误触;时钟的闹钟与计时器改为「滑动以停止」,降低误按停止的几率;音乐播放器支持滑动切歌;隐私与安全中引入「后台安全改进」的自动下载与安装开关;本地采集可在设置中指定保存位置并为外接 USB 麦克风提供增益控制;同时苹果将影视服务统一为 Apple TV 并更新图标。
OpenAI 与 AWS 达成 380 亿美元云计算合作
OpenAI 宣布与亚马逊云计算服务(AWS)达成为期 7 年、总额 380 亿美元的云计算合作,将立即在 AWS 上运行核心 AI 训练与推理工作负载,目标在 2026 年底前部署全部约定算力,并在 2027 年及以后保留进一步扩展的能力。此举标志着 OpenAI 在算力来源上进一步“去单一化”,摆脱过去对微软的高度依赖。
图源:OpenAI
从技术层面看,AWS 将为 OpenAI 提供基于 Amazon EC2 UltraServers 的大规模 AI 集群,接入数十万个英伟达新一代 GB200 与 GB300 加速器,支持从 ChatGPT 等产品的实时推理到下一代前沿模型的训练。AWS 称该架构可在同一网络下对 GPU 集群进行低时延互联,并可扩展至千万级 CPU 以支撑 agentic AI 等新型工作负载需求。
此次交易的一个关键背景是 OpenAI 与微软以前达成的合作条款已调整:微软不再享有 OpenAI 新增云计算合同的优先匹配权,但 OpenAI 仍与 Azure 保持深度合作,已额外承诺采购 2500 亿美元的 Azure 服务;同时,微软对 OpenAI 新组建的公益性股份公司(PBC)持有约 27% 的权益,并可保留相关 IP 权利至 2032 年。这意味着 OpenAI 的计算基础设施进入多云并行、各有侧重的新阶段。
作为更广泛算力扩张的一环,OpenAI 近期还与 Oracle 达成 3000 亿美元的数据中心建设与容量协议,并与 Google 等伙伴建立云与芯片层面的合作。外界因此关注这类高额、跨年度的资本开支与算力承诺能否与 AI 业务的营收与盈利水平相匹配;一些市场与技术观察者提醒,当前对数据中心与 AI 基础设施的万亿级投入可能引发估值与回报周期的张力。
从技术与产业影响看,此次 AWS 和 OpenAI 合作强化了英伟达 Blackwell 架构在超大规模云端 AI 集群中的地位,也为 OpenAI 在推理与训练两端的容量弹性提供了新的保障。对 AWS 而言,拿下 OpenAI 的一笔长期合同,有助于其与微软 Azure、谷歌 GCP 在 AI 客户与算力规模上的竞争态势;对 OpenAI 而言,在 Azure 之外新增可用的 GB200/GB300 底层资源与 UltraServers 网络架构,有望改善高峰期的供给稳定性与扩容速度。
Anthropic 预计 2028 年收入达 700 亿美元,现金流 170 亿美元
据 The Information 报道,AI 初创公司 Anthropic 预计到 2028 年将实现 700 亿美元收入与 170 亿美元现金流,增长主要来源于企业级产品的快速采用。该公司今年通过 API 销售其模型的收入预计达 38 亿美元,面向开发者的 Claude Code 已接近年化 10 亿美元收入。
图源:Anthropic
Anthropic 的年度经常性收入(ARR)目标也在上调:预计 2025 年末达 90 亿美元,并在 2026 年冲击 200–260 亿美元。与此同时,毛利率预计今年达 50%,到 2028 年提升至 77%,相比去年 -94% 的毛利率有显著改善。
Anthropic 公开的负债包括 25 亿美元的信用额度与 15 亿美元的版权诉讼和解金,Anthropic 正通过与微软在 Microsoft 365 与 Copilot 的深度合作、扩展与 Salesforce 的集成,以及向 Deloitte 与 Cognizant 大规模铺设企业助手 Claude 来强化 B2B 渠道,同时推出更小型、成本更优的 Claude Sonnet 4.5 与 Claude Haiku 4.5,并面向金融业扩展解决方案与企业搜索能力,以降低大规模部署成本。该公司今年 9 月在超额认购的融资中募集 130 亿美元、估值 1800 亿美元,并可能凭借增长势头进一步融资,估值目标区间在 3000–4000 亿美元。
从竞对来看,OpenAI 也在推进以企业为主、兼具强消费端的双轮策略。其估值约 5000 亿美元,预计今年收入 130 亿美元,并在 2027 年冲击 1 万亿美元;不过 OpenAI 预计在基础设施投入加速之下维持高额亏损,现金消耗在 2026 年达 140 亿美元,并在 2029 年累计至 1150 亿美元。对比之下,Anthropic 的目标是在 2028 年实现正向现金流,凸显两家公司在资本开支与盈利路径上的差异。
小鹏 AI Day:自研芯片加持三款 Robotaxi,第二代人形机器人与飞行汽车一同亮相
11 月 5 日,小鹏在总部举行 AI Day 2025,宣布将以自研 Turing AI 芯片与 VLA 2.0 视觉中心模型为核心,推动自动驾驶与机器人业务落地。公司称将推出三款 Robotaxi 车型,并于明年在中国多个城市启动测试,整车端算力最高达 3000 TOPS。
图源:网络
在自动驾驶业务上,小鹏将推出 5 座、6 座与 7 座三款 Robotaxi,采用纯视觉方案与四颗自研 Turing 芯片,整车双冗余硬件设计;公司同步发布面向 Robotaxi 的 “Robo” 智驾版本,与平台共享硬件与安全冗余。试运营与测试计划定在 2026 年,并将开放 Robotaxi SDK 以打造更广生态。
图源:网络
机器人方面,小鹏发布第二代 IRON 人形机器人,由三颗 Turing 芯片驱动,配备固态电池与 VLT + VLA + VLM 认知模型,强调更顺畅的行走与 22 自由度的灵巧手关节。公司计划 2026 年末实现量产,但短期主要在自有场景内担任导览与销售等岗位,以控制成本与维护强度,相较于对家庭和工厂的广泛应用,现实落地仍需时间与模型迭代。
图源:网络
低空出行方面,小鹏以 ARIDGE 品牌发布新一代 eVTOL 产品与解决方案:混动全倾转旋翼机 A868 计划进入试飞阶段,采用六座布局,目标 500 公里航程、360 公里/时最高速度。
谷歌将在太空建立 AI 数据中心,2027 年启动原型试验
谷歌宣布“Project Suncatcher”研究计划,探索在近地轨道部署由太阳能供电、搭载 TPU 的小型卫星集群,以自由空间光学(FSO)链路互联,构建可扩展的太空 AI 计算基础设施。谷歌称在黎明至黄昏的太阳同步轨道能获得近乎连续的日照,太空中的光伏发电年产出可达地面同面积的约 8 倍,从源头解决数据中心的能源与用地瓶颈。
图源:谷歌
在技术路径上,谷歌的设计强调“紧密编队 + 高带宽光链路”:为达到地面数据中心级的互联,卫星间需要实现“Tbps 量级”速率。受传输链路“随距离平方衰减”的物理约束,卫星需保持公里级以内的近距离编队。谷歌已完成台架级验证,单对光学收发器实现双向合计 1.6 Tbps;其轨道动力学模型显示,在约 650 公里高度、集群半径约 1 公里、卫星间距随重力作用在 100–200 米范围振荡的条件下,只需“适度的姿态与轨道维持机动”即可稳定编队。
针对空间辐射环境,谷歌在 67 MeV 质子束下测试 Trillium(v6e Cloud TPU),评估总电离剂量与单粒子效应。结果显示,尽管 HBM 更敏感,但在累计 2 krad(Si) 才出现不规则现象,远高于预计五年任务、屏蔽后约 750 rad(Si) 的剂量;在单芯片最高 15 krad(Si) 下未发现由 TID 导致的“硬故障”,表明 TPU 具有出乎意料的空间适用性。谷歌同时指出,热管理、地面回传带宽与在轨可靠性仍是待攻克的工程难点。
时间线与经济性方面,谷歌计划与 Planet 合作,最早于 2027 年发射两颗原型卫星入轨验证;在发射成本随可复用火箭规模化下降的趋势下,谷歌测算到 2030 年代中期,若价格降至每公斤 200 美元以下,太空数据中心的“发射与运营成本”有望在“每千瓦·年”口径上与地面数据中心的能源成本相当。
月之暗面发布开源推理模型 Kimi K2 Thinking:多项基准超越 GPT‑5 与 Claude Sonnet 4.5
11 月 6 日,月之暗面(Moonshot AI)发布其最新开源“思考型”模型 Kimi K2 Thinking。该模型基于稀疏 MoE 架构,整体参数规模约 1 万亿、单次推理激活 320 亿参数,支持原生 INT4 量化与 256K 上下文,在长时序推理与多工具工作流上实现稳定表现。
图源:Kimi
官方评测显示,K2 Thinking 在 Humanity’s Last Exam(HLE,文本版带工具)得分 44.9%,BrowseComp 60.2%、SWE‑Bench Verified 71.3%、LiveCodeBench v6 83.1%、Seal‑0 56.3%,在多项推理、搜索与编码基准上领先或逼近闭源前沿模型,其中在 BrowseComp、GPQA 等任务中超过 GPT‑5 与 Claude Sonnet 4.5 的对应成绩。
图源:Kimi
月之暗面同时宣布在 Hugging Face 以“修改版 MIT 许可”开源权重与代码:除保留 MIT 的商业与再分发自由外,新增加一条高规模署名条款——当部署产品月活超过 1 亿或月收入超过 2000 万美元时,需在界面显著标注“Kimi K2”。开发者可通过平台 API(OpenAI/Anthropic 兼容)与 kimi.com 直接使用,官方示例展示了模型可在 200–300 次连续工具调用中保持推理连续性,并通过“reasoning_content”字段输出可审查的中间思考过程。
在性能与可用性层面,K2 Thinking 强调“服务态评测”:官方称所有基准均在 INT4 精度下完成,并通过量化感知训练(QAT)在保持精度前提下将生成速度提升约 2 倍。定价方面,月之暗面平台列出输入缓存命中每百万 tokens 0.15 美元、缓存未命中 0.60 美元、输出 2.50 美元,相较部分闭源前沿模型显著降低使用门槛。
谷歌将加码投资 Anthropic,潜在估值或超 3500 亿美元
据 Business Insider 报道,谷歌正与人工智能初创公司 Anthropic 进行早期谈判,拟加深对后者的投资,这一轮交易的潜在估值或将把 Anthropic 推至 3500 亿美元以上。谈判方案仍在磋商中,形式可能包括以提供更多云计算服务为核心的战略投资、可转换债或在明年初进行的定价融资。消息人士称目前尚不清楚谷歌的具体出资规模及是否有其他投资方参与。
图源:网络
Business Insider 还称,谷歌此前已向 Anthropic 投资逾 30 亿美元并持有约 14% 股权(引述今年 3 月的法律文件)。今年 9 月,Anthropic 曾以 1380 亿美元估值筹资 130 亿美元;其主要竞争对手 OpenAI 则在上月的一次员工二级市场交易中达到 5000 亿美元估值。
在算力合作方面,谷歌与 Anthropic 于 10 月宣布一项规模达数百亿美元的云合作,Anthropic 将可使用多达一百万颗谷歌自研 TPU 加速器用于 AI 训练与推理。与此同时,Anthropic 保持与亚马逊的深度绑定,后者既是其主要训练伙伴与云服务提供商,也在今年推动拥有近 50 万颗 Trainium2 芯片的 Project Rainer 集群上线以支持 Claude 模型。
业内人士认为,此次潜在加码发生在 Anthropic 与 OpenAI 的“万亿美元级竞赛”加速之际,科技巨头阵营进一步分化:亚马逊与谷歌倾向支持 Anthropic,微软与英伟达则在加大对 OpenAI 的投入。若交易落地,除资本层面的稀释与持股变化外,更可能通过算力与云资源的追加供给,直接影响下一代大模型研发迭代与商业落地的速度与成本结构。
谷歌第七代 TPU Ironwood 即将投入使用,性能提升 4 倍
谷歌宣布第七代 TPU Ironwood 将在“数周内”进入普遍可用(GA),这代自研加速器面向从大型模型训练到大规模、低时延推理的全栈场景,被官方定位为推理时代的核心算力。Ironwood 采用大规模 3D 网格互联与液冷设计,单个超级 Pod 可直接互连至 9216 颗芯片,整体提供 42.5 ExaFLOPS(FP8 )的峰值算力,并共享约 1.77 PB 的 HBM 高带宽内存,显著降低跨芯片的数据瓶颈与延迟。谷歌称其相较上一代 TPU v6e(Trillium) 在训练与推理上均实现超 4 倍的单芯片性能提升,对外可提供 256 芯片与 9216 芯片两种规模的 Pod。
图源:谷歌
从架构到系统可靠性,Ironwood 的 Inter‑Chip Interconnect(ICI) 提供 9.6 Tb/s 带宽,并叠加 Optical Circuit Switching(OCS) 光路交换实现毫秒级旁路与拓扑重构,以应对超大规模域内的故障与维护;在能效方面,Ironwood 的性能/功耗相对 Trillium 提升约 2 倍。官方强调其是 AI Hypercomputer 的关键组件:在统一的调度与软件栈下,将计算、网络、存储协同优化,以支撑“面向亿级用户与智能体”的高并发推理。
图源:谷歌
在与 Nvidia Blackwell 的直接对比中,Ironwood 单芯片密集 FP8 峰值约 4.6 PFLOPS、HBM3e 容量 192 GB、带宽约 7.4 TB/s,已与 B200/ GB200 处于同一量级;而在规模化能力上,Ironwood 的单 Pod 规模与整体互联设计远超 NVL72 机架系统,主打在更大计算域内维持吞吐与端到端时延。










