ChatGPT 将开放成人内容;Claude Haiku 4.5 发布;所有 Windows 11 电脑都会成为 AI PC;

IP归属:广东

文章AI导读

一键萃取文章精髓,核心观点即刻呈现

Thinking Machines Lab 联合创始人加盟 Meta

据多家媒体报道,前 OpenAI 研究员、Thinking Machines Lab 联合创始人 Andrew Tulloch 已于上周五向公司内部确认离职,转投 Meta。Thinking Machines Lab 发言人表示,Tulloch 出于个人原因选择了不同的职业路径。Tulloch 曾在 Meta 任职 11 年,2023 年短暂加入 OpenAI,2025 年初与前 OpenAI 首席技术官 Mira Murati 共同创办 Thinking Machines Lab。

图源:网络

此次加盟被视为 Meta 在高端 AI 人才争夺战中的又一重要进展。早在今年夏天,扎克伯格亲自主导的密集招募行动曾试图整体收购 Thinking Machines Lab,在收购受阻后,Meta 进一步向包括 Tulloch 在内的多名核心工程师伸出橄榄枝。Meta 对 Tulloch 的报价在未来六年最高或达 15 亿美元,但 Meta 发言人当时回应称该说法“不准确且荒谬”,并强调薪酬规模依赖股票表现;Tulloch 最终接受的具体条款未披露。就职后,Tulloch 将加入 Meta 的 AI 体系,但具体团队尚未明确。

在组织层面,Meta 近年来显著加码通用人工智能的投入,已将内部 AI 团队整合为 Superintelligence Labs,并从 OpenAI、Google DeepMind、Anthropic、Apple 与 xAI 等公司网罗了五十余名研究员与工程师。Meta 还与数据标注公司 Scale AI 达成入股协议(约 49%),邀请其创始人兼首席执行官 Alexandr Wang 出任该新部门负责人。资本与基础设施方面,Meta 今年计划将资本开支提高至 720 亿美元,用于数据中心与训练算力的扩建;产品层面,近期上线了面向大众的 AI 视频生成功能。

另一方面,Thinking Machines Lab 自今年 2 月成立以来,累计融资约 20 亿美元,并在本月推出首个产品——名为 Tinker 的大模型微调 API。官方称,Tulloch 的贡献对公司早期建设具有“奠基性”意义,团队将继续推进既定路线。

微软发布自研图像生成模型 MAI-Image-1

微软 AI 宣布推出首个完全自研的文本生成图像模型 MAI-Image-1,并在 LMArena 的文本到图像榜单中进入前十。官方称该模型由 Microsoft AI 团队独立设计与训练,重点优化真实光影与自然场景的呈现,同时提升生成速度,相较于“更大、更慢的模型”响应更快,便于创作者快速迭代与转入后续专业工具。

图源:微软

图源:微软

微软表示,MAI-Image-1 在数据筛选与评估上更贴近真实创作场景,并引入创意行业专业人士的反馈,旨在避免重复或“千篇一律”的风格化输出,实现更高的视觉多样性与实用价值。微软称该模型在光线效果(如反射、反弹光)、风景与写真类图像生成方面表现突出。

目前 MAI-Image-1 已在 LMArena 开始测试以收集安全与负责任使用方面的反馈,微软称该模型将“很快”在 Microsoft Copilot 与 Bing Image Creator 中向更广泛用户开放。微软近年加速自研模型布局,继今年 8 月发布 MAI-Voice-1 与 MAI-1-preview 后,再次强化其在多模态生成领域的产品线。与此同时,微软与 OpenAI 的合作关系趋于多元化,部分 Microsoft 365 功能已采用 Anthropic 的模型,显示其在模型供给上走向组合策略与自主可控。

OpenAI 与博通达成自研 AI 芯片合作,计划部署 10 GW 定制加速器

OpenAI 宣布与博通(Broadcom)达成多年度基础设施合作,将基于 OpenAI 自研架构由博通负责开发与制造,联合部署总计 10 GW 的定制 AI 加速器与系统。双方表示,首批机柜预计在 2026 年下半年上线,项目将持续至 2029 年。受消息提振,博通股价当日涨幅接近 10%。该合作被视为 OpenAI 在算力与供应链层面对 Nvidia 依赖度进行结构性分散的又一举措。

图源:博通

OpenAI 称自研芯片可将训练前沿模型与产品的“经验”直接固化进硬件,从而解锁新的能力与效率;公司还透露使用自身模型加速芯片设计,实现“大幅面积缩减”与更优的性能/功耗比。此次系统栈不仅涵盖计算,还覆盖网络与内存,并基于博通的 Ethernet 方案与 PCIe 互联。博通近期发布的面向 AI 的 TH6-Davisson 交换机号称可达 102.4 Tbps 吞吐,并采用内置可维护光学器件以降低网络总体成本,显示其在大规模 AI 数据中心网络侧的布局与能力。

从行业成本与规模化角度看,外界普遍引用 1 GW AI 数据中心成本约 500–600 亿美元的估算,其中芯片占比最高,采用与博通的定制硅方案可在每 GW 维度带来 30–40% 的成本下降潜力,核心在于针对推理与延迟、性能/瓦优化所做的系统级定制,以及对不必要模块的剔除与资源重分配。这一模式在 Google TPU 的实践中已被证明具有规模效应与成本优势,成为 OpenAI 拓展“自有算力形态”的参考路径。

英伟达桌面级 AI 超算 DGX Spark 将于 10 月 15 日开售,售价 3999 美元

10 月 14 日,英伟达宣布,其个人 AI 超级计算机 DGX Spark 将于 10 月 15 日在英伟达官网及指定渠道开售。官方称该设备在桌面尺度实现“每秒万亿次级(petaflop)” AI 性能,旨在让研究人员与开发者在本地运行更复杂的模型与工作流。

图源:英伟达

DGX Spark 基于 Grace Blackwell 架构的 GB10 Superchip,GB10 由两颗计算芯片以 600 GB/s NVLink 互联,整合 20 核 ARMv9.2 CPU(含 X925 高性能与 Cortex A725 高效核心),统一使用 LPDDR5x 内存,并提供 273 GB/s 带宽。其 GPU 在稀疏 FP4 下算力可达 1 petaFLOP,FP32 约 31 TFLOPS,原生内存虽不及消费级显卡带宽,但 128GB 统一内存更契合大模型推理与微调。

图源:英伟达

英伟达表示,它可在本地进行最多 2000 亿参数模型的推理,并对最多 700 亿参数模型进行微调。系统预装 NVIDIA AI 软件栈与 CUDA 库,并支持 NVIDIA NIM 等微服务,适用于图像生成、视觉搜索与摘要、聊天机器人等本地工作流。

机身后部集成双 QSFP 端口,可将两台 DGX Spark 直连以扩展能力,英伟达称此配置下可在 FP4 下对约 4050 亿参数模型进行推理。

DGX Spark 定价为 3999 美元,机身小巧、可由标准电源插座供电,提供最高 4TB NVMe SSD 存储,并运行英伟达基于 Ubuntu Linux 的 DGX OS,而非 Windows。

渠道方面,除英伟达直销外,Acer、ASUS、Dell、GIGABYTE、HP、Lenovo、MSI 等将推出各自版本,Micro Center 等零售门店也将开售。

整体来看,DGX Spark 面向 AI 与机器人开发者、数据科学家、机器学习研究者,定位是把数据中心级算力下放至桌面,降低在本地处理高参数模型的门槛,并通过 OEM 生态与预装软件栈加速落地。

ChatGPT 将开放 “成人内容”

10 月 15 日凌晨,OpenAI CEO Sam Altman 在 X 上表示,ChatGPT 曾因心理健康顾虑而加强限制,如今公司推出了新的检测与分流工具,计划在“多数情况”下安全放松限制,并在 12 月随年龄验证全面上线后,向已验证的成年人开放成人内容。

图源:X

在访问控制方面,OpenAI 计划以年龄预测系统作为基础,并在误判为未成年时,允许用户通过上传政府签发证件照片纠正身份,这被 Altman 形容为“隐私上的权衡”,并强调不会“为使用量最大化而设计”,成人内容需用户主动请求且仅对成年用户开放。是否扩展至语音、图像与视频生成工具尚未披露。

OpenAI 近期成立了“Well-Being and AI 专家理事会”,用于就复杂与敏感场景提供建议;并在 GPT‑5 中引入路由机制,更好识别情绪困扰与高风险对话、降低“迎合性”。与此同时,Altman 还表示将发布更像 4o 的新版 ChatGPT,使 ChatGPT 更具人性化语气、可使用更多表情、甚至以“朋友”式风格互动,但仅在用户主动选择时启用。

Firefox 正式将 Perplexity 纳入搜索引擎选项

Mozilla 宣布在 Firefox 中正式加入 Perplexity 作为搜索引擎选项,经过前期在美国、英国、德国的小范围测试与正向反馈后,现已面向全球桌面用户开放。用户可在地址栏的统一搜索按钮中快速切换,或在设置中将其设为默认搜索引擎。Mozilla 表示,Perplexity 提供带引用来源的会话式搜索体验,并强调其对个人数据的严格保护原则。移动端支持将在“未来数月”推出。

图源:Mozilla

Mozilla 在官方博客进一步确认,Perplexity 的接入旨在扩展用户对搜索方式的选择权,用户可自行决定是否使用 AI 搜索引擎。

除搜索选项更新外,Firefox 的 Profiles(配置文件) 功能也已面向所有用户开放,支持在不同浏览场景(如工作、学习、个人)之间切换独立环境。同时,桌面端继续测试由 Google Lens 支持的视觉搜索,当前需将 Google 设为默认搜索引擎,Mozilla 将据用户反馈决定其在地址栏与移动端的进一步呈现路径。

英特尔发布 Crescent Island 推理 GPU:采用 Xe3P 架构与 160GB 内存

英特尔在 2025 年 OCP Global Summit 上正式公布面向数据中心推理工作的下一代 GPU——Crescent Island。该产品基于全新的 Xe3P 架构,主打性能/功耗比与成本优化,整卡配备 160GB LPDDR5X 内存,并明确定位为企业级推理场景。英特尔表示这款 GPU 将在 2026 年下半年开始客户试用,详细规格尚未公开。

图源:英特尔

Crescent Island 的技术取向是“推理优先”:在功耗与成本受限的风冷数据中心中,提供更好的性能/功耗比。英特尔称 Xe3P 相较 Xe3 在能效与成本上进一步优化,并支持广泛的数据类型,以适配主流推理工作负载与服务化场景。与此同时,英特尔正在以 Arc Pro B 系列 GPU 推进开源软硬件栈的统一与预优化,以便为后续平台打基础。

图源:英特尔

在路线图层面,英特尔将 Crescent Island 视为重返 AI 加速器赛道的关键节点,并宣布将转向年度 GPU 发布节奏,追赶 Nvidia 与 AMD 的更新频率。英特尔高层强调将以开放、异构的系统与软件架构,提供“合适规模、合适价格”的计算以支撑未来的“代理式 AI”工作负载。

市场侧面消息还显示,英特尔此前的 Gaudi 路线逐步淡出,而新架构 GPU(包括此前提及的“Jaguar Shores”)与面向机架规模的平台方案将成为后续重点,不过目前尚无更多更新。

综合来看:Crescent Island 明确押注“推理优先”的能效与成本策略,以 Xe3P 与 LPDDR5X 组合在供应链与价格上做差异化,意在绕开 HBM 产能与成本的瓶颈。但在正式量产前,关键的算力指标、内存带宽、板卡形态以及生态栈成熟度仍需进一步披露与验证。考虑到英特尔给出的时间窗口,这款产品在落地时将直接对位 AMD Instinct MI450 系列与 Nvidia 的 Vera Rubin 世代,竞争将围绕“能效、成本、生态与供货”四条主线展开。

Anthropic 推出 Claude Haiku 4.5:以三分之一成本、两倍以上速度逼近前沿能力

Anthropic 于 2025 年 10 月 15 日 发布小型模型 Claude Haiku 4.5,定位为其“最快、最具性价比”的混合推理模型。根据 Anthropic 官方说明,Haiku 4.5 在编码与电脑操作等任务上接近或追平今年 5 月的 Sonnet 4 表现,同时以约三分之一成本、两倍以上速度运行,并面向 Claude.ai 免费用户开放。

图源:Anthropic

在核心指标上,Haiku 4.5 在 SWE-bench Verified 取得 73.3%,与 Sonnet 4 的 72.7% 基本持平;在命令行任务 Terminal-Bench 得分 41.0%,逊于 Sonnet 4.5 的 50.0%,但与同代中型模型接近;在 OSWorld 的电脑使用测试中,Haiku 4.5 对某些场景甚至超过 Sonnet 4。总体趋势明确:小模型正在以更低成本压近前沿能力。

图源:Anthropic

价格方面,API 定价为每百万输入 token 1 美元、每百万输出 token 5 美元,相比 Sonnet 4.5 的 3/15 美元与 Opus 4.1 的 15/75 美元显著降低,且支持 Prompt 缓存与批量消息以进一步降本。上下文窗口为 200k tokens,开发者在 Claude Developer Platform 可用 100 万 tokens 上下文,输出上限 64k tokens,适合长文档与大型代码库处理。

Anthropic 将 Haiku 4.5 设计为多智能体体系中的“子代理”角色:由 Sonnet 4.5 负责复杂规划与分解,再由多个 Haiku 4.5 并行执行子任务,应用于代码重构、迁移、特性开发等场景。这一架构特别适合低延迟需求,如客户支持聊天、实时辅助编程。

综合来看,Claude Haiku 4.5 代表了小模型“能力接近前沿、成本/时延显著优化”的阶段性跃迁:在 编码、工具使用、电脑操作等可操作性强的任务上,性价比提升尤为显著;在复杂推理与深度常识/知识场景,Sonnet 4.5 与 Opus 仍保持优势。随着两个月内三次重大模型更新的密集发布节奏,Anthropic 与 OpenAI、Google 的竞速正在把“前沿能力下放”从趋势变为现实——以更低价格、更高速度,推动企业级 AI 从试验走向规模化部署。

Google 发布 Veo 3.1 视频生成模型,全面升级音视频生成能力

10 月 15 日,Google 正式推出全新视频生成模型 Veo 3.1,并同步在 Gemini App、Gemini API、Vertex AI 与 Flow 电影制作工具上线,提供更丰富的原生音频、更强的叙事与风格理解,以及更精准的提示遵循与真实质感呈现。据 Google 官方介绍,Veo 3.1 在图像到视频的生成质量上显著提升,支持横屏与竖屏 16:9 输出,并新增 Veo 3.1 Fast 变体以加快生成速度、降低成本。

已关注

关注

重播分享

观看更多

前方智能

0/0

00:00/01:30

进度条,百分之0

播放

00:00

/

01:30

01:30

倍速

全屏

倍速播放中

0.5倍 0.75倍 1.0倍 1.5倍 2.0倍

超清 流畅

https://mpvideo.qpic.cn/0b2epma7qaabseaehmhvm5ufc66d7b5qd6aa.f10002.mp4?dis_k=df1620c1b5517faf86cf7bed1fd3afb2&dis_t=1760924883&play_scene=10110&auth_info=XbSroa8COrjTh5kpfNCP+Od7ZQE8AmcYFD0EKGp9SB9mKxk0NikbNTQHDGcLbDcaChZoICgI&auth_key=e5524960f9e497c55c264c8f6acfac57&vid=wxv_4215729907843989517&format_id=10002&support_redirect=1&mmversion=7.0.20.1781

继续观看

ChatGPT 将开放成人内容;Claude Haiku 4.5 发布;所有 Windows 11 电脑都会成为 AI PC;

转载

,

ChatGPT 将开放成人内容;Claude Haiku 4.5 发布;所有 Windows 11 电脑都会成为 AI PC;

前方智能

已同步到看一看写下你的评论

视频详情

在创作工具方面,Flow 引入了更精细的编辑控制,并首次为既有功能全面带来音频支持:用户可通过 Ingredients to Video 使用多张参考图片来控制角色、物体与风格;借助 Frames to Video 指定首帧与尾帧生成无缝过渡;通过 Extend/Scene extension 基于上一段视频的最后 1 秒延展场景,形成更长、更连贯的镜头且保留环境音。此外,Flow 现已支持在不改变整体场景的前提下插入物体、角色或细节,并自动处理光影与遮挡效果;移除对象功能也将“即将推出”,实现背景重建与自然融合。

Google 表示,Veo 3.1 架构的更新带来了更强的叙事控制与电影风格理解,音频生成覆盖自然对话与同步音效,适合在多镜头中保持角色一致性并提升整体视听质量。开发者与企业用户可在 Google AI Studio 与 Vertex AI 以付费预览方式使用 Veo 3.1 与 Fast 版本,价格与 Veo 3 保持一致。自 Flow 于 5 月上线以来,用户已在该平台生成超 2.75 亿条视频,随着 Veo 3.1 的加入,Google 也在加速将 AI 视频能力拓展至更多应用与场景。

Meta 与 Arm 达成多年合作,加速 AI 从云到端的能效与规模化

10 月 15 日,Meta 宣布与 Arm 建立战略合作,旨在从数据中心到终端设备的全栈协同,提升 AI 工作负载的性能与能效。根据双方的声明,Meta 的 AI 排序与推荐系统将运行在 Arm Neoverse 架构的数据中心平台之上,与传统 x86 系统相比,预计实现更高性能与更低功耗。

图源:Arm

双方同时对 Meta 的基础设施软件栈进行深入优化,包括编译器、库和主流框架(如 PyTorch 与 FBGEMM),并将相关改进以开源形式回馈社区。值得注意的是,优化也覆盖 ExecuTorch 与 Arm KleidiAI,以提升从云到边的推理效率,降低模型部署门槛。此次合作并不涉及股权或大规模实体资产交换,区别于近期多起资本绑定的 AI 基础设施交易。

在硬件层面,Meta 已在其 AI 机房大规模部署 Nvidia Grace-Blackwell 系统(如 GB200/GB300 NVL72),其中 Grace CPU 基于 Arm Neoverse‑V2。这意味着此次合作的重点并非定制自研 Arm CPU,而是围绕 Meta 已采用的 Arm 架构平台深度调优现有代码与框架(例如将依赖 Intel/AMD AVX2/AVX‑512 的工作负载迁移到现代 Arm 向量扩展)。同时,市场层面 Arm 在数据中心 CPU 市场份额已于今年二季度升至 25%;主要云厂商(如 AWS Graviton、Google Axion、Microsoft Cobalt)的 Arm 化进程也在加速。

除软件与架构合作外,Meta 还在美国推进超大规模数据中心项目,以应对预期增长的 AI 需求。Meta 将在德州埃尔帕索(El Paso)建设一座 1 吉瓦级数据中心,投资超过 15 亿美元,预计 2028 年上线,这将为高端 AI 加速芯片提供稳定算力与电力支撑。

Sora 2 推出新功能:免费用户可生成 15 秒视频,Pro 用户可生成 25 秒视频

OpenAI 宣布为 Sora 2 带来两项重要更新:所有用户在 app 与网页端都可生成 15 秒视频,此外 ChatGPT Pro 用户在网页端可通过 Storyboards 生成 25 秒视频。而此前,Sora 2 的免费用户被限制只能生成 10 秒的视频,ChatGPT Pro 用户则是只能生成 15 秒视频。

图源:X

官方帮助中心的 Release Notes 指出,Storyboards 现处于 beta,允许创作者按秒规划镜头、逐帧搭建或用场景描述自动生成可编辑分镜。使用配额方面,15 秒视频按两段计入每日上限,25 秒按四段计入。

从具体操作来看,时长设置在 iOS 的 Create video 顶部下拉菜单与网页端设置图标(Settings) 的 Duration 中均可切换。官方也强调目前 25 秒的长视频能力仅在网页端结合 Storyboards 开放给 Pro 用户,移动端用户暂以 15 秒为主。

综合来看,此次 Sora 2 更新兼顾了易用性与创意深度:免费用户获得更长的输出空间,付费 Pro 用户通过 Storyboards 能更精细地编排镜头,且单段视频时长上限提升至 25 秒;官方也明确这属于渐进式启用,网页端优先覆盖,并在帮助中心提供清晰的时长切换与配额规则说明。

微软将把所有 Windows 11 电脑都升级为 AI PC

微软宣布一系列面向 Windows 11 的 AI 功能更新,核心是让 Copilot 成为操作系统的“中枢”,把每台 Windows 11 电脑都变成“AI PC”。此次更新分为两部分:一批功能即日起面向支持 Copilot 的设备普遍可用,另一批将通过 Windows Insiders(含 Copilot Labs)进行试验性预览。

图源:微软

首先,微软在桌面层面引入更自然的交互方式。新上线的语音唤醒词 “Hey Copilot” 允许用户直接开口召唤 Copilot,并可用 “Goodbye” 结束会话;微软强调语音将成为继键鼠之后的“第三输入方式”。与此同时,具备屏幕理解能力的 Copilot Vision 在全球全面开放,它可在用户授权下“看到”你的桌面或应用窗口并提供情境化指导,例如为新下载的软件界面“指路”、解答文档与图片相关问题、在游戏中进行“手把手”提示。此前 Vision 仅支持语音交互,微软将为其加入文字界面,支持“Text-in/Text-out”,满足“不便开口”的场景。

在系统层面,微软开始把 AI 深植到任务栏与文件管理。全新的任务栏入口 Ask Copilot 以更快的搜索体验呈现,并提供一键开启 Vision 与 Voice 的能力;传统搜索框正向 Copilot 的键盘对话入口演进。微软还推出 Copilot connectors,在用户同意下将 OneDrive、Outlook、Google Drive、Gmail、Google Calendar 与 Google Contacts 等个人内容链接至 Copilot on Windows,辅以“导出到 Word/Excel/PowerPoint”的一键文档生成功能,以及“设置整合”,可用自然语言让 Copilot带你直达 Windows 设置页面。

图源:微软

最具争议也最具野心的是 Copilot Actions。它把 AI 从浏览器扩展到本地桌面,在受控的沙箱环境中代表用户执行多步骤任务,例如整理本地照片、从 PDF 抽取信息、与桌面及网页应用交互。微软坦承该体验仍处早期,将以“窄场景”起步,模型可能在复杂界面出现错误,但会在后台持续行动、记录每一步操作,并允许用户随时接管。为回应安全与隐私担忧,微软强调 “默认关闭、用户掌控、透明可见、最小权限”,引入独立 agent account 与 agent workspace 的隔离架构、强制代码签名、活动审计与敏感动作二次确认。相比去年饱受质疑的 Recall 首发流程,此次微软选择先走 Insider 预览、后广泛推送的“更审慎”路径。

生态与场景扩展上,微软宣布与 Manus AI、Filmora、Zoom 等集成:在 File Explorer 右键即可用 Manus 生成网站、用 Filmora 进入视频编辑;在 Copilot+ PCs 上结合 Zoom 的 Click to Do,悬停邮件地址即可即时安排会议。面向游戏,Gaming Copilot(Beta) 登陆 ROG Xbox Ally / Ally X,提供游戏内建议与问答。

重要的是,微软明确此次核心 AI 能力 “适用于所有 Windows 11 设备”,并非仅限配备 NPU 的 Copilot+ PCs。这既可能加速 AI 功能的广泛采用,也让高端硬件的差异化诉求面临新考验。微软还以电视广告配合此次更新,契合 Windows 10 刚结束支持的时间节点,推动用户升级 Windows 11。

陀螺科技现已开放专栏入驻,详情请见入驻指南: https://www.tuoluo.cn/article/detail-27547.html

前方智能专栏: https://www.tuoluo.cn/columns/author1911845/

本文网址: https://www.tuoluo.cn/article/detail-10126040.html

免责声明:
1、本文版权归原作者所有,仅代表作者本人观点,不代表陀螺科技观点或立场。
2、如发现文章、图片等侵权行为,侵权责任将由作者本人承担。

相关文章