🌟 今日AI快讯
Daily Issue
2025-11-21 AI 国内外新闻
华为开源Flex:ai AI容器技术
华为在上海举办“2025 AI容器应用落地与发展论坛”,正式发布并开源Flex:ai
- Flex
ai通过软件调度将GPU/NPU平均利用率从30–40%提升至70%,可统一管理英伟达、昇腾及第三方芯片
- 论坛现场演示了基于Flex
ai的千卡集群训练ResNet-50,训练时间缩短46%,能耗降低28%
华为同时宣布与清华、上海交大联合成立“AI容器开源联盟”,年内向社区贡献全部核心代码与Benchmark
COP30闭幕发布《贝伦AI气候倡议》
第30届联合国气候变化大会(COP30)在巴西贝伦闭幕,形成首份专门聚焦AI的气候政治文件
文件提出“AI for Climate”全球合作框架,要求各国2026年前提交AI驱动的国家自主贡献(NDC)更新方案
阿里云作为唯一中国科技企业签署支持,承诺向发展中国家开放其“数字孪生节能平台”API
大会现场展示由阿里、WMO、ITU共建的“AI极端天气预测沙盒”,可提前72小时预测亚马逊流域洪水
广汽昊铂A800搭载华为ADS 4亮相广州车展
广汽昊铂A800成为全国首款获批120 km/h L3测试牌照的乘用车,于广州车展首日公开智能驾驶体验区
新车配备华为ADS 4.0,采用自研MDC 810高算力平台,算力达400 TOPS,官方宣称城市场景接管里程提升至150 km
- 现场展示“AI代客泊车”功能
车辆在多层地库自主找车位并完成充电桩对接,平均用时90秒
广汽宣布将与华为共建“AI联合创新实验室”,2026年推出面向私人用户的L4 Robotaxi版本
理想汽车发布VLA司机大模型升级版
理想汽车在2025广州车展宣布VLA(Vision-Language-Action)司机大模型升级至2.0版本
新模型基于自研MindGPT-7B,引入多模态记忆网络,可记忆车主200+条个性化指令并跨场景复用
现场演示在无保护左转场景下,车辆通过对话与行人完成意图沟通,降低人工接管率至0.3次/千公里
理想同步开放“AI司机小程序”,用户可上传10小时驾驶视频,云端自动生成专属驾驶风格包
OpenAI开源o1-mini-physics模型
OpenAI于太平洋时间11月21日0点开源o1-mini-physics,专门针对大学物理级推理优化
模型在2025 AIME物理竞赛题测试准确率达92%,较GPT-4o提升18个百分点,参数量仅7B
开源仓库提供PyTorch与JAX双版本权重,以及用于合成物理题库的工具链PhysicsGen
技术报告披露,模型通过“过程奖励+蒙特卡洛回溯”方法,将复杂多步推导错误率降低至4.7%
谷歌Gemini 2.5 Flash上线Vertex AI
谷歌云在Vertex AI平台上线Gemini 2.5 Flash,主打低延迟推理,首包时延<50 ms
新模型支持1M上下文,在LongBench基准上超越Claude-3.5-Sonnet 12%,定价降至每百万token 0.15美元
现场演示结合Google Maps Live View,实现“一句话AR导航”:用户说“带我去最近的咖啡店”,手机直接叠加3D路径
谷歌同步发布MediaPipe LLM Inference API,开发者可在Android端侧一键部署Gemini 2.5 Flash量化版
微软宣布Security Copilot全面集成AI威胁狩猎
微软在Ignite 2025大会宣布Security Copilot接入新一代AI威胁狩猎引擎“HunterX”
HunterX基于GPT-4o与安全日志合成数据训练,可自动生成KQL查询语句,检测未知APT的准确率达97%
现场展示对Log4j 0-day攻击链的复盘:AI在10秒内从2 TB原始日志中定位初始入侵点,并给出修复脚本
产品面向Microsoft 365 E5客户免费,预计12月1日推送,支持中文自然语言交互
中国信通院发布《AI大模型工程化能力成熟度模型》
中国信息通信研究院在“2025 AI工程化峰会”发布国内首个大模型工程化标准,编号T/CCSA 452-2025
标准定义“数据准备-模型训练-推理部署-运维监控”四级成熟度,华为、阿里、百度、智谱首批通过3级认证
- 现场授牌仪式公布华为Flex
ai与百度千帆在“异构算力调度”单项获满分,成为行业标杆案例
信通院同步上线“AI工程化在线评估平台”,企业可免费自测并生成对标报告
英伟达发布Blackwell Ultra AI Factory参考架构
英伟达CEO黄仁勋在SC25大会发布Blackwell Ultra AI Factory,单柜可提供1.5 EFLOPS FP4算力
新架构采用液冷NVLink 5.0,单机柜功耗降至55 kW,PUE<1.05,直接面向10B参数级大模型推理
现场演示运行Llama-4-405B推理,在2048卡规模下每秒生成4200 tokens,较H100提升3.8倍
英伟达宣布与浪潮、联想、新华三等12家ODM合作,2026Q1开始交付整机,可无缝替换现有DGX H100
上海AI实验室开源书生·浦语3.0
上海人工智能实验室开源InternLM3-20B,首次实现“中英双语+128K长文+MoE稀疏”统一架构
模型在C-Eval、MMLU、CMMLU三大中文基准均夺第一,平均得分81.4,超过GPT-4o中文表现
开源内容包含完整训练脚本、数据清洗工具链及RLHF人类偏好数据集,总容量4.8 TB
实验室同步发布“浦语智链”浏览器插件,用户可一键调用本地模型总结网页、生成思维导图