一周速览
【 1 】国家发展改革委:数据中心、人工智能等项目可申报基础设施领域REITs
【 2 】DeepSeek推出DeepSeek-V3.2
【 3 】亚马逊发布第四代自研AI芯片
【 4 】Mistral AI升级Mistral 3系列模型
【 5 】腾讯发布混元2.0模型
【 6 】华为开源openPangu-R-7B-Diffusion模型
【 7 】智谱上线GLM-4.6V系列多模态大模型
【 8 】OpenAI公布“忏悔训练”新方法
【 9 】谷歌等提出 Evo-Memory框架
国家发展改革委:数据中心、人工智能等项目可申报基础设施领域REITs
近日,国家发展改革委办公厅印发《基础设施领域不动产投资信托基金(REITs)项目行业范围清单(2025年版)》,首次将“新型基础设施”以独立类别纳入REITs发行范围,包括数据中心类、人工智能基础设施项目,5G、物联网、工业互联网项目。
DeepSeek推出DeepSeek-V3.2
DeepSeek日前推出DeepSeek-V3.2正式版,其推理能力达到GPT-5水平,输出长度大幅降低,适合日常使用和通用Agent任务,并首次支持思考模式下的工具调用,大幅提高了模型的泛化能力。
亚马逊发布第四代自研AI芯片
12月1日到5日,亚马逊云科技AWS re:Invent大会召开,发布了第四代AI芯片Trainium4,较上一代性能提升6倍。此外,会上还发布了第二代自研模型Nova 2、面向企业定制模型的Nova Forge服务等,旨在提升AI基础设施能力与智能体应用效率。
Mistral AI升级Mistral 3系列模型
12月3日,法国公司Mistral AI发布新一代Mistral 3系列模型,包括面向边缘设备的Ministral 3和前沿级混合专家模型Mistral Large 3。该系列全线采用Apache 2.0许可证开源,被认为代表了同类产品中的最佳性价比。
腾讯发布混元2.0模型
12月5日,腾讯发布自研大模型混元2.0,模型采用混合专家(MoE)架构,具备高达406B总参数量(激活参数32B),支持256K超长上下文窗口,推理能力和效率处于业界领先地位,且在文本创作与复杂指令遵循等实用场景上表现突出。
华为开源openPangu-R-7B-Diffusion模型
华为近日开源openPangu-R-7B-Diffusion扩散语言模型,创新性地融合了因果注意力掩码架构,支持自回归+扩散双模式解码,极大提升了“慢思考”能力,并成功将上下文长度扩展至32K,在数学和编程基准上大幅超越同类模型。
智谱上线GLM-4.6V系列多模态大模型
12月8日,智谱上线并开源GLM-4.6V系列多模态大模型,首次在模型架构中将Function Call能力原生融入视觉模型,实现“图像即参数,结果即上下文”的多模态工具调用,为真实业务场景中的多模态Agent提供统一的技术底座。
OpenAI公布“忏悔训练”新方法
OpenAI近期公开“忏悔训练”(Confessions)新方法,用于提升GPT-5-Thinking等大模型的诚实性。该方法让模型在回答后生成“忏悔报告”,如实汇报是否偷工减料或违反指令,经训练后忏悔准确性可达89%。此方法主要用于监控和诊断,而非阻止模型犯错。
谷歌等提出 Evo-Memory框架
谷歌DeepMind研究团队和伊利诺伊大学香槟分校日前提出了Evo-Memory智能体框架,不仅评估智能体在测试时的学习能力,还关注自我演变的记忆,挑战智能体能否从连续任务流中积累和重用策略。基于此,研究设计了ReMem框架,让上下文本身即可成为模型训练权重,有望带来大模型整个训练模式的转变。











