新闻中心

产融数智前沿观察 | 一周速览(2025.12.3-12.9)

2025.12.09

一周速览

【 1 】国家发展改革委:数据中心、人工智能等项目可申报基础设施领域REITs

【 2 】DeepSeek推出DeepSeek-V3.2

【 3 】亚马逊发布第四代自研AI芯片

【 4 】Mistral AI升级Mistral 3系列模型

【 5 】腾讯发布混元2.0模型

【 6 】华为开源openPangu-R-7B-Diffusion模型

【 7 】智谱上线GLM-4.6V系列多模态大模型

【 8 】OpenAI公布“忏悔训练”新方法

【 9 】谷歌等提出 Evo-Memory框架


国家发展改革委:数据中心、人工智能等项目可申报基础设施领域REITs

近日,国家发展改革委办公厅印发《基础设施领域不动产投资信托基金(REITs)项目行业范围清单(2025年版)》,首次将“新型基础设施”以独立类别纳入REITs发行范围,包括数据中心类、人工智能基础设施项目,5G、物联网、工业互联网项目。

☛ 点击阅读详情

DeepSeek推出DeepSeek-V3.2

DeepSeek日前推出DeepSeek-V3.2正式版,其推理能力达到GPT-5水平,输出长度大幅降低,适合日常使用和通用Agent任务,并首次支持思考模式下的工具调用,大幅提高了模型的泛化能力。

☛ 点击阅读详情

亚马逊发布第四代自研AI芯片

12月1日到5日,亚马逊云科技AWS re:Invent大会召开,发布了第四代AI芯片Trainium4,较上一代性能提升6倍。此外,会上还发布了第二代自研模型Nova 2、面向企业定制模型的Nova Forge服务等,旨在提升AI基础设施能力与智能体应用效率。

☛ 点击阅读详情

Mistral AI升级Mistral 3系列模型

12月3日,法国公司Mistral AI发布新一代Mistral 3系列模型,包括面向边缘设备的Ministral 3和前沿级混合专家模型Mistral Large 3。该系列全线采用Apache 2.0许可证开源,被认为代表了同类产品中的最佳性价比。

☛ 点击阅读详情

腾讯发布混元2.0模型

12月5日,腾讯发布自研大模型混元2.0,模型采用混合专家(MoE)架构,具备高达406B总参数量(激活参数32B),支持256K超长上下文窗口,推理能力和效率处于业界领先地位,且在文本创作与复杂指令遵循等实用场景上表现突出。

☛ 点击阅读详情

华为开源openPangu-R-7B-Diffusion模型

华为近日开源openPangu-R-7B-Diffusion扩散语言模型,创新性地融合了因果注意力掩码架构,支持自回归+扩散双模式解码,极大提升了“慢思考”能力,并成功将上下文长度扩展至32K,在数学和编程基准上大幅超越同类模型。

☛ 点击阅读详情

智谱上线GLM-4.6V系列多模态大模型

12月8日,智谱上线并开源GLM-4.6V系列多模态大模型,首次在模型架构中将Function Call能力原生融入视觉模型,实现“图像即参数,结果即上下文”的多模态工具调用,为真实业务场景中的多模态Agent提供统一的技术底座。

☛ 点击阅读详情

OpenAI公布“忏悔训练”新方法

OpenAI近期公开“忏悔训练”(Confessions)新方法,用于提升GPT-5-Thinking等大模型的诚实性。该方法让模型在回答后生成“忏悔报告”,如实汇报是否偷工减料或违反指令,经训练后忏悔准确性可达89%。此方法主要用于监控和诊断,而非阻止模型犯错。

☛ 点击阅读详情

谷歌等提出 Evo-Memory框架

谷歌DeepMind研究团队和伊利诺伊大学香槟分校日前提出了Evo-Memory智能体框架,不仅评估智能体在测试时的学习能力,还关注自我演变的记忆,挑战智能体能否从连续任务流中积累和重用策略。基于此,研究设计了ReMem框架,让上下文本身即可成为模型训练权重,有望带来大模型整个训练模式的转变。

☛ 点击阅读详情

微信公众号
扫码关注微信公众号
  • 上海总部

    上海市浦东新区樱花路868号建工大唐国际A座20楼

  • 北京分公司

    北京市朝阳区东三环光华路众秀大厦3903

打开微信扫一扫进行分享。

关闭