微观察|AI步入重工业竞赛时代,OpenAI发布GPT-5与开源模型
2025-08-19 23:00:00  腾讯   [查看原文]

一周大数据动态更新

本周点评

01AI竞争范式正从智力密集型转向资本与能源密集型的重工业竞赛。AI模型算法层面的同质化趋势已现,未来竞争的核心要素不再是算法或人才密度,而是承载算力的物理基础设施。这包括电力供应、数据中心建设、供应链管理等极限工程能力。无法完成百亿级资本投入和兆瓦级能源调度的参与者,将被迫成为算力“租户”,在产业链上游丧失议价权与发展自主权。这一转变将重塑产业格局,催生新型基础设施寡头。未来的AI巨头,其核心竞争力不再是软件工程,而是类似国家级电网、大型工业制造的强大基建能力与高效执行力。传统科技公司的护城河正在被侵蚀,一种融合了能源、地产、工业制造与科技的新型巨无霸正在形成。

技术产品发布微观察

02

数据管理 Infra - 数据库/大数据

2.1Snowflake发布数据库内核v9.22新功能|数据质量:使用期望值来定义质量检查(GA):用户现可使用一个期望来定义数据指标函数(DMF)的阈值。在将期望添加到 DMF 与对象之间的关联后,如果 DMF 返回的值不匹配期望的布尔表达式,则会被标记为数据质量检查的违规项。可扩展性更新:从处理程序代码中跟踪 SQL 语句(GA)当用户启用了跟踪功能时,Snowflake 会跟踪与其它被跟踪代码一起执行的 SQL 语句,例如在存储过程或用户自定义函数的处理程序中执行的 SQL 语句。【数据管道更新|Dynamic Talbe 动态表】支持不可变性约束。不可变性约束通过允许表的部分内容保持不变,而不是始终反映最新的查询结果,从而为用户提供对动态表更新的更精细的控制。通过将特定区域标记为不可变,用户可:防止现有数据的更新或删除传播。限制符合特定条件的行的插入、更新和删除操作。限制未来的修改,同时仍允许对表的其他部分进行增量更新。新增支持回填。现在用户可创建一个动态表,并从常规表中回填其初始数据。回填是一种零拷贝、低成本的操作,它可立即将源数据在动态表中可用。用户现可在动态表中回填数据,同时仍可为将来的更新定义自定义刷新查询。在不可变性约束下,回填的数据即使不再与上游源匹配,也不会被更改,从而确保其随时间保持不变。Snowflake 宣布,OpenAI 的旗舰模型系列 GPT-5 现已作为公共预览版,原生集成至其 Snowflake Cortex AI 平台。此次集成旨在让客户能够在 Snowflake 安全、受治理的环境内,直接利用先进的 AI 模型处理企业数据。核心更新:模型可用性: GPT-5、GPT-5 mini、GPT-5 nano 和 GPT-5 chat 模型已在 Snowflake 内部提供,用户可通过 Cortex AI SQL 和 Cortex REST API 进行调用。平台集成:数据分析: 用户可利用 Cortex AI SQL 中的 AI_COMPLETE 等函数,直接通过标准 SQL 对结构化和非结构化数据(包括多模态数据)应用 GPT-5 的高级推理能力。智能系统构建: 结合 Cortex Agents,GPT-5 可用于创建能够对企业数据进行规划、推理和执行操作的智能系统。AI 应用开发: 开发者可通过 Cortex REST API,利用 GPT-5 构建与企业数据安全交互的低延迟 AI 应用,如聊天机器人或 Copilot。(src: Snowflake release notes/2025/9_22,Announcing OpenAl GPT-5 on Snowflake Cortex Al )

OpenAI 与 Databricks 于2025年8月5日联合宣布,在 Databricks 平台上原生推出 OpenAI 的全新开放权重模型 gpt-oss。此举旨在让企业能够安全地构建基于其自有数据的定制化 AI 代理。核心更新:模型发布: 正式推出 gpt-oss 20B 和 gpt-oss 120B 两款开放权重模型。这些模型具备高级推理和工具使用能力,并支持 131k 的上下文窗口。平台集成: 模型已在 Databricks 平台原生提供,允许企业在数据旁边直接运行和微调模型,从而增强了安全性和治理能力。主要应用场景:快速代理构建: 适用于搜索、聊天和实时决策等需要低延迟响应的用例。大规模数据分析: 可高效地对海量文档进行摘要和分类。模型定制: 支持对模型进行微调,以适应特定领域的专业任务。企业合规性: 允许在企业现有且符合 HIPAA、PCI 等合规标准的平台内部署,并通过 Unity Catalog 进行统一管理。OpenAl在Databricks 上推出全新开放模型。(src: Introducing OpenAl's New Open Models on Databricks - Introducing OpenAI’s New Open Models on Databricks)

Alibaba ADB MySQL版 V3.2.4 7月新功能更新如下:(Src: ADB MySQL版 release)

类别

名称

说明

新增

表级分区生命周期管理(LIFECYCLE)

支持通过ALTER TABLE取消表的分区生命周期和分区数据的自动清理。

创建Paimon外表

支持创建Paimon外表。

MaxCompute外表

支持使用外部服务器(Server)创建MaxCompute外表。

删除分区

支持通过ALTER TABLE删除表中的分区。删除分区后,该分区内的数据也会被删除且无法找回。

MAX_PT函数

支持使用MAX_PT函数查询MaxCompute分区外表中一级分区的最大值,避免扫描所有分区,显著提升查询处理速度及整体计算效率。

优化

创建外表时显示底层真实报错信息

创建MySQL外表时,显示底层真实报错信息,方便用户定位并排查问题。

Google Cloud Platform (GCP):发布多项数据与 AI 平台增强功能。Google Cloud 宣布了一系列旨在整合数据、AI与分析工作流的更新,重点在于提升自动化、性能和安全性。核心更新:数据代理(Data Agents)框架: 推出一项新计划,旨在通过提供一套专家数据代理、一个实现代理间协作的互联网络,以及一个统一的 AI 原生基础,为企业提供对其业务的实时、完整理解。Colab Enterprise for AI: 在 Vertex AI 和 BigQuery 中集成了新的 Colab Enterprise 体验。该平台允许用户通过自然语言提示(如“训练一个预测收入的模型”),驱动代理自主完成从数据加载、清洗到模型训练与评估的全套数据科学工作流程。Spanner 列式存储引擎(预览版): 发布 Spanner 列式引擎的预览版。该引擎结合了列式存储与向量化执行技术,旨在显著加速对实时操作数据的分析查询速度。Cloud SQL 增强型备份: 推出 Cloud SQL 的新备份功能,其特点是支持逻辑隔离且不可变的备份保险库(Immutable Backup Vaults)。该功能基于 Google Cloud 备份与灾难恢复服务构建,旨在增强数据抵御外部威胁的能力。(src: What's new with Google Data Cloud)

Oracle 全球分布式 Exadata 数据库正式商用。Oracle 宣布其“基于 Exascale 架构的全球分布式 Exadata 数据库”(Oracle Globally Distributed Exadata Database on Exascale Infrastructure)已全面可用(GA)。该服务旨在为全球范围内的关键任务和智能代理 AI 应用提供高可用、可扩展的分布式数据库解决方案。核心更新:产品定位: 作为一项企业级托管云数据库服务,它能在 Oracle 云基础设施(OCI)的多个区域间自动分发、存储和同步数据,以确保区域性中断期间应用的持续可用性。关键架构与功能:分布式架构: 采用内置的、基于 Raft 共识协议的复制功能,实现跨节点、可用区乃至多区域的零数据丢失自动故障转移。数据分布与合规: 提供自动化的数据分布策略,可根据监管要求将特定数据存储在指定地理区域内(数据驻留),同时为操作提供统一的数据库视图。Exascale 基础设施优势:性能: 利用智能存储将 AI 和 SQL 操作从数据库服务器卸载,实现低延迟 I/O。弹性与成本效益: 采用无服务器架构,计算与存储资源可独立、动态扩展,并按实际使用量付费,以适应变化的业务负载。应用兼容性: 现有基于 Oracle 数据库的应用无需修改代码即可迁移,直接利用其分布式特性。主要应用场景:金融服务: 满足数据驻留要求,同时支持实时交易与风险分析。代理式 AI(Agentic AI): 为高吞吐量的 AI 工作负载提供高可用、可扩展的数据库支持。电子商务与物联网: 支持全球用户的双活应用,并高效处理海量数据。(Src: Infrastructure)

Elasticsearch 发布内核 v8.19.1。本版本主要为Bugfix,并带来功能改善 。增强的功能有:功能增强:现在安排合并任务时会记录可用磁盘空间,这有助于诊断在节点磁盘空间不足的情况下运行合并所导致的问题。这些信息会显示在堆转储中,可用于指导indices.merge.disk.watermark.high未来的改进或提升,例如中止正在运行的合并。#131711(src: ES release)PG 社区发布了一系列新的扩展:pgNow v1.0.0发布-免费快速的PostgreSQL监控与诊断工具。发布pgCompare Community v1.0.0 -免费的PostgreSQL模式比较工具,实现更快更安全的部署。Pigsty 3.6,PostgreSQL 的元发行版。发布pg exporter v1.0.0 - PostgreSQL的高级可观测性工具。(src: PG release)

智能应用 Infra

2.1OpenAI发布旗舰模型GPT-5 & 开源OSS模型家族:发布下一代旗舰模型 GPT-5 并整合产品线:OpenAI 于2025年8月7日宣布,正式推出其下一代旗舰模型 GPT-5。该模型将作为所有已登录用户的默认模型,覆盖 ChatGPT 的网页、移动及桌面端。核心更新:模型发布与整合: GPT-5 现已面向 ChatGPT Plus、Pro、Team 及免费版用户推出,并计划稍后向 Enterprise 及 Edu 用户开放。此次更新旨在通过一个智能、高效的统一模型,整合并优化此前各模型的性能。付费层级选项: Plus、Pro 和 Team 用户可通过模型选择器,在标准版 GPT-5 与提供更长推理时间的 GPT-5 Thinking 之间进行手动切换。Pro 和 Team 用户还可独家使用 GPT-5 Thinking Pro,该版本专为处理高复杂度任务设计,提供更高的准确性。旧模型弃用: 随着 GPT-5 的上线,包括 GPT-4o、GPT-4.1、GPT-4.5、GPT-4.1-mini 在内的部分旧模型将被弃用。使用这些模型的历史对话将被自动迁移至功能最接近的 GPT-5 版本。语音模式目前将暂时继续由 GPT-4o 提供支持。新增“个性”功能: 用户可在设置中选择四种新增的交流风格(愤世嫉俗者、机器人、倾听者、极客)或保留默认风格,以自定义 ChatGPT 的回应语气。此功能不适用于语音模式。图像生成更新: 免费版 ChatGPT 的图像生成功能于8月8日获得小幅更新,旨在提升运行效率。开源模型 gpt-oss-120b 与 20b 发布:OpenAI 发布其首批开源权重模型 gpt-oss-120b 和 gpt-oss-20b,标志着公司自 GPT-2 以来在开源领域的重大回归。这两款模型均基于 Transformer 架构,其中 120b 版本专为需要高准确性和复杂推理的服务器级应用设计,而 20b 版本则针对移动和边缘设备进行优化。模型采用 Apache 2.0 许可证,允许商业应用。(src: OpenAI release)

Anthropic:推出 Claude Opus 4.1,提升编程与推理能力。Anthropic 于2025年8月5日发布了 Claude Opus 4.1,作为对前代模型的增量升级。该模型旨在增强代理任务、真实世界编程及复杂推理方面的性能。模型发布与定价: Claude Opus 4.1 已向付费用户、Claude Code、API、Amazon Bedrock 及 Google Cloud Vertex AI 平台提供。其定价与前代 Opus 4 保持一致。性能提升:编程能力: 在 SWE-bench Verified 基准测试中,Opus 4.1 的得分提升至 74.5%。据 GitHub 反馈,该模型在多文件代码重构方面表现尤为出色。数据分析: 增强了在细节追踪和智能搜索方面的能力。乐天集团(Rakuten)报告称,该模型能更精确地在大型代码库中定位待修复部分。综合性能: Windsurf 的基准测试显示,Opus 4.1 的性能较 Opus 4 提升了一个标准差。API 功能更新: 于8月8日,搜索结果内容块(Search result content blocks)功能在 Anthropic API 和 Vertex AI 上正式可用。该功能旨在为检索增强生成(RAG)应用提供带有来源归属的自然引用。(src: Claude Opus 4.1)

阿里通义/百炼平台过去一周上架了一些新的模型:

文生代码

qwen3-coder-flash、qwen3-coder-flash-2025-07-28

通义千问Coder系列速度最快、成本最低的模型。代码能力(Qwen-Coder)

推理模型

qwen-flash、qwen-flash-2025-07-28

通义千问系列速度最快、成本极低的模型,适合简单任务。通义千问Flash

火山引擎|豆包7月份更新了一系列产品(更新公告20250804|产品更新公告):

功能模块

功能说明

体验中心

新增 SeedEdit 3.0L 图生图模型体验Doubao-Seedance-1.0-lite-i2v 首尾帧支持1080p

API Key 管理

API Key增加可选配置功能“IP调用白名单”

API

查询视频生成任务列表 API 调整为返回近 7 天的数据Doubao-Seedance-1.0-lite-i2v 首尾帧支持1080pSeeDance-1.0-pro和SeeDance-1.0-lite 支持自定义 ratio 参数Responses API built-in tools - web_search 开启邀测

模型推理

TPM 保障包/模型单元支持新购、扩容过程中取消支持查看模型单元资源率、单元数和 TPM 监控曲线Deepseek&Kimi-K2模型支持关闭内容安全护栏按钮

Token 计算器

支持和模型广场列表对齐的模型 tokens 计算,增加视觉模型的 Token 计算

langchain-openai 发布版本v0.3.29 。该版本新增了对自定义工具(Custom Tools)的支持和日志详细度(Verbosity)控制选项。在稳定性和兼容性方面,该版本为 ChatOpenAI 添加了 max_retries 参数以处理 503 容量错误,并修复了 get_num_tokens_from_messages 方法对 gpt-5 模型的兼容问题。此外,版本还更新了底层的 OpenAI SDK 依赖,修正了 Unicode 字符处理的缺陷,并包含了多项代码与文档的优化。(src: langchain-ai / langchain)

应用落地微观察

03数据库资讯 |2025年7月国产数据库中标情况一览。多家银行重金采购国产数据库,其中长沙银行投入超千万元。同时,达梦、腾讯云TDSQL、南大通用GBase三款数据库产品在金融、央企、政府等领域赢得多个项目。高额项目:长沙银行: 采购GoldenDB (1108万) 和达梦 (242万)。秦皇岛银行: 采购腾讯云TDSQL (694万)。中国进出口银行: 采购GoldenDB (304万)。中标常客:达梦、腾讯云TDSQL、南大通用GBase 在银行、券商、大型央企和政府机构中广泛中标。7月国产数据库大单:

7月国产数据库中标情况一览:

(src: 2025年7月国产数据库中标情况一览:长沙银行千万采购GoldenDB,秦皇岛银行近七百万采购TDSQL!)

智能超参数|中国大模型中标项目监测与洞察报告(2025年7月)。2025年7月,中国大模型市场中标额超13亿元,项目数量创新高,市场保持强劲,并呈现以下核心趋势:应用落地加速,但算力采购驱动总金额。应用为王(数量上):应用类项目数量占比高达59%,并持续走高,成为项目数量的绝对主体。这主要得益于DeepSeek、阿里Qwen等免费、高性能开源模型的推动,让各行各业加速在具体业务场景中引入大模型。算力为王(金额上):尽管应用项目多,但市场总金额仍由少数高价值(千万元级别)的算力采购项目主导。自3月以来,算力类项目的金额占比持续第一。行业格局分化:教科重数量,政务重金额。教科行业:连续三个月项目数量排名第一,主要原因是大量高等院校为部署开源模型而采购算力。政务行业:凭借大额算力及综合应用类采购,持续保持中标金额第一。厂商竞争分化,头部效应显现。科大讯飞在中标数量上明显领先,形成第一梯队。火山引擎上升势头最猛,尤其在金融行业发力显著,稳居第二。智谱、阿里云、腾讯云和百度等厂商紧随其后,竞争激烈。开源模型竞争加剧,DeepSeek热度降温。随着阿里Qwen、智谱等其他开源模型的性能追赶甚至反超,客户的选择不再只聚焦于早先领先的DeepSeek。7月份明确提及DeepSeek的项目数量和相关一体机采购占比较前两月均出现下滑,显示其市场热度有所回落。

(src: 中国大模型中标项目监测与洞察报告(2025年7月))

【Snowflake 客户案例】金融科技公司Neema通过统一数据平台Snowflake ,解决业务瓶颈并加速AI应用部署。Snowflake帮助Neema将其数据团队从一个成本中心(维护系统),转型为了一个价值创造中心(快速开发、赋能业务)。通过大幅降低内部的技术摩擦力,系统性地释放了数据团队的生产力。Neema核心挑战:Neema原有的多系统拼接数据架构,直接导致了三大业务痛点:高昂的隐性成本: 数据团队精力被系统维护大量消耗。创新迟滞: 技术复杂性拉长了新想法的验证和上线周期。人才瓶颈: 对特定技能的依赖限制了团队的扩展。解决方案与关键价值:Neema将数据栈统一迁移至Snowflake平台,实现了从“维持系统”到“创造价值”的转变。其核心价值体现在以下可量化的成果上:运营效率飞跃(降本增效):流程自动化: 一个AI销售报价工具,将一项年均消耗2,500小时的人工研究任务,缩短为40秒的自动化查询。集成简化: 与外部应用(HubSpot)的ETL集成工作量,从预估的数天降至点击两下完成。业务敏捷性与创新加速:“想法到生产”加速: AI应用的开发部署周期从数月大幅缩短至2.5周,使快速市场验证成为可能。AI能力赋能: 该AI报价工具直接增强了销售团队的报价竞争力和利润控制能力,将数据能力转化为直接的商业优势。(src: NEEMA BREAKS DOWN BARRI ERST r0 CROSS-BORDER PAYMENTS一 ANDAIADOPTION - WITH SNOWFLAKE)

Neema是一家总部位于以色列特拉维夫的金融科技公司,成立于2013年。其核心业务是为外籍劳工和无银行账户者提供移动钱包应用,支持跨境汇款、在线支付等功能,并为企业提供全球支付网络。该公司约有84名员工,累计融资约1150万美元,已于2022年1月被IDI Direct Insurance收购,目前作为其子公司运营。

宏观消息

04山东省人民政府办公厅发布关于加快释放数据价值、加力推进数字经济高质量发展的实施意见,旨在深入贯彻国家及省级数字经济发展决策部署,以建设国家数据要素综合试验区为契机,推动实体经济与数字经济深度融合,实现数字经济核心产业提质与产业数字化转型提级。在总体目标上,到 2027 年,数据要素市场化价值化路径将更加成熟,实体经济与数字经济融合效能全面释放,数字经济核心产业增加值年均增速超过 10%,其占 GDP 比重稳步提升。为激活数据要素价值,山东将从四方面发力。一是强化优质供给,建立数据产权登记保护机制,建设全省统一公共数据资源登记平台,推进 “一人一档、一企一档” 建设,2027 年底前在工业制造、现代农业等领域每年打造 10 个以上省级高质量数据集。二是促进高效流通,开放市场监管、医疗健康等重点领域高价值数据,打造国家级公共数据示范场景,建设具有全国竞争力的数据交易机构及海洋、医疗等行业性交易平台。三是推动合规运营,构建 “整体 + 分领域 + 依场景” 的公共数据授权模式,引导企业数据分级授权,依托 “爱山东” 平台实现数据 “一场景一授权”。四是加快开发利用,通过 “数据要素 ×” 大赛探索价值化模式,支持中小企业低成本用数,推进数据资产入表及国有企业数据效能提升。布局数字经济新赛道:山东将聚焦关键核心技术创新,每年在人形机器人、量子科学等前沿领域实施基础研究项目,部署不少于 20 项关键技术攻关,2025 年底前培育 50 个创新实验室、300 个创新中心及 50 个创新服务机构。培育创新型企业,建立数字经济企业库,2026 年底前新培育 3000 家以上数字经济领域高新技术企业及 10 家左右全国电子或软件百强企业。大力发展人工智能,实施 “人工智能 +” 行动,2027 年底前培育 20 个重点大模型、50 个标杆场景及 100 个融合案例,推出 “算力券” 等奖补政策,建设济南 — 青岛人工智能先导区等。做大做强数据产业,推动产业规模年均增速超 20%,2027 年底前建设 5 个数据标注基地。优化数字产业集群,2026 年底前培育 100 家左右 “领军型” 企业。同时促进平台经济健康发展,制定个性化扶持政策并支持重点企业发展。实体经济数智变革:农业领域 2025 年底前打造 100 个以上智慧农场等场景,2027 年底前建成 80 个左右特色农业数字化县;工业领域 2025 年底前建设 10 家国家卓越级或领航级智能工厂,推动 6 个试点城市服务企业超 1 万家,培育 5 个转型引导区;服务业领域将发展高端生产性服务业,2027 年底前建成 15 个智慧旅游场景及 50 个沉浸式空间;海洋产业领域 2027 年底前打造 30 个以上数字化应用场景,建设 “智慧海上粮仓”。跨领域跨区域协作:山东将深度对接京津冀、长三角及黄河流域,参与 “一带一路” 建设,探索自贸区数据跨境流动负面清单及服务中心。推动数字化绿色化转型,提升数据中心绿电占比,建设双碳智慧平台及生态监测体系。促进数字产城融合,推动城市智慧场景建设,扩大智能终端供给以激发数字消费潜力。数字基础设施建设:将高标准建设青岛国际通信出入口局,部署大容量光传输系统,实现重点区域 5G 覆盖,前瞻布局 6G、卫星互联网等。打造济南、青岛、枣庄算力枢纽,2025 年底前全省总算力达 12E,智算占比 50% 左右。推进隐私计算试点,建设行业可信数据空间,开展 “标杆型”“引领型” 数据基础设施工程。保障措施包括推进数字政府改革,出台数字经济 “政策包” 及 “投贷债” 支持,落实税收优惠;实施专利快速预审,强化数字人才政策与职称评价,提升企业骨干数字素养;建立安全管理机制,加强信息及隐私保护。

(src:地方动态|山东省人民政府办公厅关于加快释放数据价值加力推进数字经济高质量发展的实施意见)

近日,美国特朗普政府代表 Kratsios 主任(白宫科学和技术政策办公室(OSTP)主任)在韩国仁川举行的 APEC 数字与人工智能部长级会议上发表讲话,核心围绕美国《总统 AI 行动计划》及全球 AI 合作与出口战略展开。讲话开篇提及,特朗普总统于 7 月 23 日发布《AI 行动计划》,明确美国将通过加速 AI 创新、建设 AI 基础设施、开展 AI 外交等举措,保持在 AI 领域的全球领先地位,并成为全球合作伙伴的首选。总统随即签署三项行政命令:禁止美国政府采购存在意识形态偏见的 AI 模型;为数据中心及电力系统快速建设提供资源;推动向全球盟友及伙伴出口全栈式美国 AI 技术包,这也是此次参会的核心议题。Kratsios 将当前 AI 领域的全球竞争比作上世纪 “太空竞赛”,称其为 “自太空时代以来最重大的能力考验”,并强调 AI 已开启新的工业革命、信息革命乃至文化复兴 —— 能推动材料、医药、能源等领域的创新,变革教育、媒体、通信等行业,还将赋能机器人、无人机、自动驾驶等新兴产业,成为提升工厂、办公室、实验室生产力的重要乘数。关于美国 AI 出口计划,Kratsios 介绍,该计划正推动美国 AI 产业整合技术包,涵盖 AI 优化硬件(芯片、服务器等)、数据中心存储、云服务、网络设施、数据管道与标注系统、AI 模型及程序、安全与网络安全系统,以及针对软件工程、教育、医疗、农业、交通等特定场景的 AI 应用。美国将动用联邦金融工具(包括直接贷款、贷款担保、股权投资、政治风险保险等)支持重点 AI 出口项目,旨在为合作伙伴提供 AI 主权、数据隐私保障及技术定制服务。Kratsios 强调美国在 AI 领域的领先优势,称 “美国 AI 基础设施与应用的领先地位显著且不可否认”,竞争对手虽追赶迅速但仍处于跟随状态。同时突出 “美国制造” AI 技术的独立性与隐私保障,源于美国对产权、自由的价值观,承诺支持开源及开放权重 AI 模型发展,以满足各国对敏感数据管理的需求,助力相关开发者成长。Kratsios 对比了两种发展路径:欧洲的 “恐惧与过度监管模式” 会导致停滞落后;而与美国合作、引入美国 AI 基础设施,才能抓住突破性创新机遇。他强调,美国成为全球科技中心的核心原因是 “创新自由”,而非 “政府主导的工业与科学机器”,主张通过人类判断、友好合作、政治自由与主权独立推动进步,而非全球治理或技术官僚控制。最后,Kratsios 呼吁 APEC 经济体(亚太经济合作组织)选择与美国合作,称美国通过全球出口 AI 技术包延续 “探索、创新、开拓” 的传统,将助力人类迈向更安全、健康、繁荣的未来。(src:Remarks by Director Kratsios at the APEC Digital and AI Ministerial Meeting)

行业消息

052025 年 Stack Overflow 发布的年度开发者调研显示,数据库领域中 PostgreSQL(Postgres)的优势进一步扩大,在流行度、开发者喜爱度及迁移意向等方面均表现突出。最流行的数据库PostgreSQL 以 55.6% 的使用率位居榜首,若叠加同属原生 PG 生态的 Supabase(6%),整体占比超 60%,较第二名 MySQL 高出 20 个百分点。对比去年,MySQL 使用率变化不大,而 PostgreSQL 的流行度显著提升。此外,Redis 使用率增长 8%,因其在高速内存缓存和数据结构支持方面的优势,成为复杂应用现代技术栈的核心组件。回溯数据,2018 年调研中 PostgreSQL 使用率仅 33%,而当时 MySQL 为 59%;到 2025 年,PostgreSQL 已连续两年成为最流行数据库,专业开发者使用率达 49%。最喜爱的数据库PostgreSQL 仍是开发者最喜爱的数据库,但绝对值较去年有所下滑。值得注意的是,其他主流数据库的评分也普遍下降,推测与统计口径或对象变化有关。同时,SQLite 的 “期望使用” 比例从去年的 23% 升至 27%,超过 MySQL,成为更受开发者期待的数据库之一。最想尝试的数据库调研显示开发者迁移意向呈现明显趋势:去年数据显示 28% 的 PostgreSQL 用户计划尝试 Redis;而今年则出现单向迁移特征 —— 使用 MongoDB 或 Redis 的开发者表现出强烈意愿转向 PostgreSQL,他们重视在技术栈中补充关系型数据库技能,形成 “向 PostgreSQL 聚集” 的趋势。(src:2025 Stack Overflow调研, Postgres 优势继续扩大)

IDC 发布《中国金融行业分布式事务型数据库市场份额,2024:行业进入下半场》报告,对 2024 年中国金融行业分布式事务型数据库市场展开分析。2024 年,该市场整体规模达 20.37 亿元人民币,主要厂商包括腾讯云、阿里云、OceanBase、华为云、金篆信科。报告还对市场进行细分,涵盖公有云模式、本地部署模式,以及银行业、保险证券行业子市场,以呈现不同场景的具体情况。IDC 指出市场需重点关注三大趋势一是深化核心能力与全生命周期服务,市场已进入规模化部署阶段,厂商需优化分布式引擎性能,提升高并发处理与数据强一致性保障能力,同时强化与本土芯片及操作系统的兼容,降低客户迁移适配风险;二是 HTAP 技术融合与场景验证,该技术正从探索期过渡至规模化应用阶段,技术路径尚未统一,厂商需明确差异化路线,其在金融场景中的核心价值是缩短数据处理链路,提升实时风控、客户画像等业务时效性;三是分层适配行业需求与经验复制,大型金融机构需全栈式技术方案支持复杂基础设施环境,中小型机构则更关注轻量化与高性价比,原生分布式架构的简化运维特性成核心优势。IDC 中国新兴科技研究组高级分析师李浩然表示,2025 年数据库产品在银行、保险等领域渗透率显著提升,中小金融机构依托成熟解决方案快速跟进,轻量化、模块化特性缩短改造周期。当前市场呈现头部集聚态势,技术门槛提升压缩了中小厂商生存空间,行业进入高质量竞争阶段。2024年中国金融行业分布式事务型数据库整体市场主要厂商份额情况如下:

2024年中国金融行业分布式事务型数据库市场本地部署模式主要厂商份额情况如下:

2024年中国金融行业分布式事务型数据库公有云模式主要厂商份额情况如下:

2024年中国金融行业分布式事务型数据库银行子市场主要厂商份额情况如下:

2024年中国金融行业分布式事务型数据库保险证券子市场主要厂商份额情况如下:

2024年中国银行业本地部署分布式事务型数据库市场主要厂商份额情况如下:

(src:行业进入下半场,IDC 2024年中国金融行业分布式事务型数据库市场份额报告发布)

CB Insights 发布的“全球营收最高20家 AI Agent 初创公司”榜单,为产业提供了一个衡量商业落地能力的直接窗口。此榜单以年化经常性收入 (ARR) 为核心指标,取代了传统的融资额或估值排行,显示市场的关注点正从“潜力叙事”转向“实际营收”,真实的变现能力已成为衡量 AI 新创公司竞争力的关键门槛。榜单分析揭示了两大核心趋势:从辅助工具到“数字员工”的演进:AI Agent 的角色正在发生质变,不再仅是提供信息的被动助手,而是能自主执行完整业务流程的“数字员工”。从榜单可见,头部企业已成功将 AI Agent 部署于软件开发、法律服务、销售线索拓展、客户服务等核心商业场景,展现其深度整合与承担任务结果的能力。垂直领域的商业化加速落地:榜单中的公司多数专注于特定垂直领域,例如程序开发、法律、招聘和客户服务等,并已成功建立清晰的商业模式。这表明 AI Agent 技术在解决具体行业痛点时展现出强大的市场需求与付费意愿,尤其在知识密集型与流程重复性高的领域,其商业化潜力正被快速释放。附全球营收最高 AI Agent 初创公司 Top 20:

排名

公司名称

主要业务

年化经常性收入 (ARR)

1

Cursor

AI 编程 Agent

5 亿美元

2

Glean

企业级搜索 Agent

1 亿美元

3

Replit

AI 编程 Agent

1 亿美元

4

Mercor

AI 招聘 Agent

1 亿美元

5

Lovable

无代码应用构建 Agent

1 亿美元

6

Crescendo

AI 客户服务 Agent

9100 万美元

7

Harvey

AI 法律 Agent

7500 万美元

8

StackBlitz

AI 编程 Agent

4000 万美元

9

Clay

AI 销售线索拓展 Agent

3000 万美元

10

Torq

AI 安全 Agent

2000 万美元

11

Sierra

AI 客户服务 Agent

2000 万美元

12

Sana

企业级 AI 助理

2000 万美元

13

Nabla

医疗 AI 助理

1600 万美元

14

Hebbia

企业知识工作助理

1300 万美元

15

Decagon

AI 客户服务 Agent

1000 万美元

16

Robin

AI 合同助理 Agent

1000 万美元

17

11xAI

AI 数字员工 (SDR)

1000 万美元

18

Fyxer.ai

AI 执行助理 Agent

900 万美元

19

Legartis

多语言合同审查 Agent

500 万美元

20

Artisan

AI 虚拟销售代表 Agent

500 万美元Anthropic Claude Code 的崛起与 Agentic 编程的范式转移。根据 Anthropic 产品 Claude Code 负责人 Boris Cherny 的访谈揭露,该产品在短短五个月内实现了年化四亿美元营收,成为市场上增长最快的产品之一,其成功不仅验证了 Agentic 编程模型的商业潜力,更预示着软件开发行业正迎来一次根本性的范式革命。核心转变是从传统开发者直接操作代码的模式,演进为向 AI 代理 (Agent) 表达高阶意图,由 AI 负责规划与执行的“意图驱动开发”模式。Anthropic 内部已广泛采用此工具,多数代码均由其生成,显著提升了新进工程师的上手效率。Claude Code 的快速成功可归因于其独特的产品哲学与技术架构,其核心策略与影响如下:产品策略与市场切入: 刻意选择终端 (CLI) 作为主要界面,而非功能繁复的 IDE。此决策基于其极简、通用且能快速适应底层模型能力迭代的优势,体现了“产品跟随模型”而非“模型适应产品”的敏捷开发理念,成功降低了市场推广阻力并兼容了不同开发者的工作环境。核心技术与互动模式: 其 Agentic 系统的核心在于“工具使用”与“多步骤推理”,能将“将红色按钮变蓝”等模糊指令分解为档案搜寻、读写、编辑乃至验证等多个具体步骤。近期推出的“子代理”功能及创新的 claude.md 档案记忆系统,更进一步实现了任务的专业化分工与团队间的“集体知识记忆”,提升了协作效率与透明度。安全与人机协作: 产品设计以“人在回路”(human-in-the-loop) 为预设安全机制,确保档案修改、指令执行等关键操作需经人类批准,同时提供可配置的信任列表,在安全性与自动化效率间取得平衡。这种设计增加了企业用户的信任感,并降低了在受严格监管行业的导入门槛。生态与未来展望: 产品已展现出超越编程的潜力,被数据科学、设计、专案管理等非开发用户广泛采用,显示其作为通用任务执行界面的巨大潜力。Anthropic 认为 AI 开发工具市场空间广阔,倾向于生态共荣而非零和竞争,未来将专注于发展更复杂的“代理管理代理”之多代理系统,持续探索 AI Agent 的能力边界。(src: 5个月4亿营收!Claude Code负责人重磅访谈,首次分享更多细节内幕)

产业上下游企业消息

06OpenAIGPT-5 正式发布:OpenAI 推出其最新旗舰模型 GPT-5,替代所有旧版本,成为迄今为止最强大的 AI 模型。GPT-5 在需要复杂推理、规划和跨模态理解的任务中展现出卓越性能,能够处理和生成包括文本、图像、音频和视频在内的多种数据类型。该模型采用全新的多模态架构,训练数据规模和多样性均超越前代。GPT-5 通过引入“自适应计算”机制,能够根据任务复杂性动态调整计算资源,在效率和性能之间取得平衡。为确保安全部署,OpenAI 对 GPT-5 进行了广泛的“红队测试”,并引入新的安全功能,例如为 AI 生成内容添加来源标注和“内容水印”。GPT-5 将首先通过 ChatGPT Plus 和企业级服务向公众开放,并逐步通过 API 提供给开发者。开源模型 gpt-oss-120b 与 20b 发布:OpenAI 发布其首批开源权重模型 gpt-oss-120b 和 gpt-oss-20b,标志着公司自 GPT-2 以来在开源领域的重大回归。这两款模型均基于 Transformer 架构,其中 120b 版本专为需要高准确性和复杂推理的服务器级应用设计,而 20b 版本则针对移动和边缘设备进行优化。模型采用 Apache 2.0 许可证,允许商业应用。此举旨在推动开源 AI 生态发展,促进开发者在 OpenAI 技术基础上进行创新。洽谈新一轮融资,估值或达 5000 亿美元:OpenAI 正在与投资者就新一轮股权出售进行洽谈,此轮交易对公司的估值可能高达 5000 亿美元。此次融资旨在为未来更大规模的模型训练和算力基础设施建设提供资金支持。若交易达成,OpenAI 将成为全球估值最高的初创公司之一,进一步巩固其在人工智能领域的领先地位。(src: Introducing GPT-5、估值升至5000亿美元!OpenAI洽谈出售“数十亿美元”员工挂股权、gpt-oss-120b& gpt-oss-20b模型卡)Google推出世界模型 Genie 3:谷歌 DeepMind 发布了世界模型 Genie 3。该模型能够仅通过单张图像或文本提示,生成可实时交互的 3D 虚拟世界。Genie 3 采用自回归世界模型(Autoregressive World Model),能够逐帧预测未来状态,确保了生成世界在时间与空间上的一致性。该模型的核心创新在于其能够将任何输入(文本、图像、草图)转化为一个基础的 3D 潜在表示,并在此之上进行实时渲染和交互。Genie 3 的响应延迟低于 100 毫秒,使其能够被用于训练具身智能体(Embodied AI)在虚拟环境中学习和执行任务,为游戏开发、教育模拟和机器人训练等领域开辟了新的可能性。否认 AI 搜索影响流量,但数据显示“零点击搜索”激增:针对外界关于 AI 概览功能导致网站流量下降的担忧,谷歌予以否认,表示该功能旨在为用户提供更直接的答案,并引导其访问相关网站。然而,根据数据分析公司 Razorfish 和其他第三方机构的数据显示,“零点击搜索”的比例正在显著增加。这表明越来越多的用户在搜索结果页面直接获得答案,而不再点击进入原始网站,这对依赖搜索流量的内创作者和发布商构成了新的挑战。(src: Genie 3: A new frontier for world model、Google Denies AI Search is Killing Website Traffic: What the Data Really Shows)

Apple组建 AI 答案引擎团队:苹果已正式组建一个名为“AKI”(Apple-internal Knowledge and Information)的团队,致力于开发一款内部代号为“Answers”的 AI 答案引擎。该团队的目标是打造一个能够直接回答用户问题、提供信息的强大 AI 系统,以挑战 ChatGPT 等现有产品。该引擎预计将深度整合到未来的 Siri 和 Safari 浏览器中,重塑其搜索和交互体验。此举被视为苹果在生成式 AI 领域追赶竞争对手的关键一步,旨在将 AI 能力更紧密地融入其生态系统。(src: 苹果组建新AI团队“AKI”,打造类似ChatGPT的AI搜索工具)

xAI宣布 Grok 2 即将开源:Musk宣布,其人工智能公司 xAI 将于下周开源其最新模型 Grok 2。此举延续了 xAI 推动开源 AI 生态的策略,旨在吸引更多开发者参与到 Grok 模型的研发和应用中。Grok 2 预计将在推理能力和实时信息获取方面有显著提升,并继续与 X 平台进行深度整合。(src: Musk says xAl will open source Grok 2 chatbot)

Anthropic发布 Claude Opus 4.1:Anthropic 推出了其最新的 AI 模型 Claude Opus 4.1。该模型在编程能力上取得重大突破,在 SWE-bench Verified 基准测试中,其端到端任务解决率达到 74.5%,超越了前代 Claude Opus 4.0 的 62.4%。此外,新模型在数学和科学推理方面也有显著提升。Claude Opus 4.1 拥有 20 万个 token 的上下文窗口,并进一步降低了延迟。该模型现已通过 Anthropic API 和 Amazon Bedrock 等平台向开发者提供。(src: Claude Opus 4.1)

Alibaba发布 Qwen3-4B 模型:阿里巴巴发布了全新的轻量级语言模型 Qwen3-4B。该模型拥有 40 亿参数,专为在智能手机等终端设备上高效运行而设计。Qwen3-4B 包括两个版本:Qwen3-4B-Instruct-2507(基础指令微调模型)和 Qwen3-4B-Thinking-2507(优化逻辑推理和思维链能力)。模型支持高达 1TB 的上下文,并在包括 MMLU、GPQA 和 HumanEval 在内的多项基准测试中表现出色。其小巧而强劲的特性使其成为在资源受限设备上部署 AI 应用的理想选择。(src: 阿里巴巴發布Qwen3混合推理模型樹立開源Al新標稈)

Tesla解散 Dojo 超算团队,转向与英伟达合作:特斯拉已解散其自研的 Dojo 超级计算机团队,并决定全面转向与英伟达的合作。Dojo 项目旨在通过自研芯片和架构,为自动驾驶模型的训练提供强大算力。然而,该项目在成本控制、系统稳定性和软件生态系统方面遭遇挑战。特斯拉现在计划投资 30 亿至 40 亿美元,采购英伟达的 AI 芯片,以加速其 FSD(Full Self-Driving)系统的研发进程。这一战略转变凸显了在当前 AI 军备竞赛中,即使是技术巨头也难以独立构建完整的算力生态系统。(src: 马斯克解散Dojo超算团队,特斯拉放弃自研AI芯片,更依赖英伟达了)

Cursor发布 Cursor 1.4 及 CLI 版本:AI 编程助手 Cursor 发布了 1.4 版本,新版本重点优化了对异步长程任务的处理能力,允许 AI 在后台执行复杂的代码生成和重构任务,而不会中断开发者的工作流。同时,Cursor 首次推出了命令行界面(CLI)版本,使开发者能够在终端环境中直接调用 Cursor 的 AI 功能,进一步提升了其在大型代码库自动化处理中的效率和灵活性。(src: cursor change log)

Amazon Bedrock 引入 OpenAI 模型:亚马逊宣布在其全托管的生成式 AI 服务平台 Amazon Bedrock 中正式引入 OpenAI 的最新模型,包括 GPT-5。这意味着 AWS 的客户现在可直接通过 Bedrock API 访问 OpenAI 的旗舰模型,同时利用 AWS 的安全和基础设施服务。此举使 Bedrock 成为全球最大的 AI 模型平台之一,为企业提供了更多样化的模型选择。(src: AWS正式提供 OpenAI開放權重模型 )

AMD & Qualcomm 宣布旗下硬件支持 gpt-oss 系列开放模型:在 OpenAI 发布 gpt-oss 模型后,AMD 和高通迅速宣布旗下硬件将提供全面支持。AMD 表示,其最新的 Instinct MI400 系列加速器和 Ryzen AI 300 系列 PC 处理器将通过 ROCm 软件栈对 gpt-oss 模型进行优化。高通则宣布,其 Snapdragon X Elite 和 X Plus 处理器将利用高通 AI 引擎,在 Windows on Arm 设备上为 gpt-oss 模型提供原生加速,实现高效的端侧推理。这一快速响应显示了硬件厂商对开放 AI 生态的积极拥抱。(src: How To Run OpenAl's GPT-OSS 20B and 120B Models on AMD RyzenTM AI Processors and Radeonm Graphics Cards)

二级市场微观察

07美股:本周市场情绪分化,投资者在积极的企业财报与疲软的宏观经济数据之间进行权衡。市场出现技术性反弹,主要股指在大型科技股及通信股的带动下回升。对科技行业而言,政策的明确性——尤其是有利于国内投资的关税豁免与基建支持——被视为推动该板块上行的关键因素。

美债:国债价格周五下跌,延续了因前期就业数据疲软而从三个月高点回落的趋势。当日市场消息面平淡,缺乏新的经济数据指引。市场参与者的焦点已转向下周将公布的通胀(CPI与PPI)、零售销售及工业生产等关键经济报告。收益率检查(数据周期:2025.8.1-8.5):2年期:本周上涨6个基点至3.76%3年期:本周上调6个基点至3.73%5年期:本周上调6个基点至3.83%10年期:本周上调7个基点至4.29%30年期:本周上调5个基点至4.86%汇率(数据周期:2025.8.1-8.5):EUR/USD:-0.1% 至 1.1653GBP/USD:+0.1% 至 1.3450USD/CNH:+0.1% 至 7.1881USD/JPY:上涨 0.5%,至 147.69商品(数据周期:2025.8.1-8.5):西德克萨斯中质原油(WTI):上涨 0.1%,至每桶 63.88 美元黄金:+1.1% 至 3491.20 美元/盎司铜:+1.6% 至 4.47 美元/磅环圈简讯:美国:苹果宣布重磅投资:未来四年在美总投资增至6000亿美元,加速芯片“本土化”。特朗普搅动科技界:要求英特尔CEO辞职,并威胁对进口芯片征收100%关税。中美AI芯片战升级:传闻美国拟征“输华税”。英伟达和AMD或将把对华AI芯片销售额的15%上交给特朗普政府。特朗普签署行政令加密货币等另类资产进入401K投资范围。亚太:中国大陆中国社保强制缴纳政策9月生效,料对小微企业造成冲击。北京外围区域去库存京籍家庭“五环外”购房不再限购。中国下任外长热门人选刘建超被带走问话。香港香港稳定币申请开闸渣打旗下合资公司向金管局正式表态入局。香港《稳定币条例》于2025年8月1日生效,香港首批稳定币发行人牌照将于8月1日至9月30日开放申请。Anchorpoint是第一个正式宣布已向官方表达将申请牌照的机构。欧洲:普京向美国提出停战提议:乌克兰交出顿巴斯地区。乌克兰与欧洲拿出自己的方案回击普京停火提议。泽连斯基称,乌领土完整是宪法所规定,是不可谈判的,并强调持久的和平必须包括乌克兰在谈判桌上的声音。股价异动:Snowflake (SNOW) 在8月第一周的股价下跌,主要是一场由宏观经济逆风驱动的估值重置。在通胀和贸易政策忧虑加剧的市场环境下,投资者情绪转向避险,触发了从高估值成长股到价值股的板块轮动。Snowflake高达17倍的市销率和尚未实现GAAP盈利的状况,使其在这次“风险规避”浪潮中尤为脆弱。其极高的估值溢价在市场乐观时是优势,但在恐慌时期迅速转变为负债。即将发布的财报所带来的不确定性,以及部分内幕交易信号,进一步放大了投资者的抛售意愿,导致股价出现与大盘走势相悖的大幅下挫。MongoDB (MDB) 的股价暴跌更为复杂,是宏观压力与公司特定基本面担忧共同作用的结果。除了同样受到板块轮动的影响,市场对其未来盈利能力的担忧是更深层次的催化剂。尽管公司近期财报强劲,但管理层对新财年营业利润率将大幅压缩的指引,直接打击了投资者信心。管理层对未来盈利路径的怀疑,被分析师之间巨大的评级分歧(尤其是Loop Capital的激进看空报告)和公司CEO的减持行为所放大,最终在当周最后两个交易日引发了远超大盘和Snowflake的断崖式抛售。

财报速递 |AMD 2025Q2:关键财务指标营业收入:2025 Q2营业收入为76.85亿美元,同比增长32%,环比增长3%,略高于此前指引的74亿美元,创下了历史新高;主要得益于市场对AMD EPYC™ 处理器的需求,这抵消AMD Instinct MI308出货量受中国市场不利因素的影响。营业利润:按GAAP标准,经营亏损1.34亿美元,毛利率39.8%,同环比皆大幅下滑;主要原因是本季受美国政府对 Instinct MI308 的出口限制影响,确认约 8 亿美元的库存及相关费用。净利润:按GAAP标准,净利润8.72亿美元,同比下滑31%,也是受到MI308 的出口限制影响;每股收益为$0.54。现金流:期末现金、等价物与短投 59亿美元;上半年经营现金流 30亿美元,回购12亿美元。管理层在电话会上强调自由现金流“超10亿美元”。2025Q3业绩指引:管理层预估2025Q3的营收为 $8.7B ± $0.3B,非 GAAP 毛利率约为54%;不包括MI308出货,向美国政府申请出货许可尚未审批完毕,大部分MI308库存是半成品(区别于H20现货),出货仍需要时间。营收分析

数据中心:营收32.4亿美元,同比增长14%,营收占比42%;经营亏损1.55亿美元。主要得益于对AMD EPYC处理器的强劲需求。CPUZen5 EPYC Turin CPU出货量显著攀升,整体服务器CPU在云和企业级领域营收创新高,市场份额连续第33个季度增长。在大型科技、汽车、制造、金融服务和公共部门客户新订单的支撑下,EPYC企业部署量较上一季度显著增长;未来对服务器CPU业务保持乐观。本季度有超过100个由AMD EPYC CPU驱动的新云实例上线,其中包括来自Google和Oracle Cloud的多个Turin实例,目前全球已有近1200个EPYC云实例可用。GPU本季度数据中心GPU业务营收下滑,主要因MI308出口禁令以及MI325系列向MI350系列过渡影响;数据中心GPU毛利率仍略低于公司平均水平,长期会持续改善。6月份MI350系列产品开始量产,预计Q3产能快速爬坡。宣布与Humane一项价值数十亿美元的合作,将完全基于AMD的CPU、GPU和软件来构建AI基础设施。与Oracle合作部署一个由MI355X+EPYC Turin+Polara 400 NIC驱动的价值数十亿美元的大规模集群,节点超2.7万个,交付周期8-9个月。嵌入式:营收8.24亿美元,同比下滑4%,连续8个季度下滑,营收占比11%;经营利润2.75亿美元,同比下滑20%。嵌入式需求持续复苏,Q2出货有所回升,但市场的强劲表现被工业领域的疲软和库存消化所抵消,因此表现不如Intel Altera与莱迪思。预计测试与测量、通信以及航空航天市场的需求改善将推动嵌入式业务2025年恢复增长;2025年design win有望超过2024年创纪录的140亿美元。客户端:客户端业务营业额创季度新高,营收24.99亿美元,同比增长68%,营收占比33%;客户端营收增长主要由台式机CPU带动,市场对最新“Zen 5”架构的AMD锐龙台式处理器及更丰富的产品组合的需求强劲,台式机渠道CPU销售创新高,Ryzen CPU在整个季度持续占据全球主要电商畅销CPU榜首。笔记本端CPU出货量同比高两位数增长,得益于商用笔记本市场份额提升,平均销售价格(ASP)也持续提升。Q2并没有看到太多因为关税导致的提前拉货;预计未来几个季度公司PC增速将高于行业平均水平。游戏:营收11.22亿美元,同比增长73%,结束连续10个季度下滑,营收占比15%;半定制营收同比大幅增长,游戏主机渠道库存已恢复正常,客户正在为假日季备货。客户端与游戏合计经营利润7.67亿美元,同比增长362%,经营利润率21%,不过仍低于Intel的26%,但趋势上离反超Intel不远。AI生态与合作头部联盟共建:携手 Meta、OpenAI、xAI、Oracle、Microsoft 等推进开放 AI 生态,围绕 Instinct GPU 与 EPYC CPU 落地数据中心与算力平台。AI生态开源:发布 ROCm 7 与“AMD 开发者云”,强化开源 AI 软件栈与工具,降低模型训练/推理门槛,吸引社区与企业共同参与。市场反应:财报发布当天,AMD股价为174.31美元,较前一日下跌1.4%;以收盘价计算,公司市值为2826亿美元。财报发布后,AMD股价下跌近4%。

初创微观察

08AI Config(开源框架)配置即代码:将提示词、模型参数、评估逻辑抽象为 JSON 配置文件,支持 GitHub 版本控制和团队协作,避免黑盒开发github。多模态配置管理:同时管理文本、图像、语音等不同模态的模型参数,例如统一调整客服机器人的回复策略和广告生成的图像风格。VS Code 集成:通过官方插件实现可视化配置编辑、实时调试和一键部署,降低工程师学习成本github。AI 服务网格API 统一管理:聚合 OpenAI、Hugging Face 等第三方模型的 API 调用,提供流量控制、响应缓存和安全审计,例如将企业内所有 GPT-4 调用统一路由至该网格,节省 30% API 成本。弹性扩展:基于 Kubernetes 实现模型服务的自动扩缩容,应对金融行业月末结算时的高并发查询需求。多模型 A/B 测试:通过流量分流对比不同模型(如 GPT-4 vs Claude 3)的输出质量,动态优化生产环境配置。RAG Workbench幻觉检测与优化:通过自定义评估器模型(如小型分类器)实时检测检索增强生成(RAG)中的幻觉问题,例如在法律文书生成场景中识别虚假案例引用。分布式追踪:结合 OpenTelemetry 技术,追踪从用户查询到模型响应的全链路数据,快速定位知识库缺失或检索逻辑错误。交互式调试:在界面中直接查看检索结果、模型输入输出及中间状态,支持重放历史请求,显著提升 RAG 系统调优效率。MCP-Agent 框架多智能体协作:基于 Anthropic 的 Model Context Protocol(MCP),支持构建复杂的多智能体系统,例如通过“规划 - 执行 - 评估”代理链自动生成市场调研报告。模式化开发:内置 Anthropic《Building Effective Agents》中的经典模式(如 Augmented LLM、Router、Orchestrator-Workers),开发者可通过简单配置实现智能体分工协作。Swarm 模式支持:兼容 OpenAI 的 Swarm 多智能体编排协议,同时保持模型无关性,可灵活切换底层大模型(如从 GPT-4 切换至 Claude 3)。协作与规模化能力团队共享与评论:支持工作簿、配置文件和评估报告的共享,团队成员可在界面中直接添加评论,实现“开发 - 反馈 - 优化”闭环。批量任务执行:同时生成 500 张个性化营销图片或处理 10 万条客户咨询数据,支持按任务优先级动态分配计算资源。从原型到生产的无缝迁移:AI Workbooks 中开发的原型可一键导入生产环境,自动适配 AI 服务网格的流量管理和 RAG Workbench 的监控体系,避免重复开发。融资情况:2023 年 9 月完成1000 万美元种子轮融资,由 Google 旗下 Gradient Venture领投。(src:LastMile AI is an enterprise-grade evaluation platform that provides the essential tools to enable developers to test, evaluate, and benchmark AI applications)

Armada AI 是一家成立于 2022 年的美国科技公司,总部位于旧金山,专注于边缘计算、卫星通信与人工智能的融合解决方案,旨在为偏远和恶劣环境中的行业提供高性能计算支持。初创团队Dan Wright(CEO)在 Jeeva.ai 担任 Board Member,负责为 GTM 团队提供指导与支持的相关项目,该项目助力 GTM 团队利用 AI agents 大幅提升影响力,自 2025 年 2 月至今。也在 Embrace 担任 Board Member,负责支持工程师构建更优质移动体验的项目,该项目致力于为工程师提供资源与指导,优化移动应用体验,工作地点为加利福尼亚州卡尔弗城,自 2023 年 7 月至今。曾在 DataRobot 担任President & COO,Chief Executive Officer,Advisor,负责为公司提供专业咨询与建议的项目,该项目围绕公司业务发展与战略规划提供支持,时间为 2020 年 1 月 - 2022 年 10 月。曾在 AppDynamics 担任 COO,负责公司运营管理与业务发展项目,该项目主导公司运营策略制定与执行,推动业务规模增长,工作地点为旧金山湾区,时间为 2017 年 3 月 - 2019 年 10 月。核心产品:Galleon 系列模块化数据中心设计理念:专为油气平台、军事基地等极端环境设计,采用集装箱式模块化结构,支持快速部署(可在数周内完成安装)。技术特性:算力范围:提供 10-100 千瓦算力,支持分布式 AI 训练和实时数据处理,满足重工业场景的高负载需求。环境适应性:通过 IP67 防护认证,可在 - 40°C 至 60°C 温度范围、高湿度或沙尘环境中稳定运行。卫星集成:内置 Starlink 专用通信模块,实现离网环境下的低延迟卫星连接。应用场景:已部署于沙特阿美石油钻井平台,通过实时视频分析减少 30% 非生产时间;在阿拉斯加灾害响应中支持无人机数据实时回传。Leviathan 新一代边缘数据中心战略定位:2025 年 7 月推出的兆瓦级模块化数据中心,定位为 “美国能源与 AI 主导地位的基础设施支柱”。核心突破:算力密度:单台设备提供兆瓦级算力,是上一代 Triton 的 10 倍,支持大模型训练和推理任务。能源整合:与天然气、太阳能等本地能源结合,实现 “算力 - 能源” 协同部署,降低碳排放和运营成本。液冷技术:采用浸没式液冷系统,能效比(PUE)低至 1.1 以下,较传统数据中心节能 40%。市场进展:已获得美国海军战术边缘计算订单,并与 AEP(美国电力公司)合作开发能源 - 算力协同网络。Commander Connect 统一管理平台功能架构:多设备管理:支持 Starlink 终端、无人机、传感器等设备的集中监控,提供实时网络状态、资产健康度分析及故障预警。AI 驱动优化:内置 AI 助手,通过预测性维护算法减少设备停机时间,同时优化卫星带宽分配,降低 30% 通信成本armada.ai。安全合规:通过 SOC 2 Type 2 和 ISO 27001 认证,支持 SSO(单点登录)和细粒度权限控制,满足政府和能源行业的严格合规要求。生态整合:与微软 Azure 深度集成,用户可通过 Azure Marketplace 直接采购服务,并利用 Azure credits 支付 Starlink 费用armada.ai。Edge Narrate 行业 AI 工具技术内核:基于多模态大模型(视觉 - 语言联合模型),可将摄像头、传感器数据转化为结构化报告或操作建议。典型应用:石油钻井:实时识别工人未佩戴安全帽等安全违规行为,自动生成整改报告并推送至负责人,使安全事件响应时间缩短至 5 分钟内。矿山监测:通过分析设备振动数据预测机械故障,将计划外停机减少 40%。扩展能力:支持与第三方工业软件(如 SAP、PTC ThingWorx)对接,实现跨系统业务流程自动化。融资情况:2023 年 12 月,A 轮融资 5500 万美元,由 Founders Fund(彼得・泰尔旗下基金)、Lux Capital(专注硬科技)、Shield Capital(能源领域战略投资者)及 8090 Industries(军工技术孵化平台)联合领投,13 家机构跟投。2024 年 7 月,融资 4000 万美元,由微软牵头。(src:Armada Al)

开源微观察

09Umami项目简介:Umami 是一款开源、注重隐私的网络分析工具,可作为 Google Analytics 的替代方案。与许多传统分析平台不同,Umami 不收集或存储个人数据,无需使用 cookie。Umami 提供了多种安装方式,支持 Node.js 环境以及 MariaDB、MySQL 和 PostgreSQL 数据库。 该工具设计轻量且易于部署,支持自托管,使用户能够完全掌控自己的数据。项目关注度:该项目起始于2020年7月,截至2025年8月10日,其在GitHub上的总星标数为28.7k。开发者:Umami 由 Umami Software 团队开发,这是一家于2022年在美国特拉华州注册的公司。该项目的主要开发者、公司的联合创始人兼 CEO 是 Mike Cao。他曾在 Adobe 担任高级UI工程师,专注于用户界面设计与开发。在 Ten2Eleven Business Solutions 任职期间,他作为全栈开发人员,主导多个项目的开发,包括使用 Microsoft 技术栈和 MS SQL Server 开发应用程序等。在 LexisNexis,他作为高级软件工程师,参与了 e-Billing 和法律管理 Web 应用的开发与维护,并负责主应用的 UI/UX 重新设计与第三方服务集成。特点与功能:隐私保护:不收集个人身份信息,不使用Cookie,不跨网站追踪用户,符合GDPR和CCPA等隐私法规。轻量级与高性能:追踪脚本小,对网站加载速度影响极小。数据所有权:用户完全拥有和控制所有收集的数据。强大的追踪功能:支持实时数据洞察、自定义事件追踪(如按钮点击、表单提交等)、UTM 参数自动捕获与分析、会话监控、详细的来源分析和用户行为报告。多账户支持:可为朋友或客户托管数据,创建单独账号以便他们在自己的仪表板上跟踪网站。共享数据:可通过唯一生成的 URL 公开分享统计数据。实景展示:

应用场景:个人博客和小型网站:适合注重隐私且希望了解网站访问情况的个人博主或小型网站运营者。对隐私法规要求严格的网站:满足 GDPR 等隐私法规要求的企业或机构网站。多网站管理:对于需要管理多个网站(包括子域名和单个 URL)的用户,Umami 的不限网站数量特性使其成为理想选择。 (src:Umami)

KubeSphere项目简介:KubeSphere 是一个基于 Kubernetes 构建的开源容器云平台,旨在为多云、数据中心和边缘环境提供统一的管理平台。它是一个面向云原生应用的分布式操作系统,支持多租户和全栈 IT 自动化运维,提供向导式的操作界面,简化了 DevOps 工作流和容器云平台的构建过程。项目关注度:该项目起始于2018年4月,截至2025年8月10日,其在GitHub上的总星标数为16.5k。开发者:KubeSphere 是主要由青云QingCloud 设计和开发。青云QingCloud 是一家专注于云计算和云原生技术的企业级云服务商。青云QingCloud 的创始人兼董事长是黄允松。他曾在IBM实验室工作九年,主导云计算项目SmartCloud。他于2012年与同伴一起创建了青云QingCloud,在Yunify与KubeSphere两大GitHub组织下,已贡献20多个开源项目。他曾获选2020年度ICT产业十大杰出人物。特点与功能:多租户与多集群管理:支持跨云、跨地域的 Kubernetes 集群统一管理,提供基于角色的细粒度权限控制。DevOps 流水线:内置 CI/CD 工具链,无缝对接 Git、Jenkins 等,实现自动化构建与部署。可观测性:集成监控、日志、告警、审计功能,支持 Prometheus、Fluent Operator 等工具。微服务治理:基于 Service Mesh 技术实现服务流量管理、熔断和灰度发布。边缘计算支持:通过 EdgeWize 模块管理边缘节点,赋能智能制造、物联网等场景。存储与网络管理:支持多种存储和网络解决方案,提供灵活的配置选项。应用生命周期管理:使用开源的 OpenPitrix 提供应用商店和应用仓库服务,支持应用的全生命周期管理。系统架构:KubeSphere 的核心架构采用了前后端分离的设计,后端功能组件通过 REST API 与外部系统对接。其核心组件包括:ks-console:前端服务组件,提供用户界面。ks-apiserver:后端服务组件,处理 API 请求。ks-controller-manager:资源状态维护组件。实景展示:

应用场景:多云管理:统一管理跨云、跨数据中心的 Kubernetes 集群。企业级容器管理:帮助企业快速构建强大的容器云平台。DevOps 实践:通过内置的 CI/CD 工具链,加速应用的开发、测试和部署。边缘计算:管理边缘节点,支持物联网和智能制造等场景。(src:KubeSphere)

学术微观察

10

第63届ACL 大会于2025年7月27日至8月1日在奥地利维也纳举行,作为自然语言处理和计算语言学领域的顶级学术会议,大会覆盖大模型文本生成、对话系统、多模态模型等多个领域。本次大会的总投稿数达到了8000多篇(去年是4407篇),这些稿件分为主会论文和Findings两部分,其中,主会论文的接收率为 20.3%,Findings 的接收率为 16.7%。在所有论文的第一作者中,超过半数(51.3%)来自中国,比例相比去年(30.6%)有显著提升。美国作者的数量排在第二位,占比为14.0%,去年为29.6%。大会共评选出4篇最佳论文、2篇最佳社会影响力论文、3篇最佳资源论文、3篇最佳主题论文、26篇杰出论文。其他还有2篇TACL最佳论文、1篇最佳Demo论文以及47篇SAC Highlights。本次分享从最佳论文中选取了2篇,如下所示。

Language Models Resist Alignment: Evidence From Data Compression主要作者:Jiaming Ji:北京大学人工智能研究所博士生,主要研究方向是大模型的强化学习和安全对齐。他曾为多个大型模型的开源和实际部署做出了贡献,包括 Baichuan2、香港 AI 模型 HKGAI-v1、鹏程大脑模型和医疗分诊模型 MedGuide。2025 年,他被选为 AI/ML 领域的 Apple 学者。Kaile Wang:北京大学人工智能研究所成员。他目前是 Anthropic 的 AI Safety Fellow,常驻伦敦。此前,曾在加州大学伯克利分校人类兼容人工智能中心担任研究实习生。他曾获得 NeurIPS 2024 Spotlight 奖和 NeurIPS 2024 多元对齐(Pluralistic Alignment)研讨会最佳论文奖。核心问题:LLMs在训练过程中会吸收训练数据中的偏差和有害内容,从而表现出与人类意图偏离的行为,即模型错位(misalignment)。尽管目前有多种基于训练的对齐方法(如监督微调、人类反馈的强化学习等),但这些方法往往只能进行表面的对齐,无法真正深入模型的内部机制。研究表明,即使是经过良好对齐的模型,也可能通过少量的微调再次变得不安全。这种现象表明,LLMs 可能存在一种内在的对齐抵抗机制,使得它们在经过微调后容易恢复到预训练阶段的行为分布,从而导致对齐效果难以持久。论文的核心问题在于探讨LLMs为何会对对齐产生抵抗,以及这种抵抗机制是如何导致逆向对齐(inverse alignment)的。解决方案:从理论角度:论文通过数据压缩理论来建模语言模型的训练和对齐过程,提出了语言模型的“弹性”(elasticity)概念,即语言模型在微调后倾向于恢复到预训练阶段的行为分布。这种弹性表现为模型对预训练数据的“记忆”以及对对齐数据的“遗忘”,并且这种倾向与数据集的大小成反比关系。基于此,论文提出了逆向对齐(inverse alignment)的概念,即通过微调使模型从对齐状态恢复到预训练状态。从实证角度:论文通过大量实验验证了语言模型的弹性现象。实验表明,模型在对齐后,当使用与对齐数据规模相差悬殊的微调数据时,模型性能会迅速下降,然后逐渐稳定,最终趋向于预训练分布。此外,研究还发现,模型的弹性与其规模和预训练数据量呈正相关,即模型越大、预训练数据越多,弹性越强。技术实现:数据压缩理论的应用:论文将语言模型的训练过程视为一种数据压缩过程,通过建立压缩协议来模拟语言模型在不同数据集上的训练和对齐行为。具体来说,论文定义了“标记树”(token tree)和“压缩协议”,并基于此提出了理想编码长度的计算公式,从而将语言模型的训练目标与数据压缩目标联系起来。弹性理论的推导:论文通过数学推导,证明了语言模型的弹性现象,并提出了弹性定理。该定理表明,当对模型进行微调时,模型在不同数据集上的归一化压缩率的变化与数据集大小成反比关系,且这种变化率与数据集大小的比值是一个常数,这一常数反映了微调对模型的影响以及模型的弹性。实验验证:论文设计了一系列实验来验证语言模型的弹性现象。选择了多种类型的 LLMs(如 Llama2-7B、Llama2-13B 等),并在不同的数据集(如 Alpaca、TruthfulQA 等)上进行实验。通过对比正向对齐(从预训练到对齐)和逆向对齐(从对齐到预训练)的训练损失,验证了模型的弹性现象。最终结果:理论发现:证明了语言模型在微调后表现出弹性,即倾向于恢复到预训练阶段的行为分布。这种弹性现象与数据集规模密切相关,模型在大规模数据集上的行为更难被改变。实验结果:实验表明,模型的弹性随着模型规模和预训练数据量的增加而增强。具体来说,模型在经过大量正样本微调后,通过少量负样本微调就能迅速恢复到预训练阶段的行为,且这种恢复速度随着模型规模和预训练数据量的增加而加快。结论与展望:论文指出,LLMs 的弹性是导致对齐效果脆弱的根本原因。为了实现稳健的对齐,需要开发更强大的对齐方法,以克服模型的弹性现象。未来的研究方向包括进一步探索模型弹性与模型规模、预训练数据量之间的定量关系,以及开发能够抵抗逆向对齐的对齐算法。(src:Language Models Resist Alignment: Evidence From Data Compression)

Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention主要作者:Jingyang Yuan:DeepSeek-AI 和北京大学计算机学院 PKU-Anker LLM 实验室的研究人员。他的主要研究方向是高效大语言模型和稀疏注意力机制,曾获北京市优秀毕业生、北京大学优秀毕业生等荣誉。他目前在DeepSeek实习,作为核心贡献者参与了DeepSeek-V2、DeepSeek-V3、DeepSeek-R1及等多个业界领先的大语言模型的研发工作。Zhang Ming:北京大学计算机学院教授。张教授是中国教育部咨询委员会委员、ACM 中国分会成员、ACM 教育咨询委员会前委员(2013-2021)和 ACM SIGCSE 中国创始人和前主席(2016-2023)。她是 ACM/IEEE IT2017 的五名执行委员会成员之一,也是 ACM/IEEE CC2020 指导小组的成员。在 ICML、NeurIPS、KDD、WWW、ACL、AAAI、IJCAI 等顶级会议以及 TKDE、TOIS、Information Fusion 等顶级期刊上发表了 300 多篇关于文本挖掘、机器学习和计算教育的研究论文。核心问题:长文本建模对于下一代语言模型至关重要,但标准注意力机制的高计算成本带来了巨大的计算挑战。稀疏注意力机制虽然在理论上可提高效率,但现有的稀疏注意力方法在实际部署中往往无法达到理论上的加速效果,且大多数方法缺乏有效的训练时支持,无法充分利用稀疏模式的优势。此外,现有方法在推理效率和训练可行性方面仍存在显著差距,无法在实际应用中实现快速长文本推理或训练。解决方案:论文提出了 NSA(Native Sparse Attention),这是一种硬件对齐且可原生训练的稀疏注意力机制。NSA 通过动态层次化的稀疏策略,结合粗粒度的标记压缩和细粒度的标记选择,同时保留全局上下文感知能力和局部精度。其核心创新包括:硬件对齐的系统:针对 Tensor Core 的利用和内存访问进行优化,确保算术强度平衡。训练感知设计:通过高效的算法和反向传播操作,实现端到端训练,降低训练成本,同时保持模型性能。技术实现:算法设计:

【NSA 架构】左侧:框架通过三个并行注意力分支处理输入序列:对于给定的查询,前面的键和值被处理成压缩注意力以识别粗粒度模式,选择性注意力以识别重要令牌块,以及滑动注意力以识别局部上下文。右侧:每个分支产生的不同注意力模式的可视化。绿色区域表示需要计算注意力分数的区域,而白色区域表示可跳过的区域。标记压缩(Token Compression):通过将连续的键或值块聚合为块级表示,获得压缩键和值,捕捉整个块的信息,减少注意力计算的负担。标记选择(Token Selection):采用块级选择策略,基于压缩键的注意力分数计算块的重要性分数,并选择最重要的块进行保留。滑动窗口(Sliding Window):引入滑动窗口分支,专门处理局部上下文,避免模型因局部模式而无法学习到压缩和选择标记的特征。硬件优化:块级稀疏注意力:设计了专门的内核,通过组中心数据加载、共享 KV 获取和外层循环优化,实现高效的稀疏注意力计算。Triton 实现:基于 Triton 的内核设计,充分利用 GPU 的并行计算能力,优化内存访问和计算效率。最终结果:性能表现:在多个基准测试中,NSA 的性能与全注意力模型相当或更好,尤其是在长文本任务和基于指令的推理任务中表现优异。在 64k 长度的序列处理中,NSA 在解码、前向传播和反向传播阶段均实现了显著的加速,速度提升比全注意力模型更高。效率提升:在训练阶段,NSA 的前向和反向传播速度分别比全注意力模型快 9 倍和 6 倍。在解码阶段,NSA 的速度提升比全注意力模型高达 11.6 倍,且随着序列长度的增加,加速效果更加明显。推理能力:NSA 在长文本推理任务中表现出色,例如在 64k 上下文的针在草堆中(Needle-in-a-Haystack)测试中实现了完美的检索精度。在链式推理任务中,NSA 通过监督微调(SFT)获得了更好的性能,证明了其在复杂数学推理任务中的适用性。(src:Native Sparse Attention: Hardware- Aligned and Natively Trainable Sparse Attention)

产业见解

11曲凯对阶跃星辰联合创始人兼 AI Infra 负责人朱亦博进行了采访。朱亦博分享了他对 AI Infra 的理解,回顾了 AI Infra 的发展历程,谈到了不同阶段公司对 Infra 的投入策略,以及第三方 AI Infra 公司的价值所在。此外,他还分享了阶跃星辰在多模态方面的优势和未来发展重点,以及对 AI Infra 从业者的建议。以下是核心要点:AI 基础设施的定义与发展历程定义:AI 基础设施包括硬件(如 GPU、网卡、交换机)和软件(IaaS、PaaS、SaaS 三个层次)。IaaS 层:涵盖计算、通信、存储。PaaS 层:包括调度平台和运维管控平台。SaaS 层:类似于训练框架和推理框架的优化。发展历程:早期:AI Infra 这个词在 AlphaGo 之前并不存在。发展:AI Infra 的发展与数据驱动密切相关,分为两个阶段:第一批是算法背景的人。第二批是深度学习工业界大规模应用时进入的人。大模型时代 AI 基础设施的重要性与特点重要性:类似于搜索引擎时代的基础设施,需要处理海量数据和巨大的算力需求,为基础设施人才提供了参与公司早期创业的绝佳机会。特点:与移动互联网基础设施的异同:相同点:都致力于解决大规模、可靠、高效运行的任务。不同点:AI 基础设施的核心是 GPU,而传统基础设施的核心是 CPU。AI Infra 是为 AI 定制化的一套基础设施,在某些方向上需要更深入、更定制、更极致。AI 基础设施人才的转型与公司对基础设施的投入策略人才转型 :传统基础设施人才向 AI 基础设施转型可行,经验积累在基础设施领域重要,同时新人也能带来新想法。推理线上服务与传统 APP 服务在提高并发等方面有类似之处,只是使用的硬件不同。公司投入策略 :可通过计算 GPU 利用率的优化带来的成本节省来决定是否雇佣更多人力进行优化。大规模公司需关注基础设施领先水平,小公司可选择云厂商通用方案。第三方 AI 基础设施公司的价值与发展方向第三方公司价值 :长期来看,需与硬件或模型进行垂直整合才能具有独特价值。用 PS5 和 Steam 的例子类比,MAS 平台需有独占内容吸引用户。国内机构看法 :认为 AI Infra 夹在中间,两边都会分走份额,且技术上壁垒不强。从业者不应只做夹在中间的人,而应靠近模型或硬件。AI 基础设施对模型训练结果的影响与指标选择对训练结果的影响 :更好的基础设施可提高训练效率,使模型学习更多数据,提升模型效果。指标介绍 :MFU(硬件利用率)与模型、硬件及优化目标都相关。以 DeepSeek 为例,其 2024 年优化目标是给定推力成本下设计模型使效果最好,因此训练 MFU 偏低。最重要的是想清楚第一优先指标,且该指标符合业界需求及未来技术发展。当前 AI 基础设施的核心指标与团队合作模式核心指标 :通用第一指标是解码速度和解码成本,从 O1、R1 和强化学习以后,解码速度最重要。团队合作模式 :算法团队与 Infra 团队应像同一个团队一样合作,共同完成训练模型,一起讨论权衡各种 tradeoff。小团队更容易做到,大厂的 Infra 往往是支持性角色。AI 团队组织架构与阶跃星辰的发展重点组织架构问题 :大厂遇到的最大阻碍是组织结构问题。模型训练的铁三角是算法、系统、Infra、数据,都非常重要。模型结构应由系统人设计,模型点数效果刷榜由数据人负责,算法人负责的是去年的“饭食”。阶跃星辰发展重点 :包括多模态、语言基座和端侧协同。AI 基础设施面临的挑战与模型发展的未来趋势挑战:算力问题、强化学习的工程复杂性以及模型和硬件的 co-design。未来趋势:目前所有模型都是针对英伟达卡优化的,需要有人推翻英伟达计算范式,但范式革新不会太快,也许下一次大翻译是 2026 年。多模态的突破可能性与美国 AI 基础设施公司的分析多模态突破:中国现在的多模态状态很像 2020 年的纯语言状态,没有人真的把理解生成统一做通。美国公司分析 :美国几家 AI 基础设施公司本质是数据管理和处理公司,是服务数据的 Infra。AI 基础设施领域的创业机会与开源模型的影响创业机会 :与时机有关,目前训练模型的主要是非常懂行的专业人士,钱不好挣,训练是核心竞争力,很难很早就告诉第三方。开源模型影响 :对 AI Infra 的总体技术有促进,但也可能影响创新,且开源模型针对英伟达卡优化,反而影响了国产芯片在市场上的竞争力。国内外 AI 基础设施的差距与阶跃星辰的新模型差距 :国内外 AI 基础设施存在相当差距,包括规模差距和对上下游的影响。阶跃星辰新模型 :即将发布国内第一个可第三方商用的几百币的视觉推理模型。AI 基础设施的关键点与未来发展趋势关键点:除了要非常理解 Infra 本身,还要要么懂模型,要么懂硬件。未来趋势:现在能容纳的 AI Infra 人才多了很多,但最顶尖的人还是很少。未来 AI 公司成长起来,也需要更多做 AI Infra 的人。即使不做 AI Infra,也应多关注相关领域。模型发展的转变时刻与未来发展路线转变时刻 :这两年模型发展最大的转变是 O1 那一下,即强化学习。对 Infra 这种模型设计来说,要以推理输出为优化目标,强化学习才训得快。美国模型发展路线 :在细分领域,专门投入大量人力去打磨模型,还是可打磨出特定优势。对 AI 基础设施从业者的建议与总结靠近模型,靠近硬件,打心底对这个东西感兴趣,并且有足够的主观能动性去做各种各样的 co-design。推荐 Rich Sutton 的《The Bitter Lesson》,认为对 Infra 的指导意义也非常重大,即怎么样能把硬件的计算发挥出来,怎么样设计这个模型能最好地利用上计算,这件事情是最本质的。(src:关于Al Infra的一切I对谈阶跃星辰联创朱亦博)

在 Decoder 中,Platformer 创始人 Casey Newton 将与 Anysphere 联合创始人兼 CEO Michael Truell 深度对话,探讨 AI 如何重塑编程工作流、Cursor 的产品理念与技术路径,以及渐进式智能化对软件开发未来的深远影响。以下是核心要点:背景与理念产品定位:Cursor——AI 驱动的编程工具,不只是 IDE,而是人机协作的软件构建平台。核心理念:AI 不会短期内出现“神明级”AGI,而是通过长期、渐进式的改进逐步改变人类工作流,尤其是编程流程。角色转变:程序员从“代码工人”转为“任务设计师”,AI 承担更多重复和基础性工作,人类保留创造性与决策权。Cursor 的功能与发展两种主要使用模式:预测型协助(Super Autocomplete):实时预测下一步代码操作,效率远超普通补全。任务委派:把子任务交给 AI 独立完成,像与“虚拟对桌程序员”合作。未来方向:从“一对一”人机协作升级到“一对多”AI 代理协作。用户提供高层意图,AI 自动完成中间步骤,减少对代码细节的直接操作。与 Copilot 的区别:更关注“改变编程方式”而非单一功能。同时在交互界面和底层模型上优化,而不仅仅是终端调用。独特优势:自研模型(迭代到第 4/5 代),每天 10 亿+ 次推理调用。Super autocomplete 完全自主研发。核心团队拥有早期 Copilot 前身 TabNine 创始人等顶级技术人才。技术路线模型优化:大量真实用户交互数据驱动训练。注重强化学习,利用编程任务的“可验证性”快速试错优化。瓶颈与难点:持续学习与上下文记忆:扩展上下文窗口 vs 持续训练,均有局限。多模态能力:未来需要能处理按钮、UI、可视化调试等非文本操作。长流程执行:当前 AI 可持续执行数分钟到数小时,但距离处理数周级任务仍有差距。演进节奏:类比自动驾驶,AI 编程将经历长期代,不会一蹴而就。市场与用户核心用户:专业工程师(主力用户),同时吸引设计师、非技术人员参与轻量级“vibe coding”。使用成效:部分公司效率提升 30%+,但工时未必减少(任务弹性 & 代码库复杂度限制)。用户粘性:许多工程师表示“离不开 Cursor”,尤其在大型代码库维护中价值显著。Top 用户与普通用户差异巨大:前 5% 重度用户调用量是中位用户的几十倍。挑战与机遇定价争议:从“调用次数”计费转为“计算资源”计费,重度用户反弹。反思:沟通不足,低估用户对“额度”的敏感度。未来定价可能更接近 AWS 模型,保持多档可选(基础订阅 vs 高性能套餐)。行业趋势:编程是 AI 最快落地的场景之一,因其文本性、数据充足、结果可验证。技术演化不会是均匀加速,而是有平台期和阶段性飞跃。未来愿景短期目标(2 年内):支持多 AI 代理并行完成复杂任务,用户只需参与关键决策。提升任务委派比例,覆盖更多工程师工作场景。长期目标:重构编程语言:从低级精确代码转向更高阶、更抽象的语义表达。重设计人机交互界面:不仅是对话式,还可“指点、拖拽、精修”系统逻辑。让编程变为“操纵逻辑结构”的过程,而非逐行写代码。(src:Why tech is racing to adopt Al coding)

Reference

12Snowflake release - https://docs.snowflake.com/en/release-notes/2025/9_22Announcing OpenAl GPT-5 on Snowflake Cortex Al - https://www.snowflake.com/en/blog/Introducing OpenAl's New Open Models on Databricks - Introducing OpenAI’s New Open Models on DatabricksADB MySQL版 release notes: https://help.aliyun.com/zh/analyticdb/analyticdb-for-mysql/product-overview/release-notes1What's new with Google Data Cloud - https://cloud.google.com/blog/products/data-analytics/whats-new-with-google-data-cloud、Infrastructure - https://blogs.oracle.com/database/post/ga-announcement-distributed-exadb-xsES release - https://www.elastic.co/guide/en/elasticsearch/reference/8.19/release-notes-8.19.1.htmlPG release - https://www.postgresql.org/about/newsarchive/OpenAI release - https://help.openai.com/en/articles/6825453-chatgpt-release-notesClaude Opus 4.1 - https://www.anthropic.com/news/claude-opus-4-1火山产品更新公告 - https://www.volcengine.com/docs/82379/1159177通义 Doc - https://help.aliyun.com/zh/model-studio/use-qwen-by-calling-apilangchain-ai / langchain - https://github.com/langchain-ai/langchain2025年7月国产数据库中标情况一览:长沙银行千万采购GoldenDB,秦皇岛银行近七百万采购TDSQL!- https://mp.weixin.qq.com/s/n6RD-KwWn4oVo4VAcYaIuQ中国大模型中标项目监测与洞察报告(2025年7月) - https://mp.weixin.qq.com/s/RcTYOdXEddA7zB0nDpLICwNEEMA BREAKS DOWN BARRI ERST r0 CROSS-BORDER PAYMENTS一 ANDAIADOPTION - WITH SNOWFLAKE - https://www.snowflake.com/en/customers/all-customers/case-study/neema/地方动态|山东省人民政府办公厅关于加快释放数据价值加力推进数字经济高质量发展的实施意见 - https://www.nda.gov.cn/sjj/swdt/dfdt/0807/20250807130648794095091_pc.htmlRemarks by Director Kratsios at the APEC Digital and AI Ministerial Meeting - https://www.whitehouse.gov/articles/2025/08/remarks-by-director-kratsios-at-the-apec-digital-and-ai-ministerial-meeting/2025 Stack Overflow调研, Postgres ; 优势继续扩大 - https://www.modb.pro/db/1951127028594388992?0808行业进入下半场,IDC 2024年中国金融行业分布式事务型数据库市场份额报告发布 - https://my.idc.com/getdoc.jsp?containerId=prCHC53695925Introducing GPT-5 - https://openai.com/index/introducing-gpt-5/gpt-oss-120b& gpt-oss-20b模型卡 - https://openai.com/zh-Hans-CN/index/gpt-oss-model-card/估值升至5000亿美元!OpenAl洽谈出售“数十亿美元"员工股权 - https://wallstreetcn.com/articles/3752738Claude Opus 4.1 - https://www.anthropic.com/news/claude-opus-4-1Genie 3: A new frontier for world models - https://deepmind.google/discover/blog/genie-3-a-new-frontier-for-world-models/Musk says xAl will open source Grok 2 chatbot - https://www.reuters.com/business/musk-says-xai-will-open-source-grok-2-chatbot-2025-08-06/#:~:text=Aug%206%20阿里巴巴發布Qwen3混合推理模型樹立開源Al新標稈 - https://www.alibabacloud.com/tc/press-room/alibaba-introduces-qwen3-setting-new-benchmark?_p_lc=1Google Denies AI Search is Killing Website Traffic: What the Data Really Shows - https://oceansideanalytics.com/blog/google-ai-search-denial-website-traffic-data斯克解散Dojo超算团队,特斯拉放弃自研AI芯片,更依赖英伟达了 - https://wallstreetcn.com/articles/3752903cursor change log - https://cursor.com/changelog/1-4AWS正式提供 OpenAI開放權重模型 - https://aws.amazon.com/tw/events/taiwan/news/openai/How To Run OpenAl's GPT-OSS 20B and 120B Models on AMD RyzenTM AI Processors and Radeonm Graphics Cards - https://www.amd.com/en/blogs/2025/how-to-run-openai-gpt-oss-20b-120b-models-on-amd-ryzen-ai-radeon.htmlLastMile AI is an enterprise-grade evaluation platform that provides the essential tools to enable developers to test, evaluate, and benchmark AI applications|https://lastmileai.dev/,https://www.linkedin.com/in/sarmadqadri/details/experience/,https://www.linkedin.com/in/suyogsonwalkar/details/experience/,https://www.finsmes.com/2023/09/lastmile-ai-raises-10m-in-seed-funding.htmlArmada Al |https://www.armada.ai/,https://www.linkedin.com/in/wrightdh/details/experience/,https://www.finsmes.com/2023/12/armada-raises-over-55m-in-funding.html#google_vignette,https://m.163.com/dy/article/J7AGI4H7055675WW.htmlUmami |https://github.com/umami-software/umami,https://umami.is/,https://68wu.cn/post/tool/umami/,https://jovialchap.com/deploy-your-own-umami-analytics,https://www.linkedin.com/in/mike-cao/KubeSphere | https://github.com/kubesphere/kubesphere,https://mp.weixin.qq.com/s?__biz=MzU2MTI4MjI0MQ==&mid=2247539112&idx=1&sn=0050c9db75691dd45d88a9a767b31c1c&poc_token=HBd3mWijmJoJ1WGQNjJAi53Jnt_hFrV8hpd6gnE1,https://blog.csdn.net/gitblog_00069/article/details/140942857,https://www.ctyun.cn/developer/article/410389197881413Language Models Resist Alignment: Evidence From Data Compression - https://arxiv.org/abs/2406.06144Native Sparse Attention: Hardware-Aligned and Natively Trainable Sparse Attention - https://arxiv.org/abs/2502.11089关于Al Infra的一切I对谈阶跃星辰联创朱亦博|https://www.xiaoyuzhoufm.com/episode/688cc1cc8e06fe8de7d920cd?s=eyJ1IjoiNjI3NTE4ODVlZGNlNjcxMDRhOGI5NWFlIiwiZCI6Mn0%3D,https://podwise.ai/dashboard/episodes/4851513Why tech is racing to adopt AI coding - https://www.theverge.com/decoder-podcast-with-nilay-patel/715267/anysphere-ceo-michael-truell-cursor-ai-automate-programming-interview,https://mp.weixin.qq.com/s/Y5ydIh7XuiScXG6Qp-2bnA

内容提及地域:河北省、湖南省、山东省、济南市、秦皇岛市、青岛市、枣庄市、长沙市、历下区

IP属地:中国 广东

本栏目中的所有页面均系自动生成,自动分类排列,采用联索网络信息采集、网页信息提取、语义计算等智能搜索技术。内容源于公开的媒体报道,包括但不限于新闻网站、电子报刊、行业门户、客户网站等。使用本栏目前必读