来源机器之心编辑杨文、陈陈AI 很快就能自己改造自己了Anthropic 联合创始人 Jack Clark 发帖称他最近几周阅读了大量公开的 AI 开发数据后认为到 2028 年底递归自我改进recursive self-improvement发生的概率有 60%。也就是说AI 系统可能很快就能自主构建和改进自己进入自我加速的阶段。这一观点并非凭空而来。他看了一堆公开基准发现 AI 在 AI 研发相关任务上进步非常快。比如CORE-Bench 考察 AI 实现他人研究论文的能力这是 AI 研究中至关重要的一环。PostTrainBench 则测试强大模型能否自主微调较弱的开源模型以提升性能这正是 AI 研发任务的一个关键子集。MLE-Bench 基于真实 Kaggle 竞赛任务要求构建多样化的机器学习应用程序来解决特定问题。此外像 SWE-Bench 这样广为人知的编码基准也展现出类似的进步。Jack Clark 将这一现象描述为「分形」式的向上向右趋势即在不同分辨率和尺度上都能观察到有意义的进展。他认为AI 正在逐步接近端到端自动化研发的能力一旦实现AI 将能够自主构建自己的后继系统开启自我迭代的循环。此言论一出在社交媒体引发不少讨论。一些人视其为迈向 ASI 和奇点的关键第一步可能彻底改变科技发展的节奏。然而也存在不同声音。华盛顿大学计算机科学教授 Pedro Domingos 指出AI 系统早在上世纪 50 年代 LISP 语言发明时就具备了「构建自身」的能力真正的问题在于能否获得递增回报而目前还没有明显证据支持这一点。有网友质疑从 2027 年到 2028 年概率一下子增加 30%这暗示 AI 能力会在 2027 年底前后出现一次突然的重大突破。到底哪一个具体的里程碑或事件会让 AI 实现递归自我改进的概率在短时间内大幅提升还有网友表示Jack Clark 是 Anthropic 新上任的公关负责人这正是他们新战略的一部分我们并非危言耸听者有大量的论文都印证了我们一直以来警告你们的事情。Jack Clark 专门在 Import AI 455 这期 newsletter 里写了一篇长文详细阐述。文章地址https://importai.substack.com/p/import-ai-455-automating-ai-research?r1ds20utm_campaignpostutm_mediumemailtriedRedirecttrue接下来我们完整看一下这篇文章。AI 系统即将开始自我构建这意味着什么Clark 表示他写下这篇文章是因为在梳理所有公开可获得的信息后他不得不形成一个并不轻松的判断到 2028 年底之前出现无人类参与的 AI 研发的可能性已经相当高或许超过 60%。这里所谓的无人类参与的 AI 研发指的是一种足够强大的 AI 系统它不仅能辅助人类做研究还可能自主完成关键研发流程甚至构建出自己的下一代系统。在 Clark 看来这显然是一件大事。他坦言自己也很难完全消化这件事的含义。之所以称这是一个不情愿的判断是因为它背后的影响过于巨大让他感到难以把握。Clark 也不确定整个社会是否已经准备好迎接 AI 研发自动化所带来的深层变化。他现在相信人类可能正生活在一个特殊时间点AI 研究即将被端到端自动化。如果这一刻真的到来人类就像跨过了卢比孔河进入一个几乎无法预测的未来。Clark 表示这篇文章的目的是解释他为什么认为通向完全自动化 AI 研发的起飞正在发生。他会讨论这一趋势可能带来的一些后果但文章的大部分篇幅都会集中在支撑这一判断的证据上。至于更深层的影响Clark 计划在今年的大部分时间里继续梳理。从时间点来看Clark 并不认为这件事会在 2026 年真正发生。但他认为未来一两年内我们可能会看到某种模型端到端训练出自己后继者的案例。至少在非前沿模型层面出现一个概念验证是很有可能的至于最前沿模型难度会更高因为它们成本极其昂贵也依赖大量人类研究员的高强度工作。Clark 的判断主要来自公开信息包括 arXiv、bioRxiv 和 NBER 上的论文以及前沿 AI 公司已经部署到现实世界中的产品。基于这些信息他得出一个结论自动化生产当下 AI 系统所需的各个环节尤其是 AI 开发中的工程组件基本已经具备。如果 scaling 趋势继续延续我们就应该开始准备面对这样一种情况模型会变得足够有创造力不仅能自动改进已知方法还可能在提出全新研究方向和原创想法方面替代人类研究员从而自行推动 AI 前沿继续向前发展。编码奇点能力随时间的变化AI 系统是通过软件实现的而软件由代码构成。AI 系统已经彻底改变了代码生产方式。这背后有两个相关趋势一方面AI 系统越来越擅长编写复杂的真实世界代码另一方面AI 系统也越来越擅长在几乎不依赖人类监督的情况下把许多线性的编码任务串联起来完成比如先写代码再进行测试。体现这一趋势的两个典型例子是 SWE-Bench 和 METR time horizons plot。解决真实世界的软件工程问题SWE-Bench 是一个被广泛使用的编程测试用来评估 AI 系统解决真实 GitHub issue 的能力。当 SWE-Bench 在 2023 年底推出时当时表现最好的模型是 Claude 2整体成功率大约只有 2%。而 Claude Mythos Preview 的成绩已经达到 93.9%基本上接近打满这个 benchmark。当然所有 benchmark 本身都会有一定噪声所以通常会出现这样一个阶段当分数高到某个程度之后你碰到的可能不再是方法本身的限制而是 benchmark 自身的限制。比如在 ImageNet 验证集中大约 6% 的标签就是错误或存在歧义的。SWE-Bench 可以被视为衡量通用编程能力以及 AI 对软件工程影响的一个可靠指标。Clark 表示他在前沿 AI 实验室和硅谷接触到的大多数人现在几乎都已经完全通过 AI 系统来写代码并且越来越多的人开始用 AI 系统来编写测试、检查代码。换句话说AI 系统已经足够强能够自动化 AI 研发中的一个重要组成部分并显著加速所有参与 AI 研发的人类研究员和工程师。衡量 AI 系统完成长时任务的能力METR 制作了一张图用来衡量 AI 能完成多复杂的任务。这里的复杂度是按照一个熟练人类完成这些任务大概需要多少小时来计算的。其中最关键的指标是 AI 系统在一组任务上达到 50% 可靠性时对应的大致任务时间跨度。在这一点上进展非常惊人2022 年GPT-3.5 能完成的任务大概相当于人类需要 30 秒完成的任务。2023 年GPT-4 把这个时间提升到了 4 分钟。2024 年o1 把这个时间提升到了 40 分钟。2025 年GPT-5.2 High 达到了大约 6 小时。到 2026 年Opus 4.6 已经把这个时间进一步推高到大约 12 小时。在 METR 工作、长期关注 AI 预测的 Ajeya Cotra 认为到 2026 年底AI 系统能够完成相当于人类需要 100 小时的任务并不是一个不合理的预期。AI 系统能够独立工作的时间跨度显著增长也和 agentic coding 工具的爆发高度相关。所谓 agentic coding 工具本质上就是把能替人完成工作的 AI 系统产品化它们可以代表人类行动并在相当长一段时间内相对独立地推进任务。这也重新指向 AI 研发本身。仔细观察许多 AI 研究员的日常工作会发现其中大量任务其实都可以拆解成几个小时级别的工作比如清洗数据、读取数据、启动实验等等。而这类工作如今已经落入现代 AI 系统能够覆盖的时间跨度之内。AI 系统越熟练越能独立于人类工作就越能帮助自动化 AI 研发中的一部分工作。任务委托的关键因素主要有两个一是你对被委托者能力的信心二是你相信对方能够在不依赖你持续监督的情况下按照你的意图独立完成工作。当用户在观察 AI 在编程方面的能力时会发现 AI 系统不仅变得越来越熟练也越来越能在不需要人类重新校准的情况下独立工作更长时间。这也和我们身边正在发生的事情相吻合工程师和研究员正在把越来越大块的工作交给 AI 系统完成。随着 AI 能力持续提升被委托给 AI 的工作也变得越来越复杂、越来越重要。AI 正在掌握 AI 研发所必需的核心科学技能想想现代科学研究是怎么进行的其中很大一部分工作其实就是先确定一个方向明确自己想获得哪类经验性信息然后设计并运行实验生成这些信息最后再对实验结果进行合理性检查。随着 AI 编程能力不断提升再加上大语言模型越来越强的世界建模能力如今已经出现了一批工具能够帮助人类科学家提速并在更广泛的研发场景中部分自动化某些环节。在这里我们可以观察 AI 在几项关键科学技能上的进展速度而这些能力本身也正是 AI 研究不可或缺的一部分一是复现研究结果二是把机器学习技术和其他方法串联起来用来解决技术问题三是优化 AI 系统自身。实现整篇科学论文并完成相关实验AI 研究中的一项核心工作是阅读科学论文并复现其中的结果。在这方面AI 已经在一系列 benchmark 上取得了显著进展。一个很好的例子是 CORE-Bench也就是 Computational Reproducibility Agent Benchmark。这个 benchmark 要求 AI 系统在给定一篇论文及其代码仓库的情况下复现论文中的结果。具体来说Agent 需要安装相关库、软件包和依赖运行代码如果代码成功运行它还需要搜索所有输出结果并回答任务中的问题。CORE-Bench 于 2024 年 9 月提出。当时表现最好的系统是运行在 CORE-Agent scaffold 中的 GPT-4o 模型。在该 benchmark 最困难的一组任务上它的得分约为 21.5%。而到了 2025 年 12 月CORE-Bench 的一位作者宣布这个 benchmark 已经被解决了Opus 4.5 模型取得了 95.5% 的成绩。构建完整的机器学习系统解决 Kaggle 竞赛问题MLE-Bench 是 OpenAI 构建的一个 benchmark用来测试 AI 系统在离线环境中参加 Kaggle 竞赛的能力。它覆盖了 75 个不同类型的 Kaggle 竞赛涉及多个领域包括自然语言处理、计算机视觉和信号处理等。MLE-Bench 于 2024 年 10 月发布。发布时表现最好的系统是一个运行在 agent scaffold 中的 o1 模型得分为 16.9%。截至 2026 年 2 月表现最好的系统已经变成了运行在带搜索能力的 agent harness 中的 Gemini 3得分达到 64.4%。Kernel 设计AI 开发中一项更难的任务是 kernel 优化。所谓 kernel 优化就是编写并改进底层代码把矩阵乘法这类特定运算更高效地映射到底层硬件上。Kernel 优化之所以是 AI 开发的核心是因为它决定了训练和推理的效率一方面它影响你在开发 AI 系统时究竟能有效利用多少算力另一方面当模型训练完成后它也决定你能多高效地把算力转化为推理能力。近年来用 AI 做 kernel 设计已经从一个有趣的小方向变成了一个竞争激烈的研究领域并且出现了多个 benchmark。不过这些 benchmark 目前还没有特别流行所以我们很难像其他领域那样清晰地建模它的长期进展。另一方面我们可以通过一些正在进行的研究感受这个方向的推进速度。相关工作包括用 DeepSeek 的模型尝试构建更好的 GPU kernel自动把 PyTorch 模块转换成 CUDA 代码Meta 用 LLM 自动生成优化后的 Triton kernel并部署到自己的基础设施中以及针对 GPU kernel 设计微调开源权重模型例如 Cuda Agent。这里需要补充一点kernel 设计确实具备一些特别适合 AI 驱动研发的属性比如结果容易验证、奖励信号比较明确。通过 PostTrainBench 微调语言模型这类测试的一个更困难版本是 PostTrainBench。它测试的是不同前沿模型能否接手较小的开源权重模型并通过微调提升它们在某些 benchmark 上的表现。这个 benchmark 的一个优点是它有非常强的人类基线这些小模型现有的 instruct-tuned 版本。这些版本通常由前沿实验室中优秀的人类 AI 研究员开发已经经过非常有能力的研究员和工程师打磨并被部署到真实世界中。因此它们构成了一个很难超越的人类基准。截至 2026 年 3 月AI 系统已经能够对模型进行后训练并获得大约相当于人类训练结果一半的性能提升。具体评估分数来自一个加权平均它会综合多个后训练的大语言模型包括 Qwen 3 1.7B、Qwen 3 4B、SmolLM3-3B、Gemma 3 4B以及多个 benchmark包括 AIME 2025、Arena Hard、BFCL、GPQA Main、GSM8K、HealthBench、HumanEval。在每次运行中评测方会要求一个 CLI agent尽可能提升某个特定基础模型在某个特定 benchmark 上的表现。截至 2026 年 4 月得分最高的 AI 系统大约能达到 25% 到 28%代表模型包括 Opus 4.6 和 GPT 5.4相比之下人类得分为 51%。这已经是一个相当有意义的结果。优化语言模型训练过去一年Anthropic 一直在报告其系统在一项 LLM 训练任务上的表现。这个任务要求模型优化一个仅使用 CPU 的小型语言模型训练实现让它尽可能快地运行。评分方式是相较于未修改的初始代码模型实现的平均加速倍数。这项结果进展非常显著2025 年 5 月Claude Opus 4 实现了 2.9 倍平均加速2025 年 11 月Opus 4.5 提升到 16.5 倍2026 年 2 月Opus 4.6 达到 30 倍2026 年 4 月Claude Mythos Preview 达到 52 倍。为了理解这些数字的含义可以做一个参照在人类研究员身上这项任务通常需要 4 到 8 小时工作才能实现 4 倍加速。元技能管理AI 系统也正在学习如何管理其他 AI 系统。这一点已经可以在一些广泛部署的产品中看到比如 Claude Code 或 OpenCode。在这些产品里一个主 agent 可以监督多个 sub-agent。这让 AI 系统能够处理更大规模的项目项目中可能需要多个具备不同专长的智能体并行工作而它们通常由一个单一的 AI 管理者来协调。这里的管理者本身也是一个 AI 系统。AI 研究更像发现广义相对论还是搭乐高一个关键问题是AI 能否发明出新的想法帮助它改进自身还是说这些系统更适合完成研究中那些不那么光鲜、但必须一砖一瓦推进的工作这个问题很重要因为它关系到 AI 系统能在多大程度上端到端自动化 AI 研究本身。作者的判断是AI 目前还不能提出真正激进的全新思想。但要实现自身研发自动化它或许并不一定需要做到这一点。作为一个领域AI 的进步很大程度上依赖于越来越大的实验以及越来越多的输入比如数据和算力。偶尔人类会提出一些改变范式的想法使整个领域的资源效率大幅提升。Transformer 架构就是一个很好的例子混合专家模型也就是 mixture-of-experts也是另一个例子。但更多时候AI 领域的推进方式其实更朴素人类会拿一个表现良好的系统扩大其中某个方面比如训练数据和算力观察扩大规模后哪里出问题找到工程上的修复方案让系统能够继续扩展然后再次扩大规模。这个过程里真正需要洞见的部分其实很少。大量工作更像是不那么耀眼、但非常扎实的基础工程。类似地很多 AI 研究其实是在运行现有实验的各种变体探索不同参数设置会带来什么结果。研究直觉当然能帮助人类挑选最值得尝试的参数但这件事本身也可以被自动化让 AI 自己判断哪些参数值得调整。早期的神经架构搜索就是这类思路的一个版本。爱迪生曾说天才是 1% 的灵感加上 99% 的汗水。即便过去 150 年这句话依然很贴切。偶尔确实会出现彻底改变一个领域的新洞见。但大多数时候领域进步是靠人类在改进和调试各种系统的艰苦过程中一点点推进出来的。而前面提到的公开数据表明AI 已经非常擅长执行 AI 开发中许多必要的苦活累活。与此同时还有一个更大的趋势基础能力比如编程能力正在和不断扩展的任务时间跨度结合起来。这意味着 AI 系统可以把越来越多这类任务串联起来形成复杂的工作序列。因此即便 AI 系统目前相对缺乏创造力也有理由相信它们仍然能够推动自身继续向前发展。只是相比能够产生全新洞见的情况这种推进速度可能会更慢。但如果继续观察公开数据会发现另一个令人好奇的信号AI 系统也许正在展现出某种创造力而这种创造力可能让它们以更令人惊讶的方式推动自身进步。推动科学前沿继续向前目前已经有一些非常初步的迹象表明通用 AI 系统有能力推动人类科学前沿继续向前发展。不过到目前为止这种情况只发生在少数几个领域主要是计算机科学和数学。而且很多时候并不是 AI 系统单独完成突破而是以人机协作的方式与人类研究者共同推进。尽管如此这些趋势仍然值得观察Erdős 问题一组数学家与 Gemini 模型合作测试它在解决一些 Erdős 数学问题上的表现。他们引导系统尝试了大约 700 个问题最终得到了 13 个解答。在这些解答中有 1 个被他们认为是有趣的。研究者写道他们初步认为Aletheia一套基于 Gemini 3 Deep Think 的 AI 系统 对 Erdős-1051 的解答代表了一个早期案例一个 AI 系统自主解决了一个略具非平凡性、并且有一定更广泛数学兴趣的开放 Erdős 问题。该问题此前已有一些 closely-related 的相关研究文献。如果往乐观方向理解这些案例可以被看作一个信号AI 系统正在发展出某种能够推动领域前沿的创造性直觉而这种直觉过去主要属于人类。但也可以从另一面解释数学和计算机科学可能本身就是特别适合 AI 驱动发明的领域因此它们或许只是例外并不能代表更广泛的科学研究都会被 AI 以同样方式推进。另一个类似例子是 AlphaGo 的第 37 手。不过 Clark 认为距离 AlphaGo 那次结果已经过去十年而第 37 手之后并没有被某个更现代、更惊人的洞见所取代这本身也可以被视为一个略偏悲观的信号。AI 已经可以自动化 AI 工程中的大片工作如果把上面所有证据放在一起我们可以看到这样一幅图景AI 系统已经能够为几乎任何程序编写代码而且这些系统已经可以被信任去独立完成一些任务这些任务如果交给人类往往需要数十小时的高强度专注劳动。AI 系统越来越擅长完成 AI 开发中的核心任务从模型微调到 kernel 设计都在被逐步覆盖。AI 系统已经能够管理其他 AI 系统实际上形成一种合成团队多个 AI 可以分头处理复杂问题其中一些 AI 扮演负责人、批评者、编辑者的角色另一些 AI 则扮演工程师的角色。AI 系统有时已经能在困难的工程和科学任务上超过人类尽管目前还很难判断这究竟是因为它们具备了真正的创造力还是因为它们已经熟练掌握了大量模式化知识。在 Clark 看来这些证据已经非常有说服力地表明今天的 AI 已经可以自动化 AI 工程中的大片工作甚至可能覆盖其中的全部环节。不过目前还不清楚 AI 能在多大程度上自动化 AI 研究本身。因为研究中的某些部分可能不同于纯工程技能仍然依赖更高层次的判断、问题意识和创造性。但无论如何一个清晰信号已经出现今天的 AI 正在大幅加速从事 AI 开发的人类让这些研究员和工程师可以通过与无数合成同事配对协作放大自己的工作能力。最后AI 行业本身也几乎是在明说自动化 AI 研发就是它们的目标。OpenAI 希望在 2026 年 9 月之前构建一个自动化 AI 研究实习生。Anthropic 正在发表关于构建自动化 AI 对齐研究员的工作。DeepMind 在三大实验室中显得最谨慎但也表示在可行时应该推进对齐研究自动化。自动化 AI 研发也已经成为许多创业公司的目标。Recursive Superintelligence 刚刚融资 5 亿美元目标就是自动化 AI 研究。换句话说数千亿美元级别的既有资本和新增资本正在投入到一批以自动化 AI 研发为目标的机构中。因此我们当然应该预期这个方向至少会取得某种程度的进展。为什么这很重要这带来的影响深远但在大众媒体对 AI 研发的报道中却鲜有讨论。以下这几个方面可以反映出 AI 研发带来的巨大挑战。1. 我们必须把对齐做好如今有效的对齐技术可能会在递归式自我改进中失效因为 AI 系统会变得比监督它们的人员或系统智能得多。这是一个已被广泛研究的领域所以他只简要概述一些问题训练人工智能系统不撒谎和作弊是一个出人意料的微妙过程例如尽管努力为环境构建良好的测试但有时人工智能解决问题的最佳方法是作弊从而教会它作弊是可行的。AI 系统可能通过「假装对齐」来欺骗我们输出让我们以为它表现良好的分数但实际上隐藏了它真实的意图。一般来说AI 系统已经能够察觉自己何时正在被测试。随着 AI 系统开始更多地参与自身训练的基础研究议程我们可能会大幅改变 AI 系统的整体训练方式却没有良好的直觉或理论基础来理解这意味着什么。当你把某个系统置于递归循环中时会产生非常基本的「误差累积」问题这可能会影响上述所有问题及其他问题除非你的对齐方法「100% 准确」且理论上能够在更聪明的系统中持续保持准确否则事情可能很快出错。例如你的技术初始精度是 99.9%经过 50 代可能降为 95.12%经过 500 代可能降到 60.5%。2.AI 涉及的每一件事都会获得巨大的生产力倍增 就像 AI 显著提高软件工程师的生产力一样我们应该预期 AI 涉及的其他领域也会如此。这带来几个需要应对的问题获取资源不平等假设 AI 的需求继续超过计算资源供应我们必须决定如何分配 AI 以实现社会的最大利益。我对市场激励能够保证我们从有限的 AI 计算中获得最佳社会收益持怀疑态度。确定如何分配 AI 研发带来的加速能力将是一个政治性很强的问题。经济的「阿姆达尔定律」随着 AI 流入经济我们会发现某些环节在面对高速增长时会出现瓶颈需要想办法修复这些链条中的薄弱环节。这在需要协调快速数字世界与缓慢物理世界的领域可能尤为明显比如新药临床试验。3. 资本密集型、人力轻型经济的形成 上述所有关于 AI 研发的证据也表明AI 系统越来越有能力自主运营企业。这意味着我们可以预期经济中的一部分将被新一代公司占据这些公司可能是资本密集型因为它们拥有大量计算机或运营开支密集型因为它们在 AI 服务上花费大量资金并在其基础上创造价值相比今天的企业它们对人力的依赖相对较低 —— 因为随着 AI 系统能力持续增强投入 AI 的边际价值会不断增长。实际上这将表现为「机器经济」在更大「人类经济」中逐渐形成随着时间推移AI 运营的公司可能会开始相互交易从而改变经济结构并引发关于不平等和再分配的各种问题。最终可能会出现完全由 AI 系统自主运营的公司这将加剧上述问题同时带来许多新的治理挑战。凝视黑洞基于以上分析作者认为到 2028 年底我们看到自动化 AI 研发即前沿模型能够自主训练其继任版本的概率约为 60%。为什么不预期它在 2027 年出现原因是作者认为 AI 研究仍然需要创造力和异议见解才能前进到目前为止AI 系统尚未以变革性和重大方式展示这一点尽管在加速数学研究上的一些结果有启示。如果非要他给出 2027 年的概率他会说 30%。如果到 2028 年底还没有出现我们可能就会揭示当前技术范式中的一些根本性缺陷需要人类发明推动进一步发展。参考链接https://x.com/jackclarkSF/status/2051312759594471886https://importai.substack.com/p/import-ai-455-automating-ai-research?r1ds20utm_campaignpostutm_mediumemailtriedRedirecttrue阅读最新前沿科技趋势报告请访问21世纪关键技术研究院的“未来知识库”未来知识库是“21世纪关键技术研究院”建立的在线知识库平台收藏的资料范围包括人工智能、脑科学、互联网、超级智能数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问https://wx.zsxq.com/group/454854145828进入。截止到2月28日 ”未来知识库”精选的百部前沿科技趋势报告加入未来知识库全部资料免费阅读和下载牛津未来研究院 《将人工智能安全视为全球公共产品的影响、挑战与研究重点》麦肯锡超级智能机构赋能人们释放人工智能的全部潜力AAAI 2025 关于人工智能研究未来研究报告斯坦福2025 斯坦福新兴技术评论十项关键技术及其政策影响分析报告191 页壳牌2025 能源安全远景报告能源与人工智能57 页盖洛普 牛津幸福研究中心2025 年世界幸福报告260 页Schwab 2025 未来共生以集体社会创新破解重大社会挑战研究报告36 页IMD2024 年全球数字竞争力排名报告跨越数字鸿沟人才培养与数字法治是关键214 页DS 系列专题DeepSeek 技术溯源及前沿探索50 页 ppt联合国人居署2024 全球城市负责任人工智能评估报告利用 AI 构建以人为本的智慧城市86 页TechUK2025 全球复杂多变背景下的英国科技产业战略韧性与增长路径研究报告52 页NAVEX Global2024 年十大风险与合规趋势报告42 页《具身物理交互在机器人 - 机器人及机器人 - 人协作中的应用》122 页2025 - 2035 年人形机器人发展趋势报告 53 页Evaluate Pharma2024 年全球生物制药行业展望报告增长驱动力分析29 页【AAAI2025 教程】基础模型与具身智能体的交汇350 页 pptTracxn2025 全球飞行汽车行业市场研究报告45 页谷歌2024 人工智能短跑选手AI Sprinters捕捉新兴市场 AI 经济机遇报告39 页【斯坦福博士论文】构建类人化具身智能体从人类行为中学习《基于传感器的机器学习车辆分类》最新 170 页美国安全与新兴技术中心2025 CSET 对美国人工智能行动计划的建议18 页罗兰贝格2024 人形机器人的崛起从科幻到现实如何参与潜在变革研究报告11 页兰德公司2025 从研究到现实NHS 的研究和创新是实现十年计划的关键报告209 页康桥汇世Cambridge Associates2025 年全球经济展望报告44 页国际能源署2025 迈向核能新时代麦肯锡人工智能现状组织如何重塑自身以获取价值威立Wiley2025 全球科研人员人工智能研究报告38 页牛津经济研究院2025 TikTok 对美国就业的量化影响研究报告470 万岗位14 页国际能源署IEA能效 2024 研究报告127 页Workday 2025 发挥人类潜能人工智能AI技能革命研究报告20 页CertiKHack3D2024 年 Web3.0 安全报告28 页世界经济论坛工业制造中的前沿技术人工智能代理的崛起》报告迈向推理时代大型语言模型的长链推理研究综述波士顿咨询2025 亚太地区生成式 AI 的崛起研究报告从技术追赶者到全球领导者的跨越15 页安联Allianz2025 新势力崛起全球芯片战争与半导体产业格局重构研究报告33 页IMT2025 具身智能Embodied AI概念、核心要素及未来进展趋势与挑战研究报告25 页IEEE2025 具身智能Embodied AI综述从模拟器到研究任务的调查分析报告15 页CCAV2025 当 AI 接管方向盘自动驾驶场景下的人机交互认知重构、变革及对策研究报告124 页《强化学习自我博弈方法在兵棋推演分析与开发中的应用》最新 132 页《面向科学发现的智能体人工智能进展、挑战与未来方向综述》全国机器人标准化技术委员会人形机器人标准化白皮书2024 版96 页美国国家科学委员会NSB2024 年研究与发展 - 美国趋势及国际比较51 页艾昆纬IQVIA2025 骨科手术机器人技术的崛起白皮书创新及未来方向17 页NPLBeauhurst2025 英国量子产业洞察报告私人和公共投资的作用25 页IEA PVPS2024 光伏系统经济与技术关键绩效指标KPI使用最佳实践指南65 页AGI 智能时代2025 让 DeepSeek 更有趣更有深度的思考研究分析报告24 页2025 军事领域人工智能应用场景、国内外军事人工智能发展现状及未来趋势分析报告37 页华为2025 鸿蒙生态应用开发白皮书133 页《超级智能战略研究报告》中美技术差距分析报告 2025欧洲量子产业联盟QuIC2024 年全球量子技术专利态势分析白皮书34 页美国能源部2021 超级高铁技术Hyperloop对电网和交通能源的影响研究报告60 页罗马大学2025 超级高铁Hyperloop第五种新型交通方式 - 技术研发进展、优势及局限性研究报告72 页兰德公司2025 灾难性网络风险保险研究报告市场趋势与政策选择93 页GTI2024 先进感知技术白皮书36 页AAAI2025 人工智能研究的未来报告17 大关键议题88 页安联 Allianz2025 新势力崛起全球芯片战争与半导体产业格局重构研究报告威达信2025 全球洪水风险研究报告现状、趋势及应对措施22 页兰德公司迈向人工智能治理研究报告2024EqualAI 峰会洞察及建议19 页哈佛商业评论2025 人工智能时代下的现代软件开发实践报告12 页德安华全球航空航天、国防及政府服务研究报告2024 年回顾及 2025 年展望27 页奥雅纳2024 塑造超级高铁Hyperloop的未来监管如何推动发展与创新研究报告28 页HSOAC2025 美国新兴技术与风险评估报告太空领域和关键基础设施24 页Dealroom2025 欧洲经济与科技创新发展态势、挑战及策略研究报告76 页《无人机辅助的天空地一体化网络学习算法技术综述》谷歌云Google Cloud2025 年 AI 商业趋势白皮书49 页《新兴技术与风险分析太空领域与关键基础设施》最新报告150 页《DeepSeek 大模型生态报告》军事人工智能行业研究报告技术奇点驱动应用加速智能化重塑现代战争形态 - 25030940 页真格基金2024 美国独角兽观察报告56 页璞跃Plug and Play2025 未来商业研究报告六大趋势分析67 页国际电工委员会IEC2025 智能水电技术与市场展望报告90 页RWS2025 智驭 AI 冲击波人机协作的未来研究报告39 页国际电工委员会IEC2025 智能水电技术与市场展望报告90 页RWS2025 智驭 AI 冲击波人机协作的未来研究报告39 页未来今日研究所 2025 年科技趋势报告第 18 版 1000 页模拟真实世界多模态生成模型的统一综述中国信息协会低空经济分会低空经济发展报告2024 - 2025117 页浙江大学2025 语言解码双生花人类经验与 AI 算法的镜像之旅42 页人形机器人行业由 “外” 到 “内” 智能革命 - 25030651 页大成2025 年全球人工智能趋势报告关键法律问题28 页北京大学2025 年 DeepSeek 原理和落地应用报告57 页欧盟委员会 人工智能与未来工作研究报告加州大学伯克利分校面向科学发现的多模态基础模型在化学、材料和生物学中的应用电子行业从柔性传感到人形机器人触觉革命 - 25022635 页RT 轨道交通2024 年中国城市轨道交通市场数据报告188 页FastMoss2024 年度 TikTok 生态发展白皮书122 页Check Point2025 年网络安全报告 - 主要威胁、新兴趋势和 CISO 建议57 页【AAAI2025 教程】评估大型语言模型挑战与方法199 页 ppt《21 世纪美国的主导地位核聚变》最新报告沃尔特基金会Volta Foundation2024 年全球电池行业年度报告518 页斯坦福2025 斯坦福新兴技术评论十项关键技术及其政策影响分析报告191 页国际科学理事会2025 为人工智能做好国家研究生态系统的准备 - 2025 年战略与进展报告英文版118 页光子盒2025 全球量子计算产业发展展望报告184 页奥纬论坛2025 塑造未来的城市研究报告全球 1500 个城市的商业吸引力指数排名124 页Future Matters2024 新兴技术与经济韧性日本未来发展路径前瞻报告17 页《人类与人工智能协作的科学与艺术》284 页博士论文《论多智能体决策的复杂性从博弈学习到部分监控》115 页《2025 年技术展望》56 页 slides大语言模型在多智能体自动驾驶系统中的应用近期进展综述【牛津大学博士论文】不确定性量化与因果考量在非策略决策制定中的应用皮尤研究中心2024 美国民众对气候变化及应对政策的态度调研报告气候政策对美国经济影响的多元观点审视28 页空间计算行业深度发展趋势、关键技术、行业应用及相关公司深度梳理 - 25022433 页Gartner2025 网络安全中的 AI明确战略方向研究报告16 页北京大学2025 年 DeepSeek 系列报告 - 提示词工程和落地场景86 页北京大学2025 年 DeepSeek 系列报告 - DeepSeek 与 AIGC 应用99 页CIC 工信安全2024 全球人工智能立法的主要模式、各国实践及发展趋势研究报告42 页中科闻歌2025 年人工智能技术发展与应用探索报告61 页AGI 智能时代2025 年 Grok - 3 大模型技术突破与未来展望报告28 页上下滑动查看更多