同行做的好的网站知乎关键词搜索排名

张小明 2026/3/12 19:36:37
同行做的好的网站,知乎关键词搜索排名,网站建设运营怎么办,企业网站及公众号建设方案AI科学家Tim Dettmers在自己的博客发表了一篇文章《Why AGI Will Not Happen》。物理世界不存在魔法#xff0c;AGI和超级智能的宏大叙事正在撞上一堵名为物理法则的墙。这是一篇写给那些愿意通过物理现实而非科幻小说来审视人工智能未来的人的文章。如果你身处2025年12月AGI和超级智能的宏大叙事正在撞上一堵名为物理法则的墙。这是一篇写给那些愿意通过物理现实而非科幻小说来审视人工智能未来的人的文章。如果你身处2025年12月可能对AGI通用人工智能和超级智能Superintelligence抱有某种执念要么坚信奇点临近要么心存疑虑。当前的讨论尤其是源自旧金山湾区的那些声音往往陷在一个致命的误区里它们把计算看作一种抽象的哲学概念而完全忽略了计算的物理实体性。这种思维懒惰构建了一个巨大的回音室理性的声音被淹没盲目的乐观正在误导我们对未来的判断。我们要谈硬件、缩放定律Scaling Laws、AI泡沫但必须先回到一切的基础物理现实。计算必须严格遵循物理定律湾区科技圈和牛津哲学派系混合出一种奇怪的文化他们谈论AGI和超级智能时就像在做抽象的思想实验。这种源自有效利他主义Effective Altruism和理性主义社区的思维方式最大的盲点在于忘记了计算是物理的。有效的计算依赖两个核心动作将全局信息搬运到局部以及汇聚多个局部信息以生成新信息。晶体管越做越小确实加速了局部计算的复杂性但信息的搬运成本并没有随之下降。信息移动的能耗和延迟随着距离的增加呈二次方级增长。即便晶体管再小内存访问的物理限制依然存在。看看缓存层级Cache Hierarchies就能明白这个道理。L1、L2和L3缓存在物理材质上是一样的但计算属性天差地别。L2和L3比L1大得多但也慢得多。这不是技术不到位而是物理距离的问题。L3离计算核心更远电子在芯片上跑路需要时间。这里有两个铁律第一缓存越大速度越慢第二随着晶体管缩小计算变得极其便宜但相对而言内存变得极其昂贵。现在的芯片设计绝大部分面积都给了内存计算单元反而成了配角。英伟达的市场部喜欢吹嘘由于芯片算力达到了多少Exaflops但他们不会告诉你如果你无法用足够快的内存去喂饱这些算力这些FLOPS就是废的。AI架构比如Transformer本质上不是数学公式而是物理形态的优化方案。你需要做两件事用多层感知机MLP处理局部关联用注意力机制Attention池化远端信息。Transformer之所以成功是因为它在物理效率上几乎做到了极致它用最简单的方式结合了局部计算和全局信息池化。虽然研究还在继续但边际效应已经非常明显——Transformer架构已经接近物理最优解很难再有质的飞跃。生物界也遵循同样的物理铁律。动物的智力上限被生态位的热量摄入锁死。灵长类动物摄入多少卡路里就能算出它有多少神经元误差不超过1%。人类发明了烹饪这是一种体外预消化技术极大地提升了热量摄入效率从而支撑了更大的大脑。但这依然有物理极限。人类女性怀孕时需要供养两个大脑这在能量代谢上极其昂贵如果大脑再大一点母体就无法提供足够的代谢能量。我们现有的智力水平是能量物理限制划定的边界。数字计算正在逼近同样的边界。线性进步必须消耗指数级资源跨学科的研究揭示了一个残酷的现实想要获得线性的进步必须投入指数级的资源。无论你想提高系统的精度还是效率每前进一步代价都是倍增的。这背后有两个现实在起作用物理现实和理念空间Idea Space。在物理现实中资源在时间和空间上的累积存在拥堵效应。你想在局部产生一个线性的结果理论上需要线性的资源但因为物质占据空间资源的调配和汇聚会随着规模扩大而变慢导致效率递减。在理念空间情况更为隐蔽。如果两个点子完全独立它们的效果可能叠加出十倍的威力。但问题是人类的想法往往是高度相关的。新想法通常建立在旧想法之上这种依赖性导致了严重的收益递减。比如在AI领域状态空间模型State-based models和Transformer看起来大相径庭但它们本质上都在解决同一个注意力问题。在一个已经被充分探索的子领域里大多数想法都已经被想过了剩下的要么是微小的修补要么是那种看起来狂野但毫无实用价值的伪创新。理论物理学是最好的例子。一位顶尖理论物理学家曾坦言现在所有的理论工作要么是现有理论的增量修补要么是编造出来的问题。实验物理学更是如此大型强子对撞机LHC为了验证标准模型投入了数十亿美元和更高的能量结果只是排除了更多的错误理论得到一堆不确定的结果。暗物质和暗能量依然是谜。我们可能不得不承认由于资源的限制宇宙的某些物理真相是不可知的。回到AI如果我们想要模型性能线性增长就需要投入指数级的算力和数据。这种指数级的成本增长终将让进步停滞。硬件升级的红利已经彻底吃尽这是一个在非专业人士中流传最广的误解硬件会一直进步。人们习惯了摩尔定律的叙事认为GPU会一代比一代强AI性能也会随之水涨船高。事实是GPU的 meaningful improvement有意义的改进已经结束了。回顾AI的发展史AlexNet的诞生归功于CUDA在GPU上实现了卷积运算。此后的进步主要靠两点更好的GPU和更多的GPU。但在2018年左右GPU的性价比/性能曲线就已经见顶了。从那以后硬件厂商所做的主要是挖掘一次性的特性。看看我们经历了什么先是16位精度然后是张量核心Tensor Cores接着是高带宽内存HBM再到TMA然后是8位精度最后是4位精度。这条路已经走到头了。我在关于k-bit推理缩放定律的论文中已经证明对于特定的计算排列数据类型的压缩是有物理极限的。现在硬件厂商已经采纳了这些极限设计。未来的改进只能是妥协Trade-offs要么为了更低的内存占用牺牲计算效率要么为了更高的吞吐量牺牲内存空间。即便你能创新那也逃不脱线性进步需要指数级资源的魔咒。既然单卡GPU不再有质的飞跃人们寄希望于机架Rack级别的优化。高效地搬运键值缓存Key-Value Caches是当前的核心难题。OpenAI吹嘘的基础设施其实在架构上并没有什么秘密。设计方案只有一种最优解虽然工程实施极其复杂需要大量的时间和人力但本质上并不新颖。OpenAI或其他前沿实验室在推理和基础设施栈上并没有根本性的护城河。机架级优化和数据中心级优化带来的优势大概在2026年或2027年也会耗尽。之前我们投入线性的成本能获得线性的回报因为GPU的进步抵消了缩放定律的指数级成本。现在这个抵消机制消失了。我们正面临指数级成本换取线性回报的局面。缩放定律在2025年的表现已经不尽如人意如果2026年和2027年没有奇迹物理墙就会把我们挡在门外。对于前沿实验室来说这非常危险。如果单纯的规模堆叠不能带来显著超越研究/软件优化的提升那么庞大的硬件资产就会从资产变成负债。像MoonshotAI和Z.ai这样的小玩家证明不需要顶级资源也能达到前沿性能。如果小模型变得足够强或者软件优化如vLLM和SGLang之外的更高效栈让3000亿参数模型的部署成本大幅下降前沿实验室的基础设施优势可能会在一夜之间蒸发。应用普及胜过追求超级智能在AI的发展路径上中美两国走了完全不同的路。美国的逻辑是赢家通吃。他们认为终极目标是建立超级智能谁先造出来谁就赢了。即便没达到AGI只要你的模型最强所有人都会用你的。这种思维专注于打造一个全知全能的上帝模型。中国的哲学则完全不同。中国不执着于模型本身的绝对能力而看重应用和普及。模型比别人强一点点并不重要重要的是它能不能低成本地融入生产生活能不能产生实际的生产力。如果现有的方案已经足够好Good Enough能带来效率提升那就直接用而不是为了那1%的性能提升去烧钱。美国的哲学是短视且危险的尤其是当模型能力增长放缓时。中国的哲学则更加务实和长远。AI的真正价值在于它像电脑或互联网一样成为一种通用基础设施。如果AI只用于写代码或辅助工程它的经济影响是有限的。软件生产本身也有边际收益递减的问题。AI必须渗透到经济的每一个毛细血管里通过大规模的整合来挖掘非线性的收益。中国正在通过补贴应用端来鼓励这种渗透。在中国看到80岁的老奶奶用AI辅助日常生活并不稀奇。这就是经济扩散Economic Diffusion的力量。相比之下美国对AGI和超级智能的赌注是建立在对物理现实的无视之上的。真正的AGI必须包含物理任务这是经济活动中最大的板块。也就是说AGI必须是能干活的机器人。让机器人从洗碗机里把碗拿出来这很方便但你不会在工厂里看到这种通用机器人因为专用机器人效率更高、更精准。中国已经有了全自动化的黑灯工厂。大多数工业机器人问题在受控环境下已经解决了。而剩下的未解决问题比如缝制T恤袖子在经济上根本不划算。至于家庭机器人如果叠衣服需要机器人花几分钟只能做到平庸的水平我宁愿自己花两分钟叠好。机器人学习遵循与大语言模型类似的缩放定律但物理世界的数据收集太昂贵了细节也太复杂。机器人技术的影响力将是有限的。至于超级智能Superintelligence这纯粹是一个基于错误前提的幻想。这个概念假设一旦智力达到人类水平它就能自我递归改进引发失控的智能爆炸。这是牛津哲学家带给湾区的又一个脱离物理现实的抽象概念。改进任何系统都需要资源。即便超级智能比人类更善于利用资源它依然受制于线性进步消耗指数级资源的铁律。超级智能无法加速HBM内存的物理开发流程无法突破芯片制造的物理良率无法改变Transformer接近物理极限的事实。推理堆栈的优化已经是一个解决得差不多的工程问题超级智能在这里也玩不出什么花样。那些指望超级智能来拯救算力瓶颈的人和指望永动机的人没有区别。2025年的结论非常清晰AGI不会发生因为计算受制于物理超级智能是幻想因为递归进化受制于资源。未来的赢家不是那个造出上帝的人而是那个能把AI便宜、好用地塞进每一个角落的人。参考资料https://timdettmers.com/2025/12/10/why-agi-will-not-happen/
版权声明:本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!

网站的优化与推广分析游戏网站开发计划书

在巷道掘进、管线测绘、地质勘探等精密工程作业中,MEMS寻北仪的测量稳定性与运维便捷性,直接决定了项目的推进效率与综合成本。传统寻北设备因机械结构局限,不仅需要频繁停机校准,还常因元件磨损、环境干扰引发参数漂移&#xff0…

张小明 2026/3/5 7:35:23 网站建设

眉山建设局网站网站建站的方式主要有哪几种

Excalidraw断线重连机制设计与恢复准确性验证 在远程协作工具日益成为团队日常沟通核心载体的今天,一个看似微小的技术细节——网络中断后的状态恢复能力,往往决定了用户体验的成败。想象这样一个场景:你正在和跨时区的同事激烈讨论产品原型&…

张小明 2026/3/5 7:35:22 网站建设

济南网站建设tailookwordpress乱码

本文详细介绍了基于LlamaIndex框架的应急管理安全生产智能问答系统构建方法。系统采用混合查询架构,结合RAG和Text2SQL技术,整合非结构化文档与结构化数据库数据。通过数据预处理、建立索引、智能检索、句子拆分和Agent工作流设计,实现精准的…

张小明 2026/3/5 7:35:23 网站建设

辛集建设网站关于学院网站建设的通知

在锂离子电池开发过程中,设计参数太多,实验任务繁重;各参数对电池性能的影响不明确,实验设计带有一定的盲目性,有时候甚至会出现费时、费力、费资金,却吃力不讨好的现象。改善这一状况的契机是将电池仿真技…

张小明 2026/3/5 7:35:25 网站建设

防蚊手环移动网站建设小加工厂做网站

Universe是一个用于测量和训练AI通用智能的软件平台,能够跨越全球的游戏、网站和其他应用程序。在AI训练过程中,平台性能直接影响模型收敛速度和训练质量。本文将系统介绍Universe平台的性能分析方法论,帮助开发者构建高效的AI训练环境。 【免…

张小明 2026/3/5 7:35:27 网站建设

南昌做网站哪里好网站开发全流程

Kotaemon如何处理编码错误?字符集兼容性改进 在构建智能对话系统和检索增强生成(RAG)应用时,我们常常假设输入文本是“干净”的——UTF-8 编码、无乱码、结构规整。但现实远非如此:一份从客户上传的旧版 Windows 记事本…

张小明 2026/3/5 7:35:28 网站建设