机器之心报告编辑:Zenan、杨文 国外开发者:我应该开始学习中文吗?我再也受不了了。美国科技公司推出的最新伟大型号。为什么我思考的时候还是会说中文?本周,流行的 AI 编码工具 Cursor 发布了 2.0 版本的重大更新,推出了其第一个专有代码模型 Composer 以及用于并行协调多个代理的新界面。新模型一发布,大家都祝贺Cursor终于“满意”了,用上了自己的模型。同时发现,这个大模型一边思考一边继续说中文,其行为与国产模型非常相似。 Composer 是 Cursor 使用强化学习训练的大型 MoE 模型。它可以很好地处理实际代码并且速度非常快。在内部基准测试中,该模型在编码任务方面取得了行业领先的性能,生产速度比同类模型快四倍。据官方博客介绍,在开发过程中,我们尝试了一个代号为Cheetah的原型代理模型,以更好地了解我们的快速代理模型的影响。 Composer 是对此模型的更智能升级,速度足够快,可以增强您的交互体验,因此您的编码将始终流畅。但看到该模型产生了大量中国人,人们开始猜测哪个大型模型是其背后的“基地”。是Quen码吗?这不是巧合。 AI编程独角兽Cognition最近也推出了最新的AI模型SWE-1.5。它是一个具有数千亿参数的快速代理模型,编码性能接近SOTA并且速度明显更快(比Haiku 4.5快6倍,比Haiku 4.5快13倍,比Haiku 4.5快13倍。比Sonnet 4.5更快)。该模型目前可在Windsurf公司的IDE平台上使用。然而,这款戴尔机型在发布后不久就受到了密切关注。索姆网友认为,Cognition的新模型也是在中国AI模型的基础上开发和改进的。有人越狱了一个大型 SWE 1.5 模型。模型直接回答说是智普AI开发的大型GLM模型。智浦官方推特也转发了他的推文并表示祝贺。行业头条:证据指向中国开源模式 最新消息,Brains发出官方邮件,宣布将于11月5日发布zai-glm-4.6作为新的编码模型,这是真锤子吗?系统架构师 Daniel Jeffries 也发帖称,有很多证据。对开源社区的好处是,这些新模型 WindSurf 和 Cursor 是经过微调的,而不是从头开始训练。 Jeffries 进一步指出,从头开始训练基本模型非常昂贵,许多拥有更多财务和 IT 资源的公司并不成功。因此,WindSurf 和 Cursor 团队决定投资强化学习是非常合乎逻辑的。在训练的后期阶段,特别是因为他们已经拥有强大的数据集和大量易于处理的用户编码数据。他还认为,Cursor和WindSurf团队没有足够的资金来建立大型训练组,也没有足够的数据或团队支持从头开始构建大型模型。许多大型研究机构已在该领域建立了坚实的规模,仅靠发展是不会成功的。他还指出,一些反对开源的公司和个人正在阻碍开源模式的发展,影响创新进程和现代软件开发。他呼吁美国企业认识到开源的重要性,回归开源理念,而不是发布功能有限的专有模型。 Jeffries 目前正在上线。这篇文章由 LeCun 提交,引发了更多讨论。网友纷纷表示,中国的基本开源模式已经实现功能足以支持西方产品开发,这意味着全球人工智能正在进入多极竞争的新格局。有网友幽默评论:“是时候开始学中文了吗?”国家开源模型是人工智能领域的主流。 10月29日,英伟达首席执行官黄仁勋不仅在华盛顿举行的GTC大会上宣布了新的GPU,还就人工智能行业的现状提出了一些想法。他表示,开源模式已经变得非常强大,大大加速了AI应用的进程。世界各地的开发人员、研究人员和公司都需要开源。老黄的全球开源模型下载和采用图显示,阿里巴巴的统一(Qwen)序言模型将在2025年后占据开源模型的大部分市场份额,并且其领先优势将不断扩大。衍生车型数量也是全球第一。更大的推论,m开源模型的多模式和学科能力使其不仅为开发人员赋能,而且成为初创企业的命脉。光标和认知可能就是这种情况。此外,在HuggingFace AI社区趋势榜中,MiniMax、DeepSeek、Kimi、百度、混元、钱文、美团龙猫等顶级模型均是国内公司的模型。使用第三方基准测试平台 ArtificialAnalysis 比较和分析模型质量、吞吐量、推理速度、上下文窗口、参数数量、许可证详细信息等性能指标。顶配车型大部分都是国产车型。国内大规模开源模型在模型的技术水平、功能以及全球开发者和科技公司的接受度等方面已经确立了领先地位,在全球人工智能领域的竞争中处于领先地位。看来环境正在发生变化。在这场大型模型技术大赛中随着时间的推移,追赶者和领导者的地位正在逐渐发生变化。
特别提示:以上内容(包括图片、视频,如有)由自有媒体平台“网易账号”用户上传并公告。本平台仅提供信息存储服务。
注:以上内容(包括图片和视频,如有)由网易号用户上传发布,网易号是一个仅提供信息存储服务的社交媒体平台。