九游(中国)娱乐 - 官方网站

九游娱乐:AI创投周报|20万块GPU训练的Grok-3刷新SOTA前OpenAICTO的新创业公司官宣-九游娱乐

九游娱乐动态

九游娱乐:AI创投周报|20万块GPU训练的Grok-3刷新SOTA前OpenAICTO的新创业公司官宣

2025-02-25
浏览次数:
返回列表

  ,这一模型是全球首个在20万块GPU上训练的AI模型,在数学、科学和编码任务中刷新了SOTA纪录;此外,xAI还发布了首个AI智能体“DeepSearch”,能够在互联网上进行深入搜索,提供更透明和可控的信息检索服务。

  2.微软发布新型量子芯片Majorana1,这是全球首款基于拓扑量子比特架构的量子处理器,能够观察和控制马约拉纳粒子,从而实现更稳定、更可靠的量子比特。这款芯片仅手掌大小,其设计目标是在单个芯片上集成多达一百万个量子比特。

  九游娱乐平台 九游娱乐app

  3.机器人初创公司Field AI估值飙升至20亿美元,Field AI的核心产品是自主研发的多模态具身大模型—Field Foundation Models。这一模型能够整合文本、图像、语音和激光雷达传感器数据,显著提升机器人的自主性和任务执行能力。

  马斯克旗下xAI公司发布Grok-3模型,这一模型是全球首个在20万块GPU上训练的AI模型,在数学、科学和编码任务中刷新了SOTA纪录,成为首个Elo评分突破1400分并在所有分类测试中排名第一的模型。

  模型分为Grok-3模型和Grok 3 Reasoning两个系列。在“Think”模式下,可以调用Grok 3 Reasoning模型,提供更强大的计算能力,用于复杂任务的处理。此外,xAI还发布了首个AI智能体“DeepSearch”,能够在互联网上进行深入搜索,提供更透明和可控的信息检索服务。

  在实际应用中,Grok-3展示了其在生成复杂代码和设计游戏方面的强大能力。例如,它成功生成了一个结合俄罗斯方块和宝石迷阵的游戏混合体,还完成了复杂的太空飞船发射和返回任务的代码编写。

  谷歌推出名为“AI co-scientist”的多智能体AI系统,旨在通过高级推理和测试时间计算加速科学发现。

  AI co-scientist协助科学家生成新颖的研究假设、设计实验方案,从而加速科学发现。AI co-scientist的运作过程涉及生成、反思、排名、进化、邻近性和元审查等多个智能体的协同工作,通过自动化反馈不断迭代优化,最终输出高质量研究方案。

  此外,谷歌还对该系统进行了端到端的实验室实验,验证了它在药物再利用、新治疗靶点提出和抗菌耐药性机制研究中的实际潜力。

  微软发布Majorana 1新型量子芯片,这是全球首款基于拓扑量子比特架构的量子处理器,能够观察和控制马约拉纳粒子,从而实现更稳定、更可靠的量子比特。

  Majorana 1的核心是拓扑量子比特,其采用了一种全新的物质状态—拓扑超导体。该材料是由砷化铟和铝组成的材料堆栈,能够在接近绝对零度的低温下形成拓扑超导纳米线,其末端的马约拉纳零模式可作为量子比特的构建块。

  与传统量子比特相比,这种量子比特通过“奇偶性”存储量子信息,能够有效抵御外部干扰,显著降低量子信息的丢失概率,具有更快的速度、更小的体积和更高的稳定性,且可通过数字控制,无需复杂的模拟信号。微软预计,基于Majorana 1的量子计算机将在未来几年内实现工业级问题的解决能力。

  4.Anthropic曝光“混合模型”Claude 4,并计划在未来几周内发布

  Anthropic近期曝光了其秘密研发的“混合模型”——Claude 4。它的核心创新在于其“混合”特性,既能像传统大语言模型一样快速处理简单任务,又能利用更多计算资源解决复杂问题。开发者可以通过滑动条调整模型在查询时使用的算力,控制推理的深度和成本。

  Anthropic的混合模型在编程任务上表现出色,尤其擅长处理企业工程师可能遇到的实际编程任务,如理解复杂代码库和生成完整代码行。在完整的 SWE-Lancer数据集上,Claude 4在IC SWE和SWE Manager任务上的表现均优于OpenAI的o3-mini high模型。

  5.DeepSeek发布新型稀疏注意力机制NSA,显著提升长文本处理的效率,同时降低预训练成本

  DeepSeek团队近日发布了一种名为NSA(Native Sparse Attention)的新型稀疏注意力机制,其核心创新点包括动态分层稀疏策略、粗粒度Token压缩和细粒度Token选择等技术,旨在通过硬件对齐优化和端到端训练支持,显著提升长文本处理的效率,同时降低预训练成本。

  NSA机制通过动态分层稀疏策略、粗粒度Token压缩和细粒度Token选择三种策略,优化了传统注意力机制的计算效率。

  实验表明,在处理64k上下文时,传统基于softmax架构的注意力计算占总延迟的70%-80%。而NSA机制在前向传播、反向传播和解码速度上均实现了显著加速:前向传播速度最高可提升9倍,反向传播速度最高提升6倍,解码速度提升可达11.6倍。此外,NSA在多个基准测试中表现优异,特别是在长上下文推理任务中,其性能超过了全注意力模型和其他基线模型。

  何恺明团队的最新研究挑战了去噪扩散模型的传统认知,提出在某些情况下,噪声条件并非必要,去除噪声条件不仅不会影响模型性能,反而可能提升其表现。这一发现挑战了学界长期以来的共识,可能为生成模型的发展开辟新方向。

  去噪扩散模型(DDPM)是一种强大的生成模型,通过逐步去除噪声来生成数据。传统上,这类模型依赖于噪声条件来指导去噪过程。然而,何恺明团队受图像盲去噪技术的启发,研究了在无噪声条件下的模型表现。研究团队构建了一个统一的数学框架,对多种去噪生成模型(如iDDPM、DDIM、EDM等)进行了理论分析和实验验证,探讨模型在无噪声条件下的行为。

  研究团队发现,大多数模型在无噪声条件下表现良好,甚至优于有噪声条件的情况。例如,在CIFAR-10数据集上,无噪声条件的uEDM变体实现了2.23的FID得分,接近噪声条件模型的最佳表现(EDM的FID为1.97)。研究还提出了一个误差边界公式,用于量化无噪声条件下的模型性能。实验表明,这一误差边界与模型的实际表现高度相关,尤其是在模型出现灾难性失败时,误差边界会显著升高。

  7.人大高瓴与蚂蚁集团联合提出LLaDA,旨在通过扩散模型替代传统的自回归模型

  近日,人大高瓴人工智能学院与蚂蚁集团联合提出了一种新的大语言模型——LLaDA(Large Language Diffusion with Masking),旨在通过扩散模型替代传统的自回归模型,以解决大模型在双向依赖关系和逻辑推理上的局限性。LLaDA-8B在上下文学习方面与LLaMA3-8B能力相当,并在反转诗歌任务中超越了GPT-4o,展现出强大的双向推理能力。

  传统的自回归语言模型通过逐个预测下一个token来生成文本,这种方法在处理逆向推理任务时表现不佳,且计算成本高昂。为了克服这些局限性,LLaDA采用扩散模型架构,能够同时捕捉文本的正向和反向依赖关系,从而更好地处理复杂的语言任务。

  LLaDA的核心在于正向掩码和反向预测机制。模型通过随机掩码部分输入序列的token,然后学习根据未被掩码的部分预测被掩码的token。这种机制允许模型同时看到输入序列中的所有token,从而更好地捕捉双向依赖关系。与自回归模型不同,LLaDA的Transformer架构不使用因果掩码,能够同时处理正向和反向任务。

  LLaDA在多个任务中表现出色:在上下文学习方面,LLaDA-8B在15个零样本/少样本学习任务中超越了LLaMA2-7B,并与LLaMA3-8B表现相当;在反转推理方面,LLaDA在反转诗歌任务中的表现优于GPT-4o,有效解决了自回归模型在逆向推理中的“反转诅咒”问题;在指令遵循方面,LLaDA经过监督微调(SFT)后,在多轮对话等任务中展现出更强的指令遵循能力。

  Thinking Machines Lab专注于构建能够与人类协作的多模态系统,让AI系统更加广泛地被理解、具有可定制性以及通用能力,推动科学发现和工程突破。公司计划开发能够适应人类专业知识全谱的模型,并将AI安全作为核心原则,防止模型被滥用并支持外部对齐研究。该公司目标是填补当前人工智能领域的“关键差距”,包括提升对前沿系统的理解、降低知识集中度以及增强系统的可定制性。

  机器人初创公司Field AI正在洽谈数亿美元的融资,其估值达到20亿美元。2024年夏天,Field AI从Khosla Ventures和淡马锡等知名投资者处筹集了超过1亿美元的资金,估值5亿美元。

  Field AI的核心产品是自主研发的多模态具身大模型—Field Foundation Models。这一模型能够整合文本、图像、语音和激光雷达传感器数据,显著提升机器人的自主性和任务执行能力,使机器人能够在建筑工地、石油和天然气设施等复杂场景中安全高效地完成任务,如仓库监控、设备巡检以及手动操作等任务。

  该公司的模型还可与制造商或仓库现有的机器人配合使用,如Field AI的AI软件可直接运行于波士顿动力或宇树科技等公司制造的机器人硬件上,降低了客户使用门槛。

  Field AI团队在机器人领域经验丰富,其CEO兼联合创始人Ali Agha曾任职于NASA喷气推进实验室。

  3.人形机器人公司Figure AI正在洽谈15亿美元的新一轮融资,估值已飙升至395亿美元

  人形机器人公司Figure AI正在洽谈新一轮15亿美元的融资,公司估值已飙升至395亿美元,较2024年3月完成6.75亿美元融资时的26亿美元估值增长了近15倍。此次融资将由Align Ventures和Parkway Venture Capital领投。

  Figure AI专注于通用人形机器人开发,由连续创业者Brett Adcock创立,目标是通过AI驱动的机器人技术解决劳动力短缺问题,并替代危险或不安全的工作场景。

  Figure AI的最新产品Figure 02具备高自由度设计,全身自由度达39个,超过特斯拉Optimus的28个。该机器人还配备了高容量电池,续航可达5小时,并计划进一步延长至20小时以上。

  此外,在与OpenAI终止合作后,FigureAI迅速推出了自主研发的具身大模型Helix。Helix是一个通用的视觉-语言-动作(VLA)模型,通过系统1和系统2的协同工作,解决了以往机器人技术中速度与泛化能力的矛盾。

  Figure AI计划在未来四年内交付10万台机器人,目标是覆盖工业制造、家庭服务等场景。

  4.AI编码初创公司Codeium正在以28.5亿美元的估值进行新一轮融资

  Codeium是一家专注于人工智能辅助编程的初创公司,由Varun Mohan和DouglasChen联合创立。Codeium专注于企业客户而非个人开发者,产品已被包括Anduril、Zillow和Dell在内的超过1000家企业客户使用。这种企业级定位使其在安全性、合规性、个性化微调和部署服务上投入大量资源,从而在市场中形成了差异化竞争优势。

  Codeium还推出了基于Agentic AI的编程工具Windsurf Editor,能够在无需人工干预的情况下自动生成部分代码。

  Lambda Labs专注于人工智能基础设施,公司提供从云平台到本地部署的高性能GPU硬件,旨在为AI开发人员提供高效、安全且经济的计算资源。

  LambdaLabs的核心产品为Lambda Cloud,是一款专为AI开发人员设计的云平台,提供高性能的NVIDIA GPU资源,支持AI模型的训练、微调和推理。

  Lambda Labs即将推出一款名为Scalar Server的AI设备,该设备配备8张NVIDIAH100 GPU,支持高性能AI工作负载,企业可以在其本地数据中心部署该设备。

  Lambda Labs计划利用本轮融资资金进一步增强其云基础设施和软件能力,并通过LambdaChat免费提供对开源大型语言模型的访问。

  6.Baseten获IVP和Spark领投的7500万美元融资,解决AI普及的最大瓶颈:推理性能

  Baseten打造的是任务关键型AI工作负载推理平台,不仅有弹性扩展基础设施,支持多集群、多云基础设施,而且提供AI模型管理与可观测性功能。

  它的平台为Writer、Descript、Abridge和Gamma等公司提供支持,年增长超5倍,正常运行时间达99.999%,在吞吐量和延迟指标上平均比竞争对手高出60%以上。

  7.AI网络安全公司Dream完成1亿美元的B轮融资,公司估值达11亿美元

  Dream为关键基础设施提供网络安全服务,Dream开发了一系列专有的AI模型,包括“网络安全语言模型”(Cybersecurity Language Model),这些模型专门针对网络安全操作进行训练,能够模拟防御网络架构和黑客行为。

  通过预测性AI建模,Dream可以在威胁形成之前主动消除漏洞,为用户提供更智能和高效的网络安全防护。

  OpenEvidence专注于开发医疗保健的聊天机器人,由Daniel Nadler创立,Nadler此前曾创立专注于金融服务的AI公司Kensho,并于2018年以7亿美元的价格将其出售给标准普尔公司。

  OpenEvidence开发了一款专门服务于医生的生成式AI聊天机器人,旨在帮助他们更好地做出患者护理决策。该平台通过分析数百万份临床文档,提供基于证据的医学信息,支持医生在复杂医疗场景中快速获取准确答案。

  OpenEvidence的产品对医生完全免费,其收入主要来源于广告。目前,该工具已在美国超过25%的医生中得到应用。

  Luminance专注于开发AI法律文件起草和审查软件,它利用专有的法律级AI技术,能够自动化增强企业与合同相关的各个环节,包括生成、协商和执行后分析。

  其AI平台可以自动提取合同中的关键信息,支持超过1000种语言,并为法律团队提供即时洞察。Luminance的客户包括多家大型企业,如AMD和日立,以及知名律师事务所White & Case和Clifford Chance。该公司计划利用新融资加速在美国、亚太地区和欧洲的市场扩张。

搜索