扫码下载app
为您推荐 “groq” 相关的舆情
-
谁会想到英伟达市值已跃升至美股第三
英伟达是目前生成式人工智能(ai)热潮下最大的受益者。它的业绩表现就像一面镜子,反映了外界对当下和未来人工智能行业发展的信心。2023年,英伟达股价飙升230%,创下了自2001年以来的最大年度涨幅。这种增长态势2024年还在延续,其股价在年初至今又增长了63%。英伟达公布了2024财年(即2023年1月-2024年1月)业绩报告,显示其营收609.2亿美元,同比增长125.9%,营业利润329.7亿美元,同比增长681.3%,营业利润率高达54.1%。然而,市场对英伟达的讨论有分歧,有人认为ai泡沫过高,英伟达市值已摇摇欲坠,另一派观点认为新技术革命时伴随泡沫是正常的,英伟达是ai时代的“卖水者”,又是最具竞争力的ai芯片厂商,短期内增长前景依然不可小觑。
本期周报涵盖了特斯拉人形机器人、英伟达具身智能实验室、迪士尼人工智能孵化计划、magic 编程初创公司投资等6个新鲜资讯、4个有用工具和1个有趣案例。特斯拉展示其研发中的第二代人形机器人optimus,旨在提高工作效率和安全性。英伟达宣布成立gear(通用具身智能体研究)实验室,专注于开发能够在虚拟和现实世界中自主行动的ai智能体。迪士尼选择了三家人工智能研究公司作为yb体育官方的合作伙伴,elevelabs入选年度企业孵化计划。magic 声称其开发的ai编码助手能够处理350万字的文本输入,远超google的gemii和opeai的gpt-4。
本周科技圈竞争激烈,芯片巨头英伟达将华为认定为最大竞争对手。同时,谷歌推出了开源大模型gemma,groq推出了自研ai芯片lpu,宣称推理速度比英伟达gpu快10倍,但成本仅为其十分之一。这些科技巨头的发布标志着2024年科技竞争刚刚开始,也更为激烈。
英伟达股价涨跌互现,2月20日收盘下跌4.35%,但2月21日公布财报后盘后股价一度上涨10%。其第四财季营收达到创纪录的221亿美元,净利润实现122.85亿美元,同比增长769%。同时,ai芯片初创公司groq宣布对ai云服务平台进行免费开放体验,但其创始人兼ceo表示其芯片在大模型推理场景下速度比英伟达gpu快10倍。英伟达仍是人工智能计算领域最通用的芯片,市场对其需求不掉不下来,但也存在一些不利因素,如groq的竞争。
ai产业趋势加速。本周有初创公司groq开放了自家产品的免费试用期,在同名模型启动器上运行的大模型拥有非常快的响应速度,能够每秒输出近500个toke,比gemii快10倍,比gpt-4快18倍。公司采用了全球首个lpu方案,取代了gpu路线,创造了快速计算的新方法。英伟达业绩超预期,数据中心业务实现营收184亿美元,同比增长409%。未来ai产业将继续发展,不管是初创公司还是传统科技巨头,都会有更多的表态。对于a股市场,看情绪比看基本面更重要,因为多数股票不会真受益。有特色的央国企是70分方向之一,本周多数继续新高的走势。
英伟达发布2024财年第四季度财报,显示数据中心业务营收大幅增长,游戏业务也有增长。在财报发布前,英伟达股价回调,但财报发布后,股价盘后上涨,显示出市场对其前景的乐观预期。英伟达ceo表示,新时代的全球数据中心价值可能高达数万亿美元。英伟达在ai计算市场的份额超过80%,成为亚马逊、meta、微软和谷歌等科技巨头的主要供应商。然而,英伟达也面临着供应链管理的严峻考验,需要与多家供应商合作,提高供应链灵活性。
本文讲述了2024年芯片圈发生的一件爆炸性事件——groq公司推出的新款推理加速卡,其推理速度比英伟达的gpu快了十倍,但成本却只有其十分之一。同时,groq公司的新款加速卡还支持多种模型,测试结果表明其效果接近每秒500tokes。该新产品采用14m制程,搭载了230m的sram来保证带宽,片上系统内存带宽达到了80tb/s。groq公司的宣传引起了国内外的关注和热议,sram芯片板块也因此被爆炒。最后,文章对sram芯片进行了简单的介绍,并指出其特点和应用场景。
谷歌发布gemma开放模型,这是一种新的轻量化开放权重模型家族,采用与gemii模型相同的研究与创建技术。gemma可在用户的笔记本电脑、工作站或google cloud上运行,并可轻松部署在vertex ai及google kuberetes egie(gke)之上。gemma旨在帮助开发人员和研究群体以负责任的方式构建ai方案,共发布两种模型权重版本:gemma 2b与gemma 7b,每个版本都将公开经过预训练与指令微调的变体。此外,谷歌还发布了更多配套工具,包括新的resposible geerative ai toolkit,帮助用户创建安全ai应用。gemma支持多种工具和系统,包括多框架工具、跨设备兼容、顶尖硬件平台及针对google cloud进行优化等。
最近国内外人工智能圈子都在热议groq公司的芯片,这个硅谷人工智能公司声称其芯片在大模型推理时每秒可以处理将近500个toke,并且不需要hbm和复杂的芯片堆叠,其推理速度号称全球第一。但也有媒体称这个芯片将替代英伟达的gpu,但这个说法并不准确。groq公司由 joatha ross 创立于2016年,其创新的核心在于其 lpu(laguage processig uit)推理引擎,它是一种新型的端到端处理单元系统,可为具有顺序组件的计算密集型应用程序提供最快的推理,例如ai语言应用程序(llm)。lpu的核心技术是一个名叫tsp的微架构设计,它通过独特的功能切片设计、确定性执行以及软件定义的方法来实现高性能和高效率的张量计算。lpu克服llm应用的两个瓶颈:计算密度和内存带宽。就llm而言,lpu比gpu和cpu具有更大的计算能力,这减少了每个单词的计算时间,从而可以更快地生成文本序列。此外,消除外部内存瓶颈使lpu推理引擎能够在llm上提供比gpu好几个数量级的性能。groq公司设计的第一款tsp asic实现了超过每平方毫米硅片1万亿次操作/秒的计算密度,在900mhz的标称时钟频率下,这款25×29mm的14m芯片运行时表现卓越。在resnet50图像分类任务上,tsp能够在批次大小为1的情况下达到每秒处理20.4k张图片的速度,相较于现代gpu和其他加速器,性能提升了4倍。虽然groq公司的芯片在性能和效率方面都表现出色,但目前还不能完全替代英伟达的gpu产品。英伟达的gpu产品是通用的,而groq的产品形态是asic,它是一个定制产品,需要根据不同的需求和指定来定制。综上所述,groq公司的芯片在ai语言处理领域具有很大的潜力,但要想完全替代英伟达的gpu产品还需要更多的时间和努力。
groq公司推出了一款大模型推理芯片,以每秒500tokes的速度超过传统gpu和谷歌tpu。该芯片采用了全球首个lpu方案,解决了计算密度和内存带宽的瓶颈,推理速度提高了10倍,成本降低十分之一,性价比提高了100倍。芯片搭载230mb大sram,内存带宽高达80tb/s,算力强大,支持多种机器学习框架进行推理。groq公司在演示中展示了多种模型的强大性能,并宣称在三年内将超越英伟达。产品特色包括api访问速度快、支持多种开源llm模型、价格优势等,成为大模型推理领域的新兴力量。groq公司的旗舰产品是groqtesorstreamigprocessorchip(tsp)和相应软件,主要应用于人工智能、机器学习、深度学习等领域。目标市场包括人工智能和机器学习超大规模应用、政府部门、高性能计算集群、自动驾驶车辆以及高性能边缘设备。
jep 458 在 jdk 22 中交付,提议增强 java 启动器,以支持执行包含一个或多个文件的 java 源码应用程序。这样可以通过推迟一个完整的项目设置来实现从小型应用程序到大型应用程序的渐进式过渡。该特性简单而强大,允许开发者进行更加探索性的编程方法,促进更无缝的开发过程。该提案明确规定了一些“非”目标,例如不支持通过 shebag 机制启动多文件源码程序,只支持单文件程序。未来潜在的增强可能会考虑简化源码程序中外部库依赖的集成。