整理|吴莹
让我们一起来回顾一下吧。
英伟达交付OpenAI全球首块H200;苹果发布设备端开源AI模型OpenELM;微软推出轻量级AI模型;三星和AMD签署价值4万亿韩元的供货协议;软银将斥资近10亿美元布局算力基建;月之暗面否认创始人套现数千万美元;混元大模型已接入腾讯内部400多个业务和场景;2024中关村论坛发布全国首例人工智能领域监管沙盒……
让我们一起来回顾一下吧。
点击收听本期AIGC周观察
当地时间4月24日,OpenAI总裁兼联合创始人格雷戈里·布罗克曼(Greg Brockman)在X平台上表示,英伟达CEO黄仁勋已向OpenAI亲手交付全球范围内第一块AI(人工智能)超级芯片DGX H200,黄仁勋称其“将推进AI、计算,以及文明”。布罗克曼还附上了自己和黄仁勋、OpenAI的CEO山姆·阿尔特曼(Sam Altman)以及DGX H200的合照。
当地时间周三(4月24日),苹果公司在“抱抱脸”(Hugging Face,一家人工智能公司)平台上发布多款旨在设备端(而不是云端)运行的开源大模型OpenELM,参数量从2.7亿至30亿不等。市场分析认为,此举显示苹果似乎把目标牢牢放在“让AI在苹果设备上本地运行”的方向上。
当地时间4月23日,微软推出了一款轻量级AI模型Phi-3-mini。微软声称,这款轻量级AI模型的性能与GPT-3.5等模型相当,同时适合在手机上本地使用。更重要的是,该款模型的成本要低许多,这意味着它可以通过成本优势吸引更广泛的客户群。
Phi-3 mini的可测量参数为38亿个,其前一版本是微软研究院于2023年底发布的Phi-2模型,该模型具备27亿个可测量参数。微软表示,Phi-3的性能比前一版本更好,其响应速度接近比它大10倍的模型。Phi-3 mini在大规模多任务语言理解(MMLU)测试中获得了69%的评分,在Multi-turn(MT)基准测试中获得了8.38的评分。
4月24日消息,三星和AMD公司签署了价值4万亿韩元的HBM3E供货合同。AMD采购三星的HBM,而作为交换,三星会采购AMD的AI加速卡,但具体换购数量目前尚不清楚。三星日前表示将于今年上半年量产HBM3E 12H内存,而AMD预估将会在今年下半年开始量产相关的AI加速卡。
4月23日消息,据媒体报道,日本软银集团将在今明两年投资1500亿日元(约合9.6亿美元),为其计算设施提供开发“世界级”生成式人工智能所需的数字运算能力。
去年,软银宣布投资约200亿日元开发基于日语文本的生成式人工智能,预计在2024财年内完成一个3900亿参数的大语言模型(LLM)的开发,并计划最快在明年开始开发1万亿参数的高性能模型。
报道解释称,1万亿参数是“世界级”性能的基准,美国OpenAI的GPT-4就超过了这一水平。对于大模型企业而言,能否搭建起大算力的基础设施成为能否实现大模型创新落地的关键,例如OpenAI就用了25000张A100训练GPT-4。
4月23日,针对上一轮融资完成后,月之暗面(Moonshot AI)创始人杨植麟通过售出个人持股已套现数千万美元的消息,月之暗面回应称:上述消息不实,月之暗面此前已公布员工激励计划,可见官方信息。
4月22日消息,据腾讯混元模型应用负责人张锋介绍,腾讯内部已经有超过400个业务和场景接入混元大模型进行测试,部分已经发布。应用大模型能力包括知识库问答、创作、理解、代码、functioncall、对话等。
4月26日,在2024中关村论坛上,北京市经信局副局长毛东军进行了北京人工智能数据训练基地监管沙盒成果发布,这是全国首例人工智能领域监管沙盒,开创国内人工智能产业创新机制先河。毛东军介绍,首批入盒模型企业包括中科闻歌、拓尔思、灵犀云等。监管沙盒是探索人工智能可控发展的创新手段,通过设立限定性条件,以真实用户为对象进行深度测试,降低监管不确定性。
。END 。
值班编辑:王怡洁  审校:张格格  制作:董斌‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍‍
关注“中国企业家”视频号
看更多大佬观点和幕后故事
[ 推荐阅读 ]
继续阅读
阅读原文