生成式AI
一、 高通、谷歌和英特尔联合宣战,计划推出UXL,对抗英伟达的CUDA
1. 高通、谷歌和英特尔计划通过开发一套支持多种AI芯片的软件和系统化工具,打破英伟达在AI领域的软硬件主导地位;
2. 项目名为UXL,旨在创建开放源代码的AI软硬件生态系统,提高开发效率,支持多样化的AI硬件选择;
3. 英伟达的CUDA平台因其在AI芯片市场高达90%的份额及技术成熟度,构成了其市场主导地位的核心,但面临来自UXL计划的挑战。
https://mp.weixin.qq.com/s/FBo2ZEC3RF5JX_SMP3qHyg
二、 Claude 3反超GPT-4竞技场登顶!小杯Haiku因性价比成开发者新宠
1. Claude 3的大杯版本Opus在大模型竞技场上Elo分数超过GPT-4,成为新的榜首;
2. 小杯Haiku以超高性价比成为开发者新宠,输入输出成本远低于GPT-3.5-turbo,且性能优异;
3. Haiku不仅价格低,响应速度快,还支持200k上下文,吸引了大量开发者社群关注。
https://mp.weixin.qq.com/s/X7WVakBLpoS8ciF3w9iLHw
三、 OpenAI把微软电网搞崩!GPT-6训练需要10万张H100,预计25年发布
1. 微软为GPT-6部署了10万个H100 GPU集群,导致电网负荷过大而崩溃,突显了AI发展对电力系统的巨大需求;
2. GPT-6预计在2025年发布,展示了OpenAI对于大模型训练的长远规划及其对高性能计算资源的极端需求;
3. AI发展受到电力供应限制,马斯克等业内人士提出未来AI将面临能源瓶颈问题,需要寻找新的能源解决方案如核聚变。
https://mp.weixin.qq.com/s/y6B9vM13byV8KT9A3fRiDA
四、 英伟达的LATTE3D生成式AI模型,可在 1 秒内即时生成高质量3D 形状
1. NVIDIA的LATTE3D模型能在1秒内将文本提示转换成高质量3D形状,显著提升生成速度;
2. LATTE3D支持创作者快速迭代设计,无需从零开始或翻阅3D素材库;
3. 该模型经过特定数据集训练,适用于多种应用场景,包括视频游戏开发、景观设计以及机器人的虚拟训练等。
https://mp.weixin.qq.com/s/oUInC5TRIHhfPns63nM3wQ
五、 Stability AI开源3B代码生成模型,针对泛文本处理,可补全还能Debug
1. Stability AI 开源了名为 Stable Code Instruct 3B 的代码生成模型,该模型基于 Stable Code 3B,能快速处理代码生成、数学问题和软件工程任务;
2. Stable Code Instruct 3B 在3B规模上提供了SOTA性能,优于更大规模的模型如CodeLlama 7B Instruct,并在软件工程任务上与StarChat 15B性能相当;
3. 模型不仅精于代码生成,还能完成更复杂的编码任务如数据库查询、代码翻译等,且对自然语言指令有很好的理解能力,适用于多种编程语言。
https://mp.weixin.qq.com/s/3SQ1DPZj-AVLXP_91Cs1Yg
六、 英伟达携手Hippocratic AI 联合推出生成式AI护士机器人,成本降低10倍
1. 英伟达与Hippocratic AI合作开发具有同理心的AI护士机器人,提供对话、用药指导等服务;
2. AI护士机器人能显著降低医疗成本,相比人工成本降低10倍;
3. 使用专业医疗数据库训练,提高医疗知识准确性,避免“胡说八道”,并在A轮融资中估值超5亿美元。
https://mp.weixin.qq.com/s/m1mznUTdiAz81FrnZh2-NQ
七、 Adobe在Summit 2024大会推出20多个企业版生成式AI定制、微调服务
1. Adobe在“Summit 2024”大会上推出Firefly Services,提供20多个企业级生成式AI和创意API服务,支持自有数据定制和微调;
2. Firefly Services与Adobe其他产品如PS、Illustrator、Express集成,简化创意流程,生成的内容受版权保护,适用于商业场景;
3. 技术特点包括模型微调、API集成简化工作流程,以及使用合法授权数据保障内容版权,未来将扩展到视频和音频编辑功能。
https://mp.weixin.qq.com/s/azwUwi2Akh6awAYIrp9brQ
八、 加强行业应用支持,英伟达发布AI Enterprise 5.0,帮助企业加速生成式AI开发
1. 英伟达发布AI Enterprise 5.0,包含微服务和软件容器,加速生成式AI应用开发;
2. NIM微服务优化AI模型推理,显著缩短部署时间,提供企业级安全和管理;
3. NVIDIA cuOpt微服务通过GPU加速,支持动态决策,降低成本和碳足迹,促进AI在各行业的应用。
https://mp.weixin.qq.com/s/5FQ-kfoy4sAYXQyPw9yeJg
前沿科技
九、 MIT博士让机器人自学“常识”,大模型加持可进行自我纠正,完成复杂家务劳动
1. MIT研究通过大型语言模型(LLMs)使家用机器人掌握“常识性知识”,能自我纠正完成复杂家务;
2. Yanwei Wang的团队开发的方法允许机器人自动解析并调整家务任务的子任务中的干扰,无需从头开始;
3. 尽管此方法允许机器人无需人类即可自我纠正,但面临数据效率低和状态表示学习的挑战。
https://mp.weixin.qq.com/s/WKvULkhb_IfJpHbk-ZwYLg
报告观点
十、 大模型的训练阶段我们选择GPU,但到了推理阶段,我们需要把CPU加回到菜单上
1. 随着大模型应用进入推理阶段,行业趋势从GPU转向包括CPU在内的多元化硬件加速方案;
2. 英特尔® 至强® 可扩展处理器通过内置AI加速技术(如AMX和DL-Boost),实现了显著的AI推理性能提升;
3. 使用CPU进行AI推理具备成本效益、易于部署和维护的优势,且能满足广泛场景需求,促进AI技术的普及和应用落地。
https://mp.weixin.qq.com/s/led8Df9FR02LT8J-0ePWpg
十一、 前OpenAI创始成员Andrej Karpathy美国红杉资本最新对谈,达到 AGI 或需全新架构
1. Andrej Karpathy 认为,要实现 AGI,可能需要全新的架构而不仅仅是对现有 Transformer 架构的修改;
2. 他强调 AI 生态系统的健康发展需要开放性和创新,包括更多的透明度和开源合作;他期望 AI 发展能够带来一个充满活力的创业生态系统,鼓励创新和多样性,而不是被少数大公司主导。
https://mp.weixin.qq.com/s/bsclvziceHPM4qiO4R3HdA
点击下方#腾讯研究院AI速递合集 查看往期内容