当前位置:首页|资讯|AIGC|谷歌

2024 AIGC每日新闻|3月15日-DeepMind推出多游戏通用AI代理SIMA

作者:二次元的Datawhale发布时间:2024-03-16


😇【AIGC每日新闻

  1. 【Google DeepMind推出能解读自然语言并执行通用任务的Agent SIMA】Google DeepMind 提出了SIMA(Scalable Instructable Multiworld Agent),这是一种通用的AI Agent,能够根据自然语言指令在多种视频游戏环境中执行任务。SIMA 通过与游戏开发者合作,在九款不同的视频游戏中进行训练和测试,展示了如何理解广泛的游戏世界并按指令行动。这项研究不仅关注游戏得分,而是旨在通过语言界面将高级AI模型的能力转化为有用的现实世界行动。SIMA 的研究结果表明,它能够泛化到未见过的游戏环境中,这是向更通用、由语言驱动的AI Agent发展的重要一步。参考博客链接:https://deepmind.google/discover/blog/sima-generalist-ai-agent-for-3d-virtual-environments/

  2. 【零一万物发布Yi大模型API开放平台,支持200K超长上下文及多模态交互模型】3月14日,零一万物推出了名为Yi的大模型API开放平台,为开发者提供了通用的聊天、200k超长上下文、多模态交互等AI模型。零一万物还表示,将继续推出更多强大的模型和AI开发框架。未来亮点将包括:(参考博客链接:https://www.51cto.com/article/783692.html)

    1. 推出参数量更大、多模态应用更强、以及专门用于代码或数学建模的API模型;

    2. 打破上下文限制,设定目标为100万个tokens;同时也将提高推理速度,降低推理成本;

    3. 以超长上下文为基础,构建了包括向量数据库、RAG、Agent架构等全新的开发者AI框架,以适应更多样化的应用场景。

  3. 【苹果发布MM1多模态大语言模型,最高为30B参数规模】苹果近日发布了它自家的大语言模型MM1,这是一个最高达到30B规模的多模态LLM。根据苹果的研究文档,图像分辨率、图像编码器的预训练数据以及模型规模对性能有显著影响。视觉和语言连接器应用的设计则相比之下影响较小。同时,预训练数据的混合比例对少样本和零样本(zero-shot)性能至关重要。通过预训练和SFT(Supervised Fine-Tuning,监督式微调),MM1模型在多个基准测试中取得了SOTA性能。模型展现了一些令人兴奋的特性,比如上下文内预测、多图像推理和少样本学习能力。模型的实现方案分为架构组件和数据选择,以及模型构建和预训练等几部分,最后通过对模型在多个基准测试中的性能进行评估,MM1展现出了有竞争力的成果。参考博客链接:https://arxiv.org/pdf/2403.09611.pdf

🥰【今日份Prompt技巧

Use Delimiters. 使用分隔符。(技巧来源于:https://arxiv.org/pdf/2312.16171.pdf)


Copyright © 2026 aigcdaily.cn  北京智识时代科技有限公司  版权所有  京ICP备2023006237号-1