随着大语言模型(Large Language Models)的爆火,例如 ChatGPT,GPT-4,PaLM,LLaMA 等,如何让大语言模型更好的应对有很长的上下文信息(超出其最大处理长度)的场景
清华大语言模型LLaMAChatGPTGPT-4
机器之心 2023-06-29
开源羊驼大模型LLaMA上下文追平GPT-4,只需要一个简单改动!MetaAI这篇刚刚提交的论文表示,LLaMA上下文窗口从2k扩展到32k后只需要小于1000步的微调。与预训练相比,成本忽略不计。更重要的意义在于,所有基于LLaMA的羊驼大模型家族岂不是可以低成本采用此方法,集体进化?
GPT-4LLaMA
量子位 2023-06-28
近日,企业国际化智能营销服务商易点天下(301171.SZ)表示,公司已全面接入包括了GPT-4、Anthropic、PaLM、LLAMA、ChatGLM、StableDiffusion、Midjourney…
AI大模型GPT-4ChatGLMStable Diffusion
红刊财经 2023-06-25
今天给大家分享的ChatGPT新应用项目,是ChatGPT模型在医学领域的应用,什么,医学领域?是的,没错,是医学领域的ChatGPT应用,我们都知道ChatGPT是OpenAI开源的一个智能对话式引擎,今天给大家分享的项目叫“本草”。“本草”模型是经过中文医学指令精调/指令微调(Instruct-tuning) 的LLaMA-7B模型。通过医学知识图谱和GPT3.5 API构建了中文医学指令数据集,并在此基础上对LLaMA进行了指令微调,提高了LLaMA在医疗领域的问答效果。“纸上来得终觉浅,绝知此事要
ChatGPTOpenAILLaMA
ChatGPT云炬学长 2023-06-24
近期有很多工作比如Alpaca、Vicuna、Koala等论文宣称通过收集到的大量chatgpt output,在基于开源大模型如LLaMA上进行微调后的模型就接近甚至超过chatgpt效果。有些看热闹不嫌事大的媒体渲染诸如“复制chatgpt,仅需100美元“,”开源大模型超过chatgpt“啦。但事实真的如此吗?来自UC Berkeley的研究团队在The False Promise of Imitating Proprietary LLMs这篇论文中分析的这些模型的效果,并给出结论”还差的
ChatGPTAlpacaVicunaLLaMA
一起学chatGPT一起学ai 2023-06-23
开源AI聊天机器人正在蓬勃发展 如ChatGPT等生成式AI工具正在占据头条,于此同时一场的革命也在悄悄的进行。一个由志愿者开发的名为BLOOM的系统是一个为研究人员设计的大型语言模型。还有由Facebook母公司开发的语言模型LLaMA,以及一个已经被缩减到可以使用笔记本电脑运行而非大型计算设施的Meta。支持者认为让神经网络开源可以得到更方便、更透明的人工智能和减少运行系统的依赖。批评者担心的是,这些强大的工具被广泛使用会增加它们最终落入坏人手中的机会Generative adj. 能生产的grab
生成式AI人工智能AI聊天机器人
DolphinJ 2023-06-22
小扎的AI野望
AI大模型LLaMA
新智元 2023-06-20
比如Meta此前发布的LLaMA开源大模型,其一方面要把大模型越做越大,另一方面则要把大模型做小,将其用在垂直领域。6月19日,在腾讯云举办的行业大模型及智能应用技术峰会上,腾讯云首次公布其行业大模型研发进展,并提出将依托腾讯云TI平台打造行业大模型精选商店,为客户提供MaaS(Model-as-a-Service)一站式服务。
AIGCLLaMAMaaS腾讯
21世纪经济报道 2023-06-19
AI大模型开源英雄!因LLaMA泄露遭国会质问,小扎:习惯了 新智元报道 编辑:润 【新智元导读】扎克伯格又被国会议员质询了,但这次整个AI开源社区都站在了他这边。他也在访谈节目中
AI大模型LLaMA扎克伯格
新智元 2023-06-19
自ChatGPT为代表的大语言模型(Large Language Model, LLM)出现以后,由于其惊人的类通用人工智能(AGI)的能力,掀起了新一轮自然语言处理领域的研究和应用的浪潮。尤其是以ChatGLM、LLaMA等平民玩家都能跑起来的较小规模的LLM开源之后,业界涌现了非常多基于LLM的二次微调或应用的案例。截止到当前,已统计到77个相关项目,具体数量分布如下:项目地址:https://github.com/HqWu-HITCS/Awesome-Chinese-LLM1. Mod
人工智能AGI大语言模型LLaMA
AI研习所 2023-06-19
Copyright © 2025 aigcdaily.cn 北京智识时代科技有限公司 版权所有 京ICP备2023006237号-1