Vicuna-13b只需要花费300美刀(比Alpaca的600美元便宜一半)就能搞出来接近ChatGPT的水平。如何用小资源大模型让个人普通者与中小微企业也能用上高科技一直是开源社区孜孜追求的目标
Vicuna开源代码地址:https://github.com/lm-sys/FastChat
Vicuna在线demo地址:https://chat.lmsys.org/
看名字起的"更快的对话",Vicuna利用ShareGPT的7万对话数据对LLaMA微调(Vicuna is created by fine-tuning a LLaMA base model using approximately 70K user-shared conversations gathered from ShareGPT),当然它的对话能力就相对突出,果然是“缺啥补啥缺啥练啥,傻子也突出”…
Vicuna训练硬件要求:(Vicuna can be trained on 8 A100 GPUs with 80GB memory)
8块 A100 80G的GPU,这款型号属于美国出口管制不卖给中国,价格是8万-10万左右/块。自己可以根据参数调整降低资源硬件使用成本
以 Meta 开源 LLaMA(直译为「大羊驼」)系列模型为起点,斯坦福大学等机构的研究人员先后在其上进行「二创」,开源了基于 LLaMA 的 Alpaca(羊驼)、Alpaca-Lora、Luotuo(骆驼)等轻量级类 ChatGPT 模型,大大降低了这类模型的研究、应用门槛,训练、推理成本一再降低。
由于「二