一个基于 Lit-LLaMA 和 nanoGPT 实现,支持 LLaMa 2、Mistral 7B、Mixtral 8x7B 等模型的微调。
支持闪存注意力,Int8和GPTQ 4bit量化,LoRA和LLaMA-Adapter微调,预训练等功能。
一个基于 Lit-LLaMA 和 nanoGPT 实现,支持 LLaMa 2、Mistral 7B、Mixtral 8x7B 等模型的微调。
支持闪存注意力,Int8和GPTQ 4bit量化,LoRA和LLaMA-Adapter微调,预训练等功能。
这个Lit-GPT项目挺专业的,支持多种主流模型和量化功能,对普通显卡比较友好。不过感觉技术门槛稍微有点,新手可能需要花点时间摸索。希望以后能多出些简单易懂的教程,让大家都能轻松体验微调大模型的乐趣。
这个Lit-GPT工具挺实用的。它支持多种主流模型,量化和LoRA微调功能对显卡有限的普通用户非常友好。虽然对纯新手有一点门槛,但花点耐心看看文档就能顺利上手,是个值得慢慢摸索的好项目。
发现这个工具挺惊喜的,主流大模型和微调、量化功能都包含了。虽然对我这样的普通用户来说,一些专业参数还需要点时间慢慢消化,但整体感觉是个非常贴心实用的项目,期待能顺利上手折腾一下。