首页
学习
活动
专区
圈层
工具
发布
社区首页 >专栏 >大模型微调开源框架推荐

大模型微调开源框架推荐

作者头像
tunsuy
发布2026-04-09 09:57:34
发布2026-04-09 09:57:34
1290
举报

1. LLaMA-Factory

  • 「GitHub」: https://github.com/hiyouga/LLaMA-Factory
  • 「特点」:
    • 支持 100+ 种 LLM 的微调(LLaMA、Mistral、Qwen、ChatGLM 等)
    • 提供 WebUI 界面,零代码微调
    • 支持 LoRA、QLoRA、全参数微调等多种方法
    • 内置数据集处理和评估功能

2. PEFT (Parameter-Efficient Fine-Tuning)

  • 「GitHub」: https://github.com/huggingface/peft
  • 「特点」:
    • Hugging Face 官方出品
    • 支持 LoRA、Prefix Tuning、P-Tuning、Adapter 等方法
    • 与 Transformers 库深度集成
    • 显存占用低,适合消费级显卡

3. Axolotl

  • 「GitHub」: https://github.com/OpenAccess-AI-Collective/axolotl
  • 「特点」:
    • 配置驱动,通过 YAML 文件定义训练流程
    • 支持多种模型和微调方法
    • 内置 DeepSpeed、FSDP 分布式训练支持

4. Unsloth

  • 「GitHub」: https://github.com/unslothai/unsloth
  • 「特点」:
    • 训练速度提升 2-5 倍,显存减少 80%
    • 支持 LLaMA、Mistral、Gemma 等模型
    • 对 QLoRA 优化极佳

5. DeepSpeed

  • 「GitHub」: https://github.com/microsoft/DeepSpeed
  • 「特点」:
    • 微软出品,专注大规模分布式训练
    • ZeRO 优化器大幅降低显存需求
    • 适合超大模型训练

6. Swift (ModelScope)

  • 「GitHub」: https://github.com/modelscope/swift
  • 「特点」:
    • 阿里达摩院出品
    • 对国产模型(Qwen、ChatGLM)支持好
    • 提供完整的训练、推理、部署流程

快速选择建议

场景

推荐框架

新手入门、零代码

LLaMA-Factory

Hugging Face 生态

PEFT

显存有限、追求速度

Unsloth

超大规模分布式训练

DeepSpeed

国产模型微调

Swift

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2026-02-05,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 有文化的技术人 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 1. LLaMA-Factory
  • 2. PEFT (Parameter-Efficient Fine-Tuning)
  • 3. Axolotl
  • 4. Unsloth
  • 5. DeepSpeed
  • 6. Swift (ModelScope)
  • 快速选择建议
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档