1. 首页
  2. 安全技术
  3. 其他
  4. 2025大模型微调技术实践分享

2025大模型微调技术实践分享

上传者: 2025-06-06 14:11:51上传 7Z文件 85.55MB 热度 2次

大模型微调的资源太多?选不过来?我最近刷到一套资料,整理得还挺系统,适合想快速上手或者精进的人看。里面不光有华为和 Gartner 的趋势报告,还有像LoRAChatGPT这类热门方向的实战材料,能直接拿来跑代码。

LoAR 微调 AI 模型代码的资源还蛮实用,写得清楚,逻辑也顺,主要集中在模型结构改造和高效训练,像怎么调adapter结构、怎么节省显存,讲得比较落地。链接在这:LoAR 微调 AI 模型代码

另一个还不错的是ChatGPT 技术的模型选择与微调策略,适合想复用openai生态的朋友,讲了gpt-3.5gpt-4微调时候要注意啥,像token长度限制、system prompt写法优化这种问题,说得蛮细。资源在这:探讨 ChatGPT 技术的模型选择与微调策略

顺带提一句,GPT 模型的细分领域微调那份也挺值得看,场景从医疗到客服全覆盖,适合做垂直行业应用的同学。地址是:GPT 模型的细分领域微调

如果你是前端转 AI,建议先过一遍指导缩放-微调语言模型.pdf这类资料,里面对模型训练流程、数据格式、硬件需求解释得都比较基础,但不啰嗦。链接:指导缩放-微调语言模型.pdf

哦对,还有openai/chatgpt 微调资源分享这份,我看了一下,目录结构清晰,config训练脚本一应俱全,不用自己再去东拼西凑,挺省事。地址在这:openai/chatgpt 微调资源分享

如果你最近刚好在折腾大模型,可以把这些资源先收藏一波,跑通一两个,再回头整理自己的知识框架会更有感觉。

下载地址
用户评论