2025大模型微调技术实践分享
大模型微调的资源太多?选不过来?我最近刷到一套资料,整理得还挺系统,适合想快速上手或者精进的人看。里面不光有华为和 Gartner 的趋势报告,还有像LoRA
、ChatGPT
这类热门方向的实战材料,能直接拿来跑代码。
LoAR 微调 AI 模型代码的资源还蛮实用,写得清楚,逻辑也顺,主要集中在模型结构改造和高效训练,像怎么调adapter
结构、怎么节省显存,讲得比较落地。链接在这:LoAR 微调 AI 模型代码
另一个还不错的是ChatGPT 技术的模型选择与微调策略,适合想复用openai
生态的朋友,讲了gpt-3.5
和gpt-4
微调时候要注意啥,像token
长度限制、system prompt
写法优化这种问题,说得蛮细。资源在这:探讨 ChatGPT 技术的模型选择与微调策略
顺带提一句,GPT 模型的细分领域微调那份也挺值得看,场景从医疗到客服全覆盖,适合做垂直行业应用的同学。地址是:GPT 模型的细分领域微调
如果你是前端转 AI,建议先过一遍指导缩放-微调语言模型.pdf这类资料,里面对模型训练流程、数据格式、硬件需求解释得都比较基础,但不啰嗦。链接:指导缩放-微调语言模型.pdf
哦对,还有openai/chatgpt 微调资源分享这份,我看了一下,目录结构清晰,config
和训练脚本
一应俱全,不用自己再去东拼西凑,挺省事。地址在这:openai/chatgpt 微调资源分享
如果你最近刚好在折腾大模型,可以把这些资源先收藏一波,跑通一两个,再回头整理自己的知识框架会更有感觉。
下载地址
用户评论