Комментарии:
有没有什么微调前后的评测结果展示?
Ответить文生图场景有可以微调的大模型么?
Ответить如果做个类似客服的模型,是不是可以选择最小尺寸的模型作为底模去训练呢?
Ответить部署本地可以文生图吗
Ответить小白想问一句,照着这样弄完后,东西在哪?模型怎么下回来
ОтветитьRag or fine tuning, that is the question
Ответитьhi,大概看了一下 github项目,说是用矩阵分解能够加速。
好奇之前要finetune的资源都大的吓人,为什么这个repo能做到用这么low的卡finetune?
这样的和之前finetune有区别吗?
博主,问一下,我在谷歌云上这样操作,这算是收费的?还是免费的?
Ответить能读PDF吗?
Ответить怎么将一般企业的知识库(pdf、word等)简便的转换成可训练的json格式?
Ответить他这个数据集可以是那种pdf文件吗
Ответить数据集可以出现中文字符么
Ответить請問是要把示範的數據集“全部”換成自己的數據嗎?這樣好像有點多耶
Ответить如果涉及机密内容,在这上面训练是不合适的
Ответить請問有建議至少要多少數據集嗎?例如8B , 70B 要多少數據集才夠呢
Ответить核显有gpu吗
Ответить感謝分享 不過看用來訓練的資料集都是短文本的,如果是想用長文本文獻資料做summary整理 如: 會談對話、小說文字、文獻期刊、病歷資料等 做摘要的話
訓練集資料要怎麼設計比較好呢? 謝謝
看不懂你 到底是教程还是炫耀 要教就好好教
Ответить感谢兄台分享!很期待出一期如何创建数据训练集的教学视频。另外,请问如何将自己的数据训练集加入到这个在Colab上运行的代码中?
Ответить各种大模型低价api官方接口直连,欢迎企业、科研机构、实验室、合作洽谈
Ответить很棒,请问您有会员群吗?大家大家互相交流
Ответить这个unsloth微调好自己的模型后,再通过ollama来本地运行自己微调好的模型,是不是就可以定制自己的私有的ai产品了? 比如昆虫识别
Ответить想想 Jenny 他们在外国得表现 可能不用微调! 想 Albert 得男同学 可能要微调!
Ответить一般学英文时不会用通用常用名! jiabin 不是通用泛用名 像 Albert 一样!
Ответить笔记本4080能跑多少 b
Ответить教程里没说如何上传自己的数据集,这块有文档可以参考么?
Ответить请问,怎么在本地微调?
Ответить博主请问下, 单机多卡如何操作unslosh训练? 感谢
Ответить你好,有个问题想请教,在Colab里微调成功后,怎么把微调后的模型下载到本地?谢谢
Ответитьcolab上面微调好的模型保存在本地的哪个位置吗,还是hugging face上面?
Ответить70b的模型能不能48g显存微调出个教程
Ответить最新版本支持在Mac Silicon芯片上运行了吗?
Ответить怎么下载模型啊?
Ответитьunsloth 訓練完之後的結果能再把結果再拿來繼續訓練嗎?
ОтветитьRuntimeError: Unsloth: `unsloth/llama-3-8b-bnb-4bit` is not a base model or a PEFT model.
We could not locate a `config.json` or `adapter_config.json` file.
Are you certain the model name is correct? Does it actually exist?
博主,为啥colab可以运行但是本地会报错
如何在训练中应用不同的attention机制
Ответить微调就是用一个自己的数据集去监督学习么?
Ответить請問這個範例支援中文資料訓練嗎?
Ответить您好.. 可否教學如何 微調 llama 3.2 vision 模型
Ответить