微调Llama 3大模型!简单几步即可轻松打造自己的专属大模型!无需本地配置即可轻松完成!#llama3 #meta #finetune #aigc #ai #llm #gpt4 #gpt5

微调Llama 3大模型!简单几步即可轻松打造自己的专属大模型!无需本地配置即可轻松完成!#llama3 #meta #finetune #aigc #ai #llm #gpt4 #gpt5

AI超元域

8 месяцев назад

33,114 Просмотров

Ссылки и html тэги не поддерживаются


Комментарии:

@albertwang5974
@albertwang5974 - 20.04.2024 16:00

有没有什么微调前后的评测结果展示?

Ответить
@mengli1706
@mengli1706 - 21.04.2024 09:14

文生图场景有可以微调的大模型么?

Ответить
@jeson998
@jeson998 - 21.04.2024 13:39

如果做个类似客服的模型,是不是可以选择最小尺寸的模型作为底模去训练呢?

Ответить
@king-of-doomsday
@king-of-doomsday - 21.04.2024 16:13

部署本地可以文生图吗

Ответить
@喵喵喵喵喵喵-s9p
@喵喵喵喵喵喵-s9p - 21.04.2024 17:53

小白想问一句,照着这样弄完后,东西在哪?模型怎么下回来

Ответить
@back_to_the_future9187
@back_to_the_future9187 - 22.04.2024 00:06

Rag or fine tuning, that is the question

Ответить
@Jingkaishuoshuo
@Jingkaishuoshuo - 22.04.2024 00:35

用它去调试奇门遁甲的,起步妙哉

Ответить
@Ryan.66666
@Ryan.66666 - 22.04.2024 01:48

hi,大概看了一下 github项目,说是用矩阵分解能够加速。
好奇之前要finetune的资源都大的吓人,为什么这个repo能做到用这么low的卡finetune?
这样的和之前finetune有区别吗?

Ответить
@user-fadeshun
@user-fadeshun - 22.04.2024 06:21

博主,问一下,我在谷歌云上这样操作,这算是收费的?还是免费的?

Ответить
@micheleyu3125
@micheleyu3125 - 22.04.2024 10:14

能读PDF吗?

Ответить
@jianwang2011
@jianwang2011 - 22.04.2024 11:28

怎么将一般企业的知识库(pdf、word等)简便的转换成可训练的json格式?

Ответить
@ssssuper4225
@ssssuper4225 - 22.04.2024 12:32

他这个数据集可以是那种pdf文件吗

Ответить
@meimei-if3hh
@meimei-if3hh - 22.04.2024 13:12

数据集可以出现中文字符么

Ответить
@kirito.c8763
@kirito.c8763 - 22.04.2024 18:59

請問是要把示範的數據集“全部”換成自己的數據嗎?這樣好像有點多耶

Ответить
@calm2802
@calm2802 - 23.04.2024 07:17

如果涉及机密内容,在这上面训练是不合适的

Ответить
@leowang55
@leowang55 - 23.04.2024 17:53

請問有建議至少要多少數據集嗎?例如8B , 70B 要多少數據集才夠呢

Ответить
@邵夹心
@邵夹心 - 24.04.2024 12:35

核显有gpu吗

Ответить
@jason77nhri
@jason77nhri - 25.04.2024 03:27

感謝分享 不過看用來訓練的資料集都是短文本的,如果是想用長文本文獻資料做summary整理 如: 會談對話、小說文字、文獻期刊、病歷資料等 做摘要的話
訓練集資料要怎麼設計比較好呢? 謝謝

Ответить
@三只狗狗时装Show
@三只狗狗时装Show - 25.04.2024 11:18

看不懂你 到底是教程还是炫耀 要教就好好教

Ответить
@cambrian_cove
@cambrian_cove - 28.04.2024 04:49

感谢兄台分享!很期待出一期如何创建数据训练集的教学视频。另外,请问如何将自己的数据训练集加入到这个在Colab上运行的代码中?

Ответить
@Messine5496
@Messine5496 - 28.04.2024 11:31

各种大模型低价api官方接口直连,欢迎企业、科研机构、实验室、合作洽谈

Ответить
@martiniscoming
@martiniscoming - 28.04.2024 15:12

很棒,请问您有会员群吗?大家大家互相交流

Ответить
@martiniscoming
@martiniscoming - 28.04.2024 15:37

这个unsloth微调好自己的模型后,再通过ollama来本地运行自己微调好的模型,是不是就可以定制自己的私有的ai产品了? 比如昆虫识别

Ответить
@jiabin26
@jiabin26 - 01.05.2024 07:09

想想 Jenny 他们在外国得表现 可能不用微调! 想 Albert 得男同学 可能要微调!

Ответить
@jiabin26
@jiabin26 - 01.05.2024 07:14

一般学英文时不会用通用常用名! jiabin 不是通用泛用名 像 Albert 一样!

Ответить
@郭羽-o4d
@郭羽-o4d - 02.05.2024 09:58

笔记本4080能跑多少 b

Ответить
@隔壁王蜀黍-l1z
@隔壁王蜀黍-l1z - 07.05.2024 13:58

教程里没说如何上传自己的数据集,这块有文档可以参考么?

Ответить
@supwang
@supwang - 07.05.2024 15:06

请问,怎么在本地微调?

Ответить
@liangchang3678
@liangchang3678 - 08.05.2024 17:48

博主请问下, 单机多卡如何操作unslosh训练? 感谢

Ответить
@jjwangel
@jjwangel - 09.05.2024 03:06

你好,有个问题想请教,在Colab里微调成功后,怎么把微调后的模型下载到本地?谢谢

Ответить
@zoeyuwang6123
@zoeyuwang6123 - 09.05.2024 06:28

colab上面微调好的模型保存在本地的哪个位置吗,还是hugging face上面?

Ответить
@bangyumo
@bangyumo - 10.05.2024 08:52

70b的模型能不能48g显存微调出个教程

Ответить
@dangya3481
@dangya3481 - 03.06.2024 05:23

最新版本支持在Mac Silicon芯片上运行了吗?

Ответить
@conglife
@conglife - 07.06.2024 11:57

怎么下载模型啊?

Ответить
@edl2000
@edl2000 - 10.07.2024 05:55

unsloth 訓練完之後的結果能再把結果再拿來繼續訓練嗎?

Ответить
@耿晓天
@耿晓天 - 13.07.2024 19:49

RuntimeError: Unsloth: `unsloth/llama-3-8b-bnb-4bit` is not a base model or a PEFT model.
We could not locate a `config.json` or `adapter_config.json` file.
Are you certain the model name is correct? Does it actually exist?
博主,为啥colab可以运行但是本地会报错

Ответить
@zhengyutian
@zhengyutian - 23.08.2024 07:00

如何在训练中应用不同的attention机制

Ответить
@lamb0145
@lamb0145 - 12.09.2024 07:56

微调就是用一个自己的数据集去监督学习么?

Ответить
@mikeportnoy168
@mikeportnoy168 - 22.09.2024 15:27

請問這個範例支援中文資料訓練嗎?

Ответить
@richardyu8762
@richardyu8762 - 02.11.2024 16:26

您好.. 可否教學如何 微調 llama 3.2 vision 模型

Ответить