第4节课打卡延期!

第4节课打卡DDL:1月13日(周六)晚20:30 第4节课(15班)作业提交地址:https://github.com/InternLM/tutorial/discussions/94 第4节课(15班)笔记提交地址:https://github.com/InternLM/tutorial/discussions/39 第4节课内容:使用 XTuner 单卡低成本微调你的大模型 文档链接:https://github.com/InternLM/tutorial/blob/main/xtuner/README.md 视频链接: https://www.bilibili.com/video/BV1yK4y1B75J/ 作业是使用 XTuner 训练 InternLM-Chat-7B 模型,让模型具有是你的小助手的认知,作业详细信息请看文档的末尾 基础作业参考答案:https://github.com/InternLM/tutorial/blob/main/xtuner/self.md

作业

基础作业:

构建数据集,使用 XTuner 微调 InternLM-Chat-7B 模型, 让模型学习到它是你的智能小助手,效果如下图所示,本作业训练出来的模型的输出需要将不要葱姜蒜大佬替换成自己名字或昵称!

微调前(回答比较官方)

微调后(对自己的身份有了清晰的认知)

作业参考答案:https://github.com/InternLM/tutorial/blob/main/xtuner/self.md

进阶作业:

笔记

Untitled

1 增量预训练:给模型新知识

Untitled

2 指令跟随就是指令微调

Untitled