今天我们开始第3课的学习!
本次课程内容是使用LangChain+InternLM的RAG向量检索外挂知识库。 教程视频:https://www.bilibili.com/video/BV1sT4y1p71V/ 教程文档:https://github.com/InternLM/tutorial/tree/main/langchain
本次课程需要同时提交笔记和作业两项,作业内容见教程文档末尾。 打卡DDL:1月10日(周三)晚20:30 第3节课(15班)作业提交地址:https://github.com/InternLM/tutorial/discussions/93 第3节课(15班)笔记提交地址:https://github.com/InternLM/tutorial/discussions/38
前面内容还未完成的同学,可以继续按照自己的进度来进行学习,如果希望努力一把赶上大家的进度,学习手册中有每次学习打卡的链接。
昨晚所有学习者算力都已统一调整至36点~
可以开始思考大作业的思路,同时开始考虑组队啦~每个小队最多5人,也可以单人进行。在第6节课结束后,会给出一周时间来完成大作业。 已经定好题目组好队的同学可以在“项目”文件下建个自己项目的帖子: https://github.com/InternLM/tutorial/discussions/categories/项目
提交方式:在各个班级对应的 GitHub Discussion 帖子中进行提交。
基础作业:
复现课程知识库助手搭建过程 (截图)
进阶作业:
选择一个垂直领域,收集该领域的专业资料构建专业知识库,并搭建专业问答助手,并在 OpenXLab 上成功部署(截图,并提供应用地址)
大模型局限性
优化开发范式:RAG 和 Finetune
RAG 检索增强生成
特点 外挂知识库 → 提高知识储备
优点 实时 低成本
缺点 知识有限
Finetune
特点 新的小训练集 → 提升新数据集能力
优点 个性化非可见知识如风格 广度
缺点 成本 非实时 需要先训练