Skip to content

haobinlaosi/LLM_Course

Repository files navigation

大语言模型

我们是暨南大学附属广东省第二人民医院的人工智能研究所的医疗大模型组,主要探索医疗人工智能,医疗大模型的相关工作。

这里是我们组的大语言模型课程,主要讲解大语言模型的原理、相关技术发展。

本课程配套视频课程、讲义链接以及代码实现,一般每周更新一次,欢迎大家star⭐⭐⭐~

课程 内容简介 视频课程链接 课件及代码链接 备注
大语言模型课程Lesson1-1 什么是大语言模型? 本节课为大语言模型概述课程,主要介绍大语言模型的相关基础知识和核心概念 大语言模型课程Lesson1-1 什么是大语言模型? /
大语言模型课程Lesson1-2 借助ChaGPT-Claude等大语言模型工具提高学习及工作效率 本节课为大语言模型概述课程,主要介绍如何借助ChaGPT、Claude等大语言模型工具提高学习及工作效率 大语言模型课程Lesson1-2 借助ChaGPT-Claude等大语言模型工具提高学习及工作效率 /
Lesson1: Attention-transformer-BERT-GPT 本节课程主要从Attention机制开始,之后详细介绍Transformer每个模块的组成以及对应的公式。在介绍Transformer后,将分别从两个分支分别介绍其中的编码器发展部分BERT以及解码器发展部分GPT,总共时长约90min。 90分钟串讲Attention-Transformer-BERT-GPT Lesson1: Attention-transformer-BERT-GPT 20240904第一版本上传;
20240912更新对应论文中的对应实现细节;
20240915 修订部分编译错误;
Lesson2: 基于Pytorch手把手从头实现Transformer 本节课是代码课程。使用Pytorch从零开始实现一个Transformer结构,并完成一个把英文翻译为中文任务。 L2:基于Pytorch手把手从头实现Transformer Lesson2 基于Pytorch手把手从头实现Transformer Lesson2与Lesson1共用讲义;

About

LLM Course;

Resources

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages