随报随学 | 共6课 | ★☆☆ |
开课时间 | 课程周期 | 难易度 |
Python 3.8+
PyTorch 1.8+
Transformers 4.6+
Jupyter Notebook 或 Google Colab
具有编程基础,对自然语言处理、计算机视觉、大语言模型、多模态大语言模型感兴趣的同学
想深入理解Transformer模型的原理和应用的同学
希望使用HuggingFace的Transformers包进行模型训练和调优的同学
通过本课程的学习,学习者可以:
理解Transformer模型的原理和实现,掌握自注意力机制、多头注意力、位置编码、编码器-解码器架构等核心概念。
熟练使用PyTorch实现Transformer模型的基本组件、编码器、解码器和完整结构,以及训练和测试Transformer模型的过程,还能够使用PyTorch实现Transformer模型的可视化和分析。
熟练使用Hugging Face的Transformers包,调用、训练、应用和分享各种Transformer模型,完成各种自然语言处理任务,以及对Transformer模型进行微调和优化,以适应不同的数据集和任务需求,提高模型的性能和泛化能力。
了解ViT模型的原理和实现,以及它的优点和局限性,能够使用Transformers包调用ViT模型,以及在自己的图像数据上训练和测试ViT模型,体验Transformer模型在计算机视觉领域的强大能力。
熟练掌握基于Transformers库的AI应用开发流程,快速上手大语言模型的应用
1、 学习方式:老师发布教学资料、教材,幻灯片和视频,学员通过网络下载学习。同时通过论坛互动中老师对学员进行指导及学员之间相互交流。
2、 学习作业:每课均有布置课后作业,学员完成书面作业后则可进入下一课学习。
3、 老师辅导:通过论坛站内信及邮件等多种方式与老师进行一对一互动。
4、 完成课程:最后一课作业交纳后,老师完成作业批改,即可完成课程并取回相应剩余的逆向学费。
GMT+8, 2024-10-31 11:25 , Processed in 0.087826 second(s), 28 queries .