上 传  者 : 周官平
单      位 : 教育技术与创新部
上传时间 : 2025-05-07 01:39:18
移形换影——大模型中文本变换.pdf(429KB)
  • 浏览 : 0
  • 下载 : 0
第 1 页
第 2 页
第 3 页
第 4 页
第 5 页
第 6 页
第 7 页
第 8 页
0 0 类别 : 教案
《移形换影——大模型中文本变换》 教学设计 课型 新授课 学时 1 授课 年级 八年级 课程指南 智能思维 了解大语言模型中 Transformer 的基本 原理 智能应用与创造 能够分析 Transformer的优势 智能社会责任 引导学生对生成式人工智能的基本原理 有更深入的理解,激发学生进一步学习 大语言模型的兴趣。 内容分析 本课时将主要介绍 Transformer 的基本原理,使学生他们能够理解这一 先进的神经网络结构。Transformer架构为大语言模型的发展奠定了基础,通 过本课时的学习,学生将能够掌握 Transformer 架构的基本原理和特点,理 解为何 Transformer在某些方面优于 RNN。该节课是整个大语言模型科普课程 的第一课时,作为对 Transformer 架构的原理介绍,这节课在学生学习了神 经网络基础知识之后进行,为深入学习提供基础。 学情分析 知识基础: 学生之前已经学习了基本的神经网络知识,了解了循环神经网络等,形成了初 步的逻辑思维能力,能够理解和分析问题,进行推理。而且学生对计算机和互 联网有较高的熟练度,这对于学习本堂课的内容非常有帮助。 认知特点: 学生逐渐发展出更强的抽象思维能力,能够理解更复杂、抽象的概念。青春期 的学生可能经历注意力波动,对感兴趣的事物可能表现出较高的注意力,而对 其他事物可能表现出较低的兴趣。与同龄人的关系对八年级学生来说很重要, 他们更愿意在小组中学习,分享想法,与同学一起解决问题。 学习风格: 学生更喜欢通过听、看、动手等多种方式来学习。不喜欢一味地讲授式教学。 对知识的实际应用感兴趣。将知识与实际生活情境相结合并且安排相应的实 践体验活动,能够激发他们的学习兴趣。与同学合作学习的对八年级学生而言 是重要的,小组讨论和合作可以促进他们的思考和学习。 教学目标 知识与技能 1. 了解大语言模型中Transformer的基 本原理。 2. 掌握 Transformer 与循环神经网络 (RNN)的区别 过程与方法 能够分析 Transformer的优势 情感态度与价值观 引导学生对生成式人工智能的基本原理 有更深入的理解,激发学生进一步学习 大语言模型的兴趣。 教学重难点 教学重点 • Transformer架构的特点 • Transformer架构与 RNN相比具有的 优势 教学难点 Transformer的自注意力机制、编码器、 解码器等概念 教学方法 讲授法、演示法、讨论法和问题驱动法 学习环境与 教学资源 ·学习环境 配备先进的多媒体教学设备的机房,如投影仪、电脑、音响系统等 拥有稳定的网络连接,以便访问在线资源 ·教学资源 课件、教案、读本、大语言模型平台 教学过程 教学环节 教师活动 学生活动 设计意图 实践引入 (3分钟) 1. 设置实践任务: 打开 Xmas 平台(https://xmas.zenewbee.top:8 096/#/aichat)。点击 AI对话,让学生输入一句话 的开头,大语言模型完成续写任务比如:“请续写下 面这段话:明天,我们的学校将会…” 观察:观察大语言模型在生成文本时前后 是否有关联 1.问题情境、 围绕问题开 展讨论; 2.思考并回 答问题 通过真实情 境任务,引导 学生进行思 考,吸引学生 的注意力,对 于大语言模 型处理和生 成长序列数 据建立初步 的认识和理 解。并引入本 节课的教学 内容 复习回顾 (2分钟) 1.复习回顾: 在循环神经网络(RNN)中,在处理和生成长序 列数据存在什么问题? 举例:输入一段长文本,RNN很难准确输出“我 会说中文”,因为需要依赖时间较远的“我成 长于中国”这句文本。 答案:RNN存在长期依赖(Long-term dependency)问题,即 RNN比较“健忘”,联 系不了上下文 1.回忆之前 学过的循环 神经网络的 知识,观察该 例子,思考 RNN 存在的 长期依赖问 题 通过复习循 环神经网络 的知识和存 在的问题,结 合前面的实 践引入,思考 大语言模型 为何不存在 这样的问题 Transformer 架构介绍 (3分钟) 1.大模型如何解决该问题: 基于 Transformer 架构开发的大语言模型可以 有效解决长期依赖问题 2.讲授 Transformer 编码器-解码器架 构: 编码器:负责分析单词或字符的“含义”或 “特征”并将其编码成词向量;与此同时捕捉 单词或字符之间的依赖关系。 解码器:编码器编码后的向量输入到解码器 中,解码器负责根据这些向量生成输出序列。 1.认真聆听 老师的讲解, 做好课堂笔 记; 2.认真听讲, 做好课堂记 录 通过老师的 讲解和学生 的思考帮助 学 生 了 解 Transformer 的基本架构。 通过老师的 讲解,初步了 解编码器和 解码器的基 本功能和作 用 讲解编码器 的工作过程 (4分钟) 1.讲授编码器在翻译任务中的工作过 程: 举例:把英文句子“The animal, which was clearly a cat, sat gracefully on the soft mat”翻译成中文。 工作过程: 编码器首先会读取英文句子中的每个单词,理 解句子中的每个词汇及其含义并将它们转换成 词向量。如图所示: 1.认真听讲, 了解编码器 的工作流程 以及词向量 通过观察翻 译任务中编 码器的作用 和教师进一 步对编码器 的详细讲解, 掌握编码器 的工作的基 本原理;思考 老师提出的 除此之外,编码器还要捕捉词汇之间的依赖关 系,如“which was clearly a cat”修饰的 是“animal 思考:如何捕捉词汇之间的关系呢? 2.思考老师 提出的问题 问题,引入接 下来要讲解 的自注意力 机制 讲解自注意 力机制及其 作用(5分 钟) 1.类比人类的注意力: 当我们在翻译一个句子时,我们通常会反 复阅读,并关注句子中的不同部分来理解其含 义。自注意力机制做的就是类似的事情。它会 查看句子中的每个单词,并决定在翻译当前单 词时,其他哪些单词是最重要的。 2.结合例子: 在这个例子中,当翻译“animal”时,自注意 力机制可能会关注到“which was clearly a cat”,因为这部分提供了关于“animal”的 重要信息。 认真体会自 注意力机制 和人类注意 力的类似之 处,仔细思考 Transformer 中自注意力 机制的作用 和功能 通过教师对 自注意力机 制的讲解,以 及通过案例 进一步解释 和说明自注 意力机制的 作用掌握它 的功能 讲解解码器 的工作过程 (5分钟) 1.讲授编码器在翻译任务中的工作过 程: 准备生成中文:解码器开始工作时,它会接收 到编码器对英文句子的向量表示,并准备生成 对应的中文句子。 逐词生成中文:解码器会一个词一个词地生成 中文句子。在生成每个词时,它都会考虑之前 已经生成的词和英文句子的整体理解。 1.跟随老师 的思路,认真 听老师讲解 解码器在解 决该翻译问 题中的工作 流程 通过教师对 翻译任务中 解码器的作 用和进一步 对编码器的 详细讲解,掌 握编码器的 工作的基本 利用自注意力和编码器-解码器注意力:解码 器也有自己的自注意力机制,帮助它理解已经 生成的中文词之间的关系。同时,它还会使用 “编码器-解码器注意力”来关注英文句子中 与当前生成位置最相关的部分。 原理 Transformer 架构归纳(2 分钟) 1.归纳 transformer 架构的定义、组成 和特点: 定义:Transformer架构是一种基于自注 意力机制和多层编码器-解码器结构的深度学 习模型,主要用于自然语言处理任务,如机器 翻译、文本分类和情感分析等。 组成:它由编码器(Encoder)和解码器 (Decoder)两个部分组成,每个部分都由多 个相同的层堆叠而成。每一层都包含一个多头 自注意力子层。 特点:Transformer通过使用自注意力机 制,让模型能够捕捉输入序列中的长距离依赖 关系,从而在处理长序列时具有更好的性能。 1.认真听老 师讲解,做好 课堂记录 通过老师的 讲解和学生 的思考帮助 学生进一步 巩 固 Transformer 架构的定义、 组成和特点。 系统复习回 顾:循环神 经网络 (RNN)(5 分钟) 1. 循环神经网络的概念: RNN 的核心结构是一个循环神经单元,通过 重复应用相同的权重来处理序列数据。 2. 循环神经网络的特点: RNN 在处理序列数据时,将当前时刻的输入 和前一时刻的隐藏状态结合,产生当前时刻 的隐藏状态。 3. 循环神经网络的应用: RNN 可以应用于各种任务,如语言建模、语 音识别、机器翻译等。 1.跟随老师 一起复习循 环神经网络 (RNN)的相 关知识点 2.小组合作, 积 极 讨 论 通过复习神 经网络,进一 步巩固神经 网络的相关 知识。讨论 Transformer 架构与 RNN 之间的优势, 拓展学生的 思维,强化学 生 对 小组讨论:Transformer架构相比 RNN具有哪 些优势? Transformer 与 RNN 相比 有何优势 Transformer 架构的理解 总结 Transformer 架构相比 RNN的优势 (3分钟) (1)并行计算能力 Transformer可以更快地处理整个序列,因为它 不必像 RNN 那样按顺序等待每个时间点的计算 完成 (2)长距离依赖建模 Transformer 的自注意力机制就像是一本可以 随时翻阅的笔记本,它可以轻松地回顾并关联 序列中的任何信息,无论这些信息在序列中的 位置有多远。 (3)全局上下文建模 Transformer读一篇文章能够关注当前的细节, 又能够联系到之前读过的所有内容,从而更全 面地理解文章 (4)灵活性 Transformer就像是一个乐高积木,可以通过添 加更多的积木块(层)来构建更复杂的结构。这 种灵活性使得 Transformer 可以根据不同的任 务需求进行调整和扩展 1.认真听老 师 讲 解 Transformer 的具体的优 势 通过教师的 总结和讲解 进一步掌握 Transformer 的特点和优 势 体验活动(7 分钟) 1.讲授活动要求 活动要求:小组合作,在电脑上将 main.zip文 件解压缩,双击 main.exe运行该文件,之后在 浏览器中会显示输入界面, 。接下来在输入框 里输入一段文本并点击提交,观察提交之后显 示的结果,每个图可以点击进行交互 1.认真参与 体验活动,与 小组成员一 起,共同观察 输出结果并 讨论思考问 题 通过体验活 动进一步感 受自注意力 机制的作用 思考: 1.为什么会有不同层次的图? 2.图两侧代表什么? 3.左侧词汇对右侧词汇的连线表示什么? 答案:1.有多个编码器 2.输入文本 3.表示注意力系数,连线越粗,代表注意力系数 越高 课堂总结(1 分钟) 1. 师生共同总结: 跟随老师思 路共同总结 本堂课所学 知识 通过总结归 纳进一步巩 固本堂课所 学内容 板书设计 教学反思 Transformer 架构 一、Transformer架构概念 Transformer架构是一种基于自注意力机制和多层编码器- 解码器结构的深度学习模型,主要用于自然语言处理任 务,如机器翻译、文本分类和情感分析
标签: 无
更多
预览本资源的用户最终下载了
资源足迹
  • 教育技术与创新部
    周官平 2025-05-07 01:39:18 上传