0

0

PythonAI注意力机制教程_模型关注重点解析

冰川箭仙

冰川箭仙

发布时间:2026-01-06 15:57:09

|

972人浏览过

|

来源于php中文网

原创

注意力机制的核心是动态加权求和,三要素为Query(查询)、Key(键)、Value(值):Query与Key计算相似度得分数,softmax归一化为权重,再加权求和Value得到输出;自注意力通过全连接匹配突破距离限制,多头机制并行捕获多维特征;PyTorch手写实现含线性投影、缩放点积、softmax及加权求和;可视化注意力权重热力图可分析模型关注模式。

pythonai注意力机制教程_模型关注重点解析

注意力机制不是让模型“看哪里”,而是让模型在处理信息时,动态分配不同权重——哪些词、哪些位置、哪些特征更关键,就给它更高权重。核心在于“加权求和”+“可学习的权重计算”。

注意力三要素:Query、Key、Value 是什么?

这是理解所有注意力变体的起点:

  • Query(查询):当前正在处理的单元(比如解码器中第t个时间步的隐藏状态),它在“问”:我该关注输入里的哪些部分?
  • Key(键):每个输入单元(如编码器每个时间步的输出)的“标签”,用于和 Query 匹配打分。
  • Value(值):每个输入单元真正携带的信息内容,最终被加权聚合的结果。

简单说:Query 和 Key 算相似度 → 得到注意力分数(attention scores)→ 归一化成权重(softmax)→ 加权求和 Value → 输出上下文向量。这个过程可微、可训练。

自注意力(Self-Attention)为什么能捕获长程依赖?

传统RNN/LSTM靠逐步传递隐藏状态,距离越远信号越弱;CNN靠局部感受野,需多层堆叠才能覆盖全局。而自注意力一步到位:

立即学习Python免费学习笔记(深入)”;

  • 序列中任意两个位置可以直接计算 Query-Key 分数,不受距离限制;
  • 同一词在不同语境下获得不同权重(例如“bank”在“river bank”和“bank account”中关注的上下文完全不同);
  • 多个注意力头(Multi-Head)并行计算,让模型能同时关注语法、指代、情感等不同维度。

这也是 Transformer 能替代 RNN 成为大模型基座的关键原因。

绘蛙-创意文生图
绘蛙-创意文生图

绘蛙平台新推出的AI商品图生成工具

下载

如何用 PyTorch 手写一个基础注意力层?

不依赖 nn.MultiheadAttention,从零实现有助于理解每一步的张量形状和计算逻辑:

import torch
import torch.nn as nn
import torch.nn.functional as F

class SimpleAttention(nn.Module): def init(self, dim): super().init() self.W_q = nn.Linear(dim, dim) self.W_k = nn.Linear(dim, dim) self.W_v = nn.Linear(dim, dim)

def forward(self, x):
    # x: [batch, seq_len, dim]
    Q = self.W_q(x)  # [b, s, d]
    K = self.W_k(x)  # [b, s, d]
    V = self.W_v(x)  # [b, s, d]

    # 计算相似度(缩放点积)
    scores = torch.bmm(Q, K.transpose(1, 2)) / (K.size(-1) ** 0.5)  # [b, s, s]
    attn_weights = F.softmax(scores, dim=-1)  # 每行和为1
    output = torch.bmm(attn_weights, V)  # [b, s, d]

    return output, attn_weights

注意:实际训练中通常会加入 dropout、LayerNorm 和残差连接,构成一个完整的 Attention Block。

怎么可视化注意力权重,看出模型到底在“看”什么?

训练完模型后,提取某次前向传播中的 attention_weights(形状为 [batch, heads, seq_len, seq_len]),可做如下分析:

  • 对单句输入,取第一个样本、第一个头,画热力图(heatmap):横轴是 Query 位置(当前词),纵轴是 Key 位置(被关注词),颜色越深表示权重越高;
  • 观察代词(如“he”, “it”)是否高亮指向其先行词;
  • 检查动词是否聚焦于主语/宾语,而非停用词(“the”, “a”);
  • 使用库如 matplotlib.pyplot.imshowseaborn.heatmap 快速出图,配合 xticks/yticks 标注词元。

这不仅是调试工具,更是验证模型是否学到合理语言结构的直接证据。

相关专题

更多
堆和栈的区别
堆和栈的区别

堆和栈的区别:1、内存分配方式不同;2、大小不同;3、数据访问方式不同;4、数据的生命周期。本专题为大家提供堆和栈的区别的相关的文章、下载、课程内容,供大家免费下载体验。

382

2023.07.18

堆和栈区别
堆和栈区别

堆(Heap)和栈(Stack)是计算机中两种常见的内存分配机制。它们在内存管理的方式、分配方式以及使用场景上有很大的区别。本文将详细介绍堆和栈的特点、区别以及各自的使用场景。php中文网给大家带来了相关的教程以及文章欢迎大家前来学习阅读。

567

2023.08.10

pytorch是干嘛的
pytorch是干嘛的

pytorch是一个基于python的深度学习框架,提供以下主要功能:动态图计算,提供灵活性。强大的张量操作,实现高效处理。自动微分,简化梯度计算。预构建的神经网络模块,简化模型构建。各种优化器,用于性能优化。想了解更多pytorch的相关内容,可以阅读本专题下面的文章。

428

2024.05.29

Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习
Python AI机器学习PyTorch教程_Python怎么用PyTorch和TensorFlow做机器学习

PyTorch 是一种用于构建深度学习模型的功能完备框架,是一种通常用于图像识别和语言处理等应用程序的机器学习。 使用Python 编写,因此对于大多数机器学习开发者而言,学习和使用起来相对简单。 PyTorch 的独特之处在于,它完全支持GPU,并且使用反向模式自动微分技术,因此可以动态修改计算图形。

18

2025.12.22

java学习网站推荐汇总
java学习网站推荐汇总

本专题整合了java学习网站相关内容,阅读专题下面的文章了解更多详细内容。

6

2026.01.08

java学习网站汇总
java学习网站汇总

本专题整合了java学习网站相关内容,阅读专题下面的文章了解更多详细内容。

0

2026.01.08

正则表达式 删除
正则表达式 删除

本专题整合了正则表达式删除教程大全,阅读专题下面的文章了解更多详细教程。

20

2026.01.08

java 元空间 永久代
java 元空间 永久代

本专题整合了java中元空间和永久代的区别,阅读专题下面的文章了解更多详细内容。

3

2026.01.08

java 永久代和元空间
java 永久代和元空间

本专题整合了java中元空间和永久代的区别,阅读专题下面的文章了解更多详细内容。

0

2026.01.08

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 0.6万人学习

Django 教程
Django 教程

共28课时 | 2.9万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.1万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号