微信扫码
添加专属顾问
我要投稿
注意力计算Q、K、V
Transformer的起源:Google Brain 翻译团队通过论文《Attention is all you need》提出了一种全新的简单网络架构——Transformer,它完全基于注意力机制,摒弃了循环和卷积操作。
注意力机制是全部所需
正如论文标题所言“注意力机制是全部所需”,强调了注意力机制是Transformer架构的核心要素,就如同人的心脏一样,充当着发动机的作用。
注意力计算Q、K、V
神经网络算法 - 一文搞懂Transformer
神经网络算法 - 一文搞懂 Transformer(总体架构 & 三种注意力层)
神经网络算法 - 一文搞懂Transformer中的三种注意力机制
初始时,这些权重矩阵的值通常是随机初始化的。经过训练后,它们会学习到如何从输入数据中提取出对任务有用的特征。
模型会通过反向传播算法和梯度下降来更新这些权重矩阵W的值,以最小化某个损失函数(如交叉熵损失)。
权重矩阵W_Q的定义:
计算Query(Q):
给定输入序列的嵌入矩阵E(形状为(batch_size, sequence_length, d_model)),Query矩阵Q是通过将X与权重矩阵W_Q相乘得到的。
具体地,对于Q中的每一个嵌入向量q_i(形状为(d_model)),Q中的一个向量q_i可以通过q_i = e_i * W_Q计算得到。
因此,整个Query矩阵Q(形状为(batch_size, sequence_length, d_k))可以通过E * W_Q计算得到。
计算Q(Query)
权重矩阵W_K的定义:
在Transformer模型中,权重矩阵W_K也是一个可训练的权重矩阵,用于将输入数据的嵌入映射到Key向量(K)。
W_K的维度通常是(d_model, d_k),其中d_model是输入嵌入的维度(也是Transformer模型的维度),d_k是Key向量的维度。假设d_k被设定为128。
计算Key(K):
给定输入序列的嵌入矩阵E(形状为(batch_size, sequence_length, d_model)),Key矩阵K是通过将E与权重矩阵W_K相乘得到的。
具体地,对于K中的每一个嵌入向量k_i(形状为(d_model)),K中的一个向量k_i可以通过k_i = e_i * W_K计算得到。
因此,整个Key矩阵K(形状为(batch_size, sequence_length, d_k))可以通过X * W_K计算得到。
计算K(Key)
权重矩阵W_V的定义:
在Transformer模型中,权重矩阵W_V也是一个可训练的权重矩阵,用于将输入数据的嵌入映射到Value向量(V)。
W_V的维度通常是(d_model, d_v),其中d_model是输入嵌入的维度(也是Transformer模型的维度),d_v是Value向量的维度。假设d_k被设定为128。
计算Value(V):
给定输入序列的嵌入矩阵E(形状为(batch_size, sequence_length, d_model)),Value矩阵V是通过将E与权重矩阵W_V相乘得到的。
具体地,对于E中的每一个嵌入向量e_i(形状为(d_model)),V中的一个向量v_i可以通过v_i = e_i * W_V计算得到。
因此,整个Value矩阵V(形状为(batch_size, sequence_length, d_v))可以通过E * W_V计算得到。
计算V(Value)
Q(query)、K(Key)、V(Value)计算
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2026-03-19
百度这件事我跟别人解释了好多次
2026-03-19
马化腾说的养虾,不只是养虾
2026-03-19
Google 再放大招 对着画布说话就能做设计 Figma 股价爆跌8.8%
2026-03-19
深度分析:Agent Harness/框架到底有没有竞争壁垒?
2026-03-19
咨询 | OpenAI、Anthropic纷纷和咨询公司合作的背后,折射除了行业落地AI什么样的趋势?
2026-03-19
大伙都在养虾,MiniMax 带着新模型来偷偷上分了?
2026-03-19
刚刚,被全网猜是DeepSeek V4的神秘大模型,被小米认领了!还能免费“养龙虾”
2026-03-18
试用 Claude 版本的小龙虾方案:Dispatch
2026-01-24
2026-01-10
2026-01-01
2026-01-26
2025-12-21
2026-01-09
2026-01-09
2025-12-30
2026-01-23
2026-01-21
2026-03-19
2026-03-19
2026-03-19
2026-03-18
2026-03-17
2026-03-17
2026-03-09
2026-03-08