About 96,600 results
Open links in new tab
  1. 一文了解Transformer全貌(图解Transformer)

    Sep 26, 2025 · 网上有关Transformer原理的介绍很多,在本文中我们将尽量模型简化,让普通读者也能轻松理解。 1. Transformer整体结构 在机器翻译中,Transformer可以将一种语言翻译成 …

  2. Transformer | Electronics Forum (Circuits, Projects and …

    Feb 3, 2025 · I want to use one centre tap 12 - 0 -12 transformer to power amp (lm1875 stereo) and a small pre amp board but I also need a 5v dc supply. what is best configuration for this. …

  3. 十分钟读懂旋转编码(RoPE)

    Sep 23, 2025 · 旋转位置编码(Rotary Position Embedding,RoPE)是论文 Roformer: Enhanced Transformer With Rotray Position Embedding 提出的一种能够将相对位置信息依赖集成到 self …

  4. Change Pot in Mini Buck Converter | Electronics Forum (Circuits ...

    Mar 8, 2022 · Got this BC and i want to change the pot with something more multi turn. Can you help me figure out what size pot to use? My goal is to use this to make a simple power station …

  5. 有没有比较详细通俗易懂的 Transformer 教程? - 知乎

    Transformer目前没有官方中文译名,暂时就叫Transformer吧。 在该论文中,作者主要将Transformer用于机器翻译 [2] 任务,后来研究者们发现Transformer在自然语言处理的很多任 …

  6. Transformer模型怎么用于regression的问题? - 知乎

    回归问题概述 Transformer模型基础 回归问题中的Transformer架构调整 应用案例 优化与技巧 挑战与改进 1. 回归问题概述 回归问题是监督学习中的一种任务,目标是预测一个连续值。这类问 …

  7. 后 transformer 时代目前的研究方向有哪些? - 知乎

    可以发现关于 transformer 的研究目前正处在一个蓬勃发展的时期。 这里速读了两篇关于 Transformer 的综述 [1,2], 下面列举部分 Transformer 的挑战和未来发展方向。

  8. 深入理解Transformer中的位置编码:

    旋转位置嵌入——图片来自 [6] Transformer的核心组件之一是嵌入(embeddings)。你可能会问:为什么?因为Transformer的自注意力机制是置换不变的(permutation-invariant);它会计 …

  9. 用transformer做视觉,具体是怎么把图片转成token的? - 知乎

    此外,文章的最后也会简要介绍学术界对于自注意力机制有效性的探讨。 2. 来自NLP领域的Transformer Transformer和自注意力机制最早是在NLP领域被用来处理序列数据。 …

  10. Transformer两大变种:GPT和BERT的差别(易懂版)-2更

    Jul 16, 2025 · Transformer是GPT和BERT的前身。谷歌和OpenAI在自然语言处理技术上的优化,都是基于这个模型。 更多关于的Transformer可以看文章: ChatGPT与Transformer(无公 …