Large language transformer 파생 개요도
https://magazine.sebastianraschka.com/p/understanding-encoder-and-decoder
Understanding Encoder And Decoder LLMs
Several people asked me to dive a bit deeper into large language model (LLM) jargon and explain some of the more technical terms we nowadays take for granted. This includes references to "encoder-style" and "decoder-style" LLMs. What do these terms mean?
magazine.sebastianraschka.com
Transformer 인코더와 디코더 차이
마스킹: 인코더는 unmasked 방법(한번에 모든 시퀀스 데이터를 사용)을 사용하고, 디코더는 masked 방법(시퀀스를 생성할 때 순서에 따라 마스킹한다)
https://hyen4110.tistory.com/40
[NLP] Transformer(트랜스포머)_② Deep dive
이전 글에서 Transformer(트랜스포머)가 왜 등장하였는지 그리고 어떤 특징을 가지고있는지 얕게 살펴보았습니다. 2021.05.17 - [자연어처리(NLP)] - [NLP] Transformer(트랜스포머)_1) Warm up [NLP] Transformer(트랜
hyen4110.tistory.com