TIL

3.18 D+8

썬2 2024. 3. 18. 13:28

Large language transformer 파생 개요도

https://magazine.sebastianraschka.com/p/understanding-encoder-and-decoder

 

Understanding Encoder And Decoder LLMs

Several people asked me to dive a bit deeper into large language model (LLM) jargon and explain some of the more technical terms we nowadays take for granted. This includes references to "encoder-style" and "decoder-style" LLMs. What do these terms mean?

magazine.sebastianraschka.com

 

Transformer 인코더와 디코더 차이

마스킹: 인코더는 unmasked 방법(한번에 모든 시퀀스 데이터를 사용)을 사용하고, 디코더는 masked 방법(시퀀스를 생성할 때 순서에 따라 마스킹한다)

https://hyen4110.tistory.com/40

 

[NLP] Transformer(트랜스포머)_② Deep dive

이전 글에서 Transformer(트랜스포머)가 왜 등장하였는지 그리고 어떤 특징을 가지고있는지 얕게 살펴보았습니다. 2021.05.17 - [자연어처리(NLP)] - [NLP] Transformer(트랜스포머)_1) Warm up [NLP] Transformer(트랜

hyen4110.tistory.com

 

'TIL' 카테고리의 다른 글

3.20 D+10  (0) 2024.03.22
3.19 D+9  (1) 2024.03.19
3.17 D+7  (0) 2024.03.17
3.16 D+6  (0) 2024.03.16
03.15 D+5  (0) 2024.03.15