반응형

배울 점이 많은 강의가 있어서 추천드리며, 시리즈로 글을 쓰고자 합니다.

비정형 데이터 분석 10/11 #Transformer

https://youtu.be/uiEa6aKq_2I

 

키워드 및 핵심 내용

Transformer

Seq2Seq(Encoder + Decoder) 구조이지만 Attention을 활용한 병렬 처리 가능

Incoder 구조

Input Embedding -> Positional Encoding -> Multi-Head Attention(+정규화) -> Feed Forward(+정규화)

Positional Encoding : sin, cos 함수 이용

Attention(q, k, v) -> Multi-Head Attention (Wq, Wk, Wv) -> Wz


[Transformer 추가 자료]

https://youtu.be/mxGCEWOxfe8

 


[Transformer 추가 자료]

https://nlpinkorean.github.io/illustrated-transformer/

전체구조

Encoder

self-attention

self-attention의 계산 과정

multi-headed self-attention

Encoder layer-normalization 과정

Decoder

Decoder 최종 출력 과정


[자연어처리 추가 자료]

https://youtu.be/qlxrXX5uBoU

 


[이은아님 강의 모음]

https://www.youtube.com/playlist?list=PLGAnpwASolI0vViZItiP90nWI_s9m91Av

 


 

반응형

+ Recent posts