About
home
서재
home

BERT

저자
중요도
⭐️⭐️⭐️⭐️
Conference
NAACL
Full 제목
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
발표년도
2019
단체
키워드
LLM
한줄 요약
양쪽 방향으로 학습하는 Transformer