반응형
BERT에서 사전학습은 MLM과 NSP를 통해 이뤄짐
MLM(Masked Language Model)입력문서 내 단어(토큰)의 15%가 [MASK]토큰으로 가려지고, 원래 단어를 추측하는 빈칸 채우기 (fill-in-the-blank)작업
NSP(Next Sentence Prediction): 두 개의 문장을 선택해서 그들이 원래 문장에서 (앞뒤로 놓인)연속적인 문장인지 아닌지를 예측하는 작업
BERT, ALBERT, DistilBERT 모델의 MLM 결과는
비슷하다
https://github.com/jasonyim2/book3/blob/main/Transformers%2017-26.ipynb
반응형
'딥러닝' 카테고리의 다른 글
강화학습 deadly triad (0) | 2024.08.16 |
---|---|
python arg생성 후 실행 안되는 에러 (0) | 2024.08.06 |
device가 사용중일 때 나타나는 에러 (0) | 2024.08.06 |
chatopenai error 트러블슈팅 (0) | 2024.05.09 |
Vector Store Index Creator, memory (0) | 2024.05.06 |