🔗 관련 문서: hyper.ai - Masked Language Model
Masked Language Modeling은 문장 내 일부 단어를 [MASK]로 가린 후, 해당 단어를 예측하는 과제를 통해 문맥 이해 능력을 학습하는 방식이다. 이는 BERT 등 트랜스포머 기반 사전학습 모델의 핵심 학습 전략이다.
MLM은 입력 문장에서 임의의 단어를 [MASK]
토큰으로 치환하고, 모델이 해당 위치에 올 수 있는 적절한 단어를 예측하도록 학습한다. 이 방식을 통해 문맥을 양방향으로 이해할 수 있는 표현 학습이 가능해진다.
[MASK]
로 대체입력: "The cat [MASK]
on the mat." → 출력: sits
장점
활용 분야