ysk1m 님의 블로그

  • 홈
  • 태그
  • 방명록

2025/02/20 1

[Deep learning] BERT 개념과 Minimalist Version of BERT 구현해보기

BERT는 Bidirection Encoder Representations from Transformers의 약자로 word embedding을 하기 위해 트랜스포머의 Encoder만 사용하는 것입니다. 자연어 처리에서 Word2Vec, Glove를 이용하여 단어를 표현하는데 Bert는 문장 level에서 잘 표현해 보자는 아이디어입니다. BooksCorpus와 Wikipedia를 활용하여 사전훈련을 진행한 후, 특정 작업에 맞춰 미세 조정을 진행합니다. BERT는 Large scale 모델로 정말 많은 Text로 학습을 시켰는데요. 그게 가능했던 이유는 데이터에 직접 라벨링을 할 필요가 없었기 때문입니다. 모델 구조에 대해 자세히 알아보면 Token EmeddingsInput은 두 가지 문장으로 구성되..

Machine learning & Deep learning 2025.02.20
이전
1
다음
더보기
프로필사진

ysk1m 님의 블로그

ysk1m 님의 블로그 입니다.

  • 분류 전체보기 (51)
    • Paper review (4)
    • Leet code test (1)
    • Machine learning & Deep lea.. (24)
    • Math (0)
    • 자료구조 및 알고리즘 (0)
    • Computing (18)
    • Diffusion (4)

Tag

C++, Ridge regression, Generative Model, confounding effect, Overfitting, k-Fold, transformer, 머신러닝, Machine Learning, sql, 인공지능, 뉴립스, AI, 딥러닝, Multimodal, NeurIPS, Linear Regression, 트랜스포머, Structured Prediction, contrastive learning,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/02   »
일 월 화 수 목 금 토
1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바