러닝머신의 머신러닝

  • 홈
  • 태그
  • 방명록

Beit 1

[논문 리뷰] BEiT: BERT Pre-Training of Image Transformers

안녕하세요. 오늘 리뷰해볼 논문은 BEiT: BERT Pre-Training of Image Transformers입니다. 과거에 BERT의 pretrain 방법 중 하나였던 masked language modeling(MLM)은 방대한 학습량을 필요로 하는 transformer 계열 모델에 효과적인 방법으로 알려져있습니다. Vision 분야에서도 추가적인 labeling 작업 없이 샘플 중간에 masking을 하고 그것을 유추하는 유사한 pre-train 방법이 시도되었습니다. BEiT도 이러한 접근법을 사용한 Vision 분야의 Transformer 계열 모델입니다. 일전에 리뷰했던 MAE 논문도 MLM에 영향을 받아서 제안된 논문인데, 두 논문이 발표된 시기를 보면 어느정도 concurrent한 연..

Computer Vision/Transformer 2022.11.05
이전
1
다음
더보기
프로필사진

  • 분류 전체보기 (22)
    • Computer Vision (17)
      • Transformer (5)
      • NeRF (7)
      • Diffusion (0)
      • GAN (1)
    • Vision & Language (3)
    • Natural Language Processing (1)
    • Python (0)
    • 기타 (1)

Tag

Token merging, transformer, Object Detection, SNeRG, MobileNeRF, LERF, Masked autoencoder, Computer Vision, Vit, Clip, 딥러닝, Segment Anything, multimodal, 머신러닝, Machine learning, Mae, vision transformer, GPT, NERF, deep learning,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

  • 안녕하세요

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바