러닝머신의 머신러닝

  • 홈
  • 태그
  • 방명록

Self-supervised Learning 1

[논문 리뷰] MoCo: Momentum Contrast for Unsupervised Visual Representation Learning

안녕하세요. 오늘 리뷰할 논문은 MoCo라고 불리는 Momentum Contrast for Unsupervised Visual Representation Learning라는 논문입니다. Facebook에서 2020년에 발표했고, self-supervised 방식으로 visual encoder를 학습시키는 방법을 소개하고 있습니다. 비슷한 류의 논문인 MoCo v2, MoCo v3, SimCLR, BYOL 같은 논문들도 차례로 리뷰해보도록 하겠습니다. (https://arxiv.org/pdf/1911.05722.pdf) Self-supervised learning은 이미지의 라벨 없이도 이미지만 가지고 학습을 할 수 있습니다. 그렇기 때문에 대량의 이미지를 가지고도 모델 학습이 가능합니다. 대량의 이미지를..

Computer Vision 2022.11.21
이전
1
다음
더보기
프로필사진

  • 분류 전체보기 (22)
    • Computer Vision (17)
      • Transformer (5)
      • NeRF (7)
      • Diffusion (0)
      • GAN (1)
    • Vision & Language (3)
    • Natural Language Processing (1)
    • Python (0)
    • 기타 (1)

Tag

딥러닝, Mae, multimodal, GPT, Computer Vision, vision transformer, Machine learning, deep learning, Token merging, 머신러닝, SNeRG, Clip, LERF, Segment Anything, NERF, MobileNeRF, Object Detection, Vit, Masked autoencoder, transformer,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

  • 안녕하세요

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바