러닝머신의 머신러닝

  • 홈
  • 태그
  • 방명록

TOME 1

[논문 리뷰] TOKEN MERGING: YOUR VIT BUT FASTER (ToMe)

안녕하세요. 오늘 리뷰할 논문은 Meta AI에서 발표한 TOKEN MERGING: YOUR VIT BUT FASTER라는 논문입니다. ICLR Oral(noticable top 5%)로 올라간 논문입니다. 주관적인 의견이지만 Transformer 기반의 모델은 딥러닝 전반에서 좋은 모습을 보여주고 있습니다. 그와 동시에 파라미터를 많이 사용하는 딥러닝의 경향성을 가속화 시켰다고 생각합니다. 그 동안 Model pruning이나 quantization 같이 computing cost를 절약하는 류의 연구들이 동시에 진행이 되었었는 오늘 리뷰할 논문 ToMe는 이러한 연구들과 방향성이 같다고 보시면 될 것 같습니다. Transformer는 GPU 메모리를 차지할 때, 입력으로 들어오는 token의 갯수에 ..

Computer Vision/Transformer 2023.02.24
이전
1
다음
더보기
프로필사진

  • 분류 전체보기 (22)
    • Computer Vision (17)
      • Transformer (5)
      • NeRF (7)
      • Diffusion (0)
      • GAN (1)
    • Vision & Language (3)
    • Natural Language Processing (1)
    • Python (0)
    • 기타 (1)

Tag

Computer Vision, LERF, SNeRG, deep learning, Clip, MobileNeRF, transformer, Token merging, 딥러닝, Machine learning, Vit, Masked autoencoder, Mae, 머신러닝, Segment Anything, GPT, multimodal, Object Detection, vision transformer, NERF,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

  • 안녕하세요

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31

방문자수Total

  • Today :
  • Yesterday :

Copyright © Kakao Corp. All rights reserved.

티스토리툴바