[스노피 AI] Vision Transformer 쉽게 이해하기 - 3. Patch Embedding in Vision Transformers
1. Introduction to Patch Embedding
2. Process of Patch Embedding
step 1. 이미지를 패치로 나누기
step 2. 각 패치를 병합
step 3. 임베딩을 얻기 위한 Linear Projection
3. Dividing the Image into Patches
4. Flattening Each Patch
· 예를 들어, 3개의 색상 채널(RGB)이 있는 16x16 패치는 16x16x3 = 768 크기의 벡터를 생성합니다.
5. Linear Projection to Obtain Embeddings
6. Integration with Transformer
7. Example Calculation
작은 입력 이미지를 사용하여 단계별 예를 살펴보겠습니다:
7.1. Input Image
7.2. Dividing into Patches
7.3. Flattening Each Patch
7.4. Linear Projection
8. Advantages and Challenges
8.1. Advantages
8.2. Challenges
9. Applications in Vision Transformers
10. Summary
[스노피 AI] Vision Transformer 쉽게 이해하기 - 5. Self-Attention Mechanism (0) | 2024.08.05 |
---|---|
[스노피 AI] Vision Transformer 쉽게 이해하기 - 4. Positional Encoding in Vision Transformers (0) | 2024.06.26 |
[스노피 AI] Vision Transformer 쉽게 이해하기 - 2. Transformer Architecture (1) | 2024.06.13 |
[스노피 AI] Vision Transformer 쉽게 이해하기 - 1. Introduction (0) | 2024.06.13 |
[스노피 AI] 딥러닝에서 활성화함수(Activation Function) 쉽게 이해하기 (0) | 2024.06.03 |
댓글 영역