로고 이미지

고정 헤더 영역

글 제목

메뉴 레이어

로고 이미지

메뉴 리스트

  • 홈
  • 태그
  • 분류 전체보기 (62)
    • SnowPea(스노피) AI (9)
    • SnowPea(스노피)-VH (3)
    • 광고수익 (14)
    • 학습 (2)
    • 게임 (1)
    • 서비스 (8)
    • 기사 (24)
홈태그
  • SnowPea(스노피) AI 9
  • SnowPea(스노피)-VH 3
  • 광고수익 14
  • 학습 2
  • 게임 1
  • 서비스 8
  • 기사 24

검색 레이어

로고 이미지

검색 영역

컨텐츠 검색

와포#wafour#생성형ai#generativeai#self-attentionmechanism#스노피#snowpea

  • [스노피 AI] Vision Transformer 쉽게 이해하기 - 5. Self-Attention Mechanism

    2024.08.05 by 와포

[스노피 AI] Vision Transformer 쉽게 이해하기 - 5. Self-Attention Mechanism

Self-Attention Mechanism​1. Introduction to Self-Attention· Definition : Intra-Attention이라고도 알려진 Self-Attention은 모델이 단일 시퀀스의 여러 부분 간의 관계를 고려할 수 있도록 하는 메커니즘입니다. 다른 모든 요소와 관련하여 시퀀스의 각 요소에 대한 attention score를 계산하여 모델이 관련 기능 및 종속성에 집중할 수 있도록 합니다.​2. Importance of Self-Attention· Context understanding : Self-Attention을 사용하면 모델이 데이터 내의 장기적인 종속성과 컨텍스트 관계를 캡처할 수 있습니다.Efficiency : 병렬화를 활성화하여 순환 신경망(RNN)에..

SnowPea(스노피) AI 2024. 8. 5. 10:51

추가 정보

인기글

최신글

페이징

이전
1
다음
Wafour Homepage WAD service
푸터 로고 © Wafour
페이스북 트위터 인스타그램 유투브 메일

티스토리툴바

개인정보

  • 티스토리 홈
  • 포럼
  • 로그인

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.