[모두의 딥러닝] Tensor Manipulation
📗강의노트/모두의 딥러닝

[모두의 딥러닝] Tensor Manipulation

728x90
반응형

Sung Kim 님의 "모두의 딥러닝" 강의노트입니다

좋은 강의 감사드립니다!

https://www.youtube.com/watch?v=mQGwjrStQgg&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=5


  


  • Rank & shape 
Rank : 차원의 수   ‘ [ ' 가 몇 개 있는가가 rank임
Shape : element의 수 

Rank에 따라 shape의 모양이 달라짐 ex. rank=2, shape = [?,?] rank=4 shape=[?,?,?,?]

4차원 Shape을 볼 때  [  ] 로 구분되는 구간을 줄여나가면서 봐야한다 


Axis  = rank가 4라면 축이 4개(0,1,2,3) 있는 것 제일 안쪽에 있는 게 가장 큰 값을 가짐    -1 은 가장 안쪽에있는 것을 평균내어라! = 3 축


  • Matmul vs multiply 는 다르니 조심해야한다. 

  • Matrix 의 shape이 달라도 연산을 하게 해주는 것이 Broadcasting이다. 


  • Reduce mean : 말 그대로 평균을 구하는 것 
평균을 계산할 때는 floating point 값이어야함   
축 설정이 중요함 

  • Reduce sum
가장 자주 사용하는 것이 sum 하고 mean 하는 것 ( axis = -1 ) 로

  • Argmax
가장 큰 값의 위치를 나타냄 

  • Reshape**
보통 가장 밖의 shape값은 건들지 않음  조합은 그대로 가져가려고 하는 것!  
   Squeeze  ->안의  [  ] 들을 다 제거하고 펴줌
   Expand   expand_dims() 로 더 늘릴 수도 있음 

  • One-hot


depth는 전체 class 수를 말함 0,1,2 -> 3개

해당하는 각 자리만 1로 hot하게 나타내어 표시됨 
그리고 자동적으로  rank가 기존의 것에서 +1이 된 상태로 나오게 된다
이를 해결하기 위해 reshape해주면 된다 

  • Cast  (casting)


  • Stack

  • Ones and Zeros like

기존의 shape에 맞춰 0,1로 가득찬 arrays를 만들 수 있다. 

  • Zip

각각의 element를 받아서 합침 



728x90
반응형