❗️블로그 옮김: https://www.taemobang.com
방태모
안녕하세요, 제 블로그에 오신 것을 환영합니다. 통계학을 전공으로 학부, 석사를 졸업했습니다. 현재는 가천대 길병원 G-ABC에서 Data Science를 하고있습니다. 통계학, 시계열, 통계적학습과 기계
www.taemobang.com
행렬 $\boldsymbol{A}$와 $\boldsymbol{B}$의 곱 $\boldsymbol{AB}$가 정의되려면 $\boldsymbol{A}$의 열의 수와 $\boldsymbol{B}$의 행의 수가 동일해야한다. 만약 $\boldsymbol{A}$의 shape가 $m\times n$이고 $\boldsymbol{B}$의 shape가 $n\times p$이면, 이 둘의 곱 $\boldsymbol{C}$의 shape는 $m\times p$ 이다.
$\boldsymbol{C}$ = $\boldsymbol{AB}$
이런 행렬의 곱연산은 $\boldsymbol{A}$의 각 행과 $\boldsymbol{B}$의 각 열이 곱해져서 정의된다. 수식으로 다음과 같이 적을 수 있다.
$C_{i,j} = \sum_{k}A_{i,j}B_{k,j}$
즉, 두 행렬의 곱은 각 요소들의 곱이 수행되는 것이 아니다. 각 요소끼리 곱이 수행되는 연산은 "element-wise product" 또는 "아다마르 곱(Hadamard product)"라고 정의하며 기호로는 $\boldsymbol{A} \odot \boldsymbol{B}$와 같이 나타낸다. 또한 행렬의 곱에서 결합법칙, 분배법칙은 성립되지만, 교환법칙은 성립되지 않는다. 단, 두 벡터의 곱은 교환법칙이 성립된다. 즉, $\boldsymbol{x}^T \boldsymbol{y} = \boldsymbol{y}^T \boldsymbol{x} $.
행렬 곱의 전치:
$\left (\boldsymbol{AB} \right )^T$ = $\boldsymbol{B}^T \boldsymbol{A}^T$
벡터 곱의 전치:
$\boldsymbol{x}^T \boldsymbol{y}$ = $ \left (\boldsymbol{x}^T \boldsymbol{y} \right )^T$ = $\boldsymbol{y}^T \boldsymbol{x}$
($\boldsymbol{x}^T \boldsymbol{y}$는 스칼라에 해당하기 때문에)
참고 도서
Goodfellow, Ian, Yoshua Bengio, and Aaron Courville. Deep Learning. The MIT Press, 2016
'딥러닝 > 선형대수' 카테고리의 다른 글
특별한 종류의 행렬과 벡터 (0) | 2020.04.10 |
---|---|
norms (0) | 2020.04.10 |
선형방정식과 선형종속, span (0) | 2020.04.10 |
행렬의 전치와 브로드캐스팅 (0) | 2020.04.10 |
선형대수의 여러 객체 소개 (0) | 2020.04.10 |
댓글