본문 바로가기
딥러닝/선형대수

행렬과 벡터의 곱연산

by be-favorite 2020. 4. 10.

 

❗️블로그 옮김:  https://www.taemobang.com

 

방태모

안녕하세요, 제 블로그에 오신 것을 환영합니다. 통계학을 전공으로 학부, 석사를 졸업했습니다. 현재는 가천대 길병원 G-ABC에서 Data Science를 하고있습니다. 통계학, 시계열, 통계적학습과 기계

www.taemobang.com

행렬 $\boldsymbol{A}$와 $\boldsymbol{B}$의 곱 $\boldsymbol{AB}$가 정의되려면 $\boldsymbol{A}$의 열의 수와 $\boldsymbol{B}$의 행의 수가 동일해야한다. 만약 $\boldsymbol{A}$의 shape가 $m\times n$이고 $\boldsymbol{B}$의 shape가 $n\times p$이면, 이 둘의 곱 $\boldsymbol{C}$의 shape는 $m\times p$ 이다.

$\boldsymbol{C}$ = $\boldsymbol{AB}$

이런 행렬의 곱연산은 $\boldsymbol{A}$의 각 행과 $\boldsymbol{B}$의 각 열이 곱해져서 정의된다. 수식으로 다음과 같이 적을 수 있다.

$C_{i,j} = \sum_{k}A_{i,j}B_{k,j}$

즉, 두 행렬의 곱은 각 요소들의 곱이 수행되는 것이 아니다. 각 요소끼리 곱이 수행되는 연산은 "element-wise product" 또는 "아다마르 곱(Hadamard product)"라고 정의하며 기호로는 $\boldsymbol{A} \odot \boldsymbol{B}$와 같이 나타낸다. 또한 행렬의 곱에서 결합법칙, 분배법칙은 성립되지만, 교환법칙은 성립되지 않는다. 단, 두 벡터의 곱은 교환법칙이 성립된다. 즉, $\boldsymbol{x}^T \boldsymbol{y} = \boldsymbol{y}^T \boldsymbol{x} $.

행렬 곱의 전치:

$\left (\boldsymbol{AB}  \right )^T$ = $\boldsymbol{B}^T \boldsymbol{A}^T$

벡터 곱의 전치:

$\boldsymbol{x}^T \boldsymbol{y}$ = $ \left (\boldsymbol{x}^T \boldsymbol{y} \right )^T$ = $\boldsymbol{y}^T \boldsymbol{x}$
($\boldsymbol{x}^T \boldsymbol{y}$는 스칼라에 해당하기 때문에)

 

 

참고 도서
Goodfellow, Ian, Yoshua Bengio, and Aaron Courville. Deep Learning. The MIT Press, 2016

'딥러닝 > 선형대수' 카테고리의 다른 글

특별한 종류의 행렬과 벡터  (0) 2020.04.10
norms  (0) 2020.04.10
선형방정식과 선형종속, span  (0) 2020.04.10
행렬의 전치와 브로드캐스팅  (0) 2020.04.10
선형대수의 여러 객체 소개  (0) 2020.04.10

댓글