大一/线性代数/向量

向量

$\rm vector$ 表示

$||\vec{a}||$为向量的长度

在直角坐标系中

两向量之间的夹角为$0\le\left \langle \alpha,\beta \right \rangle \le \pi$

点乘

$\rm Dot\;Product$

矩阵

运算性质

叉乘

$\rm Cross \;Product$

运算性质

混合积

根据Levi-Civita

范数

表示

根据三角形法则,对于任何一个向量

都可以分解为两个基向量的线性组合

所有线性组合构成集合$\text{span}(\boldsymbol{i},\boldsymbol{j})$,称为张成空间

这就是向量的坐标表示法

直线的向量方程

对于直线,有如下关系

image-20221230132600024

其中非零向量$\vec{AR}$为该直线的方向向量

写成坐标形式,可得

导数

求导的本质只是把标量求导的结果排列起来,至于是按行排列还是按列排列都是可以的

最基本的求导布局有两个:

分子布局(numerator layout)分母布局(denominator layout )

机器学习主要为分子布局

分子布局:分子为列向量,分母为行向量

方向导数,定义的$\rm shape$,例

求导运算是线性算子

雅可比矩阵

线性回归

求导

采用分子布局

ca965b6eb9595c5542db8fa385d9d58a

场论

梯度

向量场里每个点赋予一个向量

散度

描述净流量,若流入大于流出则为负

$(x,y)$点生成的流量

例如对于不可压缩的流体

旋度

image-20230119093040237

Shiwei Pan wechat