阅读翻译Mathematics for Machine Learning之2.6 Generating Set and Basis
阅读翻译Mathematics for Machine Learning之2.6 Generating Set and Basis
关于:
- 首次发表日期:2024-07-19
- Mathematics for Machine Learning官方链接: https://mml-book.com
- ChatGPT和KIMI机翻,人工润色
- 非数学专业,如有错误,请不吝指出
2.6.1 Basis and Rank (基与秩)
定义 2.13(生成集与张成)。考虑一个向量空间 \(V=(\mathcal{V}, +, \cdot)\) 和一组向量 \(\mathcal{A}=\left\{\boldsymbol{x}_1, \ldots, \boldsymbol{x}_k\right\} \subseteq \mathcal{V}\)。如果 \(\mathcal{V}\) 中的每一个向量 \(\boldsymbol{v}\) 都可以表示为 \(\boldsymbol{x}_1, \ldots, \boldsymbol{x}_k\) 的线性组合,则称 \(\mathcal{A}\) 为 \(V\) 的一个生成集。向量 \(\mathcal{A}\) 中所有向量的线性组合构成的集合称为 \(\mathcal{A}\) 的张成。如果 \(\mathcal{A}\) 张成了向量空间 \(V\),我们写作 \(V=\operatorname{span}[\mathcal{A}]\) 或 \(V=\operatorname{span}\left[\boldsymbol{x}_1, \ldots, \boldsymbol{x}_k\right]\)。
生成集是张成向量(子)空间的向量集合,即每一个向量都可以表示为生成集中向量的线性组合。现在,我们将更加具体地描述张成向量(子)空间的最小生成集。
定义 2.14(基)。考虑一个向量空间 \(V=(\mathcal{V}, +, \cdot)\) 和 \(\mathcal{A} \subseteq \mathcal{V}\)。如果不存在比 \(\mathcal{A}\) 更小的集合 \(\tilde{\mathcal{A}} \subsetneq \mathcal{A} \subseteq \mathcal{V}\) 能张成 \(V\),那么\(V\) 的生成集 \(\mathcal{A}\) 被称为最小生成集。\(V\) 的每一个线性无关的生成集都是最小的,并且被称为 \(V\) 的一个基。
设 \(V=(\mathcal{V},+, \cdot)\) 是一个向量空间,\(\mathcal{B} \subseteq \mathcal{V}, \mathcal{B} \neq \emptyset\)。那么,以下陈述是等价的:
- \(\mathcal{B}\) 是 \(V\) 的一个基。
- \(\mathcal{B}\) 是一个最小生成集。
- \(\mathcal{B}\) 是 \(V\) 中的最大线性无关向量集,即向这个集合中添加任何其他向量都会使其线性相关。
- 每一个向量 \(\boldsymbol{x} \in V\) 都是来自 \(\mathcal{B}\) 的向量的线性组合,并且每个线性组合都是唯一的,即:
\tag{2.77}
\]
且 \(\lambda_i, \psi_i \in \mathbb{R}, \boldsymbol{b}_i \in \mathcal{B}\),这意味着 \(\lambda_i=\psi_i, i=1, \ldots, k\)。
基是一个最小的生成集和一个最大的线性无关向量集合。
**例2.16**
- 在 \(\mathbb{R}^3\) 中,标准基是
1 \\
0 \\
0
\end{array}\right],\left[\begin{array}{l}
0 \\
1 \\
0
\end{array}\right],\left[\begin{array}{l}
0 \\
0 \\
1
\end{array}\right]\right\}
\]
- \(\mathbb{R}^3\) 中不同的基是
1 \\
0 \\
0
\end{array}\right],\left[\begin{array}{l}
1 \\
1 \\
0
\end{array}\right],\left[\begin{array}{l}
1 \\
1 \\
1
\end{array}\right]\right\}, \mathcal{B}_2=\left\{\left[\begin{array}{l}
0.5 \\
0.8 \\
0.4
\end{array}\right],\left[\begin{array}{l}
1.8 \\
0.3 \\
0.3
\end{array}\right],\left[\begin{array}{c}
-2.2 \\
-1.3 \\
3.5
\end{array}\right]\right\} .
\]
- 集合
1 \\
2 \\
3 \\
4
\end{array}\right],\left[\begin{array}{c}
2 \\
-1 \\
0 \\
2
\end{array}\right],\left[\begin{array}{c}
1 \\
1 \\
0 \\
-4
\end{array}\right]\right\}
\]
是线性无关的,但不是 \(\mathbb{R}^4\) 的生成集(也不是基):例如,向量 \([1,0,0,0]^{\top}\) 不能通过 \(\mathcal{A}\) 中元素的线性组合得到。
注释 每个向量空间 \(V\) 都有一个基 \(\mathcal{B}\)。前面的例子表明,一个向量空间 \(V\) 可以有许多不同的基,即没有唯一的基。然而,所有的基都具有相同数量的元素,即基向量。
我们只考虑有限维向量空间 \(V\)。在这种情况下,\(V\) 的维数是其基向量的数量,记作 \(\operatorname{dim}(V)\)。如果 \(U \subseteq V\) 是 \(V\) 的子空间,则 \(\operatorname{dim}(U) \leqslant \operatorname{dim}(V)\),且当且仅当 \(U=V\)时 \(\operatorname{dim}(U) = \operatorname{dim}(V)\) 。直观地说,向量空间的维数可以理解为这个空间中独立方向的数量。
注释 向量空间的维数不一定是向量中元素的数量。例如,向量空间 \(V=\operatorname{span}[\left[\begin{array}{l}0 \\ 1\end{array}\right]]\) 是一维的,尽管基向量具有两个元素。
向量空间的维数对应于其基向量的数量。
注释 子空间 \(U=\operatorname{span}\left[\boldsymbol{x}_1, \ldots, \boldsymbol{x}_m\right] \subseteq \mathbb{R}^n\) 的一个基可以通过以下步骤找到:
- 将张成向量写成矩阵 \(\boldsymbol{A}\) 的列。
- 求解矩阵 \(\boldsymbol{A}\) 的行阶梯形式。
- 与枢轴列相关联的张成向量构成 \(U\) 的一个基。
2.6.2 Rank(秩)
一个矩阵 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的线性无关列的数量等于线性无关行的数量,并且被称为 \(\boldsymbol{A}\) 的秩,表示为 \(\operatorname{rk}(\boldsymbol{A})\)。
注释。矩阵的秩具有一些重要性质:
- \(\operatorname{rk}(\boldsymbol{A})=\operatorname{rk}\left(\boldsymbol{A}^{\top}\right)\),即,列秩等于行秩。
- \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的列张成一个子空间 \(U \subseteq \mathbb{R}^m\),其维数为 \(\operatorname{dim}(U)=\operatorname{rk}(\boldsymbol{A})\)。稍后我们将这个子空间称为像或值域。通过应用高斯消元法到 \(\boldsymbol{A}\) 可以找到 \(U\) 的一个基,以识别枢轴列。
- \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的行张成一个子空间 \(W \subseteq \mathbb{R}^n\),其维数为 \(\operatorname{dim}(W)=\operatorname{rk}(\boldsymbol{A})\)。通过应用高斯消元法到 \(\boldsymbol{A}^{\top}\) 可以找到 \(W\) 的一个基。
- 对于所有的 \(\boldsymbol{A} \in \mathbb{R}^{n \times n}\),如果且仅如果 \(\operatorname{rk}(\boldsymbol{A})=n\),\(\boldsymbol{A}\) 是正则的(可逆的)。
- 对于所有的 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 和所有的 \(\boldsymbol{b} \in \mathbb{R}^m\),线性方程组 \(\boldsymbol{A} \boldsymbol{x}=\boldsymbol{b}\) 可以求解当且仅当 \(\operatorname{rk}(\boldsymbol{A})=\operatorname{rk}(\boldsymbol{A} \mid \boldsymbol{b})\),其中 \(\boldsymbol{A} \mid \boldsymbol{b}\) 表示增广系统。
- 对于 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\),\(\boldsymbol{A x}=\mathbf{0}\) 的解空间具有维数 \(n-\operatorname{rk}(\boldsymbol{A})\)。稍后,我们将这个子空间称为核或零空间。
- 如果矩阵 \(\boldsymbol{A} \in \mathbb{R}^{m \times n}\) 的秩等于相同维度矩阵的最大可能秩,则称其具有满秩。这意味着满秩矩阵的秩是行数和列数中的较小者,即 \(\operatorname{rk}(\boldsymbol{A})=\min (m, n)\)。如果矩阵没有满秩,则称其为秩亏损的。
例子2.18(秩)
- \(\boldsymbol{A}=\left[\begin{array}{lll}1 & 0 & 1 \\ 0 & 1 & 1 \\ 0 & 0 & 0\end{array}\right]\)
矩阵 \(\boldsymbol{A}\) 有两行/列是线性无关的,因此 \(\operatorname{rk}(\boldsymbol{A})=2\)。
- \(\boldsymbol{A}=\left[\begin{array}{ccc}1 & 2 & 1 \\ -2 & -3 & 1 \\ 3 & 5 & 0\end{array}\right]\)。
我们使用高斯消元法来确定秩:
1 & 2 & 1 \\
-2 & -3 & 1 \\
3 & 5 & 0
\end{array}\right] \rightsquigarrow \cdots \rightsquigarrow\left[\begin{array}{ccc}
1 & 2 & 1 \\
0 & 1 & 3 \\
0 & 0 & 0
\end{array}\right] .
\]
在这里,我们看到线性无关的行和列的数量是 2,因此 \(\operatorname{rk}(\boldsymbol{A})=2\)。
阅读翻译Mathematics for Machine Learning之2.6 Generating Set and Basis的更多相关文章
- How do I learn mathematics for machine learning?
https://www.quora.com/How-do-I-learn-mathematics-for-machine-learning How do I learn mathematics f ...
- 【机器学习|数学基础】Mathematics for Machine Learning系列之线性代数(1):二阶与三阶行列式、全排列及其逆序数
@ 目录 前言 二阶与三阶行列式 二阶行列式 三阶行列式 全排列及其逆序数 全排列 逆序数 结语 前言 Hello!小伙伴! 非常感谢您阅读海轰的文章,倘若文中有错误的地方,欢迎您指出- 自我介绍 ...
- 【机器学习Machine Learning】资料大全
昨天总结了深度学习的资料,今天把机器学习的资料也总结一下(友情提示:有些网站需要"科学上网"^_^) 推荐几本好书: 1.Pattern Recognition and Machi ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料
<Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.D ...
- 机器学习(Machine Learning)&深入学习(Deep Learning)资料
<Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost 到随机森林. ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料【转】
转自:机器学习(Machine Learning)&深度学习(Deep Learning)资料 <Brief History of Machine Learning> 介绍:这是一 ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料汇总 (上)
转载:http://dataunion.org/8463.html?utm_source=tuicool&utm_medium=referral <Brief History of Ma ...
- 机器学习(Machine Learning)&深度学习(Deep Learning)资料
机器学习(Machine Learning)&深度学习(Deep Learning)资料 機器學習.深度學習方面不錯的資料,轉載. 原作:https://github.com/ty4z2008 ...
- 机器学习(Machine Learning)与深度学习(Deep Learning)资料汇总
<Brief History of Machine Learning> 介绍:这是一篇介绍机器学习历史的文章,介绍很全面,从感知机.神经网络.决策树.SVM.Adaboost到随机森林.D ...
- Multimodal Machine Learning:A Survey and Taxonomy 综述阅读笔记
该笔记基于:Multimodal Machine Learning:A Survey and Taxonomy 该论文是一篇对多模态机器学习领域的总结和分类,且发表于2017年,算是相当新的综述了.老 ...
随机推荐
- acedCommand 之使用镜像命令
ads_name ent; ads_point pt2, pt3; if (acedSSGet(NULL, NULL, NULL, NULL, ent) != RTNORM) { return; } ...
- Hugging Face x LangChain: 全新 LangChain 合作伙伴包
我们很高兴官宣发布 langchain_huggingface ,这是一个由 Hugging Face 和 LangChain 共同维护的 LangChain 合作伙伴包.这个新的 Python 包旨 ...
- docker 监控数据整合
安装docker #开启内核转发 echo net.ipv4.ip_forward=1 >>/etc/sysctl.conf sysctl -p wget -O /etc/yum.repo ...
- mysql通过binlog来恢复被删除的数据库
binlog日志 查询: MariaDB [(none)]> show variables like 'log_bin'; +---------------+-------+ | Variabl ...
- 7.13早考试总结(NOIP模拟13)[工业题·卡常题·玄学题]
人的记忆本来就是暧昧的,不值得信任. 前言 又是令人头疼的数学部分..还是太菜了.. 晚上还有一场,当场裂开. T1 工业题 解题思路 首先,这个题的暴力还是非常好像的,直接按照题目要求码就好了. 对 ...
- Python实现字符串模糊匹配
在一个字符串中,有时需对其中某些内容进行模糊匹配以实现条件的判定,如在"你好,hello,world"中判断是否含有"llo".Python中通过re.se ...
- 第二次大作业BLOG心得
(1)前言: 知识点: ①ArrayLsit的知识点: ArrayList 是 Java 中的动态数组实现,它提供了自动调整大小的功能,可以根据需要动态增长或收缩. ArrayList 可以存储任意类 ...
- 『手撕Vue-CLI』拷贝模板
开篇 经过上篇文章的介绍,实现了可以根据用户选择的模板名称加上对应的版本号,可以下载对应的模板,并且将下载之后的文件存放在用户目录下的 .nue-template文件夹中. 接下来这篇文章主要实现内容 ...
- 新手入门html 表格 表单 超链接 图片
超链接标签 <a></a> A里面的html属性 href="所要跳转到的目标连接" <a href="http:是必须加的"&g ...
- php分组查询和聚合函数 数据显示的顺序
// 分组查询和聚合函数 // 分组查询 : 将指定字段中的数据,按照不同的具体数值,进行分组 // 数据相同的分在一个分组中 ...