利用特征向量的属性,矩阵 \(A\) 可以变成一个对角化矩阵 \(\Lambda\)。

1. 对角化

假设一个 \(n×n\) 的矩阵 \(A\) 有 \(n\) 个线性不相关的特征向量 \(x_1,\cdots,x_n\) ,把它们作为特征向量矩阵 \(S\) 的列,那么就有 \(S^{-1}AS=\Lambda\)。

矩阵 \(A\) 被对角化了,因为所有的特征向量位于矩阵 \(\Lambda\)的对角线上。

证明过程也很简单,首先我们计算 \(AS\)。

一个技巧就是将 \(AS\) 分解成 \(S\Lambda\)。

所以我们有

\[AS=S\Lambda \quad S^{-1}AS=\Lambda \quad A=S\Lambda S^{-1}\]

矩阵 \(S\) 有逆矩阵,因为我们假设它的列是 \(n\) 个线性不相关的特征向量。如果没有 \(n\) 个线性不相关的特征向量,我们就不能进行对角化。

由 \(A=S\Lambda S^{-1}\) 可得,\(A^2=S\Lambda S^{-1}S\Lambda S^{-1} = S\Lambda^2 S^{-1}\),平方后我们得到\(S\) 中相同的特征向量和 \(\Lambda\) 中平方的特征值。同理,我们可以得到 \(k\) 次方为 \(A^k=S\Lambda^k S^{-1}\)。

当 \(k=1\) 时,我们得到 \(A\).当 \(k=0\) 时,我们得到 \(A^0=I\)。当 \(k=-1\) 时,我们得到 \(A^{-1}\)。

再继续往下进行之前,有几点需要我们注意。

  • 如果特征值 \(\lambda_1,\cdots,\lambda_n\) 全部都不相同,那么自动地特征向量 \(x_1,\cdots,x_n\) 就是线性不相关的。任意没有重复特征值的矩阵都可以被对角化。

证明:

假设 \(c_1x_1 + \cdots+c_nx_n = 0\),我们乘以矩阵 \(A\),有

\[\tag{1} c_1\lambda_1x_1 + \cdots+c_n\lambda_nx_n = 0\]

然后,乘以 \(\lambda_{n}\) 并减去上面的式子 (1),有

\[\tag{2} c_1\lambda_{n}x_1 + \cdots+c_n\lambda_{n}x_n = 0\]

\[\tag{3} c_1(\lambda_{n}-\lambda_1)x_1 + \cdots+c_{n-1}(\lambda_{n}-\lambda_1)x_{n-1} = 0\]

这会消去 \(x_n\),我们继续用 (3) 式分别乘以 \(A\) 和 \(\lambda_{n-1}\),再相减, \(x_{n-1}\) 就也被消去了。一直重复这个过程,最后,我们就只剩下了 \(x_1\)。

\[\tag{4} c_1(\lambda_{n}-\lambda_1)(\lambda_{n-1}-\lambda_1)\cdots(\lambda_{2}-\lambda_1)x_1= 0\]

因为特征值互不相同,因此有 \(c_1 = 0\),同理我们可得所有的系数都为 0,也即零空间只有零向量,所以这些特征向量是线性不相关的。

  • 特征向量乘以任意非零常数后,\(Ax = \lambda x\) 仍然成立。

  • 特征向量在 \(S\) 中的顺序和特征值在 \(\Lambda\) 中的顺序是一样的,也就是特征向量和特征值必须一一对应。

在上面的例子中,如果我们互换特征向量的顺序,那么 \(\Lambda\) 中特征值的顺序也要相应改变。

  • 一些矩阵没有足够的特征向量,因此不能被对角化,特别是注意有重复特征值的情况。

而且要注意,可逆性和可对角化性之间没有联系。可逆性和是否存在零特征值有关,而可对角化性和是否有足够的特征向量有关

2. 斐波那契数列

斐波那契序列满足 \(F_{k+2} = F_{k+1} + F_{k}\)。为了找到 \(F_{100}\),我们可以从 \(F_{2}\) 开始,每次求出一个新的值,直至得到 \(F_{100}\)。线性代数则给出了一个更好的方法,我们将之转化为 \(u_{k+1}=Au_k\) 的问题。

每一次我们都乘以矩阵 \(A\),100 次后我们就得到了 \(u_{100}=A^{100}u_0\)。

这样,我们就可以利用特征值来求解了。

求解特征方程,我们可以得到两个特征值分别为:

进而得到两个特征向量分别为:

\[x_1 = \begin{bmatrix}\lambda_1\\ 1\end{bmatrix} \quad x_2 = \begin{bmatrix}\lambda_2\\ 1\end{bmatrix}\]

然后我们将 \(u_0\) 表示为特征向量的线性组合。

那么就有

\[u_{100}=A^{100}u_0 = \frac{1}{\lambda_1 - \lambda_2}A^{100}(x_1-x_2) = \frac{\lambda_1^{100}x_1 - \lambda_2^{100}x_2}{\lambda_1 - \lambda_2}\]

上式中的第二项底数小于 0.5,因此会渐渐趋向于 0,也就是说随着 \(n\) 增大逐渐只有第一项有效。

\[\frac{F_{101}}{F_{100}} \approx \frac{1+\sqrt{5}}{2}\approx 1.618\]

这个数字就是我们众所周知的黄金比例。

3. \(A\) 的幂

斐波那契数列是一个典型的差分方程,每一步我们都乘以矩阵 \(A\)。下面我们来看一下对角化是怎么来快速计算 \(A^k\) 的。

\[A^k u_0= (S\Lambda S^{-1})\cdots(S\Lambda S^{-1})u_0 = S\Lambda^{k} S^{-1}u_0\]

然后我们将 \(u_0\) 表示为特征向量的线性组合

  • \[u_0 = c_1x_1+\cdots+c_nx_n \to u_0=Sc \to c = S^{-1}u_0\]

  • \[Au_0 = c_1Ax_1+\cdots+c_nAx_n =c_1\lambda_1x_1+\cdots+c_n\lambda_nx_n\]
  • \[A^ku_0 = c_1\lambda_1^kx_1+\cdots+c_n\lambda_n^kx_n = S\Lambda^kc\]

4. 不可对角化矩阵

特征值 \(\lambda\) 可能会有重复情况,这时候我们想知道它的重复度(multiplicity),有两种方法来计量。

  • 几何重数(Geometric Multiplicity)与特征值 \(\lambda\) 对应的线性不相关的特征向量的个数
  • 代数重数(Algebraic Multiplicity)特征值 \(\lambda\) 的重复次数,也就是 \(det(A-\lambda I)\) 的重根数

几何重数小于等于代数重数。

几何重数小于代数重数说明特征向量数量不够,也就是说 \(A\) 不能被对角化。

5. \(AB\) 和 \(A+B\) 的特征值

让我们来猜一猜 \(AB\) 的特征值是多少?

你可能会说是它们各自特征值的积。

\[ABx = A\beta x = \beta Ax=\beta\lambda x\]

但是,通常情况下 \(A\) 和 \(B\) 的特征向量是不相同的,因此上面的证明是错误的。同样,两个矩阵各自特征值的和也通常不是两个矩阵和的特征值。

但是,如果 \(x\) 同时是 \(A\) 和 \(B\) 的特征向量。那么有

\[ABx = \lambda\beta x = BAx \to AB = BA\]

因此,如果 \(A\) 和 \(B\) 都可以被对角化,它们拥有相同的特征向量当且仅当 \(AB=BA\)。

获取更多精彩,请关注「seniusen」!

线性代数之——对角化和 A 的幂的更多相关文章

  1. MIT线性代数:22.对角化和A的幂

  2. 基于mindwave脑电波进行疲劳检测算法的设计(4)

    上一次的实验做到可以从pc端读取到MindWave传输过来的脑电波原始数据了. 我是先定义一个结构体,该结构体对应保存所有能从硬件中取到的原始数据. struct FD_DATA { int batt ...

  3. 【模板整合计划】NB数论

    [模板整合计划]NB数论 一:[质数] 1.[暴力判] 素数.コンテスト.素数 \(\text{[AT807]}\) #include<cstdio> #include<cmath& ...

  4. Solution -「CF 923E」Perpetual Subtraction

    \(\mathcal{Description}\)   Link.   有一个整数 \(x\in[0,n]\),初始时以 \(p_i\) 的概率取值 \(i\).进行 \(m\) 轮变换,每次均匀随机 ...

  5. 【线性代数】6-2:对角化(Diagonalizing a Matrix)

    title: [线性代数]6-2:对角化(Diagonalizing a Matrix) categories: Mathematic Linear Algebra keywords: Eigenva ...

  6. Codeforces 947E Perpetual Subtraction (线性代数、矩阵对角化、DP)

    手动博客搬家: 本文发表于20181212 09:37:21, 原地址https://blog.csdn.net/suncongbo/article/details/84962727 呜啊怎么又是数学 ...

  7. 【线性代数】7-3:对角化和伪逆(Diagonalization and the Pseudoinverse)

    title: [线性代数]7-3:对角化和伪逆(Diagonalization and the Pseudoinverse) categories: Mathematic Linear Algebra ...

  8. 线性代数笔记24——微分方程和exp(At)

    原文:https://mp.weixin.qq.com/s/COpYKxQDMhqJRuMK2raMKQ 微分方程指含有未知函数及其导数的关系式,解微分方程就是找出未知函数.未知函数是一元函数的,叫常 ...

  9. 2019暑期金华集训 Day2 线性代数

    自闭集训 Day2 线性代数 高斯消元 做实数时,需要找绝对值最大的作为主元,以获取更高精度. 在欧几里得环(简单例子是模合数)意义下也是对的.比如模合数意义下可以使用辗转相除法消元. 欧几里得环:对 ...

随机推荐

  1. iOS 从零到一搭建组件化项目框架

    随着公司业务需求的不断迭代发展,工程的代码量和业务逻辑也越来越多,原始的开发模式和架构已经无法满足我们的业务发展速度了,这时我们就需要将原始项目进行一次重构大手术了.这时我们应该很清晰这次手术的动刀口 ...

  2. ACM 2003~2005

    ACM 2003 求实数的绝对值 import java.util.Scanner; public class Lengxc { public static void main(String[] ar ...

  3. mysql 库和表占用空间查询

    1. 查看该数据库实例下所有库大小,得到的结果是以MB为单位 as sum from information_schema.tables; 2.查看该实例下各个库大小 as total_mb, as ...

  4. 7、Linux应用程序地址布局

    程序构成 在学习Linux应用程序开发时,经常会遇到如下概念: 代码段.数据段.BSS段(Block Started by Symbol,又名:未始化数据段) .堆(heap)和栈(stack).始化 ...

  5. PHP变量问题,Bugku变量1

    知识点:php正则表达式,php函数,全局变量GLOBALS(注意global和$GLOBALS[]的区别) PHP函数: isset():     条件判断 get方法传递的args参数是否存在 p ...

  6. java 代理模式(模拟代购)

    interface Isubject{ void buyAJ(); } class realsubject implements Isubject{ public void buyAJ(){ Syst ...

  7. 快排(golang实现) 递归方法

    递归方法,逻辑简洁清晰.这个算法还是很重要的,需要重点记忆理解,面试经常考手写.据说是与傅里叶变换等并称“20世纪十大算法”.https://blog.csdn.net/v_JULY_v/articl ...

  8. [Python3.x]多次登陆锁定用户

    要求:输入用户名,密码认证成功显示欢迎信息输入错误三次后锁定用户Readme: 1.account.txt是存放用户id及密码的文件 2.account_loc.txt是存放被锁定的用户id的文档,默 ...

  9. 【LG4735】最大异或和

    [LG4735]最大异或和 题意 洛谷 题解 维护一个前缀异或和\(S_i\) 对于一个询问操作\(l\).\(r\).\(x\) 就是等价于求一个位置\(p\)(\(l\leq p \leq r)\ ...

  10. Typeahead的使用总结

    Typeahead是Bootstrap的自动补全JS插件. 最近项目中用到,总结一下. 与autocomplish类似,通过ajax实现,实现流程是前台输入关键字,后台根据关键字查询出信息,构造jso ...