MIT線性代數筆記-第26講-對稱矩陣及正定性

目錄

  • 26.對稱矩陣及正定性
    • 打賞

26.對稱矩陣及正定性

  1. 實對稱矩陣的特征值均為實數,并且一定存在一組兩兩正交的特征向量

    這對于單位矩陣顯然成立

    證明特征值均為實數:

    ? ???設一個對稱矩陣 A A A,對于 A x ? = λ x ? A \vec{x} = \lambda \vec{x} Ax =λx ,依第 21 21 21講的小技巧可知 A x ?  ̄ = λ  ̄ x ?  ̄ A \overline{\vec{x}} = \overline{\lambda} \overline{\vec{x}} Ax =λx

    ? ???左右一起轉置可得 x ?  ̄ T A T = λ  ̄ x ?  ̄ T \overline{\vec{x}}^T A^T = \overline{\lambda} \overline{\vec{x}}^T x TAT=λx T,利用對稱性可得 x ?  ̄ T A = λ  ̄ x ?  ̄ T \overline{\vec{x}}^T A = \overline{\lambda} \overline{\vec{x}}^T x TA=λx T,左右一起左乘 x ? \vec{x} x 可得 x ?  ̄ T A x ? = λ  ̄ x ?  ̄ T x ? \overline{\vec{x}}^T A \vec{x} = \overline{\lambda} \overline{\vec{x}}^T \vec{x} x TAx =λx Tx

    ? ???而最初的等式左右一起右乘 x ?  ̄ T \overline{\vec{x}}^T x T可得 x ?  ̄ T A x ? = λ x ?  ̄ T x ? \overline{\vec{x}}^T A \vec{x} = \lambda \overline{\vec{x}}^T \vec{x} x TAx =λx Tx

    ? ???所以 λ  ̄ x ?  ̄ T x ? = λ x ?  ̄ T x ? \overline{\lambda} \overline{\vec{x}}^T \vec{x} = \lambda \overline{\vec{x}}^T \vec{x} λx Tx =λx Tx ,因而若 x ?  ̄ T x ? ≠ 0 \overline{\vec{x}}^T \vec{x} \ne 0 x Tx =0,則 λ \lambda λ為實數

    ? ???下證 x ?  ̄ T x ? ≠ 0 \overline{\vec{x}}^T \vec{x} \ne 0 x Tx =0

    ? ???對于任意復數 x = a + b i x = a + bi x=a+bi,有 x  ̄ x = ( a ? b i ) ( a + b i ) = a 2 + b 2 = ∣ x ∣ 2 \overline{x} x = (a - bi)(a + bi) = a^2 + b^2 = |x|^2 xx=(a?bi)(a+bi)=a2+b2=x2

    ? ???所以 x ?  ̄ T x ? = [ x 1  ̄ x 2  ̄ ? x n  ̄ ] [ x 1 x 2 ? x n ] = ∣ x 1 ∣ 2 + ∣ x 2 ∣ 2 + ? + ∣ x n ∣ 2 = x ? 2 \overline{\vec{x}}^T \vec{x} = \begin{bmatrix} \overline{x_1} & \overline{x_2} & \cdots & \overline{x_n} \end{bmatrix} \begin{bmatrix} x_1 \\ x_2 \\ \vdots \\ x_n \end{bmatrix} = |x_1|^2 + |x_2|^2 + \cdots + |x_n|^2 = \vec{x}^2 x Tx =[x1???x2?????xn???] ?x1?x2??xn?? ?=x1?2+x2?2+?+xn?2=x 2

    ? ???又特征向量不可能是 0 ? \vec{0} 0 ,所以 x ?  ̄ T x ? > 0 \overline{\vec{x}}^T \vec{x} > 0 x Tx >0,因而 λ \lambda λ為實數

    證明一定存在一組兩兩正交的特征向量:

    ? 暫時不會證明 \color{OrangeRed}暫時不會證明 暫時不會證明

    • 可以注意到證明中關鍵的條件是 A = A  ̄ A = \overline{A} A=A,但是對于復矩陣,如果 A = A  ̄ T A = \overline{A}^T A=AT,那么 x ?  ̄ T A = λ  ̄ x ?  ̄ T \overline{\vec{x}}^T A = \overline{\lambda} \overline{\vec{x}}^T x TA=λx T仍成立,特征值仍一定為實數且一定存在一組兩兩正交的特征向量,這樣的復矩陣稱為共軛對稱矩陣
  2. 當挑選出的那些特征向量為一組標準正交基時,對稱矩陣 A = S Λ S ? 1 = Q Λ Q ? 1 = Q Λ Q T A = S \Lambda S^{-1} = Q \Lambda Q^{-1} = Q \Lambda Q^T A=SΛS?1=QΛQ?1=QΛQT

    這種分解展示了對稱矩陣的對稱性,即 ( Q Λ Q T ) T = ( Q T ) T Λ T Q T = Q Λ Q T (Q \Lambda Q^T)^T = (Q^T)^T \Lambda^T Q^T = Q \Lambda Q^T (QΛQT)T=(QT)TΛTQT=QΛQT,它在數學上稱為譜定理,在力學上稱為主軸定理

    進一步推導有

    A = Q Λ Q T = [ ∣ ? ∣ q ? 1 ? q ? n ∣ ? ∣ ] [ λ 1 ? 0 ? ? ? 0 ? λ n ] [ ? q ? 1 T ? ? ? ? ? q ? n T ? ] = λ 1 q ? 1 q ? 1 T + λ 2 q ? 2 q ? 2 T + ? + λ n q ? n q ? n T A = Q \Lambda Q^T = \begin{bmatrix} | & \cdots & | \\ \vec{q}_1 & \cdots & \vec{q}_n \\ | & \cdots & | \end{bmatrix} \begin{bmatrix} \lambda_1 & \cdots & 0 \\ \vdots & \ddots & \vdots \\ 0 & \cdots & \lambda_n \end{bmatrix} \begin{bmatrix} - & \vec{q}_1^{T} & - \\ \cdots & \cdots & \cdots \\ - & \vec{q}_n^{T} & - \end{bmatrix} = \lambda_1 \vec{q}_1 \vec{q}_1^T + \lambda_2 \vec{q}_2 \vec{q}_2^T + \cdots + \lambda_n \vec{q}_n \vec{q}_n^T A=QΛQT= ?q ?1??????q ?n?? ? ?λ1??0?????0?λn?? ? ?????q ?1T??q ?nT?????? ?=λ1?q ?1?q ?1T?+λ2?q ?2?q ?2T?+?+λn?q ?n?q ?nT?

    因為 q ? 1 , q ? 2 , ? , q ? n \vec{q}_1 , \vec{q}_2 , \cdots , \vec{q}_n q ?1?,q ?2?,?,q ?n?為單位向量,所以 q ? 1 T q ? 1 = ? = q ? n T q ? n = 1 \vec{q}_1^T \vec{q}_1 = \cdots = \vec{q}_n^T \vec{q}_n = 1 q ?1T?q ?1?=?=q ?nT?q ?n?=1,所以 q ? 1 q ? 1 T = q ? 1 q ? 1 T q ? 1 T q ? 1 , ? , q ? n q ? n T = q ? n q ? n T q ? n T q ? n \vec{q}_1 \vec{q}_1^T = \dfrac{\vec{q}_1 \vec{q}_1^T}{\vec{q}_1^T \vec{q}_1} , \cdots , \vec{q}_n \vec{q}_n^T = \dfrac{\vec{q}_n \vec{q}_n^T}{\vec{q}_n^T \vec{q}_n} q ?1?q ?1T?=q ?1T?q ?1?q ?1?q ?1T??,?,q ?n?q ?nT?=q ?nT?q ?n?q ?n?q ?nT??,這樣就把 q ? 1 q ? 1 T , ? , q ? n q ? n T \vec{q}_1 \vec{q}_1^T , \cdots , \vec{q}_n \vec{q}_n^T q ?1?q ?1T?,?,q ?n?q ?nT?看成了 q ? 1 , q ? 2 , ? , q ? n \vec{q}_1 , \vec{q}_2 , \cdots , \vec{q}_n q ?1?,q ?2?,?,q ?n?的投影矩陣,因而對稱矩陣可以視為一些向量的投影矩陣的組合,這是人們理解譜定理的另一種辦法

  3. 對稱矩陣的主元中正負數個數分別與其特征值中正負數的個數一致

    證明: 暫時不會證明 \color{OrangeRed}暫時不會證明 暫時不會證明

    由此可以得到一種新的計算特征值的辦法,對于對稱矩陣 A A A,可以得到 A ? n I A - nI A?nI的主元中正負數分別有多少,從而分別知道 A A A有多少個特征值大于、小于 n n n,這樣就可以把特征值逼到一定的精度內

  4. 正定矩陣

    正定矩陣:一個實對稱矩陣 M M M,對于任意實非零向量 x ? \vec{x} x 均滿足 x ? T M x ? > 0 \vec{x}^T M \vec{x} > 0 x TMx >0,那么 M M M為正定矩陣

    • 正定矩陣的特征值和主元均為正實數

      證明: 見第 28 28 28

      • 正定矩陣的行列式也為正實數
    • 正定矩陣的所有子行列式均為正實數

      其中子行列式表示以該正定矩陣的第一個元素為第一個元素的子方陣的行列式

      證明: 暫時不會證明 \color{OrangeRed}暫時不會證明 暫時不會證明


打賞

制作不易,若有幫助,歡迎打賞!
贊賞碼

支付寶付款碼

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/news/208159.shtml
繁體地址,請注明出處:http://hk.pswp.cn/news/208159.shtml
英文地址,請注明出處:http://en.pswp.cn/news/208159.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

作業12.8

1. 使用手動連接,將登錄框中的取消按鈕使用qt4版本的連接到自定義的槽函數中,在自定義的槽函數中調用關閉函數。將登錄按鈕使用qt5版本的連接到自定義的槽函數中,在槽函數中判斷ui界面上輸入的賬號是否為"admin",密碼是…

Matlab simulink PLL學習筆記

本文學習內容:【官方】2022小邁步之 MATLAB助力芯片設計系列(一):電路仿真與模數混合設計基礎_嗶哩嗶哩_bilibili 時域模型 testbench搭建 菜單欄點擊simulink 創建空白模型 點擊庫瀏覽器 在PLL里面選擇一種架構拖拽到畫布。 如…

一文理解什么是交叉熵損失函數以及它的作用

今天看一個在深度學習中很枯燥但很重要的概念——交叉熵損失函數。 作為一種損失函數,它的重要作用便是可以將“預測值”和“真實值(標簽)”進行對比,從而輸出 loss 值,直到 loss 值收斂,可以認為神經網絡模型訓練完成。 那么這…

【Java用法】Hutool樹結構工具-TreeUtil快速構建樹形結構的兩種方式 + 數據排序

Hutool樹結構工具-TreeUtil快速構建樹形結構的兩種方式 數據排序 一、業務場景二、Hutool官網樹結構工具2.1 介紹2.2 使用2.2.1 定義結構2.2.2 構建Tree2.2.3 自定義字段名 2.3 說明 三、具體的使用場景3.1 實現的效果3.2 業務代碼3.3 實現自定義字段的排序 四、踩過的坑4.1 坑…

策略產品經理常用的ChatGPT通用提示詞模板

產品策略:請幫助我制定一個策略產品的產品策略。 市場調研:如何進行策略產品的市場調研? 競爭分析:如何進行策略產品的競爭分析? 用戶畫像:如何構建策略產品的用戶畫像? 產品定位&#xff1…

交換排序(冒泡排序)(快速排序(1))

目錄 1.交換排序 (1)冒泡排序 (2)快速排序 1.交換排序 基本思想:所謂交換,就是根據序列中兩個記錄鍵值的比較結果來對換這兩個記錄在序列中的位置,交換排序的特點是:將鍵值較大的…

ambari hive on Tez引擎一直卡住

hive on tez使用./bin/hive啟動后一直卡住,無法進入命令行 使用TEZ作為Hive默認執行引擎時,需要在調用Hive CLI的時候啟動YARN應用,預分配資源,這需要花一些時間,而使用MapReduce作為執行引擎時是在執行語句的時候才會…

iPaaS架構深入探討

在數字化時代全面來臨之際,企業正面臨著前所未有的挑戰與機遇。技術的迅猛發展與數字化轉型正在徹底顛覆各行各業的格局,不斷推動著企業邁向新的前程。然而,這一數字化時代亦衍生出一系列復雜而深奧的難題:各異系統之間數據孤島、…

基于SuperMap iObjects Java生成地圖瓦片

作者:dongyx 前言 在GIS領域,地圖瓦片技術作為GIS領域的關鍵技術,是提高地圖服務性能的關鍵手段之一。通過預先生成地圖的瓦片數據,可以顯著提升用戶訪問地圖時的響應速度和體驗。SuperMap iObjects for Java作為一款強大的GIS開…

Docker, Docker-compose部署Sonarqube

參考文檔 鏡像地址: https://hub.docker.com/_/sonarqube/tags Docker部署文檔地址 Installing from Docker | SonarQube Docs Docker-compose文檔部署地址: Installing from Docker | SonarQube Docs 部署鏡像 2.1 docker部署 # 宿主機執行 $. vi /etc/sysctl.conf…

Java注解詳解

概述 注解是對程序代碼進行標注和解釋的一種方式。在Java中,注解提供了一種元數據形式,能夠在程序中嵌入有關程序的信息,以便進行進一步的處理。注解通過使用符號來聲明,如Override、Deprecated等。 注解和注釋的區別 注釋&…

Unity中Batching優化的GPU實例化(4)

文章目錄 前言一、構建需要實例化的額外數據二、在頂點著色器,將實例化 ID 從 appdata 存入 v2f 傳給片元著色器三、在片斷著色器中訪問具體的實例化變量三、使用代碼修改Shader材質屬性,實現GPU實例化后不同對象顏色不同的效果1、在C#測試腳本生成小板凳…

ReactJs筆記摘錄

前言 以前2018年搞過一段時間react antd開發&#xff0c;兜兜轉轉又回到react世界。 TODO中 Hook函數 JSX語法 根元素與斜杠 注意局部的jsx片段也要加根元素: return (<div>{items.map((item) > (// 此處只能有一個根元素!!!<>...<div className&quo…

要求CHATGPT高質量回答的藝術:提示工程技術的完整指南—第 23 章:命名實體識別提示

要求CHATGPT高質量回答的藝術&#xff1a;提示工程技術的完整指南—第 23 章&#xff1a;命名實體識別提示 命名實體識別&#xff08;NER&#xff09;是一種允許模型對文本中的命名實體&#xff08;如人物、組織、地點和日期&#xff09;進行識別和分類的技術。 要在 ChatGPT…

微前端介紹

目錄 微前端概念 微前端特性 場景演示 微前端方案 iframe 方案 qiankun 方案 micro-app 方案 EMP 方案 無界微前端 方案 無界方案 成本低 速度快 原生隔離 功能強大 總結 前言&#xff1a;微前端已經是一個非常成熟的領域了&#xff0c;但開發者不管采用哪個現…

Leetcode—290.單詞規律【簡單】

2023每日刷題&#xff08;五十一&#xff09; Leetcode—290.單詞規律 實現代碼 class Solution { public:bool wordPattern(string pattern, string s) {unordered_map<char, string> m1;unordered_map<string, char> m2;stringstream stro(s);string tmp;for(a…

(env: Windows,mp,1.06.2308310; lib: 3.2.4) uniapp微信小程序

應公司需求&#xff0c;在特定情況下需要修改ip 在開發過程中出現的小插曲 1、第一種情況&#xff1a;重復聲明 2、第二種情況&#xff1a; 應官方要求&#xff0c;需要跳轉的 tabBar 頁面的路徑&#xff08;需在 pages.json 的 tabBar 字段定義的頁面&#xff09;&#xff0…

React中使用TypeScript代替prop-types

原文鏈接 公眾號-React中使用TypeScript代替prop-types 個人公眾號&#xff0c;嗚嗚嗚&#xff0c;求各位大佬們關注下&#xff0c;本人的公眾號主要寫React 跟NodeJs的 ?關于prop-types 對于部分的同學&#xff0c;不大了解為什么我們的代碼里面要用到prop-types這個庫&a…

ArkTS快速入門

一、概述 ArkTS是鴻蒙生態的應用開發語言。它在保持TypeScript&#xff08;簡稱TS&#xff09;基本語法風格的基礎上&#xff0c;對TS的動態類型特性施加更嚴格的約束&#xff0c;引入靜態類型。同時&#xff0c;提供了聲明式UI、狀態管理等相應的能力&#xff0c;讓開發者可以…

深度學習基礎回顧

深度學習基礎 淺層網絡 VS 深層網絡深度學習常用的激活函數Sigmoid 函數ReLU 函數Softplus 函數tanh函數 歸納偏置CNN適用數據歸納偏置 RNN適用數據歸納偏置 淺層網絡 VS 深層網絡 淺層神經網絡參數過多&#xff0c;導致模型的復雜度和計算量很高&#xff0c;難以訓練。而深層…