Математика

Матрицы, определители, страница 2

матрицы, определители, системы, собственные значения

120 формул

Формулы темы

Показаны 61-120 из 120. Продолжение находится на соседних страницах темы.

Диагонализация матрицы

Диагонализация представляет квадратную матрицу A в виде A=PDP^{-1}, где D диагональна, а столбцы P являются собственными векторами A. Это переводит действие оператора в собственный базис.

$A=PDP^{-1}$

Базис из собственных векторов

Базис из собственных векторов - это базис пространства, каждый вектор которого является собственным для оператора A. В таком базисе матрица оператора становится диагональной.

$B=(v_1,\ldots,v_n),\quad Av_i=\lambda_i v_i$

Критерий диагонализируемости через геометрические кратности

Матрица n x n диагонализируема тогда и только тогда, когда сумма размерностей всех ее собственных пространств равна n. Это означает, что собственных векторов хватает на базис.

$A\text{ диагонализируема}\Longleftrightarrow \sum_{\lambda\in\sigma(A)}\dim E_\lambda=n$

Диагонализируемость при различных собственных значениях

Если матрица n x n имеет n различных собственных значений, то она диагонализируема. Разным собственным значениям соответствуют линейно независимые собственные векторы.

$\lambda_1,\ldots,\lambda_n\text{ различны}\Longrightarrow A\text{ диагонализируема}$

Диагонализация матрицы 2x2

Матрица 2x2 диагонализируется, если для нее можно найти два линейно независимых собственных вектора. При двух различных собственных значениях это выполняется автоматически.

$A=P\begin{pmatrix}\lambda_1&0\\0&\lambda_2\end{pmatrix}P^{-1}$

Степень диагонализируемой матрицы

Если A=PDP^{-1}, то степень A^k вычисляется как PD^kP^{-1}. Диагональную матрицу D возводят в степень по диагональным элементам.

$A^k=PD^kP^{-1},\quad D^k=\operatorname{diag}(\lambda_1^k,\ldots,\lambda_n^k)$

Функция от диагонализируемой матрицы

Если A диагонализируема, функцию от матрицы можно вычислить через функцию от ее собственных значений. Для диагональной D функция применяется к каждому диагональному элементу.

$f(A)=P f(D) P^{-1},\quad f(D)=\operatorname{diag}(f(\lambda_1),\ldots,f(\lambda_n))$

Недиагонализируемая матрица с жордановым блоком

Жорданов блок 2x2 с единицей над диагональю имеет одно собственное значение lambda алгебраической кратности 2, но только одно независимое собственное направление. Поэтому он не диагонализируем.

$J=\begin{pmatrix}\lambda&1\\0&\lambda\end{pmatrix},\quad \dim E_\lambda=1<2$

Норма вектора через скалярное произведение

Длина вектора в евклидовом пространстве равна квадратному корню из его скалярного произведения с самим собой. Формула связывает геометрическую длину с алгебраической операцией над координатами.

$\|v\|=\sqrt{v\cdot v}$

Ортонормированный базис

Базис называется ортонормированным, если его векторы имеют длину 1 и попарно ортогональны. Краткая запись e_i*e_j=delta_ij объединяет оба условия в одной формуле.

$e_i\cdot e_j=\delta_{ij}$

Координаты в ортонормированном базисе

В ортонормированном базисе коэффициент при базисном векторе равен скалярному произведению x с этим вектором. Поэтому разложение вектора строится без решения системы уравнений.

$x=\sum_{i=1}^{n}(x\cdot e_i)e_i$

Ортогональная проекция на прямую

Ортогональная проекция вектора v на прямую, заданную ненулевым вектором u, равна такому кратному u, что остаток v-proj_u v перпендикулярен прямой.

$\operatorname{proj}_{u}v=\frac{v\cdot u}{u\cdot u}u$

Матрица ортогональной проекции

Если столбцы Q образуют ортонормированный базис подпространства W, то матрица P=QQ^T переводит любой вектор в его ортогональную проекцию на W.

$P=QQ^{T},\quad Q^{T}Q=I$

Ортогональное дополнение подпространства

Ортогональное дополнение W^perp состоит из всех векторов, перпендикулярных каждому вектору подпространства W. В R^n его размерность дополняет размерность W до n.

$W^{\perp}=\{x:\ x\cdot w=0\ \text{для всех }w\in W\},\quad \dim W+\dim W^{\perp}=n$

Ортогональная матрица

Квадратная матрица Q ортогональна, если ее столбцы образуют ортонормированный базис. Тогда обратная матрица равна транспонированной, а преобразование сохраняет длины и углы.

$Q^{T}Q=I,\quad Q^{-1}=Q^{T}$

Проекция вектора на ненормированный вектор

Проекция вектора v на направление u вычисляется через скалярное произведение с нормированием на длину u. Эта формула связывает вычисление с геометрическим смыслом ортогонального разложения: она показывает, какая часть вектора идет вдоль выбранного направления, а какая остается поперек него.

$\operatorname{proj}_{u}(v)=\frac{u^{\top}v}{u^{\top}u}\,u$

Разложение вектора на параллельную и перпендикулярную части

Любой вектор раскладывается на компоненту вдоль u и ортогональную остаточную часть. Эта формула связывает вычисление с геометрическим смыслом ортогонального разложения: она показывает, какая часть вектора идет вдоль выбранного направления, а какая остается поперек него.

$v=\operatorname{proj}_{u}(v)+\left(v-\operatorname{proj}_{u}(v)\right),\quad u^{\top}\left(v-\operatorname{proj}_{u}(v)\right)=0$

Первый вектор в Gram-Schmidt

Нормировка первого столбца задает первый ортонормированный вектор. Эта формула относится к ортогонализации столбцов матрицы и объясняет, как заменить исходный набор векторов ортонормированным базисом с верхнетреугольными коэффициентами перехода.

$q_1=\frac{a_1}{\|a_1\|}$

k-й шаг алгоритма Gram-Schmidt

Для каждого нового столбца убирают вклад уже построенных ортонормированных направлений, затем нормируют остаток. Эта формула относится к ортогонализации столбцов матрицы и объясняет, как заменить исходный набор векторов ортонормированным базисом с верхнетреугольными коэффициентами перехода.

$u_k=a_k-\sum_{j=1}^{k-1}(q_j^{\top}a_k)\,q_j,\quad q_k=\frac{u_k}{\|u_k\|}$

Коэффициенты R через скалярные произведения

После построения Q каждую колонку a_j раскладывают по уже найденным q_i. Эта формула относится к ортогонализации столбцов матрицы и объясняет, как заменить исходный набор векторов ортонормированным базисом с верхнетреугольными коэффициентами перехода.

$R_{ij}=q_i^{\top}a_j,\quad a_j=\sum_{i=1}^{j}R_{ij}q_i,\quad R_{ij}=0\ (i>j)$

Формула QR-разложения

Матрица A раскладывается в произведение ортонормированной матрицы Q и верхнетреугольной R. Эта формула относится к ортогонализации столбцов матрицы и объясняет, как заменить исходный набор векторов ортонормированным базисом с верхнетреугольными коэффициентами перехода.

$A = QR,\quad Q^{\top}Q=I_r,\quad R \text{ верхнетреугольная}$

Проектор на span(Q)

Проецирование на пространство столбцов Q удобно через матрицу QQ^T. Эта формула относится к ортогонализации столбцов матрицы и объясняет, как заменить исходный набор векторов ортонормированным базисом с верхнетреугольными коэффициентами перехода.

$P=QQ^{\top},\quad P^2=P,\quad P^{\top}=P$

Наименьшие квадраты через QR

После QR-раскладывания задача минимизации сводится к решению треугольной системы. Формула показывает устойчивый способ работать с задачей наименьших квадратов через ортогональную геометрию, а не через прямое обращение матрицы или слепое использование нормальных уравнений.

$\hat{x}=R^{-1}Q^{\top}b,\quad A=QR$

Нормальные уравнения в QR-форме

Из A=QR получаем эквивалентное равенство через R, сохраняя идею нормальных уравнений. Формула показывает устойчивый способ работать с задачей наименьших квадратов через ортогональную геометрию, а не через прямое обращение матрицы или слепое использование нормальных уравнений.

$A^T A x = A^T b,\quad R^T R x = R^T Q^T b$

Остаток в задаче ЛС и его ортогональность

Оптимальный LS-решение дает остаток, перпендикулярный всем столбцам A (и столбцам Q). Формула показывает устойчивый способ работать с задачей наименьших квадратов через ортогональную геометрию, а не через прямое обращение матрицы или слепое использование нормальных уравнений.

$r=b-A\hat{x},\quad A^T r=0,\quad Q^T r=0$

Построение матрицы квадратичной формы из полинома

Любую квадратичную форму двух- и трёхпеременных можно записать через матрицу, где коэффициенты при смешанных членах делятся пополам и переносятся в симметричные ячейки.

$q(x,y,z)=a x^2+2bxy+2cxz+d y^2+2eyz+f z^2=\begin{bmatrix}x&y&z\end{bmatrix}\begin{bmatrix}a&b&c\\ b&d&e\\ c&e&f\end{bmatrix}\begin{bmatrix}x\\y\\z\end{bmatrix}.$

Квадратичная форма при смене переменных

При обратимой линейной замене x = S y матрица формы меняется по сопряжённому преобразованию, а сама квадратичная форма остаётся той же величиной.

$x=S y, \quad Q(y)=x^T A x = y^T (S^T A S) y = y^T B y.$

Снятие линейного члена через сдвиг центра

Если у квадратичной формы есть линейная часть, её удобно убрать сдвигом переменных x→x+x₀ и затем сводить оставшуюся чистую квадратичную часть к главным осям.

$x^T A x+2b^T x+c=(x+x_0)^T A (x+x_0)+c-b^T A^{-1} b, \quad x_0=-A^{-1}b, \ (A \text{ nonsingular}).$

Устранение смешанного члена в 2D

В плоскости поворот координат на θ (u,v) убирает смешанный член q. Главные оси соответствуют направлениям, где кросс-термин исчезает.

$q(x,y)=ax^2+2bxy+cy^2, \quad \tan 2\theta=\frac{2b}{a-c}, \quad q = \lambda_1 u^2 + \lambda_2 v^2.$

Ортогональная диагонализация симметричной матрицы квадратичной формы

Для симметричной A всегда существует ортогональная матрица собственных векторов, которая переводит квадратичную форму в диагональный вид и задаёт главные оси.

$A=Q\Lambda Q^T, \quad Q^TQ=I, \quad Q=[q_1\dots q_n], \; q(x)=x^T A x=(Q^Tx)^T \Lambda (Q^Tx).$

Канонический вид в главных осях

В координатах главных осей квадратичная форма становится суммой квадратов с весами-коэффициентами λ_i, что упрощает классификацию многообразий.

$q(x)=x^T A x = z^T\Lambda z = \sum_{i=1}^{n}\lambda_i z_i^2, \quad x=Qz.$

Определенность через главные миноры

Критерий Сильвестра даёт практичный способ определить знак квадратичной формы через детерминанты ведущих главных миноров симметрической матрицы.

$A\succ 0 \iff \Delta_k>0 \ \forall k, \quad \Delta_k=\det(A_k), \quad A_k \in \mathbb R^{k\times k}.$

Экстремумы квадратичной формы на сфере

На единичной сфере максимум и минимум квадратичной формы достигаются на собственных векторах, соответствующих λ_max и λ_min.

$\lambda_{\min} \le \frac{x^T A x}{x^T x} \le \lambda_{\max}, \quad A=A^T.$

Критерий наименьших квадратов

Критерий наименьших квадратов измеряет суммарную квадратичную ошибку между наблюдаемым вектором b и моделью Ax, поэтому превращает переопределенную систему в задачу минимизации.

$\hat x_{\mathrm{LS}}=\arg\min_{x\in\mathbb R^n} \|Ax-b\|_2^2 = \arg\min_x (Ax-b)^\top (Ax-b).$

Нормальные уравнения для МНК

Нормальные уравнения A^T A x = A^T b задают стационарное условие задачи МНК и позволяют найти параметры, при которых остаток ортогонален всем столбцам матрицы A.

$A^\top A\,\hat x = A^\top b.$

Ортогональность невязки

Ортогональность невязки означает, что в оптимальном МНК-решении остаток r=b-Ax перпендикулярен каждому столбцу A и не содержит направления, которое можно еще улучшить моделью.

$r=b-A\hat x,\quad A^\top r=0.$

Число обусловленности для задачи МНК

При переходе к нормальным уравнениям число обусловленности фактически возводится в квадрат, поэтому ошибки округления и шум в данных могут заметно усилиться.

$\kappa_2(A^\top A)=\frac{\sigma_{\max}^2}{\sigma_{\min}^2}=\kappa_2(A)^2.$

QR-разложение для задачи МНК

QR-разложение решает задачу МНК без формирования A^T A: если A=QR, то параметры находятся из треугольной системы R x = Q^T b.

$A=QR,\quad Q^\top Q=I,\quad \|Ax-b\|_2^2=\|Rx-Q^\top b\|_2^2+\|Q_\perp^\top b\|_2^2.$

Псевдообратная для решения МНК

Псевдообратная матрица A^+ записывает МНК-решение как x=A^+b и обобщает обратную матрицу на прямоугольные и вырожденные системы.

$\hat x=A^+b,\qquad A^+=(A^\top A)^{-1}A^\top\ (\operatorname{rank}(A)=n).$

Проекционный оператор и оценка МНК

Матрица P=A(A^T A)^{-1}A^T проецирует b на пространство столбцов A, а вектор Pb является предсказанием модели МНК. Эта запись важна не как отдельный трюк, а как часть практического языка линейных моделей и обработки измерений.

$\hat b = A\hat x = A A^+ b,\qquad P=AA^+,\ P^\top=P,\ P^2=P.$

2×2 нормальные уравнения без полной инверсии

Малую систему нормальных уравнений 2×2 можно решить вручную через определитель или исключение, не строя полную обратную матрицу.

$\begin{aligned} \begin{bmatrix}c_{11} & c_{12}\\ c_{12} & c_{22}\end{bmatrix}\begin{bmatrix}x_1\\x_2\end{bmatrix}=\begin{bmatrix}d_1\\d_2\end{bmatrix},\;\Delta=c_{11}c_{22}-c_{12}^2,\\ x_1=\frac{c_{22}d_1-c_{12}d_2}{\Delta},\quad x_2=\frac{-c_{12}d_1+c_{11}d_2}{\Delta}. \end{aligned}$

Сингулярное разложение матрицы

Сингулярное разложение представляет матрицу как произведение двух ортогональных матриц и диагональной матрицы сингулярных чисел. Это универсальная форма разложения, которая работает для прямоугольных матриц и показывает главные направления действия линейного отображения.

$A=U\Sigma V^T,\quad U^TU=I,\quad V^TV=I$

Ранг матрицы через сингулярные числа

Ранг матрицы равен количеству ненулевых сингулярных чисел. Эта формула связывает алгебраическое понятие размерности образа с численной диагностикой зависимости строк и столбцов.

$\operatorname{rank}(A)=\#\{i:\sigma_i>0\}$

Спектральная норма через сингулярные числа

Спектральная норма матрицы равна ее наибольшему сингулярному числу. Она показывает максимальный коэффициент растяжения вектора при действии линейного отображения.

$\|A\|_2=\sigma_{\max}(A)=\sqrt{\lambda_{\max}(A^TA)}$

Норма Фробениуса через след и сингулярные числа

Квадрат нормы Фробениуса равен следу матрицы A^T A, сумме квадратов всех элементов и сумме квадратов сингулярных чисел. Это удобная мера общего размера матрицы.

$\|A\|_F^2=\operatorname{tr}(A^TA)=\sum_{i,j}a_{ij}^2=\sum_k\sigma_k^2$

Циклическое свойство следа матрицы

След произведения матриц не меняется при циклической перестановке множителей, если все произведения определены. Это свойство помогает упрощать доказательства, производные матричных функций и выражения с нормами.

$\operatorname{tr}(AB)=\operatorname{tr}(BA),\quad \operatorname{tr}(ABC)=\operatorname{tr}(BCA)=\operatorname{tr}(CAB)$

Дополнение Шура

Дополнение Шура выражает эффективный блок матрицы после исключения другого блока. Оно появляется при блочном обращении матриц, решении систем, вычислении определителей и условных распределениях в статистике.

$S=D-CA^{-1}B$

Обратная блочной матрицы через дополнение Шура

Формула обращает блочную матрицу через обратный блок A и обратное дополнение Шура. Она показывает, как получить обратную матрицу без обращения всей матрицы целиком.

$\begin{pmatrix}A&B\\C&D\end{pmatrix}^{-1}=\begin{pmatrix}A^{-1}+A^{-1}BS^{-1}CA^{-1}&-A^{-1}BS^{-1}\\-S^{-1}CA^{-1}&S^{-1}\end{pmatrix},\quad S=D-CA^{-1}B$

Лемма об определителе матрицы

Лемма об определителе показывает, как меняется определитель обратимой матрицы при ранговом обновлении uv^T. Вместо пересчета всего определителя достаточно вычислить один скаляр.

$\det(A+uv^T)=\det(A)\left(1+v^TA^{-1}u\right)$

Формула Шермана-Моррисона

Формула Шермана-Моррисона дает обратную матрицу после рангового обновления A+uv^T. Она позволяет обновить уже известную обратную матрицу без полного повторного обращения.

$(A+uv^T)^{-1}=A^{-1}-\frac{A^{-1}uv^TA^{-1}}{1+v^TA^{-1}u}$

Формула Вудбери

Формула Вудбери обобщает обновление обратной матрицы на добавку малого ранга UCV. Она позволяет заменить обращение большой матрицы обращением меньшей матрицы.

$(A+UCV)^{-1}=A^{-1}-A^{-1}U(C^{-1}+VA^{-1}U)^{-1}VA^{-1}$