\documentclass[a4paper, 12pt,TimesNewRoman]{article}
\usepackage[14pt]{extsizes}
\usepackage{cmap}
\usepackage[T2A]{fontenc}
\usepackage[utf8]{inputenc}
\usepackage[english,russian]{babel}
\usepackage[left=2cm,right=2cm,
top=2cm,bottom=2cm,bindingoffset=0cm]{geometry}
\usepackage{indentfirst}
\usepackage{graphicx}
\graphicspath{{./huina/}}
\usepackage {subcaption}
\usepackage{parskip}
\usepackage{amsmath}
\usepackage{mathtools}
\usepackage{amssymb}
\usepackage{amsfonts}
\usepackage{float}
\usepackage[unicode, pdftex]{hyperref}
\author{Забродин Денис Александрович}
\title{\textbf{Вектора}}

\begin{document}
	\maketitle
	\tableofcontents\newpage
	\section{Ранг матрицы}
		Если в матрице А выбрать произвольные k строк и k столбцов, то получим квадрутную матрицу k-го порядка. Определитель этой матриццы называется минором k-го порядка
		
		\textbf{Определение}: Рангом матрицы называется максимальный порядок отличного от нуля минора этой матрицы.
		
		Пример: 
		\begin{equation*}
			A =
			\begin{pmatrix}
				1&2&3\\
				4&5&6\\
			\end{pmatrix}		
			\Delta =
			\begin{vmatrix}
				1&2\\
				4&5\\
			\end{vmatrix}
			- \text{Минор 2-го порядка}
		\end{equation*}
	
		$\Delta \neq 0 \Rightarrow rang A = 2$
		
		\subsection{Свойства ранга матрицы}
		\begin{enumerate}
			\item Для матрицы A размером m x n rang A $\leq$ min{m;n}
			\item Пусть А - квадратная матрица -го порядка, тогда 
			\begin{enumerate}
				\item Если |A| $\neq$ 0 $\Rightarrow$ rang A = n
				\item Если |A| = 0 $\Rightarrow$ rang A < n
			\end{enumerate}
			\item Ранг матрицы = 0 $\Leftrightarrow$ A - нулевая матрица
			\item Ранг матрицы не меняется при ее транспонировании
		\end{enumerate}
	
	\textbf{Определение}: Пусть rang A = r. Любой, отличный от нуля, минор порядка r этой матрицы называется базисным минором.
	
	\textbf{Теорема}: Ранг матрицы равен максимальному числу линейно независимых строк или столбцов матрицы.
	
	\textbf{Доказательство}: Переставляя строки и столбцы матрицы A, получим:
	
	\begin{equation*}
		A = 
		\begin{pmatrix}
			a_{11}&...&a_{1r}&|&a_{1,r+1}&...&a_{1n}\\
			...&M&...&|&...\\
			a_{r1}&...&a_{rr}&|&a_{r,r+1}&...&a_{rn}\\
			a_{r+1,1}&...&...&...&...&a_{r+1,n}\\
			...\\
			a_{m1}&...&...&...&...&a_{mn}\\
		\end{pmatrix}
	\end{equation*}

		|M| $\neq$ 0\\
		rang A = r
		M - базисный минор

	Ранг при этом не изменился 
	
	Пусть
	\begin{equation*}
		\vec{v}_j = 
		\begin{pmatrix}
			a_{1j}\\
			a_{2j}\\
			...\\
			a_{mj}
		\end{pmatrix}
	 - \text{j-й столбец матрицы A: j = 1, ..., n}
	\end{equation*}

	Рассмотрим $\Sigma = \{\vec{v}_1, ..., \vec{v}_r\}$ и $\Sigma_1 = \{\vec{w}_1, ..., \vec{w}_r\}$, где 
	\begin{equation*}
		\vec{w}_j = 
		\begin{pmatrix}
			a_{1j}\\
			a_{2j}\\
			...\\
			a_{rj}
		\end{pmatrix}
	\end{equation*}

	$\Sigma_1$ - линейно независима, тк |M| $\neq$ 0
	
	Предположим, что $\Sigma$ линейно зависима. Тогда существует нетривиальная линейная комбинация:
	$\lambda_1\vec{v}_1 + ... + \lambda_r\vec{v}_r = \vec{0} \Leftrightarrow \lambda_1a_{i1} + \lambda_2a_{i2} + ... + \lambda_ra_{ir} = 0; i = 1, ..., m$
	
	В частности при i = 1,..., r имеем:
	
	$\lambda_1\vec{w}_1 + ... + \lambda_r\vec{w}_r = \vec{0}$ - противоречие, тк $\Sigma_1$ - линейно независима $\Rightarrow$ $\Sigma$ - линейно независима
	
	Таким образом, существуют r линейно независимых столбцов.
	
	Рассмотрим $\Sigma$' = $\{\vec{v}_1,...,\vec{v}_r, \vec{v}_p\}$, где $\vec{v}_p$ - столбец матрицы A
	
	Рассмотрим
	\begin{equation*}
		\Delta_i = 
		\begin{vmatrix}
			a_{11}&...&a_{1r}&a_{1p}\\
			...&M&...&...\\
			a_{r1}&...&a_{rr}&a_{rp}\\
			a_{i1}&...&a_{ir}&a_{ip}
		\end{vmatrix}
	\end{equation*}

	\begin{enumerate}
		\item 1 $\leq$ i $\leq$ r $\Rightarrow$ $\Delta_i$ имеет две одинаковые строки $\Rightarrow$ $\Delta_i$ = 0
		\item i > r $\Rightarrow$ $\Delta_i$ - минор (r+1)-го порядка матрицы A $\Rightarrow$ $\Delta_i$ = 0
	\end{enumerate}

	тк rang A = r
	
	Разложим $\Delta_i$ по последней строке:
	
	$\Delta_i = a_{i1}A_1 + ... + a_{ir}A_r + a_{ip}|M| = 0$
	
	$A_j$ зависят от p, но не зависят от i, тк : j = 1,...,r
	
	Тк |M| $\neq$ 0, то 
	 
	$a_{ip} = -\frac{A_1}{|M|}a_{i1} - ... - \frac{A_r}{|M|}a_{ir}; i = 1,...,m$
	
	Обозначим $\lambda_1 = -\frac{A_1}{|M|};...\lambda_r = -\frac{A_r}{|M|}$
	
	$\lambda_1,...,\lambda_r$ не зависят от i
	$\Rightarrow$ $\vec{v}_p = \lambda_1\vec{v}_1 + ... + \lambda_r\vec{v}_r \Rightarrow \Sigma'$ - линейно зависима
	
	Таки образом, любые r + 1 столбцов линейно зависимы
	
	\textbf{Следствие}: rang A = dim L($\vec{v}_1, ..., \vec{v}_n$), где L($\vec{v}_1, ..., \vec{v}_n$) - линейня оболочка, порожденная матрицей A
	
	\textbf{Замечание}: Рассмотренная нами теорема лежит в основе одного из методов вычисления ранга матрицы - метода окаймляющих миноров: найдя некоторый, не равный нулю минор, можно перебирать лишь окаймляющие его миноры.
	
	\textbf{Теорема}: Ранг произведения матриц не превосходит ранга каждой из перемножаемых матриц те
	
	\[rang(A \cdot B) \leq min\{rang A; rangB\}\]
	
	\textbf{Доказательство}:
	
	\begin{equation*}
		A = 
		\begin{pmatrix}
			a_{11}&...&a_{1k}\\
			...\\
			a_{m1}&...&a_{mk}\\
		\end{pmatrix}
		m x k
		B = 
		\begin{pmatrix}
			b_{11}&...&b_{1n}\\
			...\\
			b_{k1}&...&b_{kn}\\
		\end{pmatrix}
		k x n 
		A \cdot B = D =
		\begin{pmatrix}
			d_{11}&...&d_{1n}\\
			...\\
			d_{m1}&...&d_{mn}\\
		\end{pmatrix}
	\end{equation*}

	Рассмотрим векторы
	
	\begin{equation*}
		\vec{v}_1 =
		\begin{pmatrix}
			a_{1i}\\
			...\\
			a_{mi}
		\end{pmatrix}
		- \text{i-й столбец матрицы A}
		\vec{w}_j =
		\begin{pmatrix}
			d_{1j}\\
			...\\
			d_{mj}
		\end{pmatrix}
	- \text{j-й столбец матрицы D}
	\end{equation*}

	$d_{ij} = a_{i1}b_{1j} + ... + a_{ik}b_{kj}$~~~~(1.1)
	
	$\Rightarrow$ $\vec{w}_j = b_{1j}\vec{v}_1 + ... + b_{kj}\vec{v}_k$ j = 1,...,m
	
	В равенстве (1.1) j зафиксируем, а i = 1,..,m
	
	$\Rightarrow$ $\vec{w}_j = b_{1j}\vec{v}_1 + ... + b_{kj}\vec{v}_k; j= 1,...,n$
	
	$\Rightarrow \vec{w}_j \in L(\vec{v}_1, ... , \vec{v}_k)$
	$\Rightarrow L(\vec{w}_1, ... , \vec{w}_n) \subset L(\vec{v}_1, ... , \vec{v}_k)$
	$\Rightarrow dim L(\vec{w}_1, ..., \vec{w}_n) \leq dim L(\vec{v}_1, ... , \vec{v}_k)$
	$\Rightarrow rang(A \cdot B) \leq rang A$
	
	Аналогично показывается, что rang(A $\cdot$ B) $\leq$ rang B (рассматривают по строкам) квадрат
	
	\textbf{Следствие}: Ранг матрицы не меняется при ее умножении на невырожденную матрицу
	
	\textbf{Доказательство}: Рассмотрим произведение A $\cdot$ B, |B| $\neq$ 0
	
	rang(A $\cdot$ B) $\leq$ rang A
	
	A = A $\cdot$ (B $\cdot$ $B^{-1}$) = (A $\cdot$ B) $\cdot$ $B^{-1}$
	
	rang A = rang ((A $\cdot$ B) $\cdot$ $B^{-1}$) $\leq$ rang(A$\cdot$ B)
	
	$\Rightarrow$ rang(A $\cdot$ B) = rang A чтд
	
	\section{Элементарные преобразования матриц}
		\subsection{Теоремы об элементарных преобразованиях матриц}
			К элементарным преобразованиям матрицы относят
			\begin{enumerate}
				\item Перестановка местами двух строк(столбцов)
				\item Умножение строки на число, отличное от нуля
				\item Прибавление к элементам одной строки соотсвтествующих элементов другой строки, умноженных на любое число
				\item Добавление или исключение нулевой строки
			\end{enumerate}
		
			\textbf{Определение}: Квадратную диагональную матрицу с ненулевыми элементами по диагонали называют простейшей
			
			\textbf{Теореме}: Любую матрицу с помощью элементарных преобразований можно привести к простейшему виду.
			
			\textbf{Доказательство}: Если в матрице есть ненулевые элементы, то ее можно привести к следующему виду:
			
			\begin{equation*}
				A = 
				\begin{pmatrix}
					a_{11}&...&a_{1n}\\
					...\\
					a_{m1}&...&a_{mn}\\
				\end{pmatrix}
				\rightarrow
				\begin{pmatrix}
					b_{11}&...&b_{1l}\\
					b_{21}&...&b_{2l}\\
					...\\
					b_{k1}&...&b_{kl}\\
				\end{pmatrix}
			\end{equation*}
		
			где $b_{11}$ $\neq$ 0
		
			Далее ко 2-ой строке прибавляем 1-ую, умноженную на -$\frac{b_{21}}{b_{11}}$, к 3-ей строке прибавляем 1-ую, умноженную на -$\frac{b_{31}}{b_{11}}$ и тд
			
			В результате получим матрицу:
			\begin{equation*}
				\begin{pmatrix}
					b_{11}&...&...&b_{1l}\\
					0&c_{22}&...&c_{2l}\\
					...\\
					0&c_{p2}&...&c_{pl}
				\end{pmatrix}
			\end{equation*}
		
			Далее ко 2-му столбцу прибавляем 1-й, умноженный на -$\frac{b_{12}}{b_{11}}$ к 3 прибавим 1 умноженный на $\frac{b_{13}}{b_{11}}$ и тд
			
			
			\textbf{Теорема}: Ранг матрицы при элементраных преобразованиях не меняется.
			
			\textbf{Док-во}: Дакажем для столбцов для 3 элементарного преобразования, те прибавление к элементам одного столбца соответсвтующих элементов другого столбца, умноженных на любое число, не меняет ранга матрицы.
			
			Воспользуемся тем, что ранг матрицы А равен размерности линейной оболочки, порожденной матрицей А: rang A = dim L($\vec{V}_1, ..., \vec{V}_n$), где $\vec{V}_1,..., \vec{V}_n$ - столбцы матрицы А.
			
			Покажем, что L($\vec{V}_1,...,\vec{V}_i),....,\vec{V}_j,...,\vec{V}_n$) = L($\vec{V}_1,...,\vec{V}_i + \lambda\vec{V}_j,...,\vec{V}_j,...,\vec{V}_n$)
			
			Обозначим M = L($\vec{V}_1,...,\vec{V}_i),....,\vec{V}_j,...,\vec{V}_n$)
			
			N = L($\vec{V}_1,...,\vec{V}_i + \lambda\vec{V}_j,...,\vec{V}_j,...,\vec{V}_n$)
			
			
			Очевидно, что M $\subset$ N
			
			Докажем теперь, что и N $\subset$ M
			
			Возьмем $\forall \vec{u} \in N$
			
			$\vec{u} = \lambda_1\vec{V}_1 + ... + \lambda_i(\vec{V}_i + \lambda\vec{V}_j) + ... + \lambda_j\vec{V}_j + ... + \lambda_n\vec{V}_n = \lambda_1\vec{V}_1 + ... + \lambda_i\vec{V}_i + ... + (\lambda_i\lambda + \lambda_j)\vec{V}_j + ... + \lambda_n\vec{V}_n \Rightarrow \vec{u} \in M \Rightarrow N \subset M \Rightarrow M = N$
			
			Для остальных элементарных преобразований доказателсьство очевидно.
			
			\textbf{Теорема}: С помощью элементарных преобразований только над строками матрицы невырожденную матрицу можно привести к единичной.
			
			\textbf{Доказательство}:
			\begin{equation*}
				A = 
				\begin{pmatrix}
					a_{11}&...&a_{1n}\\
					...\\
					a_{n1}&...&a_{nn}
				\end{pmatrix}
				\tilde{}
				\begin{pmatrix}
					b_{11}&b_{12}&...&b_{1n}\\
					0&b_{22}&...&b_{2n}\\
					...\\
					0&b_{n2}&...&b_{nn}
				\end{pmatrix}
				\tilde{}
				\begin{vmatrix}
					b_{22}&...&b_{2n}\\
					...\\
					b_{n2}&...&b_{nn}
				\end{vmatrix}
				\neq 0; b_{11} \neq 0
			\end{equation*}
		
			и так далее получаем верхнетреугольную матрицу
			
			\begin{equation*}
				\tilde{}
				\begin{pmatrix}
					b_{11}&b_{12}&...&b_{1n}\\
					0&c_{22}&...&c_{2n}\\
					...\\
					0&0&...&c_{nn}
				\end{pmatrix}
				\tilde{}
			\end{equation*}
		
		
			Затем по аналогии получаем нули над диагональю, те получаем диагональную матрицу с ненулевыми диагональными элементами, те простейшую матрицу
			
			\begin{equation*}
				\tilde{}
				\begin{pmatrix}
					\alpha_1&...&0\\
					...\\
					0&...&\alpha_n
				\end{pmatrix}
			\end{equation*}
		
			Далее первую строку делим на $\alpha_1$, вторую строку - на $\alpha_2$ и тд. В результате получим единичную матрицу.
			
			\textbf{Замечание}: Каждое элементраное преобразование квадратной матрицы можно заменить умножением ее на некоторую невырожденную матрицу. Покажем это для строк на примере матрицы 3 порядка (для наглядности).
			
			\begin{equation*}
				1) A = 
				\begin{pmatrix}
					a_{11}&a_{12}&a_{13}\\
					a_{21}&a_{22}&a_{23}\\
					a_{31}&a_{32}&a_{33}\\
				\end{pmatrix}
			\end{equation*}
		
			Берем единичную матрицу
			
			\begin{equation*}
				E = 
				\begin{pmatrix}
					1&0&0\\
					0&1&0\\
					0&0&1
				\end{pmatrix}
			\end{equation*}
		
		 	и меняем в ней местами первые 2 строки. В результате получим матрицу
		 	
		 	\begin{equation*}
		 		B = 
		 		\begin{pmatrix}
		 			0&1&0\\
		 			1&0&0\\
		 			0&0&1
		 		\end{pmatrix}
		 	\end{equation*}
	 	
	 		Далее умнжоим матрицу B на матрицу A:
	 		\begin{equation*}
	 			B \cdot A =
	 			\begin{pmatrix}
	 				a_{21}&a_{22}&a_{23}\\
	 				a_{11}&a_{12}&a_{13}\\
	 				a_{31}&a_{32}&a_{33}
	 			\end{pmatrix}
	 		\end{equation*}
 		
 		2) Умножим вторую строку единичной матрицы на $\lambda$. В результате получим матрицу 
 		\begin{equation*}
 			C =
 			\begin{pmatrix}
 				1&0&0\\
 				0&\lambda&0\\
 				0&0&1
 			\end{pmatrix}
 			\Rightarrow C \cdot A =
 			\begin{pmatrix}
 				a_{11}&a_{12}&a_{13}\\
 				\lambda a_{21}&\lambda a_{22}&\lambda a_{23}\\
 				a_{31}&a_{32}&a_{33}
 			\end{pmatrix}
 		\end{equation*}
 	
 		3) Ко второй строке единичной матрицы прибавим первую, умноженную на $\lambda$. В результате получим матрицу
 		\begin{equation*}
 			D =
 			\begin{pmatrix}
 				1&0&0\\
 				\lambda&1&0\\
 				0&0&1
 			\end{pmatrix}
 			\Rightarrow D\cdot A=
 			\begin{pmatrix}
 				a_{11}&a_{12}&a_{13}\\
 				\lambda a_{11} + a_{21}&\lambda a_{12} + a_{22}& \lambda a_{13} + a_{23}\\
 				a_{31}&a_{32}&a_{33}
 			\end{pmatrix}
 		\end{equation*}
 	
 	\subsection{Практический способ нахождения обратной матрицы (метод элементарных преобразований)}
 	
 	Пусть А - невырожденная матрица $\Rightarrow \exists A^{-1}$ - обратная матрица. С помощью элементарных преобразований матрицу А можно привести к единичной $\Rightarrow Q_1 \cdot Q_2 \cdot ... \cdot Q_n \cdot A = E$, но $A^{-1}\cdot A = E$ 
 	
 	В силу единственности обратной матрицу получим
 	
 	\[A^{-1} = Q_1 \cdot Q_2 \cdot ... \cdot Q_n \cdot E\]
 	
 	Таким образом, для получения обратной матрицы нужно к строкам единичной матрицы применить те же элементарные преобразования, которые приводя т матрицу А к единичной: $(A|E)\tilde{}(E|A^{-1})$
 	
 	\section{Система линейных уравнений. Метод Гаусса}
 	\subsection{Система линейных уравнений. Основные понятия}
 	
 	Определение: Системой линейных уравнений называется совокупность уравнений вида:
 	
 	\begin{equation*}
 		\begin{cases}
 			a_{11}x_1 + ... + a_{1n}x_n = b_1\\
 			...\\
 			a_{m1}x_1 + ... + a_{mn}x_n = b_m
 		\end{cases}
 		~~~(3.1)
 	\end{equation*}
 
 	$a_{ij} \in \mathbb{R};~~b_i \in \mathbb{R};~~ i = 1,...,m;~~j = 1,...,n$
 	
 	$x_j$ - неизвестные (переменные)
 	
 	$b_i$ - свободные переменные
 	
 	\textbf{Определение}: Решением системы (3.1) называетя такая упорядоченная совокупность числа $\vec{\omega} = (\alpha_1,...,\alpha_n) \in \mathbb{R}^n$ ($\mathbb{R}^n$ - n-мерное арифметическое пространство), если при подстановке этих чисел в систему вместо переменных $x_1,...,x_n$ соответственно, каждое уравнение системы обращается в верно равенство.
 	
 	Определение: Две системы уравнений называются эквивалентными, если они имеют одно и то же множество решений
 	
 	Определений: Система уравнений называется совместной, если она имеет хотя бы одно решение. Система уравнений называется несовместной, если она не имеет ни одного решения.
 	
 	\[0 \cdot x_1 + 0 \cdot x_2 + ... + 0 \cdot x_n = 0~~(3.2)\]
 	
 	Добавление уравнения (3.2) к системе (3.1) или его исключение из системы приводят к эквивалентной системе.
 	
 	\[0\cdot x_1 + 0\cdot x_2 + ... + 0\cdot x_n = b, b\neq 0~~(3.3)\]
 	
 	Если система (3.1) содержит уравнение (3.3), то она не совместна
 	
 	\subsection{Метод Гаусса}
 		Метод Гаусса (метод исключения неизвестных) рассмотрим на примере.
 		
 		Пример:
 		
 		\begin{equation*}
 			\begin{cases}
 				2x_1 - x_2 - 4x_3 + 7x_4 = 7\\
 				5x_1 - 3x_2 - 9x_3 + 17x_4 = 19\\
 				-3x_1 + 9x_3 - 12x_4 = -6\\
 				x_1 + x_2 - 5x_3 + 5x_4 = -1
 			\end{cases}
 		\end{equation*}
 	
 		Решение: Выписывают так называетмую расширенную матрицу
 		
 		\begin{equation*}
 			D = 
 			\begin{pmatrix}
 				2&-1&-4&7&|&7\\
 				5&-3&-9&17&|&19\\
 				-3&0&9&-12&|&-6\\
 				1&1&-5&5&|&-1
 			\end{pmatrix}
 			\tilde{}
 			\begin{pmatrix}
 				1&1&-5&5&|&-1\\
 				0&-8&16&-8&|&24\\
 				0&3&-6&3&|&-9\\
 				0&-3&6&-3&|&9
 			\end{pmatrix}
 			\tilde{}
 			\begin{pmatrix}
 				1&0&-3&4&|&2\\
 				0&1&-2&1&|&-3
 			\end{pmatrix}
 		\end{equation*}
 	
 		\begin{equation*}
 			\Rightarrow
 			\begin{cases}
 				x_1 - 3x_3 + 4x_4 = 2\\
 				x_2 - 2x_3 + x_4 = -3
 			\end{cases}
 		\end{equation*}
 	
 		$x_1$ и $x_2$ - базисные переменные
 		
 		$x_3$ и $x_4$ - свободные переменные
 		
 		$x_3$ = $c_1$; $x_4 = c_2$
 		
 		\begin{equation*}
 			X(c_1;c_2)=
 			\begin{pmatrix}
 				3c_1 - 3c_2 + 2\\
 				2c_1 - c_2 - 3\\
 				c_1\\
 				c_2
 			\end{pmatrix}
 			=
 			c_1
 			\begin{pmatrix}
 				3\\
 				2\\
 				1\\
 				0
 			\end{pmatrix}
 			+c_2
 			\begin{pmatrix}
 				-4\\
 				-1\\
 				0\\
 				1
 			\end{pmatrix}
 			+
 			\begin{pmatrix}
 				2\\
 				-3\\
 				0\\
 				0
 			\end{pmatrix}
 			-\text{общее решение}
 		\end{equation*}
 	
 	\subsection{Теорема Кронекера-Капелли}
 		Рассмотрим систему линейных уравнений
 		\begin{equation*}
 			\begin{cases}
 				a_{11}x_1 + ... + a_{1n}x_n = b_1\\
 				...\\
 				a_{m1}x_1 + ... + a_{mn}x_n = b_m
 			\end{cases}
 			~~~(3.4)
 		\end{equation*}
 	
 		A$\vec{x} = \vec{b}~~~(3.5)$
 		
 		\begin{equation*}
 			A = 
 			\begin{pmatrix}
 				a_{11}&...&a_{1n}\\
 				...\\
 				a_{m1}&...&a_{mn}
 			\end{pmatrix}
 			;\vec{x} = 
 			\begin{pmatrix}
 				x_1\\
 				...\\
 				x_n
 			\end{pmatrix}
 			;\vec{b} = 
 			\begin{pmatrix}
 				b_1\\
 				...\\
 				b_m
 			\end{pmatrix}
 		\end{equation*}
 	
 		$x_1 \cdot \vec{V}_1 + ... + x_n \cdot \vec{V}_n = \vec{b}~~~(3.6)$
 		
 		\begin{equation*}
 			\vec{V}_1 = 
 			\begin{pmatrix}
 				a_{11}\\
 				...\\
 				a_{m1}
 			\end{pmatrix}
 			,...,V_n = 
 			\begin{pmatrix}
 				a_{1n}\\
 				...\\
 				a_{mn}
 			\end{pmatrix}
 			\text{- столбцы матрицы системы (3.4)}
 		\end{equation*}
 	
 		\textbf{Замечание}. Из равенства (3.6) следует, что система (3.4) совместна тогда и только тогда, когда вектор $\vec{b}$ есть линейная комбинация столбцов матрицы А, причем коэффициенты линейной комбинации - искомые неизвестные
 		
 		\begin{equation*}
 			\text{Пусть }A =
 			\begin{pmatrix}
 				a_{11}&...&a_{1n}\\
 				...\\
 				a_{m1}&...&a_{mn}
 			\end{pmatrix}
 			\text{- матрица системы (3.4)}
 		\end{equation*}
 	
 		\begin{equation*}
 			D = 
 			\begin{pmatrix}
 				a_{11}&...&a_{1n}&|&b_1\\
 				...\\
 				a_{m1}&...&a_{mn}&|&b_m
 			\end{pmatrix}
 			\text{- расширенная матрица}
 		\end{equation*}
 	
 		\textbf{Теорема (Кронекера-Капелли)}. Система (3.4) совместна тогда и только тогда, когда rang A = rang D
 		
 		\textbf{Доказательство}: 
 		\begin{enumerate}
 			\item \textbf{Необходимость}
 			
 			Пусть система (3.4) совместна. Тогда из равенства (3.6) следует, что существуют числа $x_1, ..., x_n$ такие, что $\vec{b} = x_1 \cdot \vec{V}_1 + ... + x_n \cdot \vec{V}_n$
 			
 			$\Rightarrow \vec{b} \in L(\vec{V}_1,...,\vec{V}_n)$ - линейная оболочка
 			
 			$\Rightarrow L(\vec{V}_1,...,\vec{V}_n, \vec{b}) = L(\vec{V}_1,...,\vec{V}_n)$
 			
 			$\Rightarrow dimL(\vec{V}_1,...,\vec{V}_n, \vec{b}) = dimL(\vec{V}_1,...,\vec{V}_n) \Rightarrow rangA = rangD$
 			
 			\item \textbf{Достаточность}
 			
 			rang A = rang D $\Rightarrow dimL(\vec{V}_1,...,\vec{V}_n, \vec{b}) = dimL(\vec{V}_1,...,\vec{V}_n) \Rightarrow L(\vec{V}_1,...,\vec{V}_n, \vec{b}) = L(\vec{V}_1,...,\vec{V}_n)$
 			
 			$\Rightarrow \vec{b}$ - линейная комбинация векторов $\vec{V}_1,...,\vec{V}_n$
 			
 			$\Rightarrow$ система (3.4) совместна
 			
 		\end{enumerate}
 	
 	 	\textbf{Теорема}. Если rang A = rang D = n, где n - число неизвестных, то система (3.4) имеет единственное решение
 	
 		\textbf{Теорема}. Если rang A = rang D < n, где n - число неизвестных, то система (3.4) имеет бесконечное решений
 		
 		\section{Однородные системы линейных уравнений}
 			\subsection{Однородные системы линейных уравнений и их свойства}
 				\begin{equation*}
 					\begin{cases}
 						a_{11}x_1 + ... + a_{1n}x_n = 0\\
 						...\\
 						a_{m1}x_1 + ... + a_{mn}x_n = 0
 					\end{cases}
 					~~~(4.1)
 				\end{equation*}
 			
 				\textbf{Определение}. Система (4.1) называется однородной системой линейных уравнений
 				
 				\textbf{Замечание}. Однородная система линейны уравнений всегда имеет решение(например, нулевое)
 				
 				\textbf{Теорема}. Для того, чтобы однородная система (4.1) имела ненулевое решение необходимо и достаточно, чтобы rang A < n, где n - число переменных
 				
 				Рассмотрим свойства решений системы линейных уравнений с точки зрения линейных пространств. Каждое решение системы (4.1) можно рассматривать как вектор линейного пространства арифметических векторов $\mathbb{R}^n$. Обозначим через M - множество всех решений системы (4.1). Тогда М - подмножество в $\mathbb{R}^n$.
 				
 				\textbf{Теорема}. Множество всех решений М однородной системы (4.1) является линейным пространством.
 				
 				\textbf{Доказательство}.
 				
 				$M \subset \mathbb{R}^n.$ Берем любые два решения $\vec{\omega}_1, \vec{\omega}_2 \subset M$
 				
 				$\Rightarrow A\vec{\omega}_1 = \vec{o}$ и  $A\vec{\omega}_2 = \vec{o}$, где А - матрица системы (4.1)
 				
 				$\Rightarrow A(\lambda_1\vec{\omega}_1 + \lambda_2\vec{\omega}_2) = \lambda_1A\omega_1 + \lambda_2A\vec{\omega}_2 = \vec{o}$
 				
 				$\Rightarrow \lambda_1\vec{\omega}_1 + \lambda_2\vec{\omega}_2 \in M$
 				
 				$\Rightarrow$ M образует линейное подпространство в $\mathbb{R}^n$ чтд
 				
 				Определение. Базис пространства решений однородной системы (4.1) называется фундаментальной системой решений (ФСР) системы (4.1)
 				
 				Если $B = \{\vec{\omega}_1,...,\vec{\omega}_k\} \subset M$ - ФСР для системы (4.1), то любое решение системы (4.1) можно представить в виде:
 				
 				\[\vec{\omega}_{o.o} = c_1\vec{\omega}_1 + ... + c_k\vec{\omega}_k~~~(4.2)\]
 				
 				где $c_1,...,c_k$ - произвольные числа
 				
 				$\vec{\omega}_{o.o}$ - общее решение однородной системы (4.1)
 				
 				(4.2) - общая структура решения однородной системы линейных уравнений
 				
 				Теорема. Размерность пространства решений однородной системы (4.1) равна n - r, где r = rang A, А - матрица системы (4.1), т - число неизвестных, те
 				
 				\[dim M = n - r\]
 				
 				\textbf{Замечание}. Размерность пространства решений однородной системы совпадает с числом векторов, образующих ФСР. Число векторов, образующих ФСР, совпадает с количеством свободных переменных. В свою очередь, количество свободных переменных всегда равно n - r, где r = rang A, A - матрица системы, n - число переменных
 				
 			\subsection{Общая структура решения неоднородной системы линейных уравнений}
 				Рассмотрим системы линейных уравнений:
 				\begin{equation*}
 					\begin{cases}
 						a_{11}x_1 + ... + a_{1n} = b_1\\
 						...\\
 						a_{m1}x_1 + ... + a_{mn} = b_m
 					\end{cases}
 					~~~(4.3)
 				\end{equation*}
 			
 				(4.3) - неоднородная система линейных уравнений
 				
 				\begin{equation*}
 					\begin{cases}
						a_{11}x_1 + ... + a_{1n} = 0\\
						...\\
						a_{m1}x_1 + ... + a_{mn} = 0
					\end{cases}
					~~~(4.4)
 				\end{equation*}
 				(4.4) - однородная система линейных уравнений
 				
 				\textbf{Теорема}. Общее решение системы (4.3) представляется в виде суммы общего решения системы (4.4) и произвольного частого решения системы (4.3): $\vec{\omega}_{o.n} = \vec{\omega}_{o.o} + \vec{\omega}_{c.n}~~~(4.5)$
 				
 				где $\vec{\omega}_{o.n}$ - общее решение неоднородной системы (4.3)\\
 				$\vec{\omega}_{o.o}$ - общее решение однородной системы (4.4)\\
 				$\vec{\omega}_{c.n}$ - произвольное частное решение неоднородной системы (4.3)
 				
 				\textbf{Доказательство}:
 				\begin{enumerate}
 					\item Рассмотрим прозиовльный вектор вида $\vec{\omega} = \omega_{o.o} + \omega_{c.n}$
 					
 					$\Rightarrow$ A$\vec{\omega} = A(\omega_{o.o} + \omega_{c.n}) = A\omega_{o.o} + A\omega_{c.n} = \vec{0} + \vec{b} = \vec{b}$, где А - матрица системы (4.3); $\vec{b}$ - вектор - столбец свободных членов 
 					
 					$\Rightarrow$ любое решение вида (4.5) является решением системы (4.3)
 					
 					\item Покажем, что любое решение системы (4.3) представляется в виде (4.5)
 					
 					Берем любое решение $\vec{\omega}$ системы (4.3), те А$\vec{\omega} = \vec{b}$
 					
 					Рассмотрим разность векторов $\vec{\omega} - \vec{\omega_{c.n}}$
 					
 					$A(\vec{\omega} - \vec{\omega_{c.n}}) = A\vec{\omega} - A\vec{\omega_{c.n}} = \vec{b} - \vec{b} = \vec{0}$
 					
 					$\Rightarrow$ $\vec{\omega} - \vec{\omega_{c.n}}$ - решение системы (4.4) чтд
 				\end{enumerate}
 			
 			Пусть $\vec{\omega_1}, ..., \vec{\omega_k}$ - ФСР  системы (4.4)
 			
 			$\Rightarrow$ $\vec{\omega_{o.n}} = c_1\vec{\omega_1} + ... + c_k\vec{\omega_k} + \vec{\omega_{c.n}}~~~(4.6)$
 			
 			где $c_1,...,c_k$ - произвольные числа
 			
 			(4.6) - Общая структура решения неоднородной ситсемы линейных уравнений
 			
 	\section{Отображение множеств}
 		\subsection{Понятие отображения множеств. Основные определения}
 			\textbf{Определение}. Отображением f множества X во множество Y называется закон, посредством которого произольному элементу x $\in$ X ставится в сответсвие однозначно определенный элемент y $\in$ Y.
 			
 			\textbf{Обозначение}. f: X $\rightarrow$ Y
 			
 			\textbf{Определение}. Элемент y называется образом элемент x, а x - прообразом элемента y
 			
 			\textbf{Замечание}. Запись y = f(x) или x $\rightarrow^f$ y означает, что элемент x при отображении f переходит в элемент y
 			
 			Определение. Отображения f: X $\rightarrow$ Y и g: x $\rightarrow$ y называются равными, если f(x) = g(x) $\forall x \in X$
 			
 		\subsection{Композиция отображений}
 		\subsection{Обратное отображение}
 			\subsubsection{Свойства обрати ых отображений}
 				\begin{enumerate}
 					\item Обратное отображение единственно
 					\item Композиция обратимых отображений обратима, при этом
 					
 					\[(f \cdot g)^{-1} = g^{-1} \cdot f^{-1}\]
 				\end{enumerate}
 			
 				\textbf{Доказательство}: Композиция $f \cdot g$ обратима, как композиция биективных отображений, при этом, если $g: X \rightarrow Y$ и f: Y $\rightarrow$ Z, то 
 				
 				$(f \cdot g)(g^{-1} \cdot f^{-1}) = f(gg^{-1})f^{-1} = fe_yf^{-1} = ff^{-1} = e_z$
 				
 				$(g^{-1} \cdot f^{-1})(f\cdot g) = g^{-1}(f^{-1} \cdot f)g = g^{-1}e_yg = g^{-1}g = e_x$
 				
 	\section{Линейные операторы}
 		\textbf{Определение}. Линейным опреатором в линейном пространстве V называется отобржанеие $\hat{A}$: V $\rightarrow$ V, обладающее свойствами: 
 		\begin{enumerate}
 			\item $\hat{A}(\vec{x} + \vec{y}) = \hat{A}\vec{x} + \hat{A}\vec{y}$
 			\item $\hat{A}(\lambda \vec{x}) = \lambda\hat{A}\vec{x}$~~~$\forall \vec{x},\vec{y} \in V,~\lambda \in \mathbb{R}$
 		\end{enumerate}
 	
 		\textbf{Замечание}. $\hat{A}: V \rightarrow V$ - линейный оператор, если
 		
 		$\hat{A}(\alpha\vec{x} + \beta\vec{y}) = \alpha\hat{A}\vec{x} + \beta\hat{A}\vec{y}$~~~$\forall \vec{x},\vec{y} \in V,~\forall \alpha,\beta \in \mathbb{R}$
 		
 		Замечание. Два линейных оператора равны, если $\hat{A}\vec{x} = \hat{B}\vec{x}$
 		
 		\subsection{Матрица линейного оператора}
 			Пусть $\hat{A}: V \rightarrow V$ - линейный оператор в линейном пространстве V, Пусть B = $\{\vec{e}_1,...,\vec{e}_n\}$
 			
 			Подейтсвуем линейным опретатором набазисные векторы: 
 			
 			Пусть
 			\begin{equation*}
 				\begin{cases}
 					\hat{A}\vec{e}_1 = a_{11}\vec{e}_1 + a_{21}\vec{e}_2 + ... + a_{n1}\vec{e}_n\\
 					\hat{A}\vec{e}_2 = a_{12}\vec{e}_1 + a_{22}\vec{e}_2 + ... + a_{n2}\vec{e}_n\\
 					...\\
 					\hat{A}\vec{e}_n = a_{1n}\vec{e}_1 + a_{2n}\vec{e}_2 + ... + a_{nn}\vec{e}_n\\
 				\end{cases}
 			\end{equation*}
 		
 			Рассмотрим матрицу: 
 			
 			\begin{equation*}
 				A = 
 				\begin{pmatrix}
 					a_{11}&a_{12}&...&a_{1n}\\
 					a_{21}&a_{22}&...&a_{2n}\\
 					...\\
 					a_{n1}&a_{n2}&...&a_{nn}\\
 				\end{pmatrix}
 			\end{equation*}
 		
 			\textbf{Определение}. Матрица А называется матрицей линейного опретаора $\hat{A}$ в базисе B.
 			
 			\textbf{Замечание}. Чтобы найти матриу линейнго оператора, нужно подействовать опретаором на базисные вектора. Столбцы матрицы линейного оператора - это координатаы образов базисных векторов.
 			
 			$\hat{A}\vec{x} = \hat{A}(\sum\limits_{i=1}^{n}x_i\vec{e}_i) = \sum\limits_{i=1}^{n}x_i\hat{A}\vec{e}_i = \sum\limits_{i=1}^{n}x_i\sum\limits_{j=1}^{n}a_{ji}\vec{e}_i = \sum\limits_{j=1}^{n}(\sum\limits_{i=1}^{n}a_{ji}x_i)\vec{e}_i$
 			
 			\[\hat{A}\vec{x} = \sum_{j=1}^{n}y_j\vec{e}_j\]
 			
 			В силу единственности разложения вектора по базису:
 			
 			$y_j = \sum_{i=1}^{n}a_{ji}x_i,~~~j = \overline{1,n}$
 			
 			
			\begin{equation*}
				\begin{cases}
					y_1 = a_{11}x_1 + ... + a_{1n}x_n\\
					...\\
					y_n = a_{n1}x_1 + ... + a_{nn}x_n
				\end{cases}
			\end{equation*}
		
			\text{Преобразование координат вектора $\vec{x}$ при действии оператора $\hat{A}$}~~~(6.1)
			
			Матричный вид (6.1):
			
			\begin{equation*}
				\begin{pmatrix}
					y_1\\
					...\\
					y_n
				\end{pmatrix}
				_B = A \cdot
				\begin{pmatrix}
					x_1\\
					...\\
					x_n
				\end{pmatrix}
				_B~~~(6.2)
			\end{equation*}
		
		\subsection{Композиция линейных операторов}
			Пусть $\hat{A}: V \rightarrow V$ и $\hat{B}: V \rightarrow V$ - линейные операторы в линейном пространстве V. Пусть B = $\{\vec{e}_1, ... , \vec{e}_n\}$ - базис в V. Пусть A и B  - матрицы линейных операторов.
			
			$\hat{A} \cdot \hat{B}: V \rightarrow V$ - композиция  операторов $\hat{A}$ и $\hat{B}$
			
			Пусть D - матрица композиций $\hat{A} \cdot \hat{B}$ в базисе B.
			
			\begin{equation*}
				\vec{x} = 
				\begin{pmatrix}
					x_1\\
					...\\
					x_n
				\end{pmatrix}
			_B \rightarrow (\hat{B}) \rightarrow y =
			\begin{pmatrix}
				y_1\\
				...\\
				y_n
			\end{pmatrix}
		_B = B
		\begin{pmatrix}
			x_1\\
			...\\
			x_n
		\end{pmatrix}
	\rightarrow(\hat{A}) \rightarrow \vec{z} =
	\begin{pmatrix}
		z_1\\
		...\\
		z_n
	\end{pmatrix}
	_B = 
	\end{equation*}

		\begin{equation*}
			= A
			\begin{pmatrix}
				y_1\\
				...\\
				y_n
			\end{pmatrix}
		_B = A(B
		\begin{pmatrix}
			x_1\\
			...\\
			x_n
		\end{pmatrix}
	_B
	)
	= AB
	\begin{pmatrix}
		x_1\\
		...\\
		x_n
	\end{pmatrix}
_B \Rightarrow D = AB
		\end{equation*}
	
	\subsection{Преобразование матрицы линейного оператора при замене базиса}
		Пусть 
		
		\begin{equation*}
			\vec{x} = 
			\begin{pmatrix}
				x_1\\
				...\\
				x_n
			\end{pmatrix}
		_B \text{и}~~ \vec{x}' = 
		\begin{pmatrix}
			x_1'\\
			...\\
			x_n'
		\end{pmatrix}
	_B
		\end{equation*}
	
	\begin{equation*}
		\begin{pmatrix}
			x_1\\
			...\\
			x_n
		\end{pmatrix}
		_B = C
		\begin{pmatrix}
			x_1'\\
			...\\
			x_n'
		\end{pmatrix}
		_{B'}
	\end{equation*}

	Связь координат вектора $\vec{x}$ в базисах B и B'
	
	Пусть 
	\begin{equation*}
		\hat{A}\vec{x} = \vec{y} = 
		\begin{pmatrix}
			y_1\\
			...\\
			y_n
		\end{pmatrix}
	_B = A
	\begin{pmatrix}
		x_1\\
		...\\
		x_n
	\end{pmatrix}
	_B
	\end{equation*}
	
	\begin{equation*}
		\hat{A}\vec{x} = \vec{y} = 
		\begin{pmatrix}
			y_1'\\
			...\\
			y_n'
		\end{pmatrix}
	_{B'} = A'
	\begin{pmatrix}
		x_1'\\
		...\\
		x_n'
	\end{pmatrix}
	_{B'}
	\end{equation*}

	\begin{equation*}
		\begin{pmatrix}
			y_1'\\
			...\\
			y_n'
		\end{pmatrix}
		_B = C^{-1}
		\begin{pmatrix}
			y_1\\
			...\\
			y_n
		\end{pmatrix}
		_B = C^{-1}A
		\begin{pmatrix}
			x_1\\
			...\\
			x_n
		\end{pmatrix}
		_B = C^{-1}AC
		\begin{pmatrix}
			x_1'\\
			...\\
			x_n'
		\end{pmatrix}
		_{B'} = A'
		\begin{pmatrix}
			x_1'\\
			...\\
			x_n'
		\end{pmatrix}
		_{B'}
	\end{equation*}

	$\Rightarrow A' = C'AC$
	
	\section{Действия с линейными операциями}
		\subsection{Основные операции над линейными операторами}
			Пусть $\hat{A}$ и $\hat{B}$ - линейные операторы в линейном пространстве V. Пусть А и В - матрицы в некотором базисе
			
			Над линейными операторами вводится следующие операции:
			\begin{enumerate}
				\item Сложение операторов
				
				$(\hat{A} + \hat{B})\vec{x} = \hat{A}\vec{x} + \hat{B}\vec{x}$ при этом $(\hat{A} + \hat{B}) = A + B$, где $(\hat{A} + \hat{B})$  - матрица оператора $\hat{A} + \hat{B}$
				
				\item Умножение оператора на число
				
				$(\lambda\hat{A})\vec{x} = \lambda\hat{A}\vec{x}$, при этом $(\lambda\hat{A}) = \lambda A$, где $(\lambda\hat{A})$ - матрица оператора $\lambda \hat{A}$
				
				\item Умножение операторов
				
				$(\hat{A}\hat{B})\vec{x} = \hat{A}(\hat{B}\vec{x})$, при этом $(\hat{A}\hat{B}) = AB$, где $(\hat{A}\hat{B})$ - матрица оператора $\hat{A}\hat{B}$
			\end{enumerate}
		
		\subsection{Обратный линейный оператор}
			\textbf{Определение}. Обратным к оператору $\hat{A}$ называется оператор $\hat{A}^{-1}$ такой что $\hat{A}\hat{A}^{-1} = \hat{A}^{-1}\hat{A} = \hat{E}$, где $\hat{E}$ - единичный оператор
			
			\textbf{Теорема}. Операторы $\hat{A} + \hat{B};~\lambda\hat{A};~\hat{A}\hat{B};~\hat{A}^{-1}$ - линейные операторы
			
			Доказательство.
			
			\begin{enumerate}
				\item $\hat{A}^{-1}(\vec{x} + \vec{y}) = \hat{A}^{-1}\vec{x} + \hat{A}^{-1}\vec{y}$
				
				пр $\hat{A}(\hat{A}^{-1}\vec{x} + \hat{A}^{-1}\vec{y}) = \hat{A}\hat{A}^{-1}\vec{x} + \hat{A}\hat{A}^{-1}\vec{y} = (\hat{A}\hat{A}^{-1})\vec{x} + (\hat{A}\hat{A}^{-1})\vec{y} = \vec{x} + \vec{y}$
				
				лев $\hat{A}(\hat{A}^{-1}(\vec{x} + \vec{y})) = \hat{A}\hat{A}^{-1}(\vec{x} + \vec{y}) = \hat{E}(\vec{x} + \vec{y}) = \vec{x} + \vec{y}$
				
				\item $\hat{A}^{-1}(\lambda\vec{x}) = \lambda\hat{A}^{-1} \Rightarrow \hat{A}^{-1}$ - линейный оператор
			\end{enumerate}
		
			Найдем матрицу обратной оператора
			
			Пусть $\hat{A}^{-1}$ - лин обратный оператор. Пусть A и X - матрицы операторов $\hat{A}$ и $\hat{A}^{-1}$ в произвольном базисе.
			
			$\hat{A}\hat{A}^{-1} = \hat{A}^{-1}\hat{A} = \hat{E} \Rightarrow AX = XA = E \Rightarrow X = A^{-1}$
			
			\textbf{Теорема}. Линейный оператор обратим т и тт, когда его матрица в произовльном базисе не вырождена
			
			Данная теорема является следствием того, что $A^{-1}$ - это матрица оператора $\hat{A}^{-1}$ в некотором базисе, обратного к оператору $\hat{A}$, заданному матрицей А в этом же базисе. Матрица А обратима т и тт, когда она не вырождена. При этом обратная матрица $\hat{A}^{-1}$ единственная
			
	\section{Ядро и образ линейного оператора}
		\textbf{Определение}. Ker$\hat{A}$ = $\{\vec{x} \in V| \hat{A}\vec{x} = 0\}$ - ядро лин оператора $\hat{A}$
		
		Im$\hat{A}$ = $\{\vec{y} = \hat{A}\vec{x} | \vec{x} \in V\}$ - образ лин оператора $\hat{A}$
		
		\textbf{Замечание}. Ker$\hat{A}$ $\subset$ V; Im$\hat{A}$ $\subset$ V
		
		\textbf{Теорема}. Ядро и образ линейного оператора ялвяются лин подпространством.
		
		\textbf{Док-во}. для ядра
		
		Пусть $\vec{x}$ и $\vec{y}$ $\in$ Ker$\hat{A}$ $\Rightarrow$ $\hat{A}$$\vec{x}$ = $\vec{0}$ и $\hat{A}$$\vec{y}$ = $\vec{0}$
		
		$\hat{A}(\alpha \vec{x} + \beta\vec{y}) = \alpha\hat{A}\vec{x} + \beta\hat{A}\vec{y} = \alpha\vec{0} + \beta\vec{0} = \vec{0} \Rightarrow \alpha\vec{x} + \beta\vec{y} \in Ker\hat{A}~~\forall \vec{x}, \vec{y} \in Ker\hat{A},~~\forall \alpha, \beta \in \mathbb{R}$ $\Rightarrow$ Ker$\hat{A}$ - линейное подпространство в лин пространстве V
		
		Аналогично Im$\hat{A}$ - лин подпространство в V
		
		Определение. Рангом линейного оператора называется размерность его образа, а дефектом - размерность ядра, те 
		
		$rang\hat{A} = dimIm\hat{A};~~ def\hat{A} = dimKer\hat{A}$
		
		\textbf{Теорема}. Если B = $\{\vec{e}_1,...,\vec{e}_n\}$ - базис лин пространства V, то Im$\hat{A}$ = L($\hat{A}\vec{e}_1$,...,$\hat{A}$$\vec{e}_1$)
		
		\textbf{Доказательство}.
		
		$L(\hat{A}\vec{e}_1,...,\hat{A}\vec{e}_n) = L$ - линейная оболочка образованная образами базисных векторов.
		
		$Im\hat{A} = L \Leftrightarrow Im\hat{A} \subset L,~~L \subset Im\hat{A}$
		
		\begin{enumerate}
			\item Im$\hat{A}$ $\subset$ L
			
			$\forall \vec{x} = \sum_{i = 1}^{n}x_i\vec{e}_i \Rightarrow \hat{A}\vec{x} = \hat{A}(\sum_{i=1}^{n}x_i\vec{e}_i) = \sum_{i=1}^{n}x_i\hat{A}\vec{e}_i \in L \Rightarrow Im\hat{A} \subset L$
			
			\item L $\subset$ Im$\hat{A}$
			
			$\forall \vec{y} \in L: \vec{y} = \sum_{i=1}^{n}x_i\hat{A}\vec{e}_i = \hat{A}(\sum_{i=1}^{n}x_i\vec{e}_i) = \hat{A}\vec{x} \Rightarrow \vec{y} \in Im\hat{A} \Rightarrow L \subset Im\hat{A}$
		\end{enumerate}
	
		\textbf{Теорема}. Ранг линейного оператора равен рангу его матрицы в произвольном базисе.
		
		\textbf{Доказательство}.
		
		$rang\hat{A} = dimIm\hat{A} = dimL(\hat{A}\vec{e}_1,...,\hat{A}\vec{e}_n)$
		
		где $\hat{A}\vec{e}_1,...,\hat{A}\vec{e}_n$ - столбцы матрицы А.~~~чтд
		
		\textbf{Теорема}. Если $\hat{A}:V \rightarrow V$ - линейный оператор, то
		\[rang\hat{A} + def\hat{A} = dimV\]
		
		\textbf{Доказательство}. Пусть $dimV = n$
		
		Пусть $B' = \{\vec{e}_1,...,\vec{e}_k\}$ - базис Ker$\hat{A}$. Дополним его до базиса В.
		
		$B = \{\vec{e}_1,...,\vec{e}_k, \vec{e}_{k+1}, ..., \vec{e}_n\}$
		
		$Im\hat{A} = L(\hat{A}\vec{e}_1,...,\hat{A}\vec{e}_k,\hat{A}\vec{e}_{k+1},...,\hat{A}\vec{e}_n) = L(\hat{A}\vec{e}_{k+1},...,\hat{A}\vec{e}_n)$ 
		
		тк $\hat{A}\vec{e}_1 = \vec{o},...,\hat{A}\vec{e}_k = \vec{o}$
		
		Покажем, что векторы $\hat{A}\vec{e}_{k+1},...,\hat{A}\vec{e}_n$ линейно независимы. Используем "метод от противного". Пусть это не так, те пусть векторы $\hat{A}\vec{e}_{k+1},...,\hat{A}\vec{e}_n$ линейно зависимы. Тогда существует нетривиальная линейная комбинация:
		\[\lambda_{k+1}\hat{A}\vec{e}_{k+1} + ... + \lambda_n\hat{A}\vec{e}_n = \vec{o}\]
		
		Тогда, тк $\hat{A}$ - линейный оператор, получим:
		\[\hat{A}(\lambda_{k+1}\vec{e}_{k+1} + ... + \lambda_n\vec{e}_n) = \vec{o}\]
		
		$\Rightarrow \lambda_{k+1}\vec{e}_{k+1} + ... + \lambda_n\vec{e}_n \in Ker\hat{A}$
		
		$\Rightarrow \text{вектор } \lambda_{k+1}\vec{e}_{k+1} + ... + \lambda_n\vec{e}_n$ линейно выражается через векторы $\vec{e}_1,...\vec{e}_k$, тк B' - базис ядра
		
		$\Rightarrow \text{векторы } \vec{e}_1,...,\vec{e}_k,\vec{e}_{k+1},...,\vec{e}_n$ линейно зависимы - противоречие, тк $B = \{\vec{e}_1,...,\vec{e}_k,\vec{e}_{k+1},...,\vec{e}_n\}$ - базис
		
		$\Rightarrow dimIm\hat{A} = n - k \Rightarrow dimKer\hat{A} = k$
		
		$\Rightarrow rang\hat{A} + def\hat{A} = n$ чтд
		
		\textbf{Теорема}. Линейный оператор $\hat{A}$ обратим титт, когда Ker$\hat{A}$ = \{$\vec{o}$\}
		
		\section{Собственные значения и собственные векторы линейного оператора}
			\subsection{Определение собственных векторов и собственных значений линейного оператора. Оператор простого типа}
			
			\textbf{Определение}. Пусть $\hat{A}: V \rightarrow V$ - линейный оператор в линейном пространстве V. ненулевой вектор $\vec{x} \in V$ называется собственным вектором оператора $\hat{A}$, соответствующим собственному значению $\lambda$, если $\hat{A}\vec{x} = \lambda\vec{x}~(8.1)$ (те если при действии оператор $\hat{A}$ вектор $\vec{x}$ переходим сам в себя, в $\lambda$ раз растянутый)
			
			\textbf{Замечание}. (краткое определение) Если $\hat{A}\vec{x} = \lambda\vec{x},~~\vec{x} \neq \vec{o}$, то $\vec{x}$ - собсвенный вектор оператора $\hat{A}$ с собственным значением $\lambda$
			
			Теорема. Собственные векторы $\vec{x}_1,...,\vec{x}_k$ линейного оператор, отвечающие различным собственным значениям $\lambda_1,...,\lambda_k$, линейно независимы.
			
			Доказательство. Применим ММИ по k/
			
			\begin{enumerate}
				\item Для k = 1 утверждение верно, тк собственный вектор является ненулевым по определению (а система из одного вектора линейно независима титт, когда этот вектор ненулевой).
				\item Пусть утверждение верно для любой системы из k-1 векторов.
				
				Докажем его для k векторов $\vec{x}_1,...,\vec{x}_k$
				
				Рассмотрим равенство
				\[a_1\vec{x}_1 + ... + a_k\vec{x}_k = \vec{o}~~~(8.2)\]
				
				Под действием оператора $\hat{A}$ равенство (8.2) перейдет в равенство:
				\[a_1\lambda_1\vec{x}_1 + ... + a_k\lambda_k\vec{x}_k = \vec{o}~~~(8.3)\]
				
				Умножим обе части равенства (8.2) на $\lambda_k$ и вычтем полученное равенство из (8.3). В результате получим:
				\[a_1(\lambda_1 - \lambda_k)\vec{x}_1 + ... + a_{k-1}(\lambda_{k_1} - \lambda_k)\vec{x}_{k-1} = \vec{o}~~~(8.4)\]
				
				В силу индуктивного предположения, из (8.4) следует, что
				\[a_1 = ... = a_{k-1} = 0\]
				
				Тогда из (8.2) следует, что $a_k\vec{x}_k = \vec{o}$. Тк $\vec{x}_k \neq \vec{o} \Rightarrow a_k = 0 \Rightarrow \vec{x}_1,....,\vec{x}_k$ - линейно независимы (тк линейная комбинация (8.2) - тривиальная) чтд
			\end{enumerate}
		
			Следствие. Линейный оператор, действующий в n-мерном линейном пространстве, не может иметь более чем n различных собственных значений.
			
			Пример:
			\begin{enumerate}
				\item $\hat{A}: V^3 \rightarrow V^3, \vec{a} \neq \vec{o}$ - фиксированный вектор; $\hat{A}\vec{x} = [\vec{x}, \vec{a}]$
				
				$\hat{A}\vec{a} = [\vec{a},\vec{a}] = \vec{o} = 0 \cdot \vec{a} \Rightarrow \vec{a}$ -собсвенный вектор с собственным значением $\lambda$ = 0
				
				\item $\hat{A}: V^2 \rightarrow V^2; \hat{A}$ - оператор поворота на угол $\phi = 15^\circ$ - не имеет ни одного собственного вектора, тк ни один ненулевой вектор такого поворота не останется коллинеарным самому себя
			\end{enumerate}
		
			\textbf{Определение}. Линейный оператор $\hat{A}: V \rightarrow V$ называется оператором простого типа, если в линейном пространстве V существует базис из собственных векторов оператора $\hat{A}$
			
			\textbf{Теорема}. Линейный оператор $\hat{A}: V \rightarrow V$ является оператором простого тимпа титт, когда в пространстве V существует базис, в котором оператор $\hat{A}$ имеет диагональную матрицу
			
			\textbf{Доказательство}. Пусть dimV = n. Согласно определенюю оператор $\hat{A}$ является оператором простого типа титт, когда он меет n линейно независимых собственных векторов $\vec{e}_1,...,\vec{e}_n$. Это равносильно существованию базиса $B = \{\vec{e}_1,...,\vec{e}_n\}$, в котором матрица оператора $\hat{A}$ имеет вид:
			
			\begin{equation*}
				A=
				\begin{pmatrix}
					\lambda_1&0&0&0\\
					0&\lambda_2&0&0\\
					0&0&...&0\\
					0&0&0&\lambda_n
				\end{pmatrix}
			~~~(8.5)
			\end{equation*}
		
			где $\lambda_1,...,\lambda_n$ - собственные значения, соответсующие собственным векторам $\vec{e}_1,...,\vec{e}_n$
			
			Действительно
			
			\begin{equation*}
				\hat{A}\vec{e}_1 = \lambda_1\vec{e}_1 = 
				\begin{pmatrix}
					\lambda_1\\
					0\\
					...\\
					0
				\end{pmatrix}
			_B
			,\hat{A}\vec{e}_1 = \lambda_2\vec{e}_2 = 
				\begin{pmatrix}
					0\\
					\lambda_2\\
					0\\
					....\\
					0
				\end{pmatrix}
			_B
			,...,\hat{A}\vec{e}_n = \lambda_n\vec{e}_n =
			\begin{pmatrix}
				0\\
				0\\
				...\\
				\lambda_n
			\end{pmatrix}
		_B
			\end{equation*}
	
	B - собственный базис чтд
	
	Таким образом, в собственном базисе матрица линейного оператора имеет диагональный вид, причем по диагонали стоят его собственные значения.
	
	\textbf{Следствие}. В n-мерном линейном пространстве линейный оператор, имеющий n различных собственных значений, является оператором простого типа.
	
	\textbf{Замечание}. Обратное утверждение неверно, те не всякий оператор простого типа имеет n различных собственных значений
	
	\textbf{Замечание}. В соответсвие с (8.5) оператор простого типа называют также диагонализуемым оператором
	
	\textbf{Пример}. $\hat{A}: V^3 \rightarrow V^3$ - оператор зеркального отражения относительно плоскости Q.
	
	Рассмотрим три вектора: $\vec{e}_1 \perp Q; \vec{e}_2 \parallel Q; \vec{e}_3 \parallel Q; \vec{e}_2 \parallel \vec{e}_3$
	
	$B = \{\vec{e}_1,\vec{e}_2,\vec{e}_3\}$ - базис в $V^3$, тк векторы $\vec{e}_1,\vec{e}_2,\vec{e}_3$ линейно независимы (тк они не компланарны). Кроме того, $B = \{\vec{e}_1,\vec{e}_2,\vec{e}_3\}$ - собственный базис, тк
	
	$\hat{A}\vec{e}_1 = -\vec{e}_1 = -1\cdot \vec{e}_1 + 0\cdot \vec{e}_2 + 0\cdot \vec{e}_3$
	
	$\hat{A}\vec{e}_2 = \vec{e}_2 = 0\cdot \vec{e}_1 + 1\cdot \vec{e}_2 + 0\cdot \vec{e}_3$
	
	$\hat{A}\vec{e}_3 = -\vec{e}_3 = 0\cdot \vec{e}_1 + 0\cdot \vec{e}_2 + 1\cdot \vec{e}_3$
	
	\begin{equation*}
		\Rightarrow A = 
		\begin{pmatrix}
			-1&0&0\\
			0&1&0\\
			0&0&1
		\end{pmatrix}
	-\text{матрица оператора $\hat{A}$ в базисе B}
	\end{equation*}
\end{document}