\documentclass[a4paper, 12pt,TimesNewRoman]{article}
\usepackage[14pt]{extsizes}
\usepackage{cmap}
\usepackage[T2A]{fontenc}
\usepackage[utf8]{inputenc}
\usepackage[english,russian]{babel}
\usepackage[left=2cm,right=2cm,
top=2cm,bottom=2cm,bindingoffset=0cm]{geometry}
\usepackage{indentfirst}
\usepackage{graphicx}
\graphicspath{{./huina/}}
\usepackage {subcaption}
\usepackage{parskip}
\usepackage{amsmath}
\usepackage{mathtools}
\usepackage{amssymb}
\usepackage{amsfonts}
\usepackage{float}
\usepackage[unicode, pdftex]{hyperref}
\author{Забродин Денис Александрович}
\title{\textbf{Комплексные числа}}

\begin{document}
	\maketitle
	\tableofcontents\newpage
	\section{Комплексные числа}
		\textbf{Определение}: Комплексными числами называется множество выражений вида z = x + iy, где x, y $\in$ $\mathbb{R}$, а i - мнимая единица, удовлетворяет условию $i^2 = -1$, с введенными в нем операциями сложения и умножения:
		
		$z_1 = x_1 + iy_1$
		
		$z_2 = x_2 + iy_2$
		
		$z_1 + z_2 = (x_1 + x_2) + i(y_1 + y_2)$
		
		$z_1 \cdot z_2 = (x_1x_2 - y_1y_2) + i(x_1y_2 + y_1x_2)$
		
		Два комплексных числа $z_1 = x_1 + iy_1$ и $z_2 = x_2 + iy_2$ равны т и тт, когда $x_1 = x_2$ и $y_1 = y_2$
		
		x - действительная часть комплексного числа z
		
		y - мнимая часть комплексного числа z
		
		\textbf{Обозначение}: x = Rez; y = Imz
		
		$z = x + iy$ - алгебраическая форма комплексного числа
	\subsection{Геометрическое изображение комплексных чисел}
		Пусть на плоскости задана декартова система координат Oxy. Сопоставим комплексному числу z = x + iy точку M(x, y)
		
		\begin{figure}[H]
			\center{\includegraphics[scale=0.8]{huina37}}
		\end{figure}
	
		\textbf{Замечание}: Тк геометрически изображать комплексное число можно не только точкой, но и вектором, то и сложение, вычитание, а также умножение комплексного числа на действительное число можно выполнять аналогично тому, как это осуществляется для геометрических векторов.
	\subsection{Тригонометрическая форма комплексного числа}
		\begin{figure}[H]
			\center{\includegraphics[scale=1]{huina38}}
		\end{figure}
	
		\begin{equation*}
			z = x + iy~~~
			\begin{cases}
				x = rcos\phi\\
				y = rsin\phi
			\end{cases}
		\end{equation*}
	
		$z = r(cos\phi + isin\phi)$ - тригонометрическая форма комплексного числа
		
		$r = |z| = \sqrt{x^2 + y^2}$ - модуль комплексного числа
		
		$\phi = argz$ - аргумент комплексного числа
		
		$z = z + iy = r(\frac{x}{r} + i\frac{y}{r}) \Rightarrow cos\phi = \frac{x}{r};~~ sin\phi = \frac{y}{r}$
		
	\subsection{Умножение комплексных числе в тригонометрической форме}
		Пусть $z_1 = r_1(cos\phi_1 + isin\phi_1)$ $z_2 = r_2(cos\phi_2 + isin\phi_2)$
		
		$z_1 \cdot z_2 = r_1\cdot r_2(cos(\phi_1 + \phi_2) + isin(\phi_1 + \phi_2))$ (1)
		
		$|z_1\cdot z_2| = |z_1| \cdot |z_2|;~~arg(z_1\cdot z_2) = argz_1 + argz_2$
	\subsection{Комплексное сопряженное число}
		$z = x + iy \rightarrow \bar{z} = x - iy$
		
		$\bar{z}$ - комплексно сопряженное по отношению к z
		
		Если $z \in \mathbb{R}~~(Im z = 0)$, то z = $\bar{z}$
		
		\begin{figure}[H]
			\center{\includegraphics[scale=1]{huina39}}
		\end{figure}
		
		\subsubsection{Свойства операции сопряжения}
			\begin{enumerate}
				\item $\bar{z_1 \cdot z_2} = \bar{z_1} \cdot \bar{z_2}$
				\item $\bar{\frac{z_1}{z_2}} = \frac{\bar{z_1}}{\bar{z_2}}$
				\item $z \cdot \bar{z} = x^2 + y^2 = |z|^2$
			\end{enumerate}
	\subsection{Деление комплексных чисел}
		$\frac{z_1}{z_2} = \frac{z_1 \cdot \bar{z_2}}{z_2 \cdot \bar{z_2}} = \frac{z_1 \cdot \bar{z_2}}{|z_2|^2}$
		\subsubsection{Деление комплексных чилсе в тригонометрической форме}
			Пусть $z_1 = r_1(cos\phi_1 + isin\phi_1)~~~~z_2 = r_2(cos\phi_2 + isin\phi_2)$
			
			$\frac{z_1}{z_2} = \frac{r_1}{r_2}(cos(\phi_1 - \phi_2) + isin(\phi_1 - \phi_2))$ (2)
			
			$|\frac{z_1}{z_2}| = \frac{|z_1|}{|z_2|}$
			
	\subsection{Возведение в степень комплексного числа}
		\textbf{Теорема}: Если $z = r(cos\phi + isin\phi)$, то 
		
		$z^n = r^n(cosn\phi + isinn\phi)$, $\forall$ n $\in$ $\mathbb{Z}$ (3)
		
		(3) - Формула Муавра
		
		\textbf{Доказательство}:
		\begin{enumerate}
			\item Если $n \in \mathbb{N}$, то формула (3) $\Rightarrow$ из (1)
			\item Если $ n = 0$, то $z^0 = 1 = r^0(cos0 + isin0)$
			\item Если $n < 0$, то пусть n = -m, $m \in \mathbb{N}$
			
			$z^n = z^{-m} = \frac{1}{z^m} = \frac{1}{r^m(cosm\phi + isinm\phi)} = \frac{1}{r^m} \cdot \frac{(cosm\phi - isinm\phi)}{(cosm\phi + isinm\phi)(cosm\phi - isinm\phi)} = r^{-m}(cos(-m\phi) + isin(-m\phi)) = r^n(cosn\phi + isinn\phi)$
		\end{enumerate}
	
	\subsection{Извлечение корня из комплексно числа}
		\textbf{Определение}: Пусть $n \in \mathbb{N}$. Корнем n-ой степени из комплексного числа z называется комплексное число $\alpha: \alpha^n = z$
		
		\textbf{Теорема}: Для ненулевого комплексного числа $z = r(cos\phi + isin\phi)$ существует ровно n различных корней $\alpha_0,\alpha_1,\alpha_2,\cdots,\alpha_{n-1}$ n-ой степени:
		
		$\sqrt[n]{z} = \alpha_k = \sqrt[n]{r}(cos\frac{\phi + 2\pi k}{n} + isin\frac{\phi + 2\pi k}{n})$, k = 0, 1, 2, ..., n-1
		
		\textbf{Доказательство}: Пусть $\alpha = p(cos\theta + isin\theta) \Rightarrow a^n = z \Rightarrow p^n(cosn\theta + isinn\theta) = r(cos\phi + isin\phi) \Leftrightarrow p^n = r \text{и}~n\theta = \phi + 2\pi k, k \in \mathbb{Z}$
		
		$\Rightarrow \alpha_k = \sqrt[n]{r}(cos\frac{\phi + 2\pi k}{n} + isin\frac{\phi + 2\pi k}{n})$ - корни n-ой степени из числа z. Всего n различных корней $\alpha_k$ лежат на окружности радиуса R = $\sqrt[n]{r}$ в вершинах правильного n-угольника
		
		\begin{figure}[H]
			\center{\includegraphics[scale=0.5]{huina40}}
		\end{figure}
	\subsection{Показательная форма комплексного числа}
		$e^{i\phi} = cos\phi + isin\phi$ (4)
		
		(4) - формула Эйлера
		
		Из (4) $\Rightarrow$ $e^{-i\phi} = cos\phi - isin\phi$ (5)
		
		Из (4) и (5) $\Rightarrow$ $cos\phi = \frac{e^{i\phi} + e^{-i\phi}}{2}$ и $sin\phi = \frac{e^{i\phi} - e^{-i\phi} - e^{-i\phi}}{2i}$
		
		$z = re^{i\phi}$~~~$\bar{z} = re^{-i\phi}$
		
		$z^n = r^ne^{in\phi}$ - формула Муавра в показательной форме
		
		$\sqrt[n]{z} = \sqrt[n]{r}e^{i(\frac{\phi}{n} + \frac{2\pi k}{n})};~~k = 0, 1, 2, ..., n-1$
		
			\section{Многочлены}
		\textbf{Определение}: Многочленом n-ой степени называется функция $P(x) = a_0x^n + a_1x^{n-1} + ... +a_{n-1}x + a_n$, где $x \in \mathbb{C}; a_i \in \mathbb{C}; i = 0,1,2,...,n; a_0 \neq 0$
		
		\textbf{Обозначение}: deg P - степень многочлена P(x)
		
		\textbf{Замечание}: Сложение и умножение многочленов определяются обычным образом, при этом:
		\[deg(P + Q) \leq max(degP; degQ)\]
		\[deg(P \cdot Q) = degP + degQ\]
		
		\textbf{Теорема}: Для любых двух многочленов f(x) и g(x), где $g(x) \neq 0$, существует, и притом единственная, пара многочленов q(x) и r(x) такая, что
		\[f(x) = g(x)\cdot q(x) + r(x)~~~~~(1)\]
		
		где либо r(x) = 0, либо deg r < deg g
		
		f(x) - делимое, g(x) - делитель, q(x) - частное, r(x) - остаток
		
		\textbf{Доказательство}: Если f(x) = 0, то берем r(x) = q(x) = 0 и теорема верна.
		
		Пусть $f(x) \neq 0$
		
		\textbf{I случай} deg f < deg g $\Rightarrow$ f = g $\cdot$ 0 + f
		
		\textbf{II случай} deg f $\geq$ deg g
		
		$f(x) = a_0x^n + a_1x^{n-1}+...+a_{n-1}x + a_n$
		
		$g(x) = b_0x^m + b_1x^{m-1}+...+b_{m-1}x + b_m$
		
		Применим метод мат индукции по степеням n многочлена f(x)
		
		1) n = 0 $\Rightarrow$ m = 0 и q(x) = $\frac{a_n}{b_m}$; r(x) = 0 $\Rightarrow$ Теорема верна
		
		2)Считаем, что теорема верна для любого многочлена степени < n.
		
		Обозначим $f_1(x) = f(x) - \frac{a_0}{b_0}x^{n-m}\cdot g(x)~~~~~(2)$
		
		Либо $f_1(x) = 0$, либо deg $f_1$ < n
		
		Если $f_1(x) = 0$ $\Rightarrow$ $f(x) = \frac{a_0}{b_0}x^{n-m} \cdot g(x)$, те 
		
		$q(x) = \frac{a_0}{b_0}x^{n-m}$ и $r(x) = 0$ $\Rightarrow$ Теорема верна
		
		Если $deg~f_1 < n$, то по определению индукции
		
		$f_1(x) = g(x) \cdot q_1(x) + r(x)$, где либо r(x) = 0, либ deg r < deg g. Из (2) получим:
		
		$f(x) = f_1(x) + \frac{a_0}{b_0}x^{n-m} \cdot g(x) = g(x) \cdot q_1(x) + r(x) + \frac{a_0}{b_0}x^{n-m}\cdot g(x) = g(x) \cdot (\frac{a_0}{b_0}x^{n-m} + q_1(x)) + r(x) = [\frac{a_0}{b_0}x^{n-m} + q_1(x) = q(x)] = g(x) \cdot q(x) + r(x) \Rightarrow$ Теорема верна
		
		Докажем единственность разложения (1). Пусть существуют два разложения: (1) и
		\[f(x) = g(x) \cdot q_1(x) + r_1(x)~~~~~(3)\]
		
		$deg~r_1 < deg~g$
		
		Вычитаем (3) и (1):
		
		$0 = g(x)(q(x) - q_1(x)) + r(x) - r_1(x) \Rightarrow g(q-q_1) = r_1 - r$
		
		Пусть $q \neq q_1 \Rightarrow deg(g \cdot (q -q_1)) \geq deg~g$
		
		Но $deg(r_1 - r) \leq max(deg~r_1, deg~r) < deg~g$ - противоречие $\Rightarrow$ $q_1 = q$ и $r_1 = r$
		
		\textbf{Теорема Безу}: Остаток от деления многочлена f(x) на (x-a) равен f(a)
		
		\textbf{Доказательство}:
		
		Разделим f(x) на (x - a):
		
		f(x) = (x-a)q(x) + r(x)
		
		где deg r < deg(x-a) = 1 $\Rightarrow$ r(x) = r = const
		
		При x = a получим r = f(a)
		
		\textbf{Определение}: x = a называется корнем многочлена f(x), если f(a) = 0
		
		\textbf{Замечание}: Если остаток от деления f(x) на g(x) равен 0, то говорят, что f(x) делится на g(x)
		
		Следствие из теоремы Безу: Если x = a - корень f(x), то f(x) делится на (x-a)
		
		\subsection{Кратность корня}
		\textbf{Определение}: Корень x = a называется корнем кратности k многочлена f(x), если f(x) делится на $(x-a)^k$ и не делится на $(x-a)^{k+1}$
		
		\textbf{Теорема}: x = a - корень кратности k многочлена f(x) т и тт, когда $f(x) = (x-a)^k \cdot g(x)$, где g(a) $\neq$ 0
		
		\textbf{Основная теорема алгебры}: Всякий многочлен, степень которого не меньше единицы, имеет хотя бы один корень, в общем случае комплексный
		
		\textbf{Следствие}: Всякий многочлен степени n $\geq$ 1 имеет ровно n корней, при этом
		
		$P_n(x) = a_0x^n + a_1x^{n-1} + ... + a_{n-1}x + a_n = a_0(x-a_1)(x-a_2)\cdot ... \cdot (x-a_n)~~~~~(4)$
		
		где $a_1,...,a_n$ - корни многочлена $P_n(x)$
		
		\textbf{Доказательство}: По основной теореме алгебры $\exists a_1 \in \mathbb{C}: P_n(a_1) = 0$
		
		Тогда по следствию из теоремы Безу
		
		$P_n(x) = (x-a_1)P_{n-1}(x)$
		
		Если n-1 $\geq$ 1, то $\exists a_2 \in \mathbb{C}: P_{n-1}(a_2) = 0 \Rightarrow P_n(x) = (x-a_1)(x-a_2)P_{n-2}(x)$ и тд
		
		В результате получим разложение (4)
		
		Замечание: Сгруппировав в равенстве (4) множители с одинаковыми корнями, получим: 
		
		$P_n(x) = a_0(x-a_1)^{k_1} \cdot (x-a_2)^{k_2} \cdot ... \cdot (x - a_r)^{k_r}~~~~~(5)$
		
		$a_i \neq a_j$ при $i \neq j: k_1 + k_2 + ....+ k_r = n$
		
		$k_i$ - кратность корня $a_i$
		
		(5) - каноническое разложение многочлена (на множестве комплексных чисел)
		
		\section{Теорема Виета}
		Если $a_1, a_2, ...., a_n$ - корни многочлена
		
		$P_n(x) = a_0x^n + a_1x^{n-1} + ... + a_{n-1}x + a_n$, то 
		
		\begin{equation*}
			\begin{cases}
				a_1 + a_2 + ... + a_n = -\frac{a_1}{a_0}\\
				a_1a_2 + .... + a_1a_n + a_2a_3 + ... + a_{n-1}a_n = \frac{a_2}{a_0}\\
				...\\
				a_1a_2\cdot ... \cdot a_k + ... = (-1)^k\frac{a_k}{a_0}\\
				...\\
				a_1a_2\cdot ... \cdot a_n = (-1)^n\frac{a_n}{a_0}
			\end{cases}
		\end{equation*}
		
		\section{Многочлены с действительными коэффициентами}
		Пусть $P_n(x) = a_0x^n + a_1x^{n-1}+...+a_{n-1}x + a_n$
		
		$a_i \in \mathbb{R}; i = 0,1,...,n$
		
		\textbf{Теорема}: Если x = a $\in \mathbb{C}$ - корень многочлена $P_n(x)$, то x = $\bar{a}$ - тоже корень
		
		\textbf{Доказательство}: Если a - корень $P_n(x)$, то 
		
		$a_0a^n + a_1a^{n-1}+...+a_{n-1}a + a_n = P_n(a) = 0$
		
		$\bar{P_n(a)} = \bar{0}$
		
		$\bar{a_0a^n + a_1a^{n-1}+...+a_{n-1}a + a_n} = 0$
		
		$\bar{a_0}\bar{a}^n + \bar{a}_1\bar{a}^{n-1}+...+\bar{a}_{n-1}\bar{a} + \bar{a}_n = 0$ 
		
		$a_0\bar{a}^n + a_1\bar{a}^{n-1}+...+ a_{n-1}\bar{a} + a_n = 0$ 
		
		$P_n(\bar{a}) = 0 \Rightarrow \bar{a}$ - корень $P_n(x)$
		
		\textbf{Замечание}: Если a - корень многочлена $P_n(x)$, то $P_n(x)$ делится на (x - a)
		
		$\bar{a}$ - тоже корень $\Rightarrow$ $P_n(x)$ делится на (x - $\bar{a}$)
		
		Таким образом, $P_n(x)$ делится на
		
		$(x - a)(x - \bar{a}) = x^2 - (a + \bar{a})x + |a|^2$ - квадратный трехчлен с действительными коэффициентами.
		
		Замечание: Если $P_n(x) = a_0x^n + a_1x^{n-1} + ... + a_{n-1}x + a_n$ - многочлен с действительными коэффициентами, то $P_n(x) = a_0(x - a_1)^{k_1}\cdot (x-a_2)^{k_2}\cdot ....\cdot (x-a_s)^{k_s}\cdot (x^2 + p_1x + q_1)^{r_1}\cdot ... \cdot (x^2 + p_lx + q_l)^{r_1}~~~~~(6)$
		
		где $a_i \in \mathbb{R}; k_i \in \mathbb{N}; i = 1,...,s;$
		
		$p_j, q_j \in \mathbb{R}; r_j \in \mathbb{N}; j = 1,...,l$
		
		(6) - каноническое разложение многочлена (на множестве действительных чисел)
		
	\section{Линейные пространства}
		Определение: Линейным пространством называется множество $V = {\vec{a}, \vec{b}, \vec{c},...}$, где $\vec{a}$, $\vec{b}$,... - элементы пространства (векторы), если для любых двух векторов $\vec{a}$ и $\vec{b}$ и любого числа $\lambda \in \mathbb{R} \Rightarrow \vec{a} + \vec{b} \in V$ и $\lambda\vec{a}\in V$, и выполняются следующие аксиомы:
		
		$\forall \vec{a}, \vec{b} \in V~~~~\forall \lambda, \mu \in \mathbb{R}$
		\begin{enumerate}
			\item $\vec{a} + \vec{b} = \vec{b} + \vec{a}$
			\item $(\vec{a} + \vec{b}) + \vec{c} = \vec{a} + (\vec{b} + \vec{c})$
			\item $ \forall \vec{a} \in V ~~\exists$ ненулевой вектор $ \vec{o} \in V: \vec{a} + \vec{o} = \vec{o} + \vec{a} = \vec{a}$
			\item $\forall \vec{a} \in V ~~\exists$ противоположный вектор $-\vec{a} \in V: \vec{a} + (-\vec{a}) = (-\vec{a}) + \vec{a} = \vec{o}$
			\item $(\lambda \cdot \mu)\vec{a} = \lambda(\mu\vec{a})$
			\item $\lambda(\vec{a} + \vec{b}) = \lambda\vec{a} + \lambda\vec{b}$
			\item $(\lambda + \mu)\vec{a} = \lambda\vec{a} + \mu\vec{a}$
			\item $1 \cdot \vec{a} = \vec{a}$
		\end{enumerate}
	
		\textbf{Замечание}: Линейное пространство называют также векторным пространством
		
		\subsection{Примеры линейных пространств}
			\begin{enumerate}
				\item пространства геометрических векторов: $V_1$ - на прямой; $V_2$ - на плоскости; $V_3$ - в пространстве
				\item множества $\mathbb{R}$ и $\mathbb{C}$
				\item множество матриц $R^{mxn}$
				\item множество многочленов степени $\leq$ n - $P_n$
				\item множество функци, непрерывных на отрезке [a,b] - $C_{[a,b]}$
				\item n-мерное пространство арифметических векторов - $\mathbb{R}^n$ - множество всевозможных упорядоченных наборов из n действительных чисел, называемых арифметическими векторами
			\end{enumerate}
		
						
			$\mathbb{R}^n = {\vec{x} = (x_1, x_2,...,x_n); x_i \in \mathbb{R}}$
		
			Пусть $\vec{x} = (x_1,x_2,...x_n)$ и $\vec{y} = (y_1,y_2,...,y_n)$
			
			Тогда:
			\begin{enumerate}
				\item $\vec{x} = \vec{y} \Leftrightarrow x_i = y_i,~~\forall i = 1,2,...,n$
				\item $\vec{x} + \vec{y} = (x_1 + y_1, ....,x_n + y_n)$
				\item $\lambda\vec{x} = (\lambda x_1, ...., \lambda x_n)$
			\end{enumerate}
		
		\subsection{Простейшие свойства линейных пространств}
			\begin{enumerate}
				\item В линейном пространстве существует единственный нулевой элемент $\vec{o}$
				\item Для любого вектора линейного пространства существует единственный противоположный вектор
				\item $0\cdot \vec{a} = \vec{o}$ и $\lambda \cdot \vec{o} = \vec{o}$
				
				\textbf{Доказательство}:
				
				Для доказательства равенства (1) достаточно доказать, что $\vec{b} + 0 \cdot \vec{a} = \vec{b}$, $\forall \vec{b} \in V$
				
				$\vec{b} + 0\cdot \vec{a} = (\vec{b} + \vec{o}) + 0 \cdot \vec{a} = \vec{b} + ((-\vec{a}) + \vec{a}) + 0 \cdot \vec{a} = (\vec{b} + (-\vec{a})) + 1\vec{a} + 0\vec{a} = (\vec{b} + (-\vec{a})) + (1 + 0)\vec{a} = (\vec{b} + (-\vec{a})) + \vec{a} = \vec{b} + ((-\vec{a}) + \vec{a}) = \vec{b} + \vec{o} = \vec{b}$
				
				Равенство (2) доказывается, используя равенство (1) и аксиому 5):
				
				$\lambda \cdot \vec{o} = \lambda(0 \cdot \vec{a}) = (\lambda \cdot 0)\vec{a} = 0 \cdot \vec{a} = \vec{o}$
				
				\item В линейном пространстве из равенства $\lambda\vec{a} = \vec{o}$ следует, что либо $\lambda$ = 0, либо $\vec{a}$ = $\vec{o}$
				
				\textbf{Доказательство}:
				
				Из равенства (1) следует, что случай $\lambda$ = 0 возможен, если $\lambda \cdot \vec{a} = \vec{o}$
				
				Если $\lambda \neq 0$, то $\vec{a} = 1 \cdot \vec{a} = (\frac{1}{\lambda}\lambda)\vec{a} = \frac{1}{\lambda}(\lambda\vec{a}) = \frac{1}{\lambda} \cdot \vec{o} = \vec{o}$
				
				\item -$\vec{a} = (-1)\vec{a}$
				
				\textbf{Доказательство}:
				
				$\vec{a} + (-1)\vec{a} = 1\vec{a} + (-1)\vec{a} = (1-1)\vec{a} = 0\cdot \vec{a} = \vec{o}$
				
				\item Для любых двух векторов $\vec{a}$ и $\vec{b}$ в линейном пространстве существует, и притом единственная, разность $\vec{b} - \vec{a}$
				
				\textbf{Доказательство}:
				
				$\vec{a} + (\vec{b} + (-\vec{a})) = (\vec{a} + (-\vec{a})) + \vec{b} = \vec{o} + \vec{b} = \vec{b} \Rightarrow \vec{b} - \vec{a} = \vec{b} + (-\vec{a})$
				
				Докажем единственность. Пусть $\exists \vec{c} = \vec{b} -\vec{a}$ - другая разность, но $\vec{c} = \vec{c} + \vec{o} = \vec{c} + (\vec{a} + (-\vec{a})) = (\vec{c} + \vec{a}) + (-\vec{a}) = \vec{b} + (-\vec{a})$
			\end{enumerate}
		\subsection{Линейное подпространство}
			\textbf{Определение}: Подмножество M $\subset$ V называется линейным подпространством линейного пространства V, если оно само является линейным пространством относительно операции сложения элементов и умножения элемента на число
			
			\textbf{Замечание}: Подмножество M $\subset$ V есть линейное подпространство в линейном пространстве V тогда и только тогда, когда
			\begin{enumerate}
				\item $\forall \vec{a}, \vec{b} \in M \Rightarrow \vec{a} + \vec{b} \in M$
				\item $\forall \lambda \in \mathbb{R}$ и $\forall \vec{a} \in M \Rightarrow \lambda\vec{a} \in M$
			\end{enumerate}
		
			\textbf{Замечание}: Подмножество M $\subset$ V есть линейное подпространство в линейном пространстве V тогда и только тогда, когда
			
			$\forall \vec{a}, \vec{b} \in M$ и $\alpha, \beta \in \mathbb{R} \Rightarrow \alpha\vec{a} + \beta\vec{b} \in M$ 
			
	\section{Линейная зависимость и линейная независимость векторов}
		Пусть дано линейное пространство V и в нем система векторов ${\vec{u_1},...,\vec{u_m}}$
		
		Определение: Линейной комбинацией векторов $\vec{u_1}, ..., \vec{u_m} \in V$ называется вектор вида
		\[\vec{y} = \lambda_1\vec{u_1} + \lambda_2\vec{u_2} + ... + \lambda_m\vec{u_m}~~~(1)\]
		
		где $\lambda_1,...\lambda_m$ - произвольные числа
		
		\textbf{Определение}: Линейная комбинация (1) называется тривиальной, если $\lambda_1 = \lambda_2 = ... = \lambda_m = 0$
		
		В противном случае линейная комбинация называется нетривиальной (те если хотя бы одно $\lambda_i \neq 0$)
		
		Определение: Система векторов $\Sigma = {\vec{u_1}, \vec{u_2}, ..., \vec{u_m}}$ называется линейно зависимой, если существует нетривиальная линейная комбинация этих векторов, равная нулевому вектору, те если существуют числа $\lambda_1, \lambda_2, ...,\lambda_m$, одновременно не равные нулю, такие что:
		\[\lambda_1\vec{u_1} + \lambda_2\vec{u_2} + ... + \lambda_m\vec{u_m} = 0\]
		
		\textbf{Определение}: Система векторов называется линейно независимой, если нулевому вектору равна только тривиальная линейная комбинация этих векторов
		
		\textbf{Замечание}: Краткое определение:
		
		Векторы $\vec{u_1}, \vec{u_2}, ...,\vec{u_m}$ - линейно независимы, если $\lambda_1\vec{u_1} + \lambda_2\vec{u_2} + ... + \lambda_m\vec{u_m} = \vec{o} \Leftrightarrow \lambda_1 = \lambda_2 = ... = \lambda_m = 0$
		
		В противном случае векторы линейно зависимы.
		
		\subsection{Свойства линейно зависимых и линейно независимых систем векторов}
			\begin{enumerate}
				\item Система из одного вектора линейно зависима тогда и только тогда, когда этот вектор нулевой
				
				\textbf{Доказательство}: Линейная зависимость системы из одного вектора равносильна тому, что $\lambda\vec{u} = \vec{o}$, а условие $\lambda\vec{u} = \vec{o} \Leftrightarrow \vec{u} = \vec{o} (\lambda \neq 0)$ - следствие простейших свойств линейных пространств
				
				\item Критерий линейной зависимости системы векторов. Система векторов $\Sigma = \{\vec{u_1}, \vec{u_2},...,\vec{u_m}\}$, где m > 1, линейно зависима титт, когда хотя бы один из векторов этой системы линейно выражается через другие
				
				\textbf{Необходимость}: Если $\Sigma = \{\vec{u_1},...,\vec{u_m}\}$ линейно зависима $\Rightarrow$ $\exists$ числа $\lambda_1,...,\lambda_m$, одновременно не равные нулю и такие, что
				\[\lambda_1\vec{u_1}+...+\lambda_m\vec{u_m} = \vec{o}\]
				
				Пусть $\lambda_i \neq 0$. Тогда в силу (2)
				
				$\vec{u_1} = -\frac{\lambda_1}{\lambda_i}\vec{u_1} - \frac{\lambda_2}{\lambda_i}\vec{u_2} - ... - \frac{\lambda_{i-1}}{\lambda_i}\vec{u_{i-1}} - \frac{\lambda_{i+1}}{\lambda_i}\vec{u_{i+1}} - ... - \frac{\lambda_m}{\lambda_i}\vec{u_m}$
				
				\textbf{Достаточность}: Пусть, например, $\vec{u_1} = \lambda_2\vec{u_2} + ... + \lambda_m\vec{u_m}$. Тогда $\vec{o} = -\vec{u_1} + \lambda_2\vec{u_2} + ... + \lambda_m\vec{u_m}$ - это нетривиальная линейная комбинация $\Rightarrow$ $\Sigma = \{\vec{u_1}, \vec{u_2}, ... \vec{u_m}\}$ линейно зависима
				
				\item Если подсистема системы векторов линейно зависима, то и вся система линейно зависима
				
				\item Любая подсистема линейно независимой системы векторов линейно независима
				
				\item Критерий линейной независимости системы векторов. Система векторов $\Sigma = \{\vec{u_1}, \vec{u_2}, ..., \vec{u_m}\}$ линейно независима титт, когда любой вектор, являющийся линейной комбинацией этих векторов, имеет единственное разложение по этим векторам
				
				\item Если система векторов $\Sigma = \{\vec{u_1}, \vec{u_2}, ..., \vec{u_m}\}$ - линейно независима, а система векторов $\Sigma' = \{\vec{u_1}, \vec{u_2},...,\vec{u_m}, \vec{v}\}$ линейно зависима, то вектор $\vec{v}$ линейно выражается через векторы $\vec{u_1}, \vec{u_2},...,\vec{u_m}$
				
				Доказательство:
				
				$\Sigma'$ - линейно зависима $\Rightarrow$
				
				$\lambda_1\vec{u_1}+...+\lambda_m\vec{u_m} + \lambda_0\vec{v} = \vec{o}$~~~(3)
				
				где хотя бы одно из чисел $\lambda_1, \lambda_2, ... ,\lambda_m, \lambda_0$ не равно нулю.
				
				Если $\lambda_0 = 0$, то ненулевой коэффициент $\lambda_k$ находится среди чисел $\lambda_1, ..., \lambda_m$
				
				При этом равенство (3) переходит в равенство:
				\[\lambda_1\vec{u_1} + ... + \lambda_m\vec{u_m} = \vec{o}~~~(4)\]
				
				где (4) - нетривиальная линейная комбинация, равная нулевому вектору
				
				$\Rightarrow$ противоречие линейной независимости системы $\Sigma = \{\vec{u_1}, ..., \vec{u_m}\}$ $\Rightarrow$  $\lambda_0 \neq 0 \Rightarrow $ вектор $\vec{v}$ линейно выражается из равенства (3) через векторы $\vec{u_1}, ..., \vec{u_m}$
			\end{enumerate}
		
		\subsection{Геометрической смысл линейной зависимости и линейной независимости для системы геометрических векторов}
			\textbf{Теорема}: Два вектора линейно зависимы титк, когда они коллинеарны
			
			\textbf{Необходимость}: Если векторы $\vec{a}$ и $\vec{b}$ линейно зависимы $\Rightarrow$ согласно критерию линейной зависимости $\vec{a} = \lambda\vec{b} \Rightarrow \vec{a} || \vec{b}$
			
			\textbf{Достаточность}: Пусть $\vec{a} || \vec{b}$ и $\vec{a} \neq 0$ (если $\vec{a} = \vec{o}$, то согласно свойствам 1) и 3) $\vec{a}$ и $\vec{b}$ линейно зависимы)
			
			$\Rightarrow \vec{b} = \lambda\vec{a} \Rightarrow$ согласно свойству 2) $\vec{a}$ и $\vec{b}$ линейно зависимы
			
			\textbf{Теорема}: три вектора линейно зависимы титт, когда они компланарны
			
			\textbf{Необходимость}: Пусть векторы $\vec{a}, \vec{b},\vec{c}$ линейно зависимы $\Rightarrow$ один из них линейно выражается через другие. Пусть $\vec{c} = \alpha\vec{a} + \beta\vec{b}$
			
			Если $\vec{a} || \vec{b} \Rightarrow$ векторы $\vec{a}, \vec{b},\vec{c}$ коллинеарны и тем более компланарны
			
			Если векторы $\vec{a} \nparallel \vec{b}$. Тогда приведем векторы $\vec{a}$ и $\vec{b}$ к одному началу. Вектор $\vec{c}$ является диагональю параллелограмма, построенного на векторах $\alpha\vec{a}$ и $\beta\vec{b}$ $\Rightarrow$ $\vec{c}$ лежит в той же плоскости, что и векторы $\vec{a}$ и $\vec{b}$ $\Rightarrow$ векторы $\vec{a}, \vec{b},\vec{c}$ - компланарны
			
			\textbf{Достаточность}: Пусть $\vec{a}, \vec{b},\vec{c}$ - компланарны и $\vec{a} \nparallel \vec{b}$(если $\vec{a} || \vec{b} \Rightarrow \vec{a}$ и $\vec{b}$ - линейно зависимы $\Rightarrow$ $\vec{a}, \vec{b},\vec{c}$ - линейно зависимы согласно свойству 3))
			
			Приведем векторы $\vec{a}, \vec{b},\vec{c}$ к одному началу
			
			\begin{figure}[H]
				\center{\includegraphics[scale=1]{huina41}}
			\end{figure}
		
			$\vec{c} = \vec{OA} + \vec{OB} = \alpha\vec{a} + \beta\vec{b} \Rightarrow \vec{c}$ линейно выражается через $\vec{a}$ и $\vec{b}$ $\Rightarrow$ $\vec{a}, \vec{b},\vec{c}$ линейно зависимы
			
			\textbf{Теорема}: Любые черыре вектора линейно зависимы
			
			Доказательство: $\Sigma = \{\vec{a}, \vec{b}, \vec{c}, \vec{d}\}$ - линейно зависима.
			
			Рассмотрим $\Sigma' = \{\vec{a}, \vec{b}, \vec{c}\}$
			
			\begin{enumerate}
				\item Если $\Sigma'$ линейно зависима $\Rightarrow$ $\Sigma$ линейно зависима
				\item Если $\Sigma'$ линейно независима $\Rightarrow$ $\vec{a}, \vec{b},\vec{c}$ - некомпланарны
				\begin{figure}[H]
					\center{\includegraphics[scale=0.6]{huina42}}
				\end{figure}
			\end{enumerate}
		
			
		\section{Размерность и базис линейного пространства}
			Говорят, что линейное пространство V имеет размершность n, если в пространстве V существует n линейно независимых векторов, а любая система из n+1 вектора линейно зависима.
			
			\textbf{Определение}: Размерность линейного пространства - это наибольшее число линейно независимых векторов этом пространстве
			
			Обозначение: dim V - размерность линейного пространства V
			
			\subsection{Первое определение базиса}
				\textbf{Определение}: Пусть V - n-мерное линейное пространство. Базисом B = $\{\vec{e}_1, ..., \vec{e}_n\}$ $\subset$ V называется любая система из n линейно независимых векторов в этом пространстве
				
				\textbf{Теорема(о разложении вектора по базису)}:
				
				Пусть V - линейное пространство и $B = {\vec{e}_1, ..., \vec{e}_n}$ - базис V. Тогда любой вектор $\vec{u} \in V$ есть линейная комбинация векторов базиса, те $\forall \vec{u} \in V \exists$ числа $x_1, x_2, ..., x_n$ такие, что 
				\[\vec{u} = x_1\vec{e}_1 + ... + x_n\vec{e}_n~~~~(1)\]
				и разложение (1) единственно
				
				\textbf{Доказательство}: 
				
				\begin{enumerate}
					\item Докажем существование разложения (1)
					
					Возьмем любой вектор $\vec{u} \in V$. Рассмотрим систему векторов $\Sigma = \{\vec{u}, \vec{e}_1,..., \vec{e}_n\}$. Система $\Sigma$ состоит из n+1 вектора. Тк dim V = n, то $\Sigma$ - линейно зависима, те существует нетривиальная линейная комбинация $\lambda_0\vec{u} + \lambda_1\vec{e}_1 + ... + \lambda_n\vec{e}_n = \vec{o}~~~~(2)$,
					
					где хотя бы один из коэффициентов $\lambda_0$,...,$\lambda_n$ отличен от нуля
					
					Предположим, что $\lambda_0$ = 0 $\Rightarrow$ $\lambda_1\vec{e}_1 + ... + \lambda_n\vec{e}_n = \vec{o}$. Но $\vec{e}_1, ... , \vec{e}_n$ - линейно независимы $\Rightarrow$ $\lambda_1 = \lambda_2 = ... = \lambda_n = 0$ $\Rightarrow$ противоречие и $\lambda_0$ $\neq$ 0
					
					Из равенства (2) получим:
					
					\[\vec{u} = -\frac{\lambda_1}{\lambda_0}\vec{e}_1 - \frac{\lambda_2}{\lambda_0}\vec{e}_2 - ... - \frac{\lambda_n}{\lambda_0}\vec{e}_n =\]
					
					= $x_1\vec{e}_1 + ... + x_n\vec{e}_n$ - разложение (1)
					
					\item Докажем единственность разложения (1)
					
					Пусть существуют два различных разложения:
					\[\vec{u} = x_1\vec{e}_1 + x_2\vec{e}_2 + ... + x_n\vec{e}_n~~~~(1)\]
					
					и 
					
					\[\vec{u} = y_1\vec{e}_1 + y_2\vec{e}_2 + ... + y_n\vec{e}_n ~~~~(3)\]
					
					Вычитаем из равенства (1) равенство (3):
					
					$\vec{o} = (x_1 - y_1)\vec{e_1} + ... +(x_n - y_n)\vec{e}_n~~~~(4)$
					
					Тк $\vec{e}_1,...,\vec{e}_n$ - линейно независимы, то линейная комбинация (4) тривиальна
					
					$\Rightarrow x_1 - y_1 = 0, x_2 -y_2 = 0, ..., x_n - y_n = 0$
					$\Rightarrow x_1 = y_1, ... , x_n = y_n \Rightarrow$ противоречие $\Rightarrow$ разложение (1) единственно
				\end{enumerate}
			
			\textbf{Замечание}: Числа $x_1, x_2, ... , x_n$ называются координатами вектора $\vec{u}$ в базисе B
			
			\textbf{Обозначение}: Если $B = \{\vec{e}_1, ... , \vec{e}_n\}$ - базис в V, то
			\begin{equation*}
				\vec{u} = 
				\begin{pmatrix}
					x_1\\
					x_2\\
					...\\
					x_n
				\end{pmatrix}
				_B \Leftrightarrow \vec{u} = x_1\vec{e}_1 + ... + x_n\vec{e}_n
			\end{equation*}
		
			Пусть V - линейное пространство и $ B = \{\vec{e}_1, ... , \vec{e}_n\}$ - базис в V
			
			\textbf{Теорема}: Если
			\begin{equation*}
				\vec{u} = 
				\begin{pmatrix}
					x_1\\
					...\\
					x_n
				\end{pmatrix}
			_B
			\end{equation*}
			
			и 
			
			\begin{equation*}
				\vec{v} = 
				\begin{pmatrix}
					y_1\\
					...\\
					y_n
				\end{pmatrix}
				_B
			\end{equation*}
		
			, то
			
			\begin{equation*}
				\vec{u} + \vec{v} = 
				\begin{pmatrix}
					x_1 + y_1\\
					...\\
					x_n + y_n
				\end{pmatrix}
				_B
			\end{equation*}
		
			и
			
			\begin{equation*}
				\lambda\vec{u} = 
				\begin{pmatrix}
					\lambda x_1\\
					...\\
					\lambda x_n
				\end{pmatrix}
				_B
			\end{equation*}
		
		\textbf{Доказательство}:
		
		$\vec{u} = \sum\limits_{i=1}^{n}x_i\vec{e}_i;~~~~\vec{v} = \sum\limits_{i=1}^{n}y_i\vec{e}_i$
		
		$\Rightarrow \vec{u} + \vec{v} = \sum\limits_{i=1}^{n}x_i\vec{e}_i + \vec{v} = \sum\limits_{i=1}^{n}y_i\vec{e}_i = \sum\limits_{i=1}^{n}(x_i + y_i)\vec{e}_i$
		
		\begin{equation*}
			\Rightarrow \vec{u} + \vec{v} = 
			\begin{pmatrix}
				x_1 + y_1\\
				...\\
				x_n + y_n
			\end{pmatrix}
		_B
		\end{equation*}
	
		Аналогично для $\lambda\vec{u}$
		
		\subsection{Преобразование координат вектора при переходе к другому базису}
			Пусть V - линейное пространство и $B = \{\vec{e}_1, ... , \vec{e}_n\}$ и $B' =
			\{\vec{e}'_1, ... , \vec{e}'_n\}$ - базисы в V
			
			B - исходный базис; B' - новый базис
			
			Пусть
			\begin{equation*}
				\vec{u} =
				\begin{pmatrix}
					x_1\\
					...\\
					x_n
				\end{pmatrix}
			_B
			\end{equation*}
		
			и
			\begin{equation*}
				\vec{u} =
				\begin{pmatrix}
					x_1'\\
					...\\
					x_n'
				\end{pmatrix}
				_B'
			\end{equation*}
		
			Пусть векторы нового базиса раскладываются по векторам старого базиса:
			\begin{equation*}
				\begin{cases}
					\vec{e}'_1 = c_{11}\vec{e}_1 + ... + c_{n1}\vec{e}_n\\
					\vec{e}'_2 = c_{12}\vec{e}_1 + ... + c_{n2}\vec{e}_n\\
					\vec{e}'_i = c_{1i}\vec{e}_1 + ... + c_{ni}\vec{e}_n\\
					\vec{e}'_n = c_{1n}\vec{e}_1 + ... + c_{nn}\vec{e}_n\\				
				\end{cases}
				~~~~(5)
			\end{equation*}
		
			$\Rightarrow$ 
			\begin{equation*}
				\vec{e}'_i = 
				\begin{pmatrix}
					c_{1i}\\
					c_{2i}\\
					...\\
					c_{ni}
				\end{pmatrix}
			\end{equation*}
		
			Введем матрицу
			
			\begin{equation*}
				C =
				\begin{pmatrix}
					c_{11} & c_{12} &...&c_{1n}\\
					c_{21} & c_{22} &...&c_{2n}\\
					...&...&...&...\\
					c_{n1} & c_{n2} &...&c_{nn}\\
				\end{pmatrix}
			\end{equation*}
		
			матрица перехода от базиса B к базису B'
			
			Равенство (5) можно записать в матричном виде:
			\[\varepsilon' = \varepsilon \cdot C~~~~(6)\]
			
			где $\varepsilon = (\vec{e}_1, ..., \vec{e}_n);~~\varepsilon' = (\vec{e}'_1, ... \vec{e}'_n)$
			
			Тк 
			\begin{equation*}
				\vec{u} = 
				\begin{pmatrix}
					x'_1\\
					...\\
					x'_n
				\end{pmatrix}
			_{B'}
				;
				\vec{e}'_j =
				\begin{pmatrix}
					c_{1i}\\
					...\\
					c_{ni}
				\end{pmatrix}
			_B
				\text{и}
				\vec{u} = 
				\begin{pmatrix}
					x_1\\
					...\\
					x_n
				\end{pmatrix}
			_B
			\end{equation*}
		
		$\Rightarrow \vec{u} = \sum\limits_{i=1}^{n}x'_i\vec{e}'_i = \sum\limits_{i=1}^{n}x'_i\sum\limits_{j=1}^{n}c_{ji}\vec{e}'_j = \sum\limits_{j=1}^{n}(\sum\limits_{i=1}^{n}x'_ic_{ji})\vec{e}_j$
		
		С другой стороны $\vec{u} = \sum\limits_{j=1}^{n}x_j\vec{e}_j$
		
		В силу единственности разложения вектора по базису получим
		
		$x_j = \sum\limits_{i = 1}^{n}x'_ic_{ji},~~~i = 1,2,...,n~~~~(7)$
		
		Запишем равенства (7) подробно
		
		\begin{equation*}
			\begin{cases}
				x_1 = c_{11}x'_1 + c_{12}x'_2 + ... + c_{1n}x'_n\\
				x_2 = c_{21}x'_1 + c_{22}x'_2 + ... + c_{2n}x'_n\\
				...\\
				x_j = c_{j1}x'_1 + c_{j2}x'_2 + ... + c_{jn}x'_n\\
				...\\
				x_n = c_{n1}x'_1 + c_{n2}x'_2 + ... + c_{nn}x'_n\\
			\end{cases}
		~~~~(8)
		\end{equation*}
	
		Запишем систему (8) в матричном виде:
		
		\begin{equation*}
			\begin{pmatrix}
				x_1\\
				...\\
				x_n\\
			\end{pmatrix}
		_B
		= C \cdot 
		\begin{pmatrix}
			x'_1\\
			...\\
			x'_n
		\end{pmatrix}
	_{B'}~~~~(9)
		\end{equation*}
	,где 
	\begin{equation*}
		C =
		\begin{pmatrix}
			c_{11} & c_{12} &...&c_{1n}\\
			c_{21} & c_{22} &...&c_{2n}\\
			...&...&...&...\\
			c_{n1} & c_{n2} &...&c_{nn}\\
		\end{pmatrix}
	\end{equation*}
	матрица перехода от базиса B к базису B'
	
		\textbf{Теорема}: Матрица перехода от базиса B к базису B' не вырождена
		
		\textbf{Доказательство}: 
		
		Используем формулу (6): $\varepsilon' = \varepsilon \cdot C$
		
		где $\varepsilon = (\vec{e}_1,...,\vec{e}_n);~~\varepsilon' = (\vec{e}'_1,...,\vec{e}'_n) \Rightarrow \varepsilon = \varepsilon' \cdot C' = \varepsilon \cdot C \cdot C' = \varepsilon \cdot D$, где D = C $\cdot$ C'
		
		Покажем, что D = $(d_{ij})$ = E - единичная матрица
		
		$\vec{e}_i = \vec{e}_1d_{1i} + \vec{e}_2d_{2i} + ... + \vec{e}_id_{ii} + ... + \vec{e}_nd_{ni} \Rightarrow \vec{o} = \vec{e}_1d_{1i} + ... + \vec{e}_i(d_{ii}-1) + ... + \vec{e}_nd_{ni}~~~~(10)$
		
		Тк векторы $\vec{e}_1,...,\vec{e}_n$ - линейно независимы $\Rightarrow$ линейная комбинация (10) - тривиальная $\Rightarrow d_{1i} = 0,...,d_{ii}-1=0,...,d_{ni}=0$
		
		\begin{equation*}
			\Rightarrow d_{ij} = \delta_{ij} = 
			\begin{cases}
				1, \text{ при }i=j\\
				0, \text{ при }i\neq j
			\end{cases}
			- \text{ символ Кронекера}
		\end{equation*}
	
		$\Rightarrow$ D = C $\cdot$ C' = E $\Rightarrow$ C' = $C^{-1}$ $\Rightarrow$ C - не вырождена
		
		Тк C - не вырождена, то из формулы (9) получим:
		\begin{equation*}
			\begin{pmatrix}
				x'_1\\
				...\\
				x'_n
			\end{pmatrix}
		_B' = C^{-1}\cdot
		\begin{pmatrix}
			x_1\\
			...\\
			x_n
		\end{pmatrix}
	_B~~~~(11)
		\end{equation*}
	
	(11) - преобразование координат вектора при переходе к новому базису
	
	\subsection{Линейная оболочка}
		Пусть $\Sigma = \{\vec{u}_1,...,\vec{u}_m\}$ - система векторов линейного пространства V.
		
		\textbf{Определение}: Линейной оболочкой системы векторов $\Sigma = \{\vec{u}_1,...,\vec{u}_m\}$ называется множество всевозможных линейных комбинаций этих векторов.
		
		\textbf{Обозначение}: $L(\vec{u}_1,...,\vec{u}_m)$ - линейная оболочка системы векторов $\Sigma = \{\vec{u}_1,...,\vec{u}_m\}$
		
		Таким образом $L(\vec{u}_1,...,\vec{u}_m) = \{\vec{u} = \lambda_1\vec{u}_1 + ... + \lambda_m\vec{u}_m;~~\lambda_i \in \mathbb{R};~~i = 1,...,m\}$
		
		\textbf{Теорема}: Если $\vec{u}_1,...,\vec{u}_m$ - векторы линейного пространства V, то $L(\vec{u}_1,...,\vec{u}_m)$ является линейным подпространством пространства V
		
		Теорема вытекает из определения линейного подпространства.
		
		\textbf{Теорема}: Размерность линейного подпространства не превосходит размерности пространства. Линейное подпространство той же размерности, что и все пространство, совпадает с пространством
		
		\textbf{Доказательство}: Первая часть формулировки теоремы очевидна.
		
		Пусть M - линейное подпространство в линейном пространстве V $\Rightarrow$ M $\subset$ V
		
		Пусть dim M = dim V = n
		
		Возьмем в M линейно независимую систему векторов $\Sigma = \{\vec{e}_1,...\vec{e}_n\}$. Система векторов $\Sigma$ является базисом для обоих пространств M и V. $\Rightarrow$ $\forall \vec{u} \in V \Rightarrow \vec{u} = x_1\vec{e}_1 + ... + x_n\vec{e}_n \Rightarrow \vec{u} \in M \Rightarrow V \subset M \Rightarrow M = V$
		
		\textbf{Теорема}: Если $\vec{x} = \lambda_1\vec{u}_1 + ... + \lambda_m\vec{u}_m$, то $L(\vec{x},\vec{u}_1,...,\vec{u}_m) = L(\vec{u}_1,...,\vec{u}_m)$
		
		\textbf{Доказательство}: Очевидно, что $L(\vec{u}_1,...,\vec{u}_m)$ $\subset$ $L(\vec{x},\vec{u}_1,...,\vec{u}_m)$ $\forall \vec{v} \in L(\vec{x},\vec{u}_1,...,\vec{u}_m) \Rightarrow \vec{v} = \alpha_0\vec{x} + \alpha_1\vec{u}_1 + ... + \alpha_m\vec{u}_m = \alpha_0(\lambda_1\vec{u}_1 + ... + \lambda_m\vec{u}_m) + \alpha_1\vec{u}_1 + ... + \alpha_m\vec{u}_m = \beta_1\vec{u}_1 + .... + \beta_m\vec{u}_m \in L(\vec{u}_1,...,\vec{u}_m) \Rightarrow L(\vec{x},\vec{u}_1,...,\vec{u}_m) \subset L(\vec{u}_1,...,\vec{u}_m) \Rightarrow L(\vec{x},\vec{u}_1,...,\vec{u}_m) = L(\vec{u}_1,...,\vec{u}_m)$
		
		\textbf{Определение}: Система $\Sigma = \{\vec{u}_1, ... ,\vec{u}_m\}$ называется системой образующих линейного пространства V, если ее линейная оболочка совпадает с пространством: $L(\vec{u}_1,...,\vec{u}_m) = V$
		
		\textbf{Теорема (Теорема Штейница)}:
		
		Пусть $\Sigma = \{\vec{u}_1, ... ,\vec{u}_m\}$ - система образующих линейного пространства V и $\Sigma_1 = \{\vec{v}_1, ..., \vec{v}_n\}$ - линейно независимая система в пространстве V.
		
		Тогда:
		\begin{enumerate}
			\item $m \geq n$
			\item Какие то n векторов системы $\Sigma$ можно заменить на векторы системы $\Sigma_1$ так, что полученная система останется системой образующих пространства V
		\end{enumerate}
	
		\textbf{Теорема}: Любая линейно независимая система образующих линейного пространства V является его базисом
		
		\textbf{Доказательство}: Пусть $B = \{\vec{e}_1, ..., \vec{e}_n\}$ - линейно независимая ситсема образующих пространства V. Покажем, что dim V - n.
		
		В пространстве V существует n линейно независимых векторов. Покажем, что любые n+1 векторов линейно зависимы
		
		Берем любую систему из n+1 вектора $\Sigma = \{\vec{u}_1, ... , \vec{u}_{n+1}\}$. Предположим, что $\Sigma$ - линейно независима.
		
		Но тк $B = \{\vec{e}_1, ..., \vec{e}_n\}$ - система образующих пространства V $\Rightarrow$ по теореме Штейница $n \geq n + 1$ $\Rightarrow$ противоречие $\Rightarrow$ $\Sigma$ - линейно зависима $\Rightarrow$ dim V = n и $B = \{\vec{e}_1, ..., \vec{e}_n\}$ - базис в V.
		
		\subsection{Второе определение базиса}
			$B = \{\vec{e}_1, ..., \vec{e}_n\}$ - базис в линейном пространстве V, если
			\begin{enumerate}
				\item $B = \{\vec{e}_1, ..., \vec{e}_n\}$ - линейно независима;
				\item L(B) = V, те $B = \{\vec{e}_1, ..., \vec{e}_n\}$ - система образующих пространства V
			\end{enumerate}
			
		\subsection{Определение базиса, удобное для решения задач}
			$B = \{\vec{e}_1, ..., \vec{e}_n\}$ - базис в линейном пространстве V, если
			\begin{enumerate}
				\item $\vec{e}_1, ..., \vec{e}_n$ - линейно независимы
				\item $\forall \vec{x} \in V \Rightarrow \vec{x} = x_1\vec{e}_1 + ... + x_n\vec{e}_n$
			\end{enumerate}
\end{document}