{


%понавставлять \intertext ?
%array -> aligned ?

\subsection{Периодические системы}
\begin{df}
Если матрица $A(t)$ такова, что  $\exists\, T>0:\ {A(t+T)=A(t)\ \forall t}$, \\ %\\для красивости стоит
то $A(t)$ называется \emph{периодической} (с периодом $T$).
\end{df}
\begin{stm} 
Если $x(\cdot)$ --- решение системы
\begin{equation}\label{IntroPeriodicDiffeq}		
	\left\lbrace	
	\begin{array}{rcl}
	\dot{x}(t) &=& A(t) x(t),\\
	A(t+T)&=&A(t)\ \forall t, 
	\end{array}
	\right.
\end{equation} %где матрица $A(t)$ периодическая с периодом $T$. 
то $x(t+T)$ --- тоже решение \eqref{IntroPeriodicDiffeq}.
\end{stm}
\begin{proof}
$\dot{x}(t+T) = A(t+T)x(t+T) = A(t)x(t+T)$
\end{proof}
Стоит заметить, что из того, что $x(t)$ и $x(t+T)$ --- решения \eqref{IntroPeriodicDiffeq}, вообще говоря, не следует, что $x(t) \equiv x(t+T)$. Условия, при которых эти решения совпадают, будут рассмотрены ниже.

%хочу между этими абзацами разделитель какой-нибудь поставить. Не знаю, какой....
Рассмотрим решение \eqref{IntroPeriodicDiffeq}: используя формулу Коши $x(t) = X(t,0)\cdot x(0)$, обозначив $\Phi(t) = X(t,0)$, получим:
\begin{equation*} 
	x(t+T) = \Phi(t+T) x(0).
\end{equation*}
С другой стороны, $x(t)$ есть решение исходной системы с начальным условием $x^0=x(T)$, поэтому
\begin{gather*}
%\begin{equation*}
	x(t+T) = \Phi(t) x(T) = \Phi(t) \Phi(T) x(0).
%\end{equation*}
\intertext{Отсюда видно, что}
%\begin{equation*}
	\Phi(t+T) = \Phi(t)\cdot \Phi(T).
%\end{equation*}
\end{gather*}
А т.\,к. $X(t,\tau) = \Phi(t) \Phi^{-1}(\tau)$, то 
\begin{equation*}
	\Phi(t) = (\Phi(T))^k \Phi(s) \text{ при } t = kT+s, k\in\mathbb{Z}, s\in[0,T].
\end{equation*}

\begin{df}
Матрица $\Phi$ называется \emph{матрицей монодромии}, а её собственные значения --- \emph{мультипликаторами}.
\end{df}

\begin{stm}
Для того, чтобы $\rho$ являлся мультипликатором системы \eqref{IntroPeriodicDiffeq}, необходимо и достаточно, чтобы нашлось такое $x(t)$ --- ненулевое решение \eqref{IntroPeriodicDiffeq} --- что за любой период его координаты умножались бы на $\rho$, то есть ${x(t+T) = \rho x(t)\ \forall t}$.
\end{stm}

\begin{proof}
\emph{Необходимость}: Если $\rho$ --- собственное значение $\Phi$, то $\exists\, v \neq 0$ --- собственный вектор $\Phi(T)$: 
\begin{equation*}
	\Phi(T) v = \rho v.
\end{equation*}
Возьмём $v$ за начальное условие. Пусть $x(t)$ --- решение \eqref{IntroPeriodicDiffeq} при условии $x(0) = v$. Тогда
\begin{equation*}
	x(t+T) = \Phi(t+T) v = \Phi(t)\Phi(T) v = \rho \Phi(t) v = \rho x(t).
\end{equation*}

\emph{Достаточность}: Пусть ${x(t+T) = \rho x(t)\ \forall t}$. Тогда
\begin{gather*}
	x(t+T) = \Phi(t+T) x(0) = \Phi(t) \cdot \Phi(T) x(0), \\
	x(t+T) = \rho x(t) = \Phi(t) \cdot \rho x(0).
\end{gather*}
$\Phi(t)$ невырождена, следовательно $x(0)$ --- собственный вектор $\Phi(T)$, а $\rho$ --- собственное значение $\Phi(T)$.
\end{proof}

Отсюда следует, что периодическое решение системы \eqref{IntroPeriodicDiffeq} существует тогда и только тогда, когда у её матрицы монодромии существует единичный мультипликатор.

%здесь я то ставлю аргумент у матриц, то не ставлю.. Надо разобраться как лучше..
\begin{theorem}[Флоке]
Для всякой системы \eqref{IntroPeriodicDiffeq} с периодической матрицей найдутся такие матрицы $\Psi(t)$ и $\bar{A} = \const$, что $\Psi(t+T) = \Psi(t) \ \forall t$, $\abs{\Psi} \neq 0$, и
\begin{equation} \label{IntroFlockeEq} 
	\Phi(t) = \Psi(t) e^{\bar{A} t}.
\end{equation}
\end{theorem}
\begin{proof}
Конструктивно построим такие $\Psi(t)$ и $\bar{A}$.

Так как $\Phi(t) = X(t,0)$, то $\dot{\Phi} = A(t) \Phi$, и если равенство \eqref{IntroFlockeEq} выполняется, то
\begin{equation*}
	\dot{\Phi}=\dot{\Psi} e^{\bar{A} t} + \Psi(t) \bar{A} e^{\bar{A} t} = A(t) \Psi(t) e^{\bar{A} t},
\end{equation*}
откуда
\begin{equation*}
	\dot{\Psi} = A(t) \Psi(t) - \Psi(t) \bar{A}.
\end{equation*}
Потребуем, чтобы $\Phi(T) = \Psi(T) e^{\bar{A} T} = \Psi(0) e^{\bar{A}T}$ и $\Psi(0) = \mOne$. Тогда $\bar{A}$ найдётся из условия $\Phi(T) = e^{\bar{A} T}$.

Таким образом, для того чтобы найти матрицу $\bar{A}$ нам необходимо \glqqq прологарифмировать\grqqq{} матрицу. В курсе линейной алгебры такая операция не рассматривалась, однако мы можем ввести её в полной аналогии с вещественными числами. Например, логарифм вещественных чисел можно вводить как сумму ряда $\ln(1+z) = {\sum_{k=1}^\infty {\dfrac{(-1)^{k-1} z^k}{k}}}$. Соответственно для матриц положим по определению
\begin{equation*}
	\ln \Phi(t) \eqdef \sum_{k=1}^\infty {\dfrac{(-1)^{k-1}}{k} (\Phi(t) - \mOne)}.
\end{equation*}
Ниже будет показано, что этот ряд сходится. Тот факт, что $e^{\ln z} = z$ легко проверяется с использованием свойств вещественных рядов.

Итак, $\bar{A} = \dfrac{\ln{\Phi(T)}}{T}$.
Положим $\Psi(t) = \Phi(t) e^{-\bar{A}t}$. Проверим периодичность матрицы $\Psi(t)$: учитывая, что $\Phi(T)e^{-\bar{A}T} = \Psi(0) = \mOne$, получим
\begin{equation*}
	\Psi(t+T) =\Phi(t+T) e^{-\bar{A} (t+T)} = \Phi(t) \Phi(T) e^{-\bar{A}T} e^{-\bar{A}t} = \Phi(t) e^{-\bar{A}t} = \Psi(t).
\end{equation*}
Требуемое в условии равенство тоже, очевидно, выполняется:
\begin{equation*}
	\Psi(t) e^{\bar{A}t} = \Phi(t)e^{-\bar{A}t}e^{\bar{A}t} = \Phi(t).
\end{equation*}
Таким образом, все утверждения теоремы справедливы, и теорема доказана.
\end{proof}

\subparagraph*{Сходимость матричного логарифма.}Покажем, что ряд в определении матричного логарифма всегда сходится:
%Список смотрится не очень... Чего бы сюда запихнуть?
%\begin{itemize}
%\item 

Если $A$ --- матрица простой структуры, т.е. $A = T^{-1}\Lambda T$, то $\ln A = T^{-1}\ln\Lambda T$, а 
\begin{equation*}
	\ln \left[
	\begin{array}{rcl}
		\lambda_1	& 		& 		\\
 					&\ddots & 		\\
  					& 		& \lambda_n
	\end{array}
	\right] = \left[
	\begin{array}{rcl}
	\ln\lambda_1	& 		& 		\\
					&\ddots	& 		\\
  					& 		& \ln\lambda_n
	\end{array}
	\right],
\end{equation*}
где $\ln\lambda_k$ --- вообще говоря --- комплексные числа.

%\item 
Если $A$ --- произвольная, то 
\begin{equation*}
	A= T^{-1} \left[
	\begin{array}{rcl}
		L_1(\lambda_1)	&		& 		\\
						&\ddots & 		\\
	  					& 		& L_n\lambda_n
	\end{array}
	\right] T,
\end{equation*}
где $L_j$ --- жордановы ящики; прологарифмируем поблочно: учитывая 
\begin{equation*}
	\ln (\lambda_j + x) = 
	\ln\lambda_j + \sum_{k=1}^\infty {\dfrac{(-1)^{k-1}}{k\lambda_j^k} x^k},
\end{equation*} 
получим 
\begin{equation*}
	\ln L_j(\lambda_j) = 
	\ln \left( \lambda_j \mOne + L_j(\lambda_j) - \lambda_j \mOne \right) = 
	\ln\lambda_j \mOne + \sum_{k=1}^\infty{\dfrac{(-1)^{k-1}}{k\lambda_j^k} \left[L_j(\lambda_j) - \lambda_j\mOne\right]^k}.
\end{equation*}
Т.\,к $\left[L_j(\lambda_j) - \lambda_j\mOne\right]$ --- нильпотентная матрица, то ряд в правой части обращается в~конечную сумму, а следовательно исходный ряд сходится, что и требовалось.
%\end{itemize}

\subparagraph{Сингулярное разложение матрицы.}	%% В этом абзаце всё друг на друга наезжает... надо как-то переделать. Это раз. 
%я не понимаю, что этот абзац хочет нам сказать --- это два.
Это представление нам нужно для выявления качественных свойств системы.
Проведём сингулярное разложение матрицы $A$ из \eqref{IntroPeriodicDiffeq}: $A=U\Lambda V$. Тогда $$e^A = \sum_{k=0}^\infty {\dfrac{A^k}{k!}} = \sum_{k=0}^\infty {\dfrac{1}{k!} U\Lambda V U\Lambda V \dots U\Lambda V}.$$ И если $A=A^T$, то $U = V^T$, причём т.\,к. $U^{-1} = U^T$, то $e^A = Ue^{\Lambda} U^T$ и о собственных значениях $e^A$ можно судить по $e^\Lambda$. В теории устойчивости и стабилизации это позволяет судить о поведении системы по собственным значениям $\Phi(t)$ при отсутствии необходимости знания самой $\Phi(t)$ в явном виде.
%(Наборщик этих строк не понимает, откуда следует такой вывод).
%На этом закончим с диффурами.

\subparagraph{Системы с измеримой правой частью.}
Рассмотрим дискретную систему
\begin{equation*}
x(k+1) = A(k)x(k) + B(k)u(k) + f(k), k\in\mathbb{Z}.
\end{equation*}
Пусть пока что $A, B, f \equiv \const$. Тогда
\begin{equation*}
x(k+1) = Ax(k) + Bu(k) + f, k\in\mathbb{Z}
\end{equation*}
Рассмотрим сначала однородную систему: $x(k+1) = Ax(k)$. Фундаментальная матрица для неё есть 
\begin{equation*}
	X(k,s), \text{т.\,ч.}
	\begin{cases}
		X(s,s) = \mOne, \\
		X(k+1,s) = AX(k,s).
	\end{cases}
\end{equation*}
Видно, что $X(k,s) = A^{k-s}$. По формуле Коши 

%нужен gather?
\begin{equation*}
	x(k) = X(k,s)x(s) + \sum_{l=s}^{k-1}{X(k,l)[Bu(l)+f]},
\end{equation*}
тогда
\begin{equation*}
	x(k+1) = Ax(k) + Bx(k) + f = A(X(k,s)x(s) + \sum_{l=s}^{k-1}{X(k,l)[Bu(l)+f]} + Bx(k) + f,
\end{equation*}
и по индукции получим
\begin{equation*}
	x(k) = A^{k-s}x(s) + \sum_{l=s}^{k-1}{A^{k-s-1}[Bu(l)+f]}.
\end{equation*}

На самом деле, тут матрица $X$ может быть вырожденной, и это понятно, ибо в дискретном случае
%Почему? И вообще. к чему это?? Нифига не понятно....
\begin{equation*}
	\dot{x}(t) = A(t)x(t),
\end{equation*}
\begin{equation*}
	x(t+\Delta t) - x(t) \approx \Delta t A(t)x(t+\Delta t) \approx [\mOne + \Delta t A]x(t).
\end{equation*}
И в $k$-ой степени $(\mOne + \Delta tA)^k \to e^At$ при $\Delta t=\dfrac{t}{k}$, $k\to\infty$.

\subsection{Сведения из выпуклого анализа}

\begin{df}
		Пусть $X$ --- пространство с введённым скалярным произведением $\scalar{\cdot}{\cdot}$, $l\in X$, $A\subset X$. Тогда \emph{опорной функцией множества $A$} называется функция $$\sufu{l}{A} = \sup_{x\in A}\scalar{l}{x}$$
\end{df}
Геометрический смысл опорной функции достаточно прост: 
%но ужасно криво написан...
при фиксированном $l$ множество $\{l\mid\scalar{l}{z} = c =\const\}$ есть гиперплоскости, ортогональные $l$, сдвинутые от начала координат вдоль $l$ на $\dfrac{c}{\norm{l}}$.

Если $\norm{l} = 1$, то $c=\scalar{l}{z}$ есть расстояние от начала координат до гиперплоскости, ортогональной $l$ и проходящей через $z$.

Получается, что опорная функция множества показывает максимальное расстояние от начала координат до гиперплоскости заданной ориентации, ещё имеющей какие-то общие точки с нашим множеством. Эта наиболее удалённая гиперплоскость называется \emph{опорной гиперплоскостью} $\pi_l = \{z:\ \scalar{l}{z} = \sufu{l}{Z}\},\ (l\not=0)$.

Опорная функция обладает следующими свойствами:

%Itemize? Enumerate?
%использование \emph{} обосновано?
%Сколько дефисов в "положительно-однородна?"
%всё равно не красиво организовано...
\begin{enumerate}
	\item Она \emph{положительно-однородна}: $\sufu{\alpha L}{Z} = \alpha\sufu{l}{Z} , \ \alpha \geq 0$.

	\item Она \emph{полуаддитивна}: $\sufu{l^1+l^2}{Z} \leq \sufu{l^1}{Z} + \sufu{l^2}{Z}$. (неравенство треугольника).

	\item Из первого и  второго пунктов следует, что она \emph{выпукла}.

	\item Между выпуклыми компактами и $\sufu{l}{Z}$ существует взаимно-од\-но\-з\-нач\-ное соответствие. 

Действительно: прямо из определения следует, что $\forall z\in Z$ имеет место быть 
\begin{equation}\label{supportFuncIneq}
	\scalar{l}{z} \leq \sufu{l}{Z} , \  \forall l\in\real^n.
\end{equation}
Если же $Z \in \conv \real^n$ (является выпуклым компактом), то справедливо и обратное утверждение, то есть \eqref{supportFuncIneq} $\Rightarrow$ $z\in Z$. И тогда $Z=\bigcap\limits_{l\in R^n}{ \pi^{-}_l}$, где $\pi^{-}_l = \{z:\  z\leq\sufu{l}{X}\}$.
\end{enumerate}
}