\subsection{Формула Коши для матричного дифференциального уравнения}
Рассмотрим следующее матричное дифференциальное уравнение:
\begin{equation}\label{MatEquCach1}
    \begin{cases}
        \dot Z = A(t)Z(t)+Z(t)B(t)+C(t);\\
        Z(t_{0})=Z^{0};
    \end{cases}
\end{equation}
    где $A,B,C,Z \in {\mathbb R}^{n\times n}$.

Сделаем замену переменных $Z(t)=X(t,t_{0})Z_{1}(t)$ (где $X(t,t_0)$ --- фундаментальная матрица) и подставим в \eqref{MatEquCach1}:
    $$
        \dot Z = A(t)X(t,t_{0})Z_{1}+X(t,t_{0}){\dot Z_{1}} = A(t)X(t,t_{0})Z_{1}+X(t,t_{0})B+C.
    $$
Сократим на $A(t)X(t,t_{0})Z_{1}$ обе части и избавимся от фундаментальной матрицы при $\dot Z_{1}$:
    $$
        \dot Z_{1} = Z_{1}B+X(t_0,t)C \Rightarrow \dot Z_{1}^{T} = B^{T}Z_{1}^{T} + C^{T}X^{T}(t_0,t).
    $$
Вновь сделаем замену $Z_{1}^{T} = Y^{T}(t_0,t)Z_{2}(t)$, при подстановке получим:
    \begin{equation}\label{MatEquCach2}
        \dot Z_{1}^{T}=B^{T}Y^{t}(t,t_0)Z_{2}^{T}+C^{T}X^{T}(t_0,t) \Rightarrow \dot Z_{2}Y(t,t_0)=X(t_0,t)C \Rightarrow \dot Z_{2} = X(t_0,t)CY(t_0,t).
    \end{equation}
Итак, итоговая замена имеет вид:
    $$
        Z = X(t,t_0)Z_1 = X(t,t_0)Z_{2}Y(t,t_{0}).
    $$
Проинтегрируем уравнение \eqref{MatEquCach2}:\\
    \begin{equation*}
        Z_{2}(t)=Z^{0}+\int\limits_{t_0}^{t}X(t_0,\tau)C(\tau)Y(t_0,\tau)d\tau\\
    \end{equation*}
        с учетом замены, получим:\\
    \begin{equation*}
        Z(t)=X(t,t_0)Z^{0}Y(t,t_0) + \int\limits_{t_0}^{t}X(t,\tau)C(\tau)Y(t_0,\tau)Y(t,t_0)d\tau
    \end{equation*}
        по полугрупповому свойству свернем подынтегральное выражение и получим в итоге окончательную формулу Коши для матричного ОДУ:
    \begin{equation}\label{MatEquCach3}
        Z(t)=X(t,t_0)Z^{0}Y(t,t_0) + \int\limits_{t_0}^{t}X(t,\tau)C(\tau)Y(t,\tau)d\tau
    \end{equation}
\begin{ex} Рассмотрим \textit{уравнение Риккати}:
    $$
    \dot{P}(t)=A(t)P(t)+P(t)A^{T}(t)+M(t).\\
    $$
    Для этого уравнения выполняется соотношение $Y^{T}(t,\tau)=X(t,\tau)$ (Проверьте!). Учитывая это, получаем решение:
    $$
    P(t)=X(t,t_0)P^{0}X^{T}(t,t_0)+\int\limits_{t_0}^{t}X(t,\tau)MX^{T}(t,\tau)d\tau.
    $$
\end{ex}
\section{Поиск фундаментальных матриц}
\subsection{Автономный случай}
Рассмотрим случай, когда матрица $A=\const$ и $\dot{X}=AX$. Отметим, что фундаментальная матрица $X$ будет инвариантна относительно смещения во времени, иными словами $X(t,\tau)=X(t-\tau)$. Также верно, что если $x(t)$ --- решение, то $x(t+\delta t)$ --- тоже будет являться решением. В общем виде решение будет записываться как:
    $$
        x(t)=X(t,\tau)x(\tau)
    $$
теперь рассмотрим решение $x(t+\Delta t)$:
    $$
        x(t+\Delta t)=X(t+\Delta t,\tau+\Delta t)x(\tau+\Delta t);\quad\\
        X(t,\tau)=X(t+\Delta t,\tau+\Delta t) \Rightarrow X(t,\tau)=x(t-\tau)
    $$
а если взять $\Delta t=-\tau$, то мы получим $X(t,\tau)=X(t-\tau,0)$, то есть мы с помощью сдвига избавились от $\tau$, ну а теперь возьмем матрицу $X(t,0)$ равную \emph{матричной экспоненте}, то есть $X(t,0)=e^{At}$, которая равна, ровно как и для обычной экспоненты, соответствующему ряду:
    \begin{equation}\label{MatExpDef}
        X(t,0)=\sum\limits_{k=0}^{\infty}\frac{A^{k}t^{k}}{k!}
    \end{equation}
Для корректности этого определения требуется равномерная сходимость ряда. 
\begin{lemma}
 Ряд в правой части \eqref{MatExpDef} сходится равномерно.
\end{lemma}
\begin{proof}
Для простоты дальнейших рассуждений обозначим коэффициенты матрицы $A^k$, как $\left( a_{ij}^{(k)}\right);\quad i,j=\overline{1,n}$. Так как $A \in \mathbb R^{n\times n} $, то все степени матрицы $A$ будут иметь тот же размер.

Нас интересует оценивание $\max|a_{ij}^{(k)}|$. Пусть $\max|a_{ij}|=c$. Запишем формулу для коэффициентов квадрата матрицы $A$: $a_{ij}^{(2)}=\sum\limits_{l=1}^{n}a_{il}a_{lj}$ $\Rightarrow$  $ |a_{ij}^{(2)}| \leqslant\sum\limits_{l=1}^{n}|a_{il}| \cdot |a_{lj}|$, откуда  получаем конечную оценку: $\max|a_{ij}^{(2)}| \leqslant nc^{2}$. Применяя метод математической индукции, мы получим оценку для любой степени матрицы $A$:
    $$
        \max|a_{ij}^{(k)}| \leqslant n^{k-1}c^{k};\\
        \quad c=\max|a_{ij}|, \quad  i,j=\overline{1,n}.
    $$
 Итак, мажорируем $e^{At}$ с помощью ряда $\sum_{k=1}^{\infty}\frac{n^{k-1}c^{k}t^{k}}{k!}$:
    $$
        e^{At} \le \sum\limits_{k=1}^{\infty}\frac{n^{k-1}c^{k}t^{k}}{k!}:
    $$
Ряд в правой части сходится по признаку Вейерштрасса.
\end{proof}
Отметим, что $e^{A\cdot 0}=E$. Проверим свойство дифференцируемости:
    $$
        \frac{d}{d t}\left( e^{At} \right) = \sum_{k=1}^{\infty}\frac{kA^{k}t^{k-1}}{k!}=A\sum_{k=1}^{\infty}\frac{A^{k-1}t^{k-1}}{(k-1)!}=Ae^{At}.
    $$
Значит, фундаментальная матрица имеет вид $X(t,\tau)=e^{A(t-\tau)}$.

Отметим, что для матричной экспоненты выполняются многие свойства обычной экспоненты, например $e^{As}~\cdot~e^{At}~=~e^{A(t+s)}$. Это свойство отражает полугрупповое свойство фундаментальной матрицы.

Считать по определению матричную экспоненту достаточно трудно, хотя для $n=2, 3$ это возможно сделать, особенно если вид коэффициентов $\{ a_{ij}^{(k)}\}$ зависит от $k$, и матрицы периодичны.
\begin{problem}
Найдите $e^{At}$ для матрицы
$A=\left(
\begin{array}{cc}
    0&1\\
    -1&0\\
\end{array}
\right).$
\end{problem}

Что же делать, если \glqqq в лоб \grqqq{} посчитать экспоненту не удалось? Давайте рассмотрим характеристическое уравнение матрицы $A$: $|A-\lambda E|=0$; $\lambda_1,\ldots ,\lambda_l$ --- собственные значения с кратностями $k_1,\ldots,k_l$, (напомним, что $k_1+\ldots+k_l=n$), и далее ищем фундаментальную систему решений:

\begin{enumerate}
\item $k_{j}=1$

	\begin{enumerate} 
		\item $\lambda_j \in \mathbb R \Rightarrow e^{\lambda_{j}t}\cdot \upsilon_j$ (где $\upsilon_j$ --- собственный вектор);
		
		\item $\lambda_j \in \mathbb C \Rightarrow e^{\lambda_{j}t}\cdot \upsilon_j$ с тем только учетом, что экспоненту надо раскладывать на вещественную и мнимую части, а также надо не забывать о том, что комплексные собственные значения могут появляться только одновременно со своим сопряженным $\overline{\lambda_j}$.
	\end{enumerate}
\item $k_{j}\geqslant 2$
	\begin{enumerate}
		\item $\lambda_j \in \mathbb R$, тогда вклад имеет вид $\left( \sum_{i=1}^{k_{j}-1}\frac{\upsilon_{j}^{k_{j}-i}t^{(i-1)}}{(i-1)!} \right) e^{\lambda_{j}t}$;
		
		\item $\lambda_j \in \mathbb C$, тогда надо взять вещественные и мнимые части.
	\end{enumerate}
\end{enumerate}

Конкатенируя (объединяя) полученные решения в фундаментальную матрицу, имеем $e^{At} = \Phi(t)\Phi^{-1}(0)$.

\begin{ex}
$$
A=\left(
\begin{array}{cc}
    3&5\\
    -1&1\\
\end{array}
\right).
$$
посчитаем $\det A$, и найдём собственные значения: $(3-\lambda)(1-\lambda)+5=~0$ $\Rightarrow$
$\lambda^{2}-4\lambda+8=0$ $\Rightarrow$ $\lambda_{1,2}=2\pm2i$
Теперь найдём собственный вектор для собственного значения $\lambda_{s}=2+2i$, он равен $(1+2i,\; -1)^{T}$. После этого умножаем полученный вектор $(1+2i,\; -1)^{T}$ на $e^{2t}(\cos2t+i\sin2t)$, после перемножения, приводим подобные вещественные и мнимые части, итого получаем:

$$
\left(
\begin{array}{c}
1+2i\\
 -1\\
\end{array}
\right)
*e^{2t}(\cos2t+i\sin2t)=
e^{2t}\left(
\begin{array}{c}
\cos2t-2\sin2t\\
-\cos2t\\
\end{array}
\right)
+
ie^{2t}\left(
\begin{array}{c}
\cos2t+\sin2t\\
-\sin2t\\
\end{array}
\right)
$$
Теперь из соответствующих столбцов-коэффициентов при $e^{2t}$ составляем матрицу $M$, после этого составляем матрицу из коэффициентов при $\cos2t$ --- матрица $B$, считаем обратную к $B$ матрицу, и умножаем $M*B^{-1}=C$, после чего выписываем ответ.
\begin{multline*}
M=
\left[
\begin{array}{cc}
\cos2t-2\sin2t & 2\cos2t+\sin2t \\
-\cos2t & -\sin2t\\
\end{array}
\right],\quad
B=
\left[
\begin{array}{cc}
1&2\\
-1&0\\
\end{array}
\right]\\
B^{-1}=
\left[
\begin{array}{cc}
0&-1\\
\frac{1}{2}&\frac{1}{2}\\
\end{array}
\right],\quad
C=M \times B^{-1}=
\left[
\begin{array}{cc}
\cos2t+\frac12\sin2t & \frac52\sin2t \\
-\frac12\sin2t & \cos2t-\frac12\sin2t\\
\end{array}
\right]
\end{multline*}
\newline
\newline

Ответ:
$$e^{At}=e^{2t}\left[
\begin{array}{cc}
\cos2t-2\sin2t & 2\cos2t+\sin2t \\
-\cos2t & -\sin2t\\
\end{array}
\right]
$$
\end{ex}

К сожалению, для случая, когда $A\ne const$ не придумано общих методов. Однако разберем случай, когда $n=1$. Итак, $\dot{x}=a(t)x;$ $\frac{dx}{x}=a(t)dt.$ $\Rightarrow$ $X(t,\tau)= \exp \left\{ \int\limits_{\tau}^{t}A(s)ds \right\} $. 

Интересен вопрос, при каких условиях фундаментальная матрица находится аналогичным выражением, т.\,е. когда $X(t,\tau)=exp \left\{ \int\limits_{\tau}^{t}A(s) \right\}ds$? Для этого дифференцируем по~$t$:
$$
X(t,\tau)= \exp \left\{ \int\limits A(s)ds \right\}=\sum\limits_{k=1}^{\infty}\frac{1}{k!}\left[ \int\limits_{\tau}^{t} A(t)ds \right]^{k}
$$


\begin{multline}\label{MatExpEx2}
\frac { \partial X(t,\tau)} { \partial t } = \sum\limits_{k=1}^{\infty}\frac{1}{k!}
%тут был \left\{, а потом \right\}, но чего-то он не захотел принимать перенос строки \\
\{
	A(t){\left[
 		\int\limits_{\tau}^{t}A(s)ds
 	\right]}^{k-1}
 	+\left[
		\int\limits_{\tau}^{t}A(s)ds
	\right]
	A(t)\cdot{
	\left[
		\int\limits_{\tau}^{t}A(s)ds
	\right]}^{k-2}+\ldots\\
	\ldots+\left[
		\int\limits_{\tau}^{t}A(s)ds
	\right]^{k-1}~A(t)
\}=\quad kA(t)
\left[\int_{\tau}^{t}A(s)ds 
\right]^{k-1}\\
\end{multline}

Но когда же справедлив последний переход в \eqref{MatExpEx2}? Только тогда, когда $A(a)A(b)=A(b)A(a)$ верно для $\forall a,b$, что является весьма сильным (и редко встречающимся) условием.