\section{Линейные стохастические дифференциальные уравнения}
Рассмотрим линейное стохастическое дифференциальное уравнение (ЛСД-уравнение)
\begin{equation*}\label{LSD-Eq}
 dx = A(t)xdt + dv,
\end{equation*}
где $v$ --- нестандартный винеровский процесс, $x(t_0),dv$ --- независимы, $\E v =0$, $\E (dv(dv)^T)= R_1(t)dt$, $x(t_0)$ - гауссовский случайный вектор с $\E x(t_0) = m_0,\ \D x(t_0) = R_0(t)$. Решим это уравнение, выписав аналог формулы Коши для обычной задачи Коши:
\begin{equation}\label{CauchyFormula}
x(t) = \Phi(t,t_0)x(t_0) + \int\limits_{t_0}^{t}\Phi(t,s)dv(s),
\end{equation}
где интеграл понимается в смысле Ито (хотя это не важно). Через $\Phi(t,t_0)$ обозначена фундаментальная матрица для $A(t)$:
$$
\dfrac{d\Phi}{dt} = A\Phi,\ \Phi(t_0,t_0) = I.
$$
Исследуем свойства процесса, задаваемого формулой \eqref{CauchyFormula}. Найдем его м.о.:
$$
m_x(t) = \E x(t) = \Phi(t,t_0)\E x(t_0) + \E \int\limits_{t_0}^{t}\Phi(\tau,s)dv(\tau) = \Phi(t,t_0)\E x(t_0) = \Phi(t,t_0) m_0.
$$
Таким образом, получаем систему на м.о.:
\begin{equation}\label{EqForME}
\begin{cases}
 m'_x(t) = A(t)\Phi(t,t_0)m_0 = A(t)m_x(t),\\
 m_x(t_0) = m_0.
\end{cases}
\end{equation}
Далее, не умаляя общности, считаем, что $m_x = 0$ (в противном случае мы можем вычесть из процесса его м.о.). Найдем ковариоционную функцию процесса. Пусть $s \geqslant t$:
$$
R(s,t) = \cov{x(s)}{x(t)} = \E x(s)x^T(t) = \E\left(\Phi(s,t)x(t) + \int\limits_{t}^{s}\Phi(s,s')dv(s')\right) = \Phi(s,t)R(s,t). 
$$
И, аналогично, если $s < t$:
$$
R(s,t) = R(s,s)\Phi^T(t,s)
$$
Это можно записать в общем виде:
\begin{equation}\label{EqForR}
R(s,t) = \begin{cases}
          \Phi(s,t)P(t),\ s\geqslant t,\\
          P(s)\Phi^T(t,s), s<t
         \end{cases},\ \text{где }\ R(t,t) = P(t).
\end{equation}
Найдем дифференциальное уравнение, описывающее $P(t)$.
\begin{multline*}
 P(t) = \E x(t)x^T(t) = \{\text{независимость с.в. и формула Коши}\} =\\
= \Phi(t,t_0)\E x(t_0)x^T(t_0)\Phi(t,t_0) + \Phi(t,t_0)\int\limits_{t_0}^{t}\E x(t_0)(dv(s))^T\Phi^T(t,s) = \\=
\E\int\limits_{t_0}^{t}\Phi(t,s)dv(s)\left(\int\limits_{t_0}^{t}\Phi(t,s)dv(s)\right)^T = \\=
\Phi(t,t_0)R_0(t_0)\Phi^T(t,t_0) + \int\limits_{t_0}^{t}\Phi(t,s)R_1(s)\Phi^T(t,s)ds,
\end{multline*}
откуда
\begin{multline*}
 P'(t) = A(t)\Phi(t,t_0) R_0(t_0)\Phi^T(t,t_0) + \Phi(t,t_0)R_0(t_0)\Phi^T(t,t_0)A^T(t) + R_1(t) +\\+ \int\limits_{t_0}^t(A(t)\Phi(t,s)R_1(s)\Phi^T(t,s) + \Phi(t,s)R_1(s)\Phi^T(t,s)A^T(t))ds =
R_1(t) + A(t)P(t) + P(t)A^T(t).
\end{multline*}
Или, кратко,
\begin{equation}\label{EqForDisp}
 \begin{cases}
  P'(t) = A(t)P(t) + P(t)A^T(t) + R_1(t),\\
  P(t_0) = R_0(t_0).
 \end{cases}
\end{equation}
Резюмируя все вышесказанное, сформулируем теорему.
\begin{theorem}
 Решением ЛСД-уравнения \eqref{LSD-Eq} является гауссовский процесс с м.о., определяемым \eqref{EqForME}, ковариацией, определяемой \eqref{EqForR}, и вариацией, определяемой \eqref{EqForDisp}.
\end{theorem}

\section{Некоторые свойства СДУ. Теорема Ито. Операторы Колмогорова}
Вернемся к исследованию (нелинейного) СДУ
$$
dx = f(x,t)dt + \sigma(x,t)dw.
$$
Предположим, что $x(t_0)$ задан (т.е. п.н. равен известной константе), а $w(t)$ --- некоторый процесс с нулевым м.о. и независимыми приращениями. Общий интересуюший нас результат дается следующей теоермой.
\begin{theorem}[Ито]
 Пусть выполнены условия:
\begin{enumerate}
 \item Условие доминируемости, гарантирующее существование решения:
 $$
  |f(x,t)| \leqslant k(1+|x|),\ 0 \leqslant \sigma(x,t)\leqslant k(1+|x|) 
 $$
\item Липшицевость по фазовой координате, гаратирующая единственность решения:
$$
|f(x,t) - f(y,t)| \leqslant k|x-y|,\ |\sigma(x,t) - \sigma(y,t)|\leqslant k|x-y|
$$
\end{enumerate}
Тогда итерационный процесс 
$$
x^0(t) \equiv x(t_0),\ x^{n+1}(t)\equiv x^n(t_0) + \int\limits_{t_0}^{t} f(x^n(s),s)ds + \int\limits_{t_0}^{t}\sigma(x^n(s),s)dw(s)
$$
сходится к решению СДУ.
\end{theorem}

Утверждается, что на практике этот итерационный процесс может сходиться сколь угодно плохо (медленно и неточно).

Другой подход к построению итерационных методов базируется на возможности представления СДУ некоторой марковской цепью. Для этого трубется, что бы
$$
\E(x(t+h)-x(t) \stick x(t) = x) = f(x,t)h + o(h),
$$
а также несколько условий технического толка. Тогда можно выписать цепочку переходных вероятностей $(x_0,t_0)\to p(x,t; x_0,t_0)$, т.е. вероятности оказаться в точке $x$ в момент времени $t$ при условии, что процесс был в $x_0$ в момент $t_0$. Эти вероятности описываются прямым оператором Колмогорова: $p_t = \mathcal{L}p$,
$$
\begin{cases}
 \dfrac{\partial p }{\partial t} = \sum\limits_{i=1}^n \dfrac{\partial(f_ip)}{\partial x_i} + \dfrac{1}{2}\sum\limits_{i,j,k=1}\dfrac{\partial^2}{\partial x_i \partial x_j}(p\sigma_{ik}\sigma_{jk}),\\
p(x_0,t_0,x_0,t_0) = \delta(x-x_0).
\end{cases}
$$
Часто рассматривается обратный оператор Колмогорова:
$$
\mathcal{L}^* = \sum\limits_{i=1}^{n}f_i\dfrac{\partial}{\partial x_i} + \dfrac{1}{2}\sum\limits_{i,j,k=1}\sigma_{ik}\sigma_{jk}\dfrac{\partial^2}{\partial x_i \partial x_j}.
$$

\section{Формула Ито}
В этом пункте нас будут интересовать методы аналитического решения СДУ в тех единичных случаях, когда это возможно. Для решениях ОДУ аналитические решения часто полагаются на замены переменных; выведем (мнемонически) такое правило для СДУ. Пусть $y(x,t)$ непрерывно-дифференцируема по $t$ и дважды непрерывно-дифференцируема по $x$. Тогда 
\begin{multline*}
dy = \dfrac{\partial y}{\partial t}dt + \sum\limits_{i=1}^n\dfrac{\partial y}{\partial x_i}dx_i + \dfrac{1}{2}\sum\limits_{i,j,k=1}^{n}\dfrac{\partial^2y}{\partial x_i \partial x_j}\sigma_{ik}\sigma_{jk}dt = \\=
\left(\dfrac{\partial y}{\partial t}dt + \sum\limits_{i=1}^{n}\dfrac{\partial y}{\partial x_i}f_i + \dfrac{1}{2}\sum\limits_{i,j,k=1}^{n}\dfrac{\partial^2y}{\partial x_i \partial x_j}\sigma_{ik}\sigma_{jk} \right)dt +\sum\limits_{i=1}^{n}\dfrac{\partial y}{\partial x_i}(\sigma dw)_i,
\end{multline*}
или, в матричной записи,
$$
dy =  (y_t + y_x^Tf  + \dfrac{1}{2}\tr(y_{xx}\sigma\sigma^T))dt + y_x^T\sigma dw.
$$
Нам потребуются оценки для м.о. и дисперсии. Воспользуемя формулой Тейлора в разностном соотношении:
\begin{multline*}
\Delta y = y(x(t+\Delta t), t+ \Delta t) - y(x(t),t) = y_t\Delta t + y_x^T\Delta x + \dfrac{1}{2}(\Delta x)^Ty_{xx}\Delta X + o(\Delta t) =\\=
y\Delta t + y_x^T(f\Delta t + \sigma\Delta w + \dfrac{1}{2}(\Delta w )^T \sigma y_{xx}\Delta w + o (\Delta w),
\end{multline*}
откуда
\begin{multline*}
\begin{cases}
\E\Delta y = (y_t + y_x^Tf(x,t)) + \dfrac{1}{2}\tr(y_{xx}\sigma\sigma^T)\Delta t + o(\Delta t),\\
\D\Delta y = y_x^T\sigma\sigma^Ty_x\Delta t + o(\Delta t). 
\end{cases}
\end{multline*}
Приведем пример.

\textbf{Пример.} Пусть $y(t) = e^{x(t)}$, $w(t)$ --- стандартный винеровский процесс (с нулевым м.о.,единичной матрицей дисперсии и п.н. стартующий из нуля). Требуется по формуле Ито найти $dy$, т.е. выразить его через $y,dt,dw$. Находим:
$$
dy = e^w\cdot0 + \dfrac{1}{2}\tr(e^w\cdot1\cdot1)dt + e^wdw = \frac{1}{2}ydt + ydw.
$$
\section{Решения некоторых СДУ}

\textbf{Упражнение.} Решить СДУ
$$
\begin{cases}
 dy = \frac{1}{2}ydt + ydw,\\
 y(0) \pn 1.
\end{cases}
$$

\textbf{Упражнение.} Найти СДУ, которому удовлетворяет функция $y = (1 + \frac{1}{2}w(t))^2$.

\textbf{Пример.} Требуется решить СДУ
$$
\begin{cases}
 dy = \dfrac{1}{4}dt +  \sqrt{y}dw,\\
 y(0)\pn 1.
\end{cases}
$$
Запишем это СДУ в виде
$$
\dfrac{dy}{\sqrt{y}} = \dfrac{1}{4\sqrt{y}}dt + dw
$$
Аналогия с обычными дифференциалами наводит нас на мысль, что справа стоит $d\sqrt{y}$. Проверим это по формуле Ито.
$$
d\sqrt{y}= \left(0 + \dfrac{1}{2\sqrt{y}})\cdot\dfrac{1}{4} + \dfrac{1}{2}\left(-\dfrac{1}{4\sqrt{y^3}\cdot1\cdot1}\right)\right)dt + \dfrac{1}{2\sqrt{y}}\cdot1\cdot dw  = \left(\dfrac{1}{8\sqrt{y}} \right)dt + \dfrac{1}{2\sqrt{y}}dw
$$
Подставим это выражение в СДУ:
\begin{multline*}
d\sqrt{y} = (\sqrt{y})'dt +  \dfrac{1}{2}(\sqrt{y})''(dy)^2 = \dfrac{dy}{2\sqrt{y}} - \dfrac{1}{8\sqrt{y^3}} = 
\dfrac{1}{8\sqrt{y}}dt + \dfrac{1}{2}dw - \dfrac{1}{8\sqrt{y}}dt = \dfrac{1}{2}dw.
\end{multline*}
Проинтегрируем:
$$
\int\limits_0^td\sqrt{y} = \int\limits_{0}^{t}\dfrac{1}{2}dw,\ \sqrt{y}- \sqrt{y(0)} = \dfrac{1}{2}w(t) - \dfrac{1}{2}\cdot0,
$$
откуда, окончательно,
$$
\sqrt{y} = \dfrac{1}{2}w(t) + 1,\ y = \left(\dfrac{1}{2}w+1\right)^2.
$$