\documentclass{physlecture}

\usepackage[utf8]{inputenc}
\usepackage[russian]{babel}
\usepackage{bm, amsmath, amssymb, amsfonts}
\usepackage{float, graphicx}
%\usepackage{flexisym, breqn, bracemath}
\usepackage{mymathutils}

\author{Д.\,А.~Паршин, Г.\,Г.~Зегря}
\lecturenumber{17}
\course{Квантовая механика}

\newcommand{\conjug}[1]{#1^*}
\DeclareMathOperator{\Rot}{rot}
\DeclareMathOperator{\Div}{div}
\DeclareMathOperator{\Grad}{grad}
\renewcommand{\vec}[1]{\mathbf{#1}}
\begin{document}
  \maketitle
  \tableofcontents
  \section{Матричная формулировка квантовой механики.}
    Предположим для удобства, что рассматриваемая система обладает дискретным
    энергетическим спектром (все получаемые ниже соотношения непосредственным 
    образом обобщаются и на случай непрерывного спектра). Пусть 
    \begin{equation*}
      \Psi = \sum_n a_n\Psi_n
    \end{equation*}
    есть разложение произвольной волновой функции \(\Psi\) по волновым функциям
    \(\Psi_n\) стационарных состояний. Подставим это разложение в определение
    среднего значения некоторой величины \(f\)
    \begin{equation*}
      \bar{f} = \int \conjug{\Psi}\hat{f}\Psi dq.
    \end{equation*}
    Тогда очевидно получим
    \begin{equation*}
      \bar{f} = \sum_n\sum_m \conjug{a_n} a_m \underbrace{\int \conjug{\Psi_n}
      \hat{f}\Psi_m dq}_{f_nm(t)}.
    \end{equation*}
    Так,
    \begin{equation}
      f_nm(t) = \int \conjug{\Psi_n}\hat{f}\Psi_m dq.
    \label{eq:Fnm}
    \end{equation}

    Совокупность величин \(f_{nm}(t)\) со всеми возможными \(n\) и \(m\) называют
    \emph{матрицей} величины \(f\), а о каждом из \(f_{nm}(t)\) говорят как о
    \emph{матричном элементе}, соответствующем \emph{переходу} из состояния \(m\)
    в состояние \(n\). Матричное представление физических величин было введено
    Гейзенбергом в 1925\,г. ещё до открытия Шрёдингером волнового уравнения. 
    <<Матричная механика>> была затем развита Борном, Гейзенбергом и Йорданом.

  \section{Зависимость от времени элементов матрицы физической величины.}
    Зависимость матричных элементов \(f_{nm}(t)\) от времени определяется (если
    оператор \(\hat{f}\) не содержит времени явно) зависимостью от времени функций
    \(\Psi_n(t)\). Подставим
    \begin{equation*}
      \Psi_n(t)  = e^{-\frac{i}{\hbar}E_n t}\psi_n(q)
    \end{equation*}
    в выражение для \(f_{nm}(t)\):
    \begin{align*}
      f_{nm}(t) = \int e^{\frac{i}{\hbar}E_n t}\conjug{\psi_n}(q)\hat{f}
      e^{-\frac{i}{\hbar}E_m t}\psi_m(q)dq =
      \underbrace{e^{\frac{i}{\hbar}(E_n - E_m)t}}_{e^{i\omega_{nm}t}}
      \underbrace{\int\conjug{\psi_n}(q)\hat{f}\psi_m(q)dq}_{f_{nm}}.
    \end{align*}
    Здесь
    \begin{equation}
      \omega_{nm} = \frac{E_n - E_m}{\hbar}
    \label{eq:Frequency}
    \end{equation}
    есть \emph{частота} перехода между состояниями \(n\) и \(m\), а величины
    \begin{equation}
      f_{nm} = \int \conjug{\psi_n}(q)\hat{f}\psi_m(q)dq
    \label{eq:TimeIndependentF}
    \end{equation}
    составляют не зависящую от времени матрицу величины \(f\), которой обычно и
    приходится пользоваться.

  \section{Матричные элементы производной}
    Матричные элементы производной \(\dot{f}\) получаются дифференцированием по
    времени матричных элементов величины \(f\). Это следует непосредственно из
    того, что
    \begin{equation*}
      \bar{\dot{f}} = \dot{\bar{f}} = \sum_n\sum_m\conjug{a_n}a_m \dot{f}_{nm}(t).
    \end{equation*}

    Поскольку
    \begin{equation*}
      f_{nm}(t) = e^{i\omega_{nm}t}f_{nm},
    \end{equation*}
    имеем таким образом, что для матричных элементов \(f\):
    \begin{equation}
      \dot{f}_{nm}(t) = i\omega_{nm}f_{nm}(t),
    \label{eq:Derivative}
    \end{equation}
    или, для не зависящих от времени матричных элементов,
    \begin{equation}
      \left( \dot{f} \right)_{nm} = i\omega_{nm}f_{nm} = \frac{i}{\hbar}\left( 
      E_n - E_m\right)f_{nm}.
    \label{eq:DerivativeStatic}
    \end{equation}

    В целях упрощения обозначений в формулах мы выводим ниже все соотношения для
    не зависящих от времени матричных элементов; в точности такие же соотношения
    имеют место и для зависящих от времени матриц.

  \section{Эрмитовы матрицы.}
    Для матричных элементов комплексно сопряжённой с \(f\) величины \(\conjug{f}\)
    с учётом определения сопряжённого оператора получим
    \begin{equation*}
      (\conjug{f})_{nm} = \int\conjug{\psi_n}\hat{f}\psi_m dq = \int
      \conjug{\psi_n}\tilde{\hat{\conjug{f}}}\psi_m = \int\psi_m\hat{\conjug{f}}\conjug{\psi_n}dq,
    \end{equation*}
    т.\,е.,
    \begin{equation}
      \left( \conjug{f} \right)_{nm} = \conjug{\left( f_{mn} \right)}.
    \label{eq:Hermitean}
    \end{equation}
    
    Для вещественных физических величин, которые мы обычно только и рассматриваем,
    имеем, следовательно,
    \begin{equation}
      f_{nm} = \conjug{\left( f_{mn} \right)} = \conjug{f}_{mn}.
    \label{eq:Real}
    \end{equation}
    Такие матрицы, как и операторы, им соответствующие, называются \emph{эрмитовыми}.

    Матричные элементы с \(n = m\) называют \emph{диагональными}. Эти элементы
    вообще не зависят от времени, а из равенства
    \begin{equation*}
      f_{nm} = \conjug{f}_{mn}
    \end{equation*}
    ясно, что они вещественны. Элемент \(f_{nn}\) представляет собой среднее
    значение величины \(f\) в состоянии \(\psi_n\).
  
  \section{Правило умножения матриц.}
    Нетрудно получить \emph{правило умножения} матриц. Для этого заметим
    предварительно, что имеет место формула
    \begin{equation*}
      \hat{f}\psi_n = \sum_m f_{mn}\psi_m.
    \end{equation*}
    Это есть не что иное, как разложение функции \(\hat{\psi_n}\) по функциям
    \(\psi_m\) с коэффициентами, определяемыми согласно общему правилу:
    \begin{align*}
      \psi &= \sum_m a_m\psi_m, & a_m &= \int \psi\conjug{\psi_m}dq;\\
      \text{подставив } \psi &= \hat{f}\psi_n, & \text{получим } a_m &= \int \conjug{\psi_m}\hat{f}\psi_n dq = f_{mn}.
    \end{align*}

    Имея в виду эту формулу, пишем для результата воздействия на функцию \(\psi_n\)
    произведения двух операторов:
    \begin{align*}
      \hat{f}\hat{g}\psi_n = \hat{f}(\hat{g}\psi_n)  = \hat{f}\sum_{k}g_{kn}\psi_k
      = \sum_{k} g_{kn}\hat{f}\psi_k = \sum_{k, m}g_{kn}f_{mk}\psi_m.
    \end{align*}
    С другой стороны должно быть
    \begin{align*}
      \hat{f}\hat{g}\psi_n = \sum_{m}\left( fg \right)_{mn}\psi_m,
    \end{align*}
    и мы приходим к результату, что матричные элементы произведения \(\hat{f}\hat{g}\)
    определяются формулой
    \begin{equation}
      \left( fg \right)_{mn} = \sum_{k}f_{mk}g_{kn}.
    \label{eq:MatrixProduct}
    \end{equation}
    Это правило в точности совпадает с принятым в математике правилом перемножения
    матриц: строки первой матрицы перемножаются со столбцами второй.

  \section{Матричный способ нахождения собственных значений и собственных функций
  оператора физической величины.}
    Задание матрицы в некотором базисе эквивалентно заданию самого оператора.
    В частности, оно позволяет в принципе определить собственные значения данной
    физической величины и соответствующие им собственные функции.

    Будем рассматривать значения всех величин в определённый момент времени и разложим
    \emph{произвольную} волновую функцию \(\Psi\) (в этот момент времени) по
    собственным функциям гамильтониана, т.\,е. по не зависящим от времени 
    волновым функциям \(\psi_m\) стационарных состояний:
    \begin{align*}
      \Psi = \sum_m C_m \psi_m,
    \end{align*}
    где коэффициенты разложения обозначаются как \(C_m\). Подставим это разложение
    в уравнение
    \begin{align*}
      \hat{f}\Psi = f\Psi,
    \end{align*}
    определяющее собственные значения и собственные функции величины \(f\). Имеем
    \begin{align*}
      \sum_m C_m(\hat{f}\psi_m) = f\sum_m C_m \psi_m.
    \end{align*}
    Умножим это уравнение с обеих сторон на \(\conjug{\psi_m}\), и проинтегрируем по \(dq\).
    Каждый из интгералов
    \begin{align*}
      \int \conjug{\psi_n}\hat{f}\psi_mdq = f_{nm}.
    \end{align*}
    В левой стороне равенства есть соответствующий матричный элемент \(f_{nm}\).
    В правой стороне все интегралы 
    \begin{align*}
      \int \conjug{\psi_n}\psi_mdq = \delta_{nm}
    \end{align*}
    в силу ортонормированности волновых функций \(\psi_m\). В результате получаем
    \begin{align*}
      \sum_m f_{nm}C_m = f\sum_m \delta_{nm}C_m,
    \end{align*}
    или
    \begin{equation}
      \sum_m \left( f_{nm} - \delta_{nm}f \right)C_m = 0.
    \label{eq:System}
    \end{equation}

    Таким образом, мы получили линейную систему алгебраических однородных уравнений
    с неизвестными \(C_m\). Эта система имеет нетривиальное решение при условии
    \begin{equation}
      \det\left( f_{nm} - f\delta_{nm} \right) = 0.
    \label{eq:Det}
    \end{equation}
    Корни этого уравнения (в котором неизвестное --- \(f\)) называются собственными
    числами, или же собственными значениями оператора \(\hat{f}\). Совокупность
    величин \(C_m\), удовлетворяющих системе \eqref{eq:System} с одним из собственных
    значений \(f_l\), определяют соответствующую \(f_l\) собственную функцию \(\psi_l\).

  \section{Диагональный вид матрицы оператора.}
    Если в определении матричных элементов
    \begin{align*}
      f_{nm} = \int\conjug{\psi_n}\hat{f}\psi_mdq
    \end{align*}
    взять в качестве \(\psi_m\) собственные функции оператора \(\hat{f}\), то
    в силу \(\hat{f}\psi_m = f_m\psi_m\) будем иметь
    \begin{align*}
      f_{nm} = \int\conjug{\psi_n}\hat{f}\psi_mdq = f_m\int\conjug{\psi_n}\psi_m dq = f_m\delta_{nm},
    \end{align*}
    и в этом представлении (то есть, базисе) матрица \(f_{nm}\) оказывается
    диагональной. Эти диагональные элементы равны, соответственно, собственным
    значениям \(f_m\) оператора \(\hat{f}\), а о матрице \(f_{nm} =
    f_m\delta_{nm}\) говорят как о \emph{приведённой к диагональному виду}.

    В частности, в обычном представлении с волновыми функциями стационарных
    состояний в качестве функции \(\psi_n\) диагональна матрица энергии (а также
    матрицы всех других физических величин, которые имеют в стационарном
    состоянии вполне определённые значения).
    
    Вообще, о матрице величины \(f\), определённой с помощью собственных функций
    оператора \(\hat{g}\), говорят как о \emph{матрице \(f\) в представлении, в
    котором \(g\) диагонально}. Вообще говоря, матрица \(f\) там диагональной не
    будет --- это будет так только если собственные функции \(\hat{g}\) являются
    и собственными функциями \(\hat{f}\), то есть, \(f\) и \(g\) одновременно
    измеримы.
    
    Докажем это как теорему. Пусть \(\hat{f}\) и \(\hat{g}\) одновременно
    измеримы, а значит, коммутируют:
    \begin{align*}
      \hat{f}\hat{g} = \hat{g}\hat{f}.
    \end{align*}
    Из этого следует, что
    \begin{align*}
      \sum_k f_{mk}g_{kn} = \sum_k g_{mk}f_{kn}.
    \end{align*}
    Взяв в качестве системы функций \(\psi_n\) собственные функции оператора \(\hat{f}\),
    имеем \(f_{mk} = 0\) при \(m \neq k\), а значит, написанное сводится к
    \begin{align*}
      f_{mm}g_{mn} = g_{mn}f_{nn}.
    \end{align*}
    или же, \(g_{mn}(f_{mm} - f_{nn}) = 0\), и если \(f_m \neq f_n\), то есть,
    \(m \neq n\), то \(g_{mn} = 0\), а значит, матрица \(g_{mn}\) тоже диагональна.
    
\end{document}
