\chapter{Дифференцирование}
\section{Определения и основные свойства}
  \subsection{Немного истории}
    Откуда вообще взялась производная и зачем она нужна?  Представления о ней
    были ещё у Архимеда, хоть и довольно туманные.

    Далее -- Ньютон. Если есть траектория движения от времени (пусть даже
    одномерная), можно ли ответить, какая скорость в этой точке?  И наоборот:
    можно ли по скорости восстановить закон изменения координат? Первая из задач
    была видимо проще.

    Идея Ньютона: давайте рассмотрим малое изменение времени \(\Delta t\) --
    координата тоже как-то изменится, и если мы поделим изменение координаты на
    изменение времени, то и получим среднюю скорость. Но нас интересует не
    совсем она.

    Ньютон не говорил слово <<предел>>, но понимал, что чем меньше изменение
    времени, тем <<более осмысленна>> эта фраза. Теперь же мы просто можем
    записать так: \[
      \lim\limits_{\Delta t \to 0} \cfrac{x(t_0 + \Delta t) - x(t_0)}{\Delta t} = v(t_0)
    \].
    
    Он смог решить и обратную задачу -- восстановления траектории по скорости.

    Лейбниц достиг тех же результатов, но более строго, т.\,к. решал
    математическую задачу проведения касательной к кривой. При этом он понял,
    что знает, как по касательным восстановить саму кривую. Поэтому формула
    названа фамилиями Ньютона и Лейбница.

  \subsection{Формальное определение}
    Теперь перейдём к формальностям.

    \definition[производная в точке]{
      Пусть задана функция на отрезке: \(f : [a, b] \to \realnum\). Можно
      по-честному задать везде, но не настолько уж это и нужно.  Пусть \(x_0\)
      -- внутренняя точка этого отрезка (\(x_0 \in (a, b)\)). Рассмотрим такой
      предел: \[
        \lim\limits_{h \to 0} \cfrac{f(x_0 + h) - f(x_0)}{h}
      \]. Если он существует, то будем говорить, что \(f\) \defined{имеет
      производную в точке} \(x_0\) (\defined{дифференцируема в точке} \(x_0\)).
    }
    \definition[производная функции]{
      Если в каждой точке интервала \((a, b)\) (или некоторого множества)
      функции \(f\) есть производная, то функция \(f' : x_0 \mapsto
      \lim\limits_{h \to 0} \cfrac{f(x_0 + h) - f(x_0)}{h}\) называется
      \defined{производной} этой функции. 
    }

  \subsection{Свойства производной}
    Будем формулировать всё для одной точки. Если записать свойства для каждой
    точки, получатся свойства для производной функции.

    Пусть функция задана на \(f : [a, b] \to \realnum\). Точку рассматриваем \(x_0\).
    \begin{enumerate}
      \item
        По определению, \[
          \lim\limits_{h \to 0} \cfrac{f(x_0 + h) - f(x_0)}{h} = A
        \]. Перенесём \(A\) под знак предела: \[
        \lim\limits_{h \to 0} \cfrac{f(x_0 + h) - f(x_0) - Ah}{h} = 0
        \]. Перейдём к символу Ландау (по определению): \[ 
          f(x_0 + h) - f(x_0) - Ah = o(h)
        \]. Получим другую запись для дифференцируемости: \[
          f(x_0 + h) - f(x_0) = o(h) + Ah
        \]. Возможность представить приращение в таком виде равносильно наличию
        производной \footnote{причём второе из равенств как определение даже
        правильнее -- оно, в отличие от первого, обобщается на функции
        нескольких переменных}.

        Заодно введём несколько определений:
          \definition[приращение]{\defined{Приращением} \(f(x)\) называют
          \(\Delta f(x) \equiv o(\Delta x) + A\Delta x\).} Рассмотрим \(A\Delta
          x\). Здесь \(A\) -- линейный оператор, и он имеет собственное
          название.
          \definition[дифференциал]{
            \emph{Дифференциал} -- линейный оператор, действующий по правилу \(t
            \mapsto At\) (имеет смысл говорить только о дифференциале в точке
            \(x_0\)). \[
              df = Adx
            \]. Или можно писать \[
              A = \cfrac{df}{dx}
            \].
          }
      \item
        Если функция дифференцируема в точке, то она в ней непрерывна.
        \begin{proof}
          \(f(x_0 + h) = f(x_0) + Ah + o(h)\).

          Перейдём к пределу: \[
            \lim\limits_{h \to 0} f(x_0 + h) = \lim\limits_{h \to 0} f(x_0) + Ah +
            o(h) = \lim\limits_{h \to 0} f(x_0) + \lim\limits_{h \to 0} Ah +
            \lim\limits_{h \to 0} o(h) = f(x_0) + 0 + 0
          \].
        \end{proof}
        
        Обратное неверно. Контрпример: \(\abs{x}\). Хорошие, годные контрпримеры
        -- функция Вейерштрасса, <<лестница>> Кантора, больше -- в книге
        <<Контрпримеры в анализе>>\cite[стр.~52]{counterexamples}.
      \item
        Однородность\footnote{По-честному, нужно говорить <<если \(f(x)\) имеет
        производную, то \(kf(x)\) тоже имеет производную, равную...>>}:
        \((kf(x))' = kf'(x)\). Доказывается это вынесением \(k\) за знак дроби в
        определении производной.
      \item
        Аддитивность: \(\left(f(x) \pm g(x)\right)' = f'(x) \pm g'(x)\).
      \item
        Производная произведения:
        \(\left(f(x)g(x)\right)' = f'(x)g(x) + g'(x)f(x)\).
        \begin{proof}
          Докажем в точке: \[
            (f(x)g(x))'(x_0) = \lim\limits_{h \to 0} \cfrac{f(x_0 + h)g(x_0 + h)
            - f(x_0)g(x_0)}{h} = \lim\limits_{h \to 0} \cfrac{f(x_0 + h)g(x_0 +
            h) - f(x_0 + h)g(x_0) + f(x_0 + h)g(x_0) - f(x_0)g(x_0)}{h} =
            \lim\limits_{h \to 0} \left(f(x_0 + h)\cfrac{g(x_0 + h) - g(x_0)}{h}
            \right) + g(x_0)\lim\limits_{x \to 0} \left( {f(x_0 + h) -
            f(x_0)}{h} \right) = f(x_0)\lim\limits_{h \to 0} \left(\cfrac{g(x_0
            + h) - g(x_0)}{h}\right) + g(x_0)\lim\limits_{x \to 0} \left({f(x_0
            + h) - f(x_0)}{h} \right)= f'(x_0)g(x_0) + g'(x_0)f(x_0)
          \].
        \end{proof}
        Формула без труда обобщается на любое количество множителей.
      \item
        Если \(f(x_0) \neq 0\), и она дифференцируема, то \(\cfrac{1}{f(x_0)}\)
        тоже дифференцируема и её производная равна
        \(-\cfrac{f'(x_0)}{f^2(x_0)}\).
        \begin{proof}
          Существование предела докажется \latin{a posteriori}.

          \[
            \lim\limits_{h \to 0} \cfrac{1}{h}\left( \cfrac{1}{f(x_0 + h)} -
            \cfrac{1}{f(x_0)} \right) = \lim\limits_{h \to 0} \cfrac{f(x_0) -
            f(x_0 + h)}{hf(x_0 + h)f(x_0)} = -\lim\limits_{h \to 0}\cfrac{f(x_0
            - h) - f(x_0)}{h}\lim\limits_{h \to 0}\cfrac{1}{f(x_0 + h)f(x_0)} =
            - \cfrac{f'(x_0)}{f^2(x_0)}
          \].
        \end{proof}
      \item
        С необходимыми предположениями, \(\left(\cfrac{f(x)}{g(x)}\right)'(x_0)
        = \cfrac{f'(x_0)g(x_0) - g'(x_0)f(x_0)}{g^2(x_0)}\).
    \end{enumerate}
\section{Производная композиции. Производная обратной функции.}
  \begin{theorem}[производная композиции]
    Пусть \(f : [a, b] \to \realnum\), \(x_0 \in (a, b)\). Пусть также имеется
    \(g : [c, d] \to \realnum,~E_f \subset [c, d]\), \(y_0 = f(x_0)\)
    (внутренняя). Пусть также функция \(g\) дифференцируема в точке \(y_0\).

    Тогда \(g \circ f\) дифференцируема в точке \(x_0\) и \((g \circ f)'(x_0) =
    g'(y_0)f'(x_0)\)
  \end{theorem}
  \begin{proof}
    Обозначим
    \(A = f'(x_0), B = g'(y_0)\).
    
    Запишем условия дифференцируемости: \[
      \Delta{y} = f(x_0 + \Delta x) - f(x_0) = o(\Delta x) + A\Delta x
    \].

    \[
      g(f(x_0 + \Delta x)) - g(f(x_0)) = o(A\Delta{x} + o(\Delta{x})) +
      B(A\Delta{x} + o(\Delta{x})) = BA\Delta{x} + o(\Delta{x}) + o(A\Delta{x} +
      o(\Delta{x}))
    \].

    Покажем, что \(o(A\Delta{x} + o(\Delta{x}))\) является тем более \(o(\Delta
    x)\). Рассмотрим предел: \[
      \lim\limits_{\Delta{x} \to 0} \cfrac{o(A\Delta{x} + o(\Delta{x}))}{\Delta{x}}
      = \lim\limits_{\Delta{x}} \cfrac{o(A\Delta{x} + o(\Delta{x}))}{A\Delta{x} + o(\Delta{x})}
      \lim\limits_{\Delta{x}} \cfrac{A\Delta{x} + o(\Delta{x})}{\Delta{x}} = 0\cdot A = 0
    \]. Но тогда \(BA\Delta{x} + o(\Delta{x}) + o(A\Delta{x} + o(\Delta{x})) =
    BA\Delta{x} + o(\Delta{x})\), что равносильно дифференцируемости \(g\circ
    f\).
  \end{proof}
  \begin{theorem}[производная обратной функции]
    Пусть задана функция \(f : [a, b] \to \realnum\), обратимая. \(x_0 \in (a,
    b)\). Пусть \(f\) дифференцируема в точке \(x_0\).

    Пусть \(f^{-1} : E_f \to [a, b]\) -- обратная функция. \(y_0 = f(x_0)\),
    \(y_0 \in E'_f\)

    Тогда \(f^{-1}\) дифференцируема в точке \(y_0\) и
    \(\left(f^{-1}\right)'(y_0) = \cfrac{1}{f'(x_0)}\).
  \end{theorem}
  \begin{proof}
    Рассмотрим две разные точки на отрезке: \(x, x_0 \in [a, b]\).  В силу
    биективности, и, в частности, инъективности, \(x_0 \neq x \implies f(x_0)
    \neq f(x)\).  Тогда запишем определение производной: \[
      \left(f^{-1}\right)'
      = \lim\limits_{y \to y_0} \cfrac{f^{-1}(y) - f^{-1}(y_0)}{y - y_0}
      = \lim\limits_{y \to y_0} \cfrac{x - x_0}{f(x) - f(x_0)}
      = \lim\limits_{x \to x_0} \cfrac{x - x_0}{f(x) - f(x_0)}
      = \cfrac{1}{f'(x_0)}
    \].
      
    Переход от \(\lim\limits_{y \to y_0}\) к \(\lim\limits_{x \to x_0}\)
    справедлив ввиду биективности и непрерывности \(f\).
  \end{proof}

\section{Производные элементарных функций}
  \subsection{Самые простые}
    Эти две производные доказываются очевидным образом по определению.
    \{
      \[
        C' = 0
      \], \[
        x' = 1
      \].
    \}
  \subsection{Экспонента}
    Посчитаем в каждой точке: \[
      (e^x)'_{x = x_0} = \lim\limits_{h \to 0}\cfrac{e^{x_0 + h} - e^{x_0}}{h} =
      \lim\limits_{h \to 0} e^{x_0}\cfrac{e^h - 1}{h} = e^{x_0} \lim\limits_{h
      \to 0} \cfrac{e^h - 1}{h} = e^{x_0}
    \].

    Производную экспоненты с произвольным показателем рассчитаем как производную
    сложной функции: \[
      (a^x)' = \left(e^{x\ln{a}}\right)' = e^{x\ln{a}}\ln{a} = a^x\ln{a}
    \].
  \subsection{Логарифм}
    Применим правило дифференцирования обратной функции. Рассмотрим только там,
    где обе функции биективны.

    \(y = e^x\), \(y' = e^x\).

    Тогда \(x = \ln{y}\): \[
      (\ln{y})' = \cfrac{1}{y'} = \cfrac{1}{e^x} = \cfrac{1}{y}
    \].

    Теперь рассчитаем для произвольного логарифма: \[
      (\log_a{x})' = \left(\cfrac{\ln{x}}{\ln{a}}\right)' = \cfrac{1}{x\ln{a}}
    \].
  \subsection{Степенная}
    \[
      (x^{\alpha})' = (e^{\alpha{}\ln{x}})' = e^{\alpha{}\ln{x}}(\alpha\ln{x})'
      = \alpha{}x^\alpha\cfrac{1}{x} = \alpha{}x^{\alpha - 1}
    \].
  \subsection{Тригонометрия}
    Посчитаем в каждой точке: \[
      (\sin{x})'_{x = x_0} = \lim\limits_{h \to 0}\cfrac{\sin(x_0 + h) - \sin{x_0}}{h} =
      \lim\limits_{h \to 0}\cfrac{2\sin{\frac{h}{2}}\cos\left(x_0 + \frac{h}{2}\right)}{h} = \cos{x_0}
    \].

    \[
      (\cos{x})' = (\sin(x + \frac{\pi}{2}))' = \cos(x + \frac{\pi}{2}) = -\sin{x}
    \].

    \[
      (\tg{x})' = \left(\cfrac{\sin{x}}{\cos{x}}\right) = \cfrac{\cos{x}\cos{x} - \sin{x}(-\sin{x})}{\cos^2{x}} = \cfrac{1}{\cos^2{x}}
    \].
  \subsection{Обратная тригонометрия}
    Рассматриваем только на тех отрезках, на которых все функции биективны.

    \(y = \sin{x}\), \(y' = \cos{x}\).

    Тогда \(x = \arcsin{y}\): \[
      (\arcsin{y})' = (x)' = \cfrac{1}{y'} = \cfrac{1}{\cos{x}} = \cfrac{1}{\sqrt{1 - \sin^2{x}}} = \cfrac{1}{\sqrt{1 - y^2}}
    \].

    Для арккосинуса рассуждение абсолютно такое же: \[
      (\arccos{x})' = -\cfrac{1}{\sqrt{1 - x^2}}
    \].

    Для арктангенса -- \(y = \tg{x}\), \(y' = \cfrac{1}{\cos^2{x}} =
    \cfrac{\sin^2{x} + \cos^2{x}}{\cos^2{x}} = \tg^2{x} + 1\)

    Тогда \(x = \arctg{y}\): \[
      (\arctg{y})' = x' = \cfrac{1}{y'} = \cfrac{1}{\tg^2{x} + 1} = \cfrac{1}{y^2 + 1}
    \].

  \subsection{Гиперболические функции}
    \{
      \[
        \sh{x} \overset{\mathrm{def}}{=} \cfrac{e^x - e^{-x}}{2}
      \], \[
        \ch{x} \overset{\mathrm{def}}{=} \cfrac{e^x + e^{-x}}{2}
      \], \[
        \sh'{x} = \ch{x}
      \], \[
        \ch'{x} = \sh{x}
      \].
    \}
  
\section{Логарифмическая производная}
  Пусть \(f : [a, b] \to E_f \subset (0, +\infty)\) непрерывна и дифференцируема.

  \[
    (\ln{f(x)})' = \cfrac{f'(x)}{f(x)}
  \].

  Такое равенство, следующее из правила дифференцирования сложной функции,
  называется \defined[логарифмическая производная]{логарифмической производной}.

  Чем это удобно: логарифмическая производная произведения равна сумме
  логарифмических производных сомножителей.
  \begin{proof}
    \[
      \left(\ln{\prod\limits_{k = 1}^{n} f_k(x)}\right)' = \left(\sum\limits_{k
      = 1}^{n} \ln{f_k(x)}\right)' = \sum\limits_{k = 1}^{n}\ln'{f_k(x)} =
      \sum\limits_{k = 1}^{n} \cfrac{f'_k(x)}{f_k(x)}
    \].
  \end{proof}
  
  Логарифмическую производную можно применить для вычисления производной
  \(f(x)^{g(x)}\): \[
    f'(x) = f(x)(\ln{f(x)})'
  \], и отсюда \[
    \left(f(x)^{g(x)}\right)' = f(x)^{g(x)}\left(g(x)\ln{f(x)}\right)'
  \].

\section{Таблица производных}
  Теперь выпишем всё это ещё раз, в виде таблицы.

  \{
    \[
      \left(\alpha{}f(x) + \beta{}g(x)\right)' = \alpha f'(x) + \beta g'(x)
    \], \[
      \left(f(x)g(x)\right)' = f'(x)g(x) + g'(x)f(x)
    \], \[
      \left(\cfrac{1}{f(x)}\right)' = -\cfrac{f'(x)}{f^2(x)}
    \], \[
      \left(\cfrac{f(x)}{g(x)}\right)' = \cfrac{f'(x)g(x) - g'(x)f(x)}{g^2(x)}
    \], \[
      \left(f(g(x))\right)' = f'(g(x))g'(x) 
    \], \[
      \left(y^{-1}\right)' = \cfrac{1}{f'(x)}
    \], \[
      \left(f(x)^{g(x)}\right)' = f(x)^{g(x)}\left(g(x)\ln{f(x)}\right)'
    \].
  \}
  %TODO: таблица производных

\section{Теоремы Ферма, Ролля, Лагранжа, Коши}
  \subsection{Теорема Ферма}
    \(f : [a, b] \to \realnum,~ x_0 \in (a, b)\)
    \definition[локальный максимум]{
      Будем говорить, что \(x_0\) -- точка \defined{локального максимума},
      если \[
        \exists\delta > 0 : \forall x \in U_{\delta}(x_0) ~~ f(x_0) \ge f(x)
      \].
    }

    \definition[экстремум]{
      Точка локального минимума или максимума называется также \defined{точкой
      экстремума}.
    }

    \begin{theorem}[теорема Ферма]
      Пусть \(f : [a, b] \to \realnum\), \(x_0\) -- точка экстремума, и \(f\)
      дифференцируема в точке \(x_0\). Тогда \(f'(x_0) = 0\).
    \end{theorem}
    \begin{proof}
      Возьмём для определённости \(x_0\) локальным максимумом. Иначе можно
      домножить на \(-1\).

      \[
        f'(x_0) = \lim\limits_{h \to 0} \cfrac{f(x_0 + h) - f(x_0)}{h}
      \]. Теперь сделаем финт ушами, и заметим, что раз предел существует, то
      его можно приравнять как пределу слева, так и справа и применим теорему о
      предельном переходе в неравенстве:
      \{
        \[
          f'(x_0) = \lim\limits_{h \to 0+} \cfrac{f(x_0 + h) - f(x_0)}{h} \le 0
        \], \[
          f'(x_0) = \lim\limits_{h \to 0-} \cfrac{f(x_0 + h) - f(x_0)}{h} \ge 0
        \].
      \}

      Но тогда \(f'(x_0) = 0\).
    \end{proof}

  \subsection{Теорема Ролля}
    \begin{theorem}[теорема Ролля]
      Пусть \(f : [a, b] \to \realnum\), непрерывная, дифференцируемая на \((a,
      b)\), такая что \(f(a) = f(b)\).  Тогда есть точка \(c\) на отрезке \((a,
      b)\), такая что \(f'(c) = 0\).
    \end{theorem}
    \begin{proof}
      По II теореме Вейерштрасса, найдутся \(x_1, x_2\), для которых
      \{
        \[
          f(x_1) = \min\limits_{[a, b]} f(x)
        \], \[
          f(x_2) = \max\limits_{[a, b]} f(x) 
        \].
      \}
      Если \(x_1 \in (a, b)\) или \(x_2 \in (a, b)\), то по теореме Ферма,
      \(f'\) в соответствующей точке равно \(0\).  Если же \(x_1, x_2 \in \{a,
      b\}\), то \(f(x_1) = f(x_2)\), а значит \(f = \const\), что влечёт
      равенство производной нулю на всём отрезке.
    \end{proof}

  \subsection{Теорема Лагранжа}
    \begin{theorem}[теорема Лагранжа]
      \(f : [a, b] \to \realnum\), непрерывная на этом отрезке, дифференцируемая
      на его внутренних точках.  Тогда найдётся \(c \in (a, b)\), такое что \[
        f'(c) = \cfrac{f(b) - f(a)}{b - a}
      \].
    \end{theorem}
    
    \begin{figure}[h]
      \centering
      \begin{tikzpicture}[scale=0.5]
        \begin{scope}
          \draw[-latex] (-2, -3) -- (-2, 10) node[right] {\(f(x)\)};
          \draw[-latex] (-2, -3) -- (12, -3) node[right] {\(x\)};
        \end{scope}
        \draw (0, 0) -- (10, 8);
        \draw [red] plot [smooth, tension=1] coordinates { (0, 0) (2.5, 3) (5, 1) (7.5, 7) (10, 8)};
        \draw (0, 0) node{\(\bullet\)} node[left]{\(A\)};
        \draw (-2, 0) node {--} node[left] {\(f(a)\)};
        \draw (0, -3) node {\tiny{|}} node[below] {\(a\)};
        \draw (10, 8) node{\(\bullet\)} node[right]{\(B\)};
        \draw (-2, 8) node {--} node[left] {\(f(b)\)};
        \draw (10, -3) node {\tiny{|}} node[below] {\(b\)};
        \draw [blue] (5, -3) node{\tiny{|}} node[below] {\(c\)};
        \draw [blue] (2.5, -1) -- (5, 1) -- (7.5, 3);
      \end{tikzpicture}

      \(A = \left(a, f(a)\right),~ B = \left(b, f(b)\right)\)
      \caption{Иллюстрация к теореме Лагранжа. Геометрическая её интерпретация такова: на отрезке \([a, b]\) всегда есть точка, в которой касательная параллельна \(AB\).}
    \end{figure}

    \begin{proof}
      Пусть \(y = l(x)\) -- уравнение прямой \(AB\). \(l(x)\), кстати непрерывна
      и дифференцируема на отрезке.  Теперь рассмотрим \(g(x) = f(x) - l(x)\).
      Она также непрерывна и дифференцируема на отрезке, причём вдобавок на
      концах отрезка она равна нулю, в чём легко убедиться. Следовательно к ней
      применима теорема Ролля. Тогда по теореме Ролля найдётся \(c \in (a, b)\),
      такая что \(g(c) = 0\). Но \(g'(c) = f'(c) - l'(c) = f'(c) - \cfrac{f(b) -
      f(a)}{b - a} = 0\).
      
      А это значит, \(f'(c) = \cfrac{f(b) - f(a)}{b - a}\)
    \end{proof}
  \subsection{Теорема Коши}
    \begin{theorem}[теорема Коши]
      Пусть \(f,g : [a, b] \to \realnum\), непрерывные и дифференцируемые. Тогда
      в некоторой точке \(c\) \[
        f'(c)\left(g(b) - g(a)\right) = g'(c)\left(f(b) - f(a)\right)
      \].
    \end{theorem}
    Удобнее записывать в таком виде: \[
      \cfrac{g(b) - g(a)}{f(b) - f(a)} = \cfrac{g'(c)}{f'(a)}
    \], но так как с нулями оно также верно, первый вариант правильнее.

    Доказывать применением теоремы Лагранжа к числителю и знаменателю и
    сокращению на \(b - a\) \textsc{нельзя}.  Ошибка в том, что точки \(c\),
    полученные применением теоремы Лагранжа к \(f\) и к \(g\) совпадать не
    обязаны.

    \begin{proof}
      Построим функцию, пригодную для применения к ней теоремы Ролля: \[
        h(x) = f(x)\left(g(b) - g(a)\right) - g(x)\left(f(b) - f(a)\right)
      \]. Проверим её на концах:
      \{
        \[
          h(a) = f(a)g(b) - g(a)f(b)
        \], \[
          h(b) = -f(b)g(a) + f(a)g(b)
        \].
      \}
      По теореме Ролля, найдётся \(c\), такая что \(h'(c) = 0\). Посчитав честно
      \(h'\), получим то, что надо.
    \end{proof}
\section{Правило л'Опиталя}
  \begin{theorem}[правило л'Опиталя]
    Пусть \(f, g : [a, b] \to \realnum\) непрерывны и дифференцируемы. Пусть
    \(x_0 \in (a, b)\) такова, что \(f(x_0) = g(x_0) = 0\).  Пусть
    \(\lim\limits_{x \to x_0}\cfrac{f'(x)}{g'(x)}\) существует (неважно,
    конечный или нет). Тогда \(\lim\limits_{x \to x_0} \cfrac{f(x)}{g(x)}\) тоже
    существует и равен предыдущему пределу.
  \end{theorem}
  \begin{proof}
    \(x_0 \in (a, b)\).
    
    По теореме Коши найдётся \(c \in (x, x_0)\), такое что: \[
      \cfrac{f(x)}{g(x)} = \cfrac{f(x) - f(x_0)}{g(x) - g(x_0)} =
      \frac{f'(c)}{g'(c)}
    \], но так как \(c \in (x, x_0)\), \[
      \lim\limits_{x \to x_0} \cfrac{f(x)}{g(x)} = \lim\limits_{x \to x_0}
      \cfrac{f'(c)}{g'(c)}
    \].
  \end{proof}

  Доказательство будет только для неопределённости \(\left[\frac{0}{0}\right]\),
  причём только в конечной точке \(x_0\).  Также правило работает в следующих
  случаях (доказательства можно почитать в литературе, муторность доказательств
  от предыдущего к следующему увеличивается):
  \begin{enumerate}
    \item
      \(\left[\frac{0}{0}\right]\), \(x_0 \in \realnum\) (то, что мы доказали)
    \item
      \(\left[\frac{0}{0}\right]\), \(x_0 = \pm\infty\)
    \item
      \(\left[\frac{\infty}{\infty}\right]\), \(x_0 \in \realnum\)
    \item
      \(\left[\frac{\infty}{\infty}\right]\), \(x_0 = \pm\infty\)
  \end{enumerate}

  Ещё правило работает на односторонних пределах.

  Нахождение пределов по правилу л'Опиталя работает \apst: пробуем заменить
  функции на производные, и если предел таки найдётся, то и первый предел будет
  существовать. Главное не увлечься и не пропустить момент, когда
  \emph{неопределённость исчезнет} -- в этом случае правило перестанет работать.

  И ещё одно. Правило л'Опиталя является односторонней теоремой. Если оказалось,
  что предел производных \emph{не существует}, то это вовсе не означает, что
  предел изначальных функций тоже не существует. Нужно пытаться пробиваться
  другими средствами.
  

\section{Связь знака производной с монотонностью. Первое достаточное условие
экстремума.}
  \subsection{Связь знака производной с монотонностью}
    \begin{theorem}
      Пусть \(f : [a, b] \to \realnum\) непрерывна и дифференцируема; \(f'(x)
      \textcolor{red}{\ge} 0\). Тогда \(f\) нестрого \textcolor{red}{возрастает}
      на \([a,b]\).
    \end{theorem}
    \begin{proof}
      Возьмём некоторые \(x_1, x_2 \in [a,b]\), так что \(x_1 < x_2\). Тогда
      \([x_1, x_2] \subset [a, b]\).  Тогда по теореме Лагранжа найдётся \(c\),
      такое что \[
        f(x_2) - f(x_1) = \underbrace{f'(c)}_{\textcolor{red}{\ge} 0}(\underbrace{x_2 - x_1}_{> 0}) \textcolor{red}{\ge} 0
      \].

      Тогда \(f(x_2) \textcolor{red}{\ge} f(x_1)\).
    \end{proof}

    \begin{consequences}
      \item
        Если \(\forall{x \in (a, b)}~f'(x) \textcolor{red}{>} 0\), то функция
        строго \textcolor{red}{возрастает}.
      \item
        Верно обратное к теореме.
        \begin{proof}
          Известно, что функция дифференцируема и \textcolor{red}{возрастает}.
          Посчитаем в произвольной точке производную: \[
            f'(x_0) = \lim\limits_{x \to x_0} \frac{f(x) - f(x_0)}{x - x_0}
          \]. Нас интересует только положительное изменение аргумента, поэтому
          перейдём к пределу справа (который, очевидно, существует и равен
          производной, иначе бы её не существовало): \[
            f'(x_0) = \lim\limits_{x \to x_0+} \frac{\overbrace{f(x) -
            f(x_0)}^{\textcolor{red}{\ge} 0}} {\underbrace{x - x_0}_{> 0}}
            \textcolor{red}{\ge} 0
          \].
        \end{proof}
      \item
        Обратное к п.1 неверно. Контрпример: \(x^3 : [-1, 1] \to \realnum\).
      \item
        Теорема и её следствия 1--3 верны и при замене знака.
    \end{consequences}
  \subsection{Первое достаточное условие экстремума}
    Сформулируем для локального максимума. Если поменять соответствующие цветные
    знаки, получим условие для локального минимума.
    \begin{theorem}[первое достаточное условие максимума]
      Пусть \(f : [a, b] \to \realnum\), непрерывная. \(x_0 \in (a, b)\).

      Если \[
      \exists \delta > 0 : 
        \left\{\begin{array}{l}
        \forall x \in (x_0 - \delta, x_0) ~ f'(x) \textcolor{red}{\ge} 0 \\
        \forall x \in (x_0, x_0 + \delta) ~ f'(x) \textcolor{blue}{\le} 0
        \end{array}\right.
      \], то \(x_0\) -- локальный максимум.
    \end{theorem}
    \begin{proof}
      \begin{enumerate}
        \item
          Если \(x = x_0\), то \(f(x_0) \textcolor{red}{\ge} f(x)\).
        \item
          Если \(x < x_0\), то \(x \in (x_0 - \delta, x_0)\).

          По теореме Лагранжа, найдётся \(c \in (x, x_0) \subset (x_0 - \delta,
          x_0)\), такое что \(f(x_0) - f(x) =
          \underbrace{f'(c)}_{\textcolor{red}{\ge} 0}\underbrace{(x_0 - x)}_{>
          0} \textcolor{red}{\ge} 0\).

          То есть, \(f(x_0) \textcolor{red}{\ge} f(x)\).
        \item
          Если \(x > x_0\), то \(x \in (x_0, x_0 + \delta)\).

          По теореме Лагранжа, найдётся \(c \in (x, x_0) \subset (x_0, x_0 +
          \delta)\), такое что \(f(x_0) - f(x) =
          \underbrace{f'(c)}_{\textcolor{blue}{\le} 0}\underbrace{(x_0 - x)}_{<
          0} \textcolor{blue}{\ge} 0\).

          То есть, \(f(x_0) \textcolor{blue}{\ge} f(x)\).
      \end{enumerate}
    \end{proof}
    
\section{Производные высших порядков}
  \definition[вторая производная]{
    Пусть \(f : (a, b) \to \realnum\) и в любой точке \(x_0 \in (a,b)\) есть
    производная \(f'\). То есть, существует производная \(f' : (a, b) \to
    \realnum\).
  
    Но у неё, в свою очередь, тоже существует производная \(f''\) в любой
    точке \(x_0\), которая также действует из \((a, b)\) в \(\realnum\).
    Будем называть её \defined{второй производной}. Так же вводится третья,
    \defined[производная порядка $n$]{и далее}. Также вводится и новое
    обозначение: \(f^{(n)}(x)\), чтобы не писать много штрихов.
    
    Конечно, может возникнуть ситуация, когда производная порядка \(n\)
    существует, а \(n + 1\) -- уже нет, но так как возникает она довольно
    редко, здесь рассматриваться она не будет.
  }
  
  \subsection{Свойства}
    \begin{enumerate}
      \item\(\left(kf(x)\right)^{(n)} = kf^{(n)}\).
      \item\(\left(f(x) \pm g(x)\right)^{(n)} = f^{(n)}(x) \pm g^{(n)}(x)\).
    \end{enumerate}
    На этом всё хорошее, в общем-то, заканчивается. Для произведения и
    частного мы, правда, кое-что придумаем чуть позже.
    
  \subsection{Таблица производных}
    \{
      \[
        \left(x^{\alpha}\right)^{(n)} = \alpha(\alpha - 1)(\alpha - 2)\ldots(\alpha - (n - 1))x^{\alpha - n}
      \], \[
        \left(e^x\right)^{(n)} = e^x
      \], \[
        (a^x)^{[n]} = a^x\ln^n{a}
      \], \[
        \left(\ln{x}\right)^{(n)} = {x^{-1}}^{[n - 1]} = (-1)(-2)\ldots(-(n - 1))x^{-n} = \cfrac{(-1)^{n - 1}(n - 1)!}{x^n}
      \], \[
        {\log_a{x}}^{[n]} = \cfrac{(-1)^{n - 1}(n - 1)!}{x^n\ln{a}}
      \], \[
        {\sin{x}}^{[n]} = \sin{\left(x + n\cfrac{\pi}{2}\right)}
      \], \[
        {\cos{x}}^{[n]} = \cos{\left(x + n\cfrac{\pi}{2}\right)}
      \], \[
        {\sh{x}}^{[n]} = \left\{\begin{array}{l r} \sh{x} & x \mid 2 \\ \ch{x} & x \nmid 2 \\\end{array}\right.
      \], \[
        {\ch{x}}^{[n]} = \left\{\begin{array}{l r} \ch{x} & x \mid 2 \\ \sh{x} & x \nmid 2 \\\end{array}\right.
      \].
    \}
  
    Утверждение про дифференциал композиции уже начиная со второй производной
    перестаёт быть верным: \[
      d^2f(f\circ g) \neq d^2f \circ d^2g
    \]. Однако в случае линейной функции оно всё-таки работает, т.\,к. каждый
    раз выносится только константа: \[
      f(kx + b)^{[n]} = f(kx+b)^{[n]}k^n
    \]. Из этого следует бином Ньютона.
  
  \subsection{Бином Ньютона}
    \[
      (1 + x)^n = \sum\limits_{k = 1}^{n} \dbinom{k}{n}x^k
    \].
    \begin{proof}
      Не будем пользоваться комбинаторными рассуждениями, а воспользуемся
      знаниями про производную \(n\)-ного порядка.  Выражение, очевидно,
      является полиномом степени \(n\): \[
        f(x) = (1 + x)^n = \sum\limits_{k = 1}^{n} a_kx^k
      \]. Теперь найдём коэффициенты \(a_k\).  Утверждается, что они равны: \[
        a_k = \cfrac{f^{[k]}(0)}{k!}
      \]. Это можно понять, вычисляя от каждого члена \(k\)-ю производную: \[
        (a_lx^l)^{[k]} = \left\{\begin{array}{l r}
          0 & l < k \\
          k! a_k & l = k \\
          a_l l (l - 1) \ldots (l - (k - 1))
          \underbrace{x^{l -
          k}}_{\substack{
            0\text{ при} \\ x = 0
          }} & l > k \\
        \end{array}\right.
      \], что даёт нам равенство \(f^{[k]}(0) = k!a_k\).
      
      С другой стороны, вычислим \(k\)-ю производную от \((1 + x)^n\): \[
        f^{[k]}(x) = ((1 + x)^n)^{[k]} = n(n-1)\ldots(n - (k - 1))(1 + x)^{n - k}
      \].
      
      \[
        f^{[k]}(0) = n(n-1)\ldots(n - k + 1) = \cfrac{n!}{(n - k)!}
      \]. Но \[
        a_k = \cfrac{f^{[k]}(0)}{k!} = \cfrac{n!}{k!(n - k)!} = \dbinom{k}{n}
      \].
    \end{proof}
    
    Для того чтобы бином Ньютона был корректным равенством, факториал
    доопределяют на ноль: \[
      0! \overset{\mathrm{def}}{=} 1
    \].

    \defined[биномиальный коэффициент]{Биномиальные коэффициенты}
    \(\dbinom{k}{n}\) обладают следующими свойствами:
    \begin{enumerate}
      \item
        \(\dbinom{0}{n} = \dbinom{n}{n} = 1\)
      \item
        \(\dbinom{k - 1}{n} + \dbinom{k}{n} = \dbinom{k}{n + 1}\)
    \end{enumerate}
    Последнее из свойств иногда принимают за определение биномиального
    коэффициента, так как оно является также свойством построения треугольника
    Паскаля.
    
  \subsection{Формула Лейбница}
    \[
      (f(x)g(x))^{[n]} = \sum\limits_{k = 0}^{n} \dbinom{k}{n}(f)^{[k]}(g)^{[n - k]}
    \]. Под нулевой производной понимается просто функция.
    \begin{proof}
      Докажем по индукции.
      
      \textbf{База}: \((fg)' = f'g + fg'\).
      
      \textbf{Переход}: пусть для производной порядка \(n\) это верно. Докажем
      для \(n + 1\): \[
        (fg)^{[n + 1]} = \Bigg((fg)^{[n]}\Bigg)' =
        \Bigg(\sum\limits_{k = 0}^{n} \dbinom{k}{n} (f)^{[k]}g^{[n - k]}\Bigg)' =
        \sum\limits_{k = 0}^{n} \Bigg(\dbinom{k}{n} f^{[k]}g^{[n - k]}\Bigg)'
        = \sum\limits_{k = 0}^{n} \Bigg(\dbinom{k}{n} f^{[k + 1]}g^{[n - k]} +
          \dbinom{k}{n} f^{[k]} g^{[n - k + 1]}\Bigg)
        = \sum\limits_{k = 0}^{n} \dbinom{k}{n} f^{[k + 1]}g^{[n - k]} +
          \sum\limits_{k = 0}^{n}\dbinom{k}{n} f^{[k]} g^{[n - k + 1]}
        = \dbinom{n}{n} f^{[n+1]} g^{[0]} + \dbinom{0}{n} f^{[0]} g^{[n + 1]} +
          \sum\limits_{k = 0}^{n - 1} \dbinom{k}{n} f^{[k + 1]} g^{[n - k]} + 
          \sum\limits_{k = 1}^{n} \dbinom{k}{n} f^{[k]} g^{[n - k + 1]}
        = \dbinom{n + 1}{n + 1} f^{[n+1]} g^{[0]} + \dbinom{0}{n + 1} f^{[0]} g^{[n + 1]} +
          \sum\limits_{k' = 1}^{n} \dbinom{k' - 1}{n} f^{[k']} g^{[n - k' + 1]} + 
          \sum\limits_{k = 1}^{n} \dbinom{k}{n} f^{[k]} g^{[n - k + 1]}
        = \dbinom{n + 1}{n + 1} f^{[n+1]} g^{[0]} + \dbinom{0}{n + 1} f^{[0]} g^{[n + 1]} +
          \sum\limits_{k = 1}^{n} \left(\dbinom{k - 1}{n} + \dbinom{k}{n}\right) f^{[k]}g^{[n + 1 - k]}
        = \sum\limits_{k = 0}^{n + 1} \dbinom{k}{n} f^{[k]}g^{[n - k + 1]}
      \].
    \end{proof}
\section{Формула Тейлора}
    Теорему будем доказывать в точке 0, а для любой другой точки можно просто
    сделать замену переменной (формула в точке 0 называется \defined[формула
    Маклорена]{формулой Маклорена}).
    
    \begin{theorem}[теорема Тейлора]
      Пусть \(f : (a, b) \to \realnum\), \(0 \in (a, b)\) и \(n\in \mathbb{N}\).
      Также потребуем, чтобы \(f\) имела \(n + 1\) производную на этом отрезке.
      \(x_0 \in (a, b)\).
      
      При всех этих условиях \(\exists c \in \langle 0,
      x\rangle\)\footnote{Точка между 0 и \(x_0\), но неизвестно, в каком
      порядке}, такая что \[
        f(x_0) = \underbrace{f(0) + \cfrac{f'(0)}{1!}x_0 +
        \cfrac{f''(0)}{2!}x_0^2 + \ldots +
        \cfrac{f^{[n]}(0)}{n!}x_0^n}_{\begin{array}{c}\text{Многочлен
        Тейлора}\end{array}}\quad + \underbrace{\cfrac{f^{[n + 1]}(c)}{(n +
        1)!}x_0^{n + 1}}_{\begin{array}{c}\text{Остаточный член}\\\text{в форме
        Лагранжа}\end{array}}
      \]. \index{остаточный член в форме Лагранжа}
    \end{theorem}
    \defined[многочлен Тейлора]{Многочлен Тейлора} будем обозначать так: \[
      \taylor{n}{f}{0}(x) = \sum\limits_{k = 0}^{n} \cfrac{f^{[k]}(0)}{k!}x^k
    \].
    \begin{proof}
      Введём сначала остаточный член в абстрактном виде, и будем искать его
      представление. \[
        f(x_0) - \taylor{n}{f}{0}(x_0) = \cfrac{f^{[n + 1]}(c)}{(n + 1)!} x_0^{n
        + 1} \equiv r_n(x_0)
      \]. Сделаем такое наблюдение: \[
        {\taylor{n}{f}{0}(0)}^{[k]} = f^{[k]}(0)
      \]. Это верно, так как все члены полинома Тейлора до \(k\) обратятся в
      ноль из-за дифференцирования, \(k\)-тый член будет содержать только
      \(f^{[k]}(0)\), а во всех последующих останется \(x\), который равен нулю.
      
      Введём также число \(\mathcal{M} = \frac{r_n(x_0)}{x_0^{n + 1}}\).
      
      Найдём представление числа \(\mathcal{M}\). Заметим для этого, что
      производная \(r^{[k]}_n(0) = 0\), так как \[
        r^{[k]}_n(0) = f^{[k]}(0) - {\taylor{n}{f}{0}(0)}^{[k]}
      \]. Теперь давайте рассмотрим такую функцию: \[
        g(x) = f(x) - \taylor{n}{f}{0}(x) - \mathcal{M}x^{n + 1}
      \].
      
      \(g(0) = 0\), \(g(x_0) = 0\), тогда по теореме Ролля есть \(c_1\in
      \langle0,x_0\rangle\), такое что \(g'(c_1) = 0\).
      
      Что вообще представляет из себя \(g'\)? \[
        g'(x) = f'(x) - \left(\taylor{n}{f}{0}\right)'(x) - \mathcal{M}(n + 1)x^n
      \].
      
      \(g'(0) = 0\), \(g'(c_1) = 0\)
      
      Тогда по теореме Ролля есть \(c_2 \in \langle0, c_1\rangle\), такое что
      \(g''(c_2) = 0\).
      
      Что из себя представляет \(g''\)? \[
        g''(x) = f''(x) - \left(\taylor{n}{f}{0}\right)''(x) - \mathcal{M}(n +
        1)nx^{n - 1}
      \].
      
      Здесь тоже можно применить теорему Ролля и получить \(c_3 \in \langle0,
      c_2\rangle : g'''(c_3) = 0\).
      
      Заметим, что так и будет продолжаться вплоть до шага \(n\): найдётся точка
      \(c_n : g^{[n]}(c_n) = 0\).
      
      Что из себя представляет \(n\)-ная производная от \(g\)? \[
        g^{[n]}(x) = f^{[n]}(x) - {\taylor{n}{f}{0}}^{[n]}(x) - \mathcal{M}(n +
        1)n(n - 1)\ldots 2x
      \].
      
      \(g^{[n]}(0) = 0\), \(g^{[n]}(c_n) = 0\)
      Тогда по теореме Ролля существует \(c : g^{[n + 1]}(c) = 0\).
      
      Что такое \(n + 1\)-я производная от \(g\)? \[
        g^{[n + 1]}(x) = f^{[n + 1]}(x) - \mathcal{M}(n + 1)!
      \]. Многочлен Тейлора после взятия \(n+1\)-ой производной обнуляется. Так,
      в этой точке \(c\) получаем \[
        0 = f^{[n + 1]}(c) - \mathcal{M}(n + 1)!
      \]. Отсюда \[
        \mathcal{M} = \frac{f^{[n + 1]}(c)}{(n + 1)!}
      \].
      
      \(c \in \langle0, x_0\rangle\), так как промежутки включаются друг в друга.
    \end{proof}
    
    \begin{theorem}
      Пусть функция \(f : (a, b) \to \realnum\) имеет \(n + 1\) производную на
      этом отрезке, \(0 \in (a, b)\) и \(f^{[n + 1]} : (a, b) \to \realnum\) --
      непрерывная. Тогда \[
        f(x) = \sum\limits_{k = 0}^{n} \cfrac{f^{[k]}(0)}{k!}x^k\quad\quad +
        \underbrace{o(x^n)}_{\begin{array}{c}\text{\textit{Остаточный
        член}}\\\text{\textit{в форме Пеано}}\end{array}}
      \]. \index{остаточный член в форме Пеано}
    \end{theorem}
    \begin{proof}
      Если \(0 \in [\alpha, \beta] \subset(a, b)\), то \(f^{[n + 1]}\)
      ограничена на \([\alpha, \beta]\) по II теореме Вейерштрасса.
      
      \[
        r_n(x_0) = \cfrac{f^{[n + 1]}(c)}{(n + 1)!}x_0^{n + 1}
      \]. Т.\,к. \(f^{[n + 1]}\) -- ограниченна на \((a, b)\) и \(c \in (a,
      b)\), \(\cfrac{f^{[n + 1]}(c)}{(n + 1)!}\) -- тоже ограниченна.  Но тогда
      \(r_n(x_0) = o(x^n)\) в точке 0.
    \end{proof}
    
    У остаточных членов в форме Лагранжа и Пеано разные области применения:
    первый используется для приближения функций в точке, так как это полином;
    форма Пеано же -- для изучения поведения функции в окрестности нуля.
    
    \begin{theorem}[теорема единственности]
      Пусть имеется \(f(a, b) \to \realnum\); \(0 \in (a, b)\) и \(f\)
      дифференцируема \(n + 1\) раз.  Пусть оказалось, что \(f\) имеет другое
      представление в виде полинома с остаточным членом \(o(x^n)\): \(f(x) = a_0
      + a_1x + a_2x^2 + \ldots + a_nx^n + o(x^n)\).
      
      Тогда \(\forall{k \le n}~a_k = \frac{f^{[k]}}{k!}\).
    \end{theorem}
    Это утверждение называется теоремой единственности, и означает, что если
    подобное разложение можно получить из каких-то других соображений, не
    вычисляя производную, не нужно доказывать, что это многочлен Тейлора.
    \begin{proof}
      Пусть не для всех \(k\) равенство верно; выберем наименьшее \(k_0\) из
      тех, для которых неверно.  Тогда \[
        f(x) = \sum\limits_{k = 0}^{k_0} \frac{f^{[k]}}{k!}x^k + o(x^{k_0})
      \]. С другой стороны, это \[
        f(x) = \sum\limits_{k = 0}^{k_0} a_kx^k + o(x^{k_0})
      \]. Вычтем одно из другого, разность, разумеется, ноль: \[
        0 = \left(a_{k_0} - \frac{f^{[k_0]}}{k_0!}\right)x^{k_0} + o(x^{k_0})
      \]. Все остальные слагаемые содержат \(x\) в степени большей \(k_0\) и их
      можно загнать под одно \(o(x_{k_0})\), так как если их поделить на
      \(x^{k_0}\), они все будут в нуле стремиться к нулю.
      
      Тогда \[
        \left(\frac{f^{[k_0]}}{k_0!} - a_{k_0}\right)x^{k_0} = o(x^{k_0})
      \]. Поделим обе части на \(x^{k_0}\) и устремим \(x \to 0\): \[
        \underbrace{\frac{f^{[k_0]}}{k_0!} - a_{k_0}}_{= \const \neq 0} =
        \underbrace{\frac{o(x^{k_0})}{x^{k_0}}}_{\to 0}
      \].
      
      Получили противоречие.
    \end{proof}
    
    Пригодиться это может вот где: допустим, мы знаем ряд Тейлора для
    \(\sin{x}\). Тогда, подставив \(x^2\) вместо \(x\), мы получим ряд Тейлора
    для \(\sin{x^2}\), причём это не нужно будет доказывать.
    
    Однако чтобы не ошибиться, нужно следить, что полученная форма действительно
    была необходимого вида, иначе теорема не работает.  Разберём такую задачу:
    \begin{quotation}
      Мы очень скоро узнаем ряд Тейлора для степенной функции: \[
        (1 + x)^{\alpha} = \sum\limits_{k = 0}^{n} \binom{k}{\alpha}x^k + o(x^n)
      \].
      
      Требуется, считая его известным, найти ряд Тейлора для \(f(x) =
      \frac{1}{x^2 - x - 2}\).
    \end{quotation}
        
    \begin{itemize}
      \item
        Нужно следить, чтобы выражение, подставляемое вместо \(x\) в известный
        ряд Тейлора, стремилось к нулю, так как иначе не будут действовать
        свойства \(o(x^n)\). Скажем, такое решение является неверным:
        
        Преобразуем: \(f(x) = (x^2 - x - 2)^{-1} = \left((x^2 - x - 3) +
        1\right)^{-1}\) и подставим в известный ряд Тейлора \(x := (x^2 - x -
        3)\): \[
          (1 + (x^2 - x - 3))^{\alpha} = \sum\limits_{k = 0}^{n}
          \binom{k}{\alpha}\left(x^2 - x - 3\right)^k + \underbrace{o(x^2 - x -
          3)}_{\not\to 0}
        \].
      \item
        Это должен быть полином в каноническом представлении. Скажем, такое
        решение является неправильным:
        
        Преобразуем: \(f(x) = (x^2 - x - 2)^{-1} = 2\left(\overbrace{\frac{x(x -
        1)}{2}}^{\to 0} + 1\right)^{-1}\) и подставим в известный ряд Тейлора
        \(x := \frac{x(x - 1)}{2}\): \[
          (1 + \frac{x(x - 1)}{2})^{\alpha} = \sum\limits_{k = 0}^{n}
          \binom{k}{\alpha}\left(\frac{x(x - 1)}{2}\right)^k + o(x^n)
        \]. Почему неправильно: это не полином в каноническом представлении.
        Можно раскрыть скобки, приобрести дополнительные слагаемые, которые
        испортят известные коэффициенты.
        
        При этом полиномы вида \(\sum\limits_{k = 0}^{n} \gamma x^{mk}~m \in
        \mathbb{N}\) являются каноническими и проблем не вызывают.
    \end{itemize}
    
    Правильное решение:
    
    Преобразуем \(f(x) = \frac{1}{3}\left(\frac{1}{x - 1} - \frac{1}{x +
    2}\right) = -\frac{1}{3}\left(\frac{1}{-x + 1} + \frac{1}{2(\frac{x}{2} +
    1)}\right)\) и подставим в известный ряд Тейлора \(x := -x\) и \(x :=
    \frac{x}{2}\), после чего полученные ряды сложим: \[
      f(x) =-\frac{1}{3}\left(\frac{1}{-x + 1} + \frac{1}{2(\frac{x}{2} +
      1)}\right) = -\frac{1}{3}\left[\sum\limits_{k = 0}^{n}
      \binom{k}{-1}\left((-x)^{k} + \left(\frac{x}{2}\right)^k\right)\right] +
      o(x^n)
    \].
    
    Проверять корректность ответа можно по следующему правилу: <<\emph{если по
    выражению сразу понятно, как вычислить, скажем, 1187-й член и под знаком
    \(o(~)\) стоит выражение, стремящееся к нулю, то полученное разложение
    является многочленом Тейлора}>>.
  \subsection{Разложение по формуле Тейлора элементарных функций}
    \subsubsection{Экспонента}
      \((e^x)^{[n]} = e^x\).
      
      \((e^x)^{[n]}(0) = e^0 = 1\).
      
      Отсюда, \[
        e^x = \sum\limits_{k = 0}^{n} \frac{x^k}{k!} + o(x^n) = 1 + x +
        \frac{x^2}{2} + \frac{x^3}{6} + \frac{x^4}{24} + \ldots
      \].
    \subsubsection{Тригонометрия}
      \(\sin{x}^{[n]} = \sin(x + n\frac{\pi}{2})\)
      
      Чётные -- обнуляются, нечётные меняют знак. На \(o(x^{2n+1})\) можно
      накрутить ещё одну степень, так как \(2n+2\) всё равно ноль. \[
        \sin{x} = \sum\limits_{k = 0}^{n} (-1)^k\frac{x^{2k+1}}{(2k+1)!} +
        o(x^{2n+2}) = x - \frac{x^3}{6} + \frac{x^5}{120} - \ldots
      \].
      
      С косинусом всё наоборот -- нечётные обнуляются, чётные меняют знак: \[
        \cos{x} = \sum\limits_{k = 0}^{n} (-1)^k\frac{x^{2k}}{(2k)!} +
        o(x^{2n+1}) = 1 - \frac{x^2}{2} + \frac{x^4}{24} - \ldots
      \].
    \subsubsection{Степенная}
      \(x^{\alpha}\) -- не подходит по предположению, так как начиная с
      некоторой, производные будут разрывны в нуле (степень будет
      отрицательная). Поэтому будем рассматривать \(f(x) = (1+x)^{\alpha}\): \[
        f^{[k]}(x) = \alpha(\alpha - 1)\ldots(\alpha - k + 1)(1 + x)^{\alpha - k}
      \]. Поделим производную в нуле на \(k!\): \[
        \frac{f^{[k]}(0)}{k!} = \frac{\alpha(\alpha - 1)\ldots(\alpha - k +
        1)}{k!} \equiv \binom{k}{\alpha}
      \].
      
      \(\binom{k}{\alpha}\) по аналогии называют \defined[биномиальный
      коэффициент]{биномиальным коэффициентом}\footnote{\(\binom{0}{\alpha} =
      1\)} даже при \(\alpha \notin \mathbb{N}\).
      
      В итоге получаем: \[
        (1 + x)^{\alpha} = \sum\limits_{k = 0}^{n} \binom{k}{\alpha}x^k + o(x^n)
        = 1 + \alpha{x} + \frac{\alpha(\alpha - 1)}{2}x^2 + \ldots
      \].
    \subsubsection{Логарифм}
      \(f(x) = \ln(x + 1)\).
      
      Для \(k \ge 1\) \[
        f^{[k]}(x) = \left((x + 1)^{-1}\right)^{k - 1} = (-1)(-2)(-3)\ldots(-(k
        - 1))(x + 1)^k = (-1)^{k - 1}(k - 1)!(x + 1)^{-k}
      \]. \[
        \frac{f^{[k]}(0)}{k!} = \frac{(-1)^{k - 1}}{k}
      \]. Для \(k = 0\) формула выше, очевидно, неверна; посчитаем в явном виде:
      \(f(0) = 0\) и \(\frac{f^{[0]}(0)}{0!} = 0\), то есть, первый член
      нулевой. \[
        \ln(x + 1) = \sum\limits_{k = 1}^{n} \frac{(-1)^{k - 1}}{k}x^k + o(x^n)
        = x - \frac{x^2}{2} + \frac{x^3}{3} - \ldots
      \].
      
    \subsection{Арктангенс}
      Интересно, что для некоторых функций можно получать ряды Тейлора, не зная,
      как вычислять их \(n\)-ную производную. Например, для арктангенса.
    
      \(f(x) = \arctg{x}\).
      
      \(f'(x) = \frac{1}{1 + x^2} = (1 + x^2)^{-1}\).
      
      Это можно подставить в выражение для степенной -- вместо \(x\) подставим
      \(x^2\) и применим теорему единственности: \[
        f'(x) = (1 + x^2)^{-1} = \sum\limits_{k = 0}^{n} (-1)^k x^{2k} + o(x^{2n})
      \]. Согласно теореме единственности, это формула Тейлора. Отсюда мы знаем
      коэффициенты в многочлене Тейлора: \[
        \frac{(f')^{[2k]}(0)}{(2k)!} = (-1)^k
      \]. Значение же нечётных производных -- ноль.
      
      Эти наблюдения позволяют также выразить сами производные:
      \{
        \[
          (f')^{[2k]}(0) = (-1)^k(2k)!
        \], \[
          (f')^{[2k + 1]}(0) = 0
        \].
      \}
      Но тогда \(2k\)-я производная от \(f'\) -- это \(2k + 1\)-я производная от
      \(f\):
      \{
        \[
          f^{[2k + 1]}(0) = (-1)^k(2k)!
        \], \[
          f^{[2k + 2]}(0) = 0
        \].
      \}
      Теперь мы знаем ВСЕ производные арктангенса в нуле, даже не вычисляя их.
      Осталось только поделить на факториал:
      \{
        \[
          \frac{f^{[2k + 1]}(0)}{(2k+1)!} = (-1)^k(2k)!
        \], \[
          \frac{f^{[2k + 2]}(0)}{(2k+2)!} = 0
        \].
      \}
      
      Не хватает только нулевого члена -- это ноль. Теперь мы готовы написать
      ряд Тейлора: \[
        \arctg{x} = \sum\limits_{k = 1}^{n} \frac{(-1)^kx^{2k+1}}{2k+1} +
        o(x^{2n+1}) = x - \frac{x^3}{3} + \frac{x^5}{5} - \ldots
      \].
      
      Аналогичными рассуждениями можно получить и ряд Тейлора для арксинуса.
\section{Второе достаточное условие экстремума}
    \begin{theorem}[второе достаточное условие максимума]
      Пусть \(f(c, d) \to \realnum\); \(a \in (c, d)\). Пусть \(f'(a) = 0\).
      
      Пусть \(f'(a) = f''(a) = \ldots = f^{[n - 1]} =0\), \(f^{[n]} \neq 0\). 
      
      Также потребуем наличие \(n+1\)-ой произоводной и её непрерывность.
      
      Тогда:
      \begin{itemize}
        \item{Если \(n\) нечётно, экстремума нет}
        \item{Если \(n\) чётно и \(f^{[n]}(a) > 0\), то экстремум есть и это
        локальный минимум}
        \item{Если \(n\) чётно и \(f^{[n]}(a) < 0\), то экстремум есть и это
        локальный максимум}
      \end{itemize}
    \end{theorem}
    \begin{proof}
      \[
        \alpha = \frac{f^{[n]}}{n!}
      \]. Запишем формулу Тейлора в точке \(a\): \[
        f(x) = f(a) + \alpha (x-a)^n + o((x - a)^n)
      \]. Перенесём в другую часть \(f(a)\) и разделим на \((x - a)^n\): \[
        \frac{f(x) - f(a)}{(x - a)^n} = \alpha + \frac{o((x - a)^n)}{(x - a)^n}
      \]. Теперь устремим \(x \to a\): \[
        \lim\limits_{x \to a}\frac{f(x) - f(a)}{(x - a)^n} = \alpha
      \].
      
      Тогда по теореме о стабилизации знака \(\exists{\delta} > 0 :
      \forall{x}\in \mathring{U}_{\delta}(a)\), \(\frac{f(x) - f(a)}{(x -
      a)^n}\) имеет тот же знак, что и \(\alpha\)
      
      \begin{enumerate}
        \item
          \(n\) -- нечётное; тогда \((x - a)^n\) меняет знак в точке \(a\);
          \(f(x) - f(a)\) тоже меняет там знак. Значит, экстремума нет.
        \item
          \(n\) -- чётно; тогда \(\forall{x\neq a} ~ (x - a)^n > 0\). Это
          означает, что знаменатель не меняет знак дроби; но так как дробь
          должна иметь тот же знак, что и \(\alpha\), знак не меняет и
          числитель.
          
          Другими словами, \(f(x) - f(a)\) имеет тот же знак, что и \(\alpha\).
          Это как раз обозначает, что экстремум есть; причём если \(\alpha >
          0\), то \(\forall{x \in \mathring{U}_{\delta}(a)}~ f(x) > f(a)\), то
          есть \(a\) -- точка локального минимума, а если \(\alpha < 0\), то
          \(\forall{x \in \mathring{U}_{\delta}(a)}~ f(x) < f(a)\), то есть
          \(a\) -- точка локального максимума.
      \end{enumerate}
      
    \end{proof}
\section{Связь знака второй производной и выпуклости функции}

  \definition[надграфик]{
    \(f(x) : [a, b] \to \realnum\).
    
    Множество \(N_f = \left\{ (x, y) | x \in [a, b] \land y \ge f(x) \right\}\)
    называется \defined{надграфиком}.
  }
  \definition[выпуклое множество]{
    \(F \subset \realnum^2\). Будем говорить что \(F\) -- \defined{выпуклое
    множество}, если \(\forall{A, B \in F}~ AB \subset F\).
  }
  \definition[выпуклая вниз функция]{
    Пусть \(f : [a, b] \to \realnum\). Будем говорить, что \(f\)
    \defined{выпуклая вниз}, если её надграфик -- выпуклое множество.
  }
  \begin{theorem}[лемма о выпуклой комбинации]
    Пусть \(x_0 \in \realnum\). \(x_0 \in [a,b]\) если и только если \[
      \exists{\alpha \in [0, 1]} : ~ x_0 = \alpha{a} + (1 - \alpha )b
    \].
  \end{theorem}
  \begin{proof}
    \begin{leftproof}
      \[
        x_0 = \alpha{a} + (1 - \alpha) b
      \]. Отсюда двойное неравенство: \[
        \underbrace{\alpha{a} + (1 - \alpha) a}_{= a}\le \alpha{a} + (1 -
        \alpha) b \le \underbrace{\alpha{b} + (1 - \alpha) b}_{= b}
      \].
    \end{leftproof}
    \begin{rightproof}
      \[
        x_0 \in [a, b]
      \]. Это можно записать таким способом: \[
        x_0 = \underbrace{\frac{\overbrace{b - x_0}^{\ge 0}}{b - a}}_{\alpha} a
        +\underbrace{\frac{\overbrace{x_0 - a}^{\ge 0}}{b - a}}_{1 - \alpha} b
      \].
    \end{rightproof}
  \end{proof}
  \note{
    При всём этом, \[
      \frac{\alpha}{1 - \alpha} = \frac{b - x_0}{x_0 - a}
    \]. Такая комбинация называется \defined[выпуклая комбинация]{выпуклой}.
  }
  
  \begin{theorem}[необходимое и достаточное условие выпуклости вниз]
    Пусть \(f : [a. b] \to \realnum\), непрерывная; \(f(x)\) выпуклая вниз если
    и только если любая хорда лежит выше графика.
  \end{theorem}
  \begin{proof}
    \begin{leftproof}
      Если \(f\) -- выпуклая вниз, то надграфик выпуклый; тогда точки \(A_{10}
      (x_0, f(x_0))\) и \(A_{01}(x_1, f(x_1))\) лежат в надграфике; тогда весь
      отрезок лежит в надграфике, то есть лежит выше графика.
    \end{leftproof}
      \begin{figure}[h]
        \centering
        \begin{tikzpicture}
          \draw [-latex] (-1.5, 1) -- (-1.5, 5);
          \draw [-latex] (-1.5, 1) -- (3, 1);
          \draw[red] plot[smooth, tension=1] coordinates {(-3, 1) (-1, 2) (0, 0) (1, 3) (2, 5)};
          \draw (-1, 2) node{\(\bullet\)} node[left]{\(A\)} -- (1, 3)
          node{\(\bullet\)} node[right]{\(B\)} node[midway]{\(\bullet\)}
          node[midway, anchor=north]{\(C\)};
          \draw (-1, 3) node{\(\bullet\)} node[left]{\(D\)} -- (1, 4)
          node{\(\bullet\)} node[right]{\(E\)} node[midway]{\(\bullet\)}
          node[midway, anchor=south]{\(F\)};
        \end{tikzpicture}
        \caption{\label{fig:hordproof} К доказательству необходимого и
        достаточного условия выпуклости вниз.}
      \end{figure}
    \begin{rightproof}
      См.~рис.~\ref{fig:hordproof}. Хорда \(AB\) лежит выше графика, в частности
      выше графика лежит произвольная точка \(C\). Тогда любая хорда \(DE\),
      лежащая не ниже \(AB\), полностью лежит в надграфике, так как его точка
      \(F\), лежащая над точкой \(C\) (которая произвольна), которая выше
      графика, лежит в надграфике.
    \end{rightproof}
  \end{proof}
  \begin{theorem}[второе равносильное условие выпуклости вниз]
    \(f : [a, b] \to \realnum\), непрерывная.  \(f\) выпуклая вниз если и только
    если\[
      \forall{x_1, x_2 \in [a,b] : x_1 < x_2, f(x_1) \le
      f(x_2)},\;\forall{\alpha \in [0, 1]} ~ f(\alpha{x_1} + (1 - \alpha){x_2})
      \le \alpha{f(x_1)} + (1 - \alpha)f(x_2)
    \].
  \end{theorem}
  \begin{proof}
    \begin{figure}[H]
      \centering
      \begin{tikzpicture}[xscale=1.1, yscale=0.75]
        \draw[-latex] (0, 0) -- (4, 0);
        \draw[-latex] (0, 0) -- (0, 6);
        \draw[red] plot[domain=0.4:3.9] (\x, {(\x - 2)*(\x - 2) + 2});
        \node(a) at (0.5, 4.25) {\(\bullet\)};
        \node(b) at (3, 3) {\(\bullet\)};
        \node(c) at (2.5, 3.25) {\(\bullet\)};
        \draw (a.center) node[below left]{\(A\)} -- (b.center) node[below right]{\(B\)};
        \draw[dotted] (1.75, 0) node[below]{\(\frac{x_1 + x_2}{2}\)} -- (1.75, 6);
        \draw[dashed] (0.5, 0) node[below]{\(x_1\)} -- (a) -- (0, 4.25) node[left]{\footnotesize{\(f(x_1)\)}};
        \draw[dashed] (3, 0) node[below]{\(x_2\)} -- (b) -- (0, 3) node[left]{\footnotesize{\(f(x_2)\)}};
        \draw[dashed] (2.5, 0) node[above left]{\rotatebox{90}{\footnotesize{\(\alpha x_1 + (1 - \alpha)x_2\)}}} -- (c) node[above right]{\(C\)} -- (0, 3.25) node{\(-\)};
        \draw[dashed] (0, 4) node[left]{\footnotesize{\(\alpha f(x_1) + (1 - \alpha)f(x_2)\)}} node{--};
        \draw[dashed] (2.5, 2.25) -- (0, 2.25) node[left]{\footnotesize{\(f(\alpha x_1 + (1 - \alpha) x_2)\)}};
      \end{tikzpicture}
      \caption{\label{fig:hordproof2} К доказательству второго равносильного
      условия выпуклости вниз.}
    \end{figure}
    \begin{rightproof}[Пусть \(f\) -- выпуклая вниз.]
      Тогда по лемме все хорды лежат выше графика. Рассмотрим хорду, проходящую
      через точки \(A(x_1, f(x_1))\) и \(B(x_2, f(x_2))\) для произвольных
      \(x_1\) и \(x_2\).  Для произвольного \(\alpha \in [0, 1]\) рассмотрим
      точку на хорде, абсцисса которой равна \(\alpha x_1 + (1 - \alpha) x_2\).

      Так как хорда лежит выше графика, ордината \(C\) не меньше \(f(\alpha x_1
      + (1 - \alpha)x_2)\).  По теореме Фалеса видно, что \(C\) делит в
      отношении \(\alpha : (1 - \alpha)\) отрезок \((f(x_1), f(x_2))\), (по
      условию теоремы, \(f(x_1) \le f(x_2)\)) значит, она равна \(\alpha f(x_1)
      + (1 - \alpha)f(x_2)\) и теорема доказана.
    \end{rightproof}
    \begin{leftproof}[Пусть для любых \(x_1\) и \(x_2\), таких, что \(x_1 < x_2\) и \(f(x_1) \le f(x_2)\)
        и любого \(\alpha \in (0, 1)\) верно
        \(f(\alpha x_1 + (1 - \alpha)x_2) \le \alpha f(x_1) + (1 - \alpha)f(x_2)\)
        (для \(\alpha = 0\) или 1 всё очевидно).]
      По лемме о выпуклой комбинации, точка \(\alpha x_1 + (1 - \alpha)x_1\)
      лежит в отрезке \((x_1, x_2)\). Обозначим её за \(x_0\). Так, у нас во
      всех точках хорда лежит выше графика.  Так как хорда строится по точкам
      \((x_1, f(x_1))\) и \((x_2, f(x_2))\), в силу произвольности \(x_1\) и
      \(x_2\), любая хорда лежит выше графика. Тогда, по лемме, функия \(f\)
      является выпуклой вниз.
    \end{leftproof}
%    \begin{leftproof}[Пусть для любых \(x_1\) и \(x_2\) можно найти \(\alpha \in (0, 1)\), такое что
%        \(f(\alpha x_1 + (1 - \alpha)x_2) \le \alpha f(x_1) + (1 - \alpha)f(x_2)\)
%        (для \(\alpha = 0\) или 1 всё очевидно).]
%      Применим этот факт ко всему отрезку \((a, b)\).
%      По лемме о выпуклой комбинации, точка \(\alpha a + (1 - \alpha)b\) лежит в отрезке
%      \((a, b)\). Обозначим её за \(x_0\). Так, у нас на отрезке есть точка \(x_0\), в которой хорда
%      лежит выше графика. Докажем от проивного, что хорда тогда лежит выше графика в любой точке.
%
%      Пусть нашлось \(\bar{x_0}\), в котором хорда лежит строго ниже графика. 
%      Рассмотрим функцию \(g(x) = f(x) - l(x)\), где \(l(x)\) -- хорда.
%      Тогда в силу непрерывности функции \(g(x)\) по теореме о стабилизации знака, получаем,
%      что в некоторой окрестности \((\bar{x_0} - \delta, \bar{x_0} + \delta)\) она положительна,
%      то есть во всей этой окрестности хорда лежит строго ниже функции.
%      \begin{figure}[H]
%        \centering
%        \begin{tikzpicture}[xscale=2, yscale=4]
%          \draw [-latex] (-1.5, 1) -- (-1.5, 2.2);
%          \draw [-latex] (-1.5, 1) -- (3, 1);
%          \node(a) at (-1, 2) {};
%          \node(b) at (1, 1.5) {};
%          \node(c) at (-0.5, 1.875) {};
%          \node(x0) at (0.55, 1.52) {\(\bullet\)};
%          \node(barx0) at (-0.2, 1.9) {\(\bullet\)};
%          \draw[red] plot[smooth, tension=0.6] coordinates {(-1.4, 1.9) (a) (barx0) (x0) (b) (1.7, 1.7)};
%          %\draw[dashed] (-1, 1) node[below]{\(x_1\)} -- (a) -- (-1.5, 2) node[left]{\(f(x_1)\)};
%          %\draw[dashed] (1, 1) node[below]{\(x_2\)} -- (b) -- (-1.5, 1.5) node[left]{\(f(x_2)\)};
%          \draw[dashed] (0.55, 1) node[below]{\(x_0\)} -- (x0.center);
%          \draw[dashed] (-0.2, 1) node[below]{\(\bar{x_0}\)} -- (barx0.center);
%          \draw[dotted] (-0.7, 1) node[below]{\(\bar{x_0} - \delta\)} -- (-0.7, 2.2);
%          \draw[dotted] (0.15, 1) node[below]{\(\bar{x_0} + \delta\)} -- (0.15, 2.2);
%          \draw[blue] (a.center) -- (b.center);
%        \end{tikzpicture}
%      \end{figure}
%
%      Но посылка доказываемой теоремы говорит о том, что для любых \(x_1\) и \(x_2\), в частности
%      и для \(x_1 = \bar{x_0} - \delta\) и \(x_2 = \bar{x_0} + \delta\), между ними найдётся точка,
%      в которой хорда выше графика. Так, наличие точки \(\bar{x_0}\) противоречит посылке теоремы,
%      а значит во всех точках хорда лежит выше графика. Так как хорда строится по точкам
%      \((x_1, f(x_1))\) и \((x_2, f(x_2))\), в силу произвольности \(x_1\) и \(x_2\), любая хорда лежит
%      выше графика. Тогда, по лемме, функия \(f\) является выпуклой вниз.
%    \end{leftproof}
  \end{proof}
  
  \begin{theorem}[лемма о двух хордах]
    \(f : [a, b] \to \realnum\) выпуклая вниз если и только если \(\forall{x_1 <
    x_2 < x_3}\) \[
      \frac{f(x_2) - f(x_1)}{x_2 - x_1} \le \frac{f(x_3) - f(x_2)}{x_3 - x_2}
    \].
  \end{theorem}
  \begin{figure}[h]
    \centering
    \begin{tikzpicture}[yscale=0.5]
      \draw[-latex] (0,0) -- (5, 0);
      \draw[-latex] (0,0) -- (0, 6);
      \node (a) at (1, 2){\(\bullet\)};
      \node (b) at (3, 3){\(\bullet\)};
      \node (c) at (4.5, 6){\(\bullet\)};
      \draw[red] plot[smooth, tension=1] coordinates {(a) (b) (c)};
      \draw (a.center) -- (b.center) -- (c.center);
    \end{tikzpicture}
    \caption{\label{fig:hordhordlemma} Иллюстрация к лемме о двух хордах.
    Геометрическое толкование леммы: дроби -- это тангенсы угла наклона хорд.}
  \end{figure}
  \begin{proof}
    \begin{leftproof}
      Представим \(x_2\) в виде выпуклой комбинации:
      \begin{align*}
        x_2 = \frac{x_3 - x_2}{x_3 - x_1}x_1 + \frac{x_2 - x_1}{x_3 - x_1}x_3
      \end{align*}
      \begin{tabular}{p{0.45\textwidth} | p{0.45\textwidth}}
      %  {\begin{figure}
          \begin{tikzpicture}
            \draw[-latex] (0, 0) -- (5, 0);
            \draw[-latex] (0, 0) -- (0, 5);
            \draw[red] plot[domain=0.3:4.7] (\x, {\x * \x * \x * \x / 125 + 0.5});
            \draw[blue] (1, 0.508) -- (3, 1.148);
            \draw[blue] (3, 1.148) -- (4.5, 3.7805);
            \draw[blue] (1, 0.508) -- (4.5, 3.7805);
            \draw[dashed] (1, 0) node[below]{\(x_1\)} -- (1, 0.508) -- (0, 0.508) node[left]{\(f(x_1)\)};
            \draw[dashed] (3, 0) node[below]{\(x_2\)} -- (3, 2.378) node[above]{\(C\)} -- (0, 2.378) node {\(-\)};
            \draw[dashed] (3, 1.148) -- (0, 1.148) node[left]{\(f(x_2)\)};
            \draw[dashed] (4.5, 0) node[below]{\(x_3\)} -- (4.5, 3.7805) -- (0, 3.7805) node[left]{\(f(x_3\))};
          \end{tikzpicture}
      %  \end{figure}}
        &
      %  {\begin{figure}
          \begin{tikzpicture}
            \draw[-latex] (-5, 0) -- (1, 0);
            \draw[-latex] (0, 0) -- (0, 5);
            \draw[red] plot[domain=-4.7:-0.3] (\x, {\x * \x * \x * \x / 125 + 0.5});
            \draw[blue] (-1, 0.508) -- (-3, 1.148);
            \draw[blue] (-3, 1.148) -- (-4.5, 3.7805);
            \draw[blue] (-1, 0.508) -- (-4.5, 3.7805);
            \draw[dashed] (-1, 0) node[below]{\(x_3\)} -- (-1, 0.508) -- (0, 0.508) node[right]{\(f(x_3)\)};
            \draw[dashed] (-3, 0) node[below]{\(x_2\)} -- (-3, 2.378) node[above]{\(C\)} -- (0, 2.378) node{\(-\)};
            \draw[dashed] (-3, 1.148) -- (0, 1.148) node[right]{\(f(x_2)\)};
            \draw[dashed] (-4.5, 0) node[below]{\(x_1\)} -- (-4.5, 3.7805) -- (0, 3.7805) node[right]{\(f(x_1\))};
          \end{tikzpicture}
      %  \end{figure}}
        \\
        {
          Из теоремы Фалеса получаем ординату точки \(C\): \[
            \frac{x_3 - x_2}{x_3 - x_1}f(x_1) + \frac{x_2 - x_1}{x_3 - x_1}f(x_3)
          \]. Согласно лемме, хорда лежит выше выпуклой вниз функции, значит \[
            f(x_2) \le \frac{x_3 - x_2}{x_3 - x_1}f(x_1) + \frac{x_2 - x_1}{x_3 -
            x_1}f(x_3)
          \].
          Применим следующее равенство: \[
            \frac{x_3 - x_2}{x_3 - x_1} + \frac{x_2 - x_1}{x_3 - x_1} = 1
          \]. С помощью него получим \[
            \left(\frac{x_3 - x_2}{x_3 - x_1} + \frac{x_2 - x_1}{x_3 -
            x_1}\right) f(x_2) \le \frac{x_3 - x_2}{x_3 - x_1}f(x_1) + \frac{x_2
            - x_1}{x_3 - x_1}f(x_3)
          \], отсюда \[
            \frac{f(x_2) - f(x_1)}{x_2 - x_1} \le \frac{f(x_3) - f(x_2)}{x_3 - x_2}
          \].
        }
        &
        {
          Из теоремы Фалеса получаем ординату точки \(C\): \[
            \frac{x_3 - x_2}{x_3 - x_1}f(x_3) + \frac{x_2 - x_1}{x_3 - x_1}f(x_1)
          \]. Согласно лемме, хорда лежит выше выпуклой вниз функции, значит \[
            f(x_2) \le \frac{x_3 - x_2}{x_3 - x_1}f(x_3) + \frac{x_2 - x_1}{x_3 -
            x_1}f(x_1)
          \]. Применим следующее равенство: \[
            \frac{x_3 - x_2}{x_3 - x_1} + \frac{x_2 - x_1}{x_3 - x_1} = 1
          \]. С помощью него получим: \[
            \left(\frac{x_3 - x_2}{x_3 - x_1} + \frac{x_2 - x_1}{x_3 -
            x_1}\right) f(x_2) \le \frac{x_3 - x_2}{x_3 - x_1}f(x_3) + \frac{x_2
            - x_1}{x_3 - x_1}f(x_1) 
          \], отсюда \[
            \frac{f(x_2) - f(x_1)}{x_2 - x_1} \le \frac{f(x_3) - f(x_2)}{x_3 - x_2}
          \].
        }
      \end{tabular}

      Кстати, домножать на разность иксов мы всегда имели право, так как она из
      их порядка на вещественной прямой была положительна.
    \end{leftproof}
    \begin{rightproof}
      Все проведённые выше преобразования равносильны.
    \end{rightproof}
  \end{proof}

  \begin{theorem}
    \(f(x) : [a, b] \to \realnum\), \(f'(x)\) существует и непрерывна; тогда
    \(f(x)\) выпуклая вниз если и только если \(\forall{x \in [a, b]} ~ f''(x)
    \ge 0\).
  \end{theorem}
  \begin{proof}
    \begin{leftproof}    
      Пользуемся леммой о двух хордах. Возьмём \(x_1 < x_2 < x_3\).
      
      Теперь пользуемся теоремой Лагранжа для углового коэффициента каждой из
      хорд: \[
        \frac{f(x_3) - f(x_2)}{x_3 - x_2} - \frac{f(x_2) - f(x_1)}{x_2 - x_1} =
        f'(c_2) - f'(c_1) = \underbrace{f''(c)}_{\ge 0}\underbrace{(c_2 -
        c_1)}_{> 0}
      \].
      
      \[
        \underbrace{c_1}_{\in (x_1, x_2)} \le x_2 \le \underbrace{c_2}_{\in
        (x_2, x_3)}
      \]. Получили, что \[
        \frac{f(x_3) - f(x_2)}{x_3 - x_2} \ge \frac{f(x_2) - f(x_1)}{x_2 - x_1}
      \].
    \end{leftproof}
    \begin{rightproof}
      Пользуемся леммой о двух хордах дважды: возьмём \(x_1 < x_2 < x_3 < x_4\).
      \[
        \frac{f(x_2) - f(x_1)}{x_2 - x_1} \le\frac{f(x_3) - f(x_2)}{x_3 - x_2} \le \frac{f(x_4) - f(x_3)}{x_4 - x_3}
      \].  Сделаем два предельных перехода: сначала \(x_1 \to x_2-0\), а затем
      \(x_4 \to x_3+0\):
      \{
        \[
          \underbrace{\frac{f(x_2) - f(x_1)}{x_2 - x_1}}_{x_1 \to x_2-0} \le
          \frac{f(x_4) - f(x_3)}{x_4 - x_3}
        \], \[
          f'(x_2) \le \underbrace{\frac{f(x_4) - f(x_3)}{x_4 - x_3}}_{x_4 \to
          x_3+0}
        \], \[
          f'(x_2) \le f'(x_3)
        \].
      \}
      Тогда \(f'\) возрастает, а значит \(f'' > 0\).
    \end{rightproof}
  \end{proof}

