\chapter{Funzioni analitiche nel campo dei numeri reali} 
Nozione di funzione analitica. Condizione affinché una funzione reale sia analitica in un intervallo. Analiticità di alcune funzioni reali elementari. Calcolo per serie di alcuni integrali. Funzione degli errori.


\section{Nozione di funzione analitica. }\index{Funzione!analitica}
\begin{definizione}
Si definisce \emph{funzione analitica} di variabile complessa in un punto.

Sia $f\colon A\subset\C\to\C$ , $A$ aperto, $z_0 \in A$, $f$ si dice \textsc{analitica} in $z_0$ se $\exists r>0 \tc \forall z \in \disk{z_0,r}\subset A $ la $f(z)$ è la somma di potenze di centro $z_0\colon$
\[ f(z) = \sum_{k=0}^{+\infty} a_k (z-z_0)^k \]
\end{definizione}
\begin{osservazione}
Sia $\bar{z}\in\disk{z_0,r},\exists \{a_k\}\subset\C \tc f(z) = \sum_{k=0}^{+\infty} a_k (\bar{z}-z_0)^k $.

La serie di potenze \[ f(z) = \sum_{k=0}^{+\infty} a_k (z-z_0)^k=s(z) \quad\forall z\in\disk{z_0,r} \] con $r<\rho$, $\rho$ raggio di convergenza della serie, e $a_k = \frac{s^{(k)}(z_0)}{k!}$.

Fissato il punto $z_0$ nel disco di convergenza risultano fissati i coefficienti $a_k$ dati dalle derivate della somma della serie di potenze derivabile infinite volte ovvero di classe $C^\infty$.
\end{osservazione}
Se una funzione è analitica in un punto è analitica in un disco (in $\C$).
\begin{osservazione}[Controesempio]
Definisco la funzione \[ f(z) = \begin{cases}
x^2 \quad \textrm{se $x\in \Q$\qquad razionali}\\
x^3 \quad \textrm{se $x\in \R\setminus\Q$\quad irrazionali}
\end{cases} \]
\[\lim_{h\to 0}\frac{f(h)-f(0)}{h}=\lim_{h\to 0}\frac{f(h)}{h}=0\]
La funzione non è continua in nessun altro punto.
\end{osservazione}
\begin{definizione}
Sia  $f\colon A\subset\C\to\C$ , $A$ aperto, si dice $f$ \emph{analitica} in $A'\subseteq A$ se è analitica in ogni punto di $A'$.
\end{definizione}
\begin{definizione}[di funzione reale di variabile reale analitica in un punto]
Sia $f\colon A\subset\R\to\R$ , $A$ aperto, $x_0\in A$ $f$ si dice \emph{analitica in $x_0$} se $\exists r>0\tc\forall x\in (x_0-r,x_0+r)$
$f(x)$ è la somma di una serie di potenze in $\R$ di centro $x_0$
\[ f(x)=\sum_{k=0}^{+\infty} a_k (x-x_0)^k, \quad \text{con} \; \{a_k\} \subset \R, \quad a_k=\frac{f^{(k)(x_0)}}{k!}.\]
$f$ ha derivate di ordine qualsiasi, ovvero è di classe $C^\infty$.
\end{definizione}
\begin{osservazione}Data $f\colon(x_0-r,x_0+r)\to\R \quad f\in C^\infty\left((x_0-r,x_0+r)\right)$ è vero che $\forall x\in(x_0-r,x_0+r), \quad r'<r,$
\[f(x) = \sum_{k=0}^{+\infty} \frac{f^{(k)(x_0)}}{k!} (x-x_0)^k \quad?\]
No. Una funzione può essere di classe $C^\infty$ e non essere analitica, ovvero
\[ \analytic{(x_0-r',x_0+r')} \subset C^\infty\left((x_0-r',x_0+r')\right) \]

\begin{definizione}[Serie di Taylor]\index{Serie!di Taylor}
Sia $f\colon A\subset\C\to\C$ $(f\colon A\subset\R\to\R)$, $A$ aperto, analitica in $z_0\in A$ $(x_0\in A)$
\[f(z) = \sum_{k=0}^{+\infty} \frac{f^{(k)}(z_0)}{k!} (z-z_0)^k \quad \forall z\in D(z_0,r)\]\[\left(f(x) = \sum_{k=0}^{+\infty} \frac{f^{(k)}(x_0)}{k!} (x-x_0)^k \quad \forall x\in (x_0-r,x_0+r)\right)\]
è lo sviluppo in \textsc{serie di Taylor} di centro $z_0$ ($x_0$) della funzione $f$.

Quando $z_0=0$ ($x_0=0$) si usa dire che la serie è uno sviluppo in \textsc{serie di Mac Laurin} della funzione $f$.
\end{definizione}

Cerco un esempio di funzione di classe $C^\infty$ in tutto $\R$ che non sia analitica in zero. 

Sia $f\colon\R\to\R$
\[ f(x) = \begin{cases}
e^{-\frac{1}{x}} &\text{se $x>0$}\\
0 & \text{se $x<0$}
\end{cases}\]\begin{figure}[!h]\begin{tikzpicture}
\begin{axis}[axis lines=middle,enlargelimits,ytick={1}]
\addplot [domain=0.0001:10.5,samples=50,smooth,thick,blue] {exp(-1/x))};
\addplot [domain=-7.5:0,thick,blue] {0};
\end{axis}
\end{tikzpicture}
\end{figure}

Dove $e^{-\frac{1}{x}}\in\C^\infty((0,+\infty))$ e $0\in\C^\infty((0,+\infty))$. In zero? Devo valutare il limite sinistro e destro.
\begin{quotation}
\begin{definizione}[$f$ derivabile in un punto]
Sia $f\colon I\to\R$, $I$ aperto, $x_0\in I$, $f$ è derivabile in $I\setminus\{x_0\}$, $f\in C(I)$ continua, allora se
\[\exists\lim_{x\to x_0^-}{f'(x)}=l \in\R \qquad\exists\lim_{x\to x_0^+}{f'(x)}=l \in\R \]
e sono uguali allora \emph{$f$ è derivabile in $x_0$} e 
\[ f'(x_0)=l \]\footnote{Applicazione del teorema De H\^{o}pital. Vedo infatti che \[\exists\lim_{h\to 0} \frac{f(x_0+h)-f(x_0)}{h}=\exists \lim_{h\to 0}\frac{f'(x_0+h)}{h}=l\in\R \]   \textbf{CONTROLLARE}}
\end{definizione}
\end{quotation}
So quindi che \[f^{'}(x)=\begin{cases}
\frac{1}{x^2} e^{-\frac{1}{x}} &\text{se $x>0$}\\
0 & \text{se $x<0$}
\end{cases}\]
è derivabile in tutti i punti tranne che in zero ma per il precedente teorema
\[\exists \lim_{x\to 0^-} { f'(x)} = \lim_{x\to 0^-} 0 = 0 \]
\[\exists \lim_{x\to 0^+} { f'(x)} = \lim_{x\to 0^+} \frac{1}{x^2} e^{-\frac{1}{x}} = 0 \]\footnote{Per gerarchia degli infiniti si vede infatti con la sostituzione $\frac{1}{x}=y$ che $\lim_{y\to +\infty}\frac{y^2}{e^y}=0$.}
pertanto $f$ è derivabile in zero e la derivata vale zero.
La derivata prima è quindi una funzione continua. La derivata seconda:
\[f^{"}(x)=\begin{cases}
-\frac{2}{x^3} e^{-\frac{1}{x}} +\frac{1}{x^4} e^{-\frac{1}{x}} &\text{se $x>0$}\\
0 & \text{se $x<0$}
\end{cases}\]
\[\exists \lim_{x\to 0^-} { f^{"}(x)} = \lim_{x\to 0^-} 0 = 0 \]
\[\exists \lim_{x\to 0^+} { f^{"}(x)} = \lim_{x\to 0^+} \left( -\frac{2}{x^3} e^{-\frac{1}{x}} +\frac{1}{x^4} e^{-\frac{1}{x}} \right) \overset{\frac{1}{x}=y}{=} \lim_{y\to +\infty} {\left( -\frac{2y^3}{e^y} +\frac{y^4}{e^y} \right)} = 0 \]


Iterando più volte questo ragionamento indefinitamente $f$ è derivabile infinite volte in zero e \[ f^{(k)}(0)=0 \quad \forall k\in\N \quad \text{(per convenzione $f^{(0)}(0)=f(0)$ )}\]
quindi $f\in C^\infty(\R)$.

Ora vedo che questa $f$ non è analitica in 0 perché la serie di Mac Laurin in zero
\[ \sum_{k=0}^{+\infty} \frac{f^{(k)}(0)}{k!} x^k \]
è la serie di potenze di centro 0 a coefficienti tutti nuli quindi ha per somma la funzione identicamente nulla.
In un intorno di zero la funzione dovrebbe essere nulla nell'intorno ma questo non è vero.
Ho trovato così una funzione definita a tratti di classe $C^\infty$ in tutto $\R$ eppure non analitica.
\end{osservazione}
\begin{osservazione}Per le funzioni complesse essere funzione analitica $\implies$ funzione olomorfa: \[ \mathcal{A}(A)=\holomorph{A} \] Differenza sostanziale tra il campo $\R$ e $\C$.
\end{osservazione}


\section{Condizione affinché una funzione reale sia analitica in un intervallo.}
\begin{teorema}[funzione reale analitica in un insieme]
Sia $f\colon A\subseteq\R\to\R$, $A$ aperto, $f\in C^\infty(A)$, supponiamo il controllo uniforme sulle derivate,
\[ \exists M \geq 0 \tc \forall x\in A \quad \lvert{f^{(k)}(x)}\rvert\leq M \ , \ \forall k\in\N \]
allora $f$ è analitica in $A$. \footnote{Stessa costante $M$ per ogni $k$!}
\begin{proof}[Dimostrazione]
Fisso $x_0\in A$, sia $M\in\N$, considero la formula di Taylor per $f$ con centro $x_0\in A$ e ordine $m$ con resto di Lagrange, quindi
\[ \forall x\in A, \exists c_m \substack{\in (x_0,x)\\\in(x,x_0) } \colon f(x) = \underbrace{ \sum_{k=0}^{m} {f^{(m)}(x_0)(x-x_0)^k} }_{s_m(x)}+ \frac{f^{(m+1)}(c_m)}{(m+1)!} (x-x_0)^{m+1} \]
dove la somma parziale $m$-esima della serie \[\sum_{k=0}^{+\infty} {f^{(k)}(x_0)(x-x_0)^k}
\quad\text{è}\quad s_m(x)=\sum_{k=0}^{m} {f^{(m)}(x_0)(x-x_0)^k}\] che tende alla somma della serie per $s_m(x)\overset{ m\to\infty}{=}s(x)$.
\[\forall x\in A  \quad f(x) = \lim_{m\to+\infty}f(x) = \lim_{m\to+\infty}s_m(x) + \lim_{m\to+\infty} \frac{f^{(m+1)}(c_m)}{(m+1)!}(x-x_0)^{m+1} \]
Basta dimostrare che converge a zero puntualmente in A il limite \[\lim_{m\to+\infty} \frac{f^{(m+1)}(c_m)}{(m+1)!}(x-x_0)^{m+1} = 0 \]
\[ \lim_{m\to+\infty} \bigg| \frac{f^{(m+1)}(c_m)(x-x_0)^{m+1}}{(m+1)!} \bigg| = 0 \quad \forall x\in A \]
\[0\leq \big| f^{(m+1)}(c_m) \big| \frac { \big| {x-x_0} \big|^{m+1} }{(m+1)!} \leq M \frac { \big| {x-x_0} \big|^{m+1} }{(m+1)!} \to 0 \]
Fissato $x_0\in A$ \[\lim_{m\to+\infty} M \frac{a^{m+1}}{(m+1)!}=0 \quad \forall a \geq 0 \]
si può dimostrare che \[ \sum_{k=0}^{+\infty} M \frac{a^{m+1}}{(m+1)!} \in \R \] in quanto $M \frac{a^{m+1}}{(m+1)!} \xrightarrow{m\to +\infty}0 $. \footnote{per il criterio del rapporto $ \frac{M a^{m+2}}{(m+2)!} \frac{(m+1)!}{M a^{m+1}} = \frac{a}{m+2} \xrightarrow{m\to +\infty} 0 $}
\end{proof}
\end{teorema}

\section{Analiticità di alcune funzioni reali elementari.}

\paragraph{Applicazione 1}
Sia $f(x) = e^x $ la funzione esponenziale, definita in un intervallo aperto arbitrario $[-a,a]$, con le derivate controllate uniformemente
\[ \forall m\in \N \quad \lvert f^{(m)}(x) \rvert  = \lvert e^x \rvert \leq e^a = M \quad \forall x\in[-a,a] \]
essendo il parametro $a$ arbitrario per il teorema precedente ho che $e^x$ è una funzione analitica in tutto $\R$. In particolare $y=e^x$ è analitica in zero
\[ \restrict{\Deriv[(m)]{e^x}}{x=0} = 1 \]
La funzione esponenziale può essere calcolata in tutto $\R$ come somma della serie esponenziale a raggio di convergenza $+\infty$
\[ \forall x \in \R \quad e^x = \sum_{k=0}^{+\infty} \frac{1}{k!} x^k \]
\paragraph{Applicazione 2}
Sia $f(x)=\sen x$ la funzione sinusoidale, definita in $\R$ ha derivate 
\begin{align}
\Deriv\sen x = \cos x \\
\Deriv[2]\sen x = - \sen x \\
\Deriv[3]\sen x = -\cos x \\
\Deriv[4]\sen x = \sen x = \Deriv[0]\sen x
\end{align}
controllate uniformemente su tutto $\R$
\[ \lvert\Deriv[(m)]{(\sen x)} \rvert\leq 1\quad\forall m\in\N\forall x\in\R \]
pertanto la funzione seno è analitica in tutto $\R$ e può essere calcolata in tutto $\R$ come somma della serie di potenze
\[ \forall x \in\R  \qquad \sen x = \sum_{k=0}^{+\infty} \frac{  \left.{\Deriv[(m)]{\sen x}}\right|_{x=0}}{k!} x^k  \; \overset{2h+1=k}{=} \; \sum_{k=0}^{+\infty} \frac{(-1)^h}{(2h+1)!}x^{2h+1}  \]
i cui termini dispari sono non nulli. Con il criterio di Laplace calcolo il raggio di convergenza che è $+\infty$.
\paragraph{Applicazione 3}
Sia $f(x)=\cos x$ la funzione sinusoidale, definita in $\R$ ha derivate 
\begin{align}
\Deriv\cos x=-\sen x \\
\Deriv[2]{\cos x}=-\cos x \\
\Deriv[3]{\cos x}=\sen x \\
\Deriv[4]{\cos x}=\cos x=\Deriv[0]{\cos x}
\end{align}
controllate uniformemente su tutto $\R$
\[ \lvert \Deriv[(m)]{(\cos x)} \rvert \leq 1 \quad \forall m \in \N \forall x\in \R \]
pertanto la funzione coseno è analitica in tutto $\R$ e può essere calcolata in tutto $\R$ come somma della serie di potenze
\[ \forall x \in \R  \qquad \cos x = \sum_{k=0}^{+\infty} \frac{  \left.{\Deriv[(m)]{\cos x}}\right|_{x=0}}{k!} x^k  \; \overset{2h=k}{=} \; \sum_{k=0}^{+\infty} \frac{(-1)^h}{(2h)!}x^{2h}  \]
i cui termini pari sono non nulli. Con il criterio di Laplace calcolo il raggio di convergenza che è $+\infty$.

\section{Calcolo per serie di alcuni integrali.} 
\[ \log(1+x)	\quad	x\in(0,1) \; \forall t\in[0,x]\]
\[ \log(1+x) = \intd{0}{x}{\frac{1}{1+t}}{t} = \sum_{k=0}^{+\infty} \intd{0}{x}{(-1)^k t^k}{t} \]
\[ \restrict{ \Deriv[(m)]{\log(1+x)} }{x=0} = \frac{ m! (-1)^m}{m+1} = \sum_{0}^{+\infty} {(-1)^k \frac{x^{k+1}}{k+1} } \forall x\in(-1,1) \]
Dobbiamo verificare la convergenza della serie negli estremi dell'intervallo.
A sinistra $[-1+\epsilon,1]$
\[ \log 2 = \sum_{0}^{+\infty}{\frac{(-1)^k}{k+1}} \in\R \]
è convergente per il criterio di Leibnitz essendo una serie a segni alterni con $\frac{1}{k+1}\overset{k\to +\infty}{=}0$

\section{Funzione degli errori.}\index{Funzione!degli errori}
Sia data la funzione gaussiana importante in statistica e probabilità
\[ e^{-x^2} = \sum_{k=0}^{+\infty} \frac{(-x^2)^k}{k!} = \sum_{k=0}^{+\infty} \frac{(-1)^k x^{2k}}{k!} \]
serie con raggio di convergenza $+\infty$.
\begin{figure}[!h]\begin{tikzpicture}
\begin{axis}[axis lines=middle,enlargelimits,ytick={1}]
\addplot [domain=-3:3,smooth,thick,blue] {exp(-x*x))};
\end{axis}
\end{tikzpicture}\end{figure}

La funzione $e^{-t^2}$ è una integranda che non ha una primitiva. Si definisce così la funzione degli errori per la distribuzione gaussiana
\[ \frac{2}{\sqrt{\pi}} \intd{0}{x}{e^{-t^2}}{t} = \Err(x) \]

Fissato $x>0$ in $[0,x]$ ho convergenza totale, posso applicare il teorema di integrazione termine a termine (\ref{teo:int_term}) ai termini della serie, ottengo
\[ \frac{2}{\sqrt{\pi}} \intd{0}{x}{e^{-t^2}}{t} = \frac{2}{\sqrt{\pi}} \sum_{k=0}^{+\infty} \intd{0}{x}{\frac{(-1)^k t^{2k}}{k!}}{t} =
\frac{2}{\sqrt{\pi}} \sum_{k=0}^{+\infty}{\frac{(-1)^k}{k!}\frac{1}{2k+1}{x^{2k+1}}}\]
Ho un modo per calcolare in modo approssimato l'integrale con la somma parziale della serie. Si ha pertanto
\[ 2\intd{0}{+\infty}{e^{-t^2}}{t} = \intd{-\infty}{+\infty}{e^{-t^2}}{t} = \sqrt{\pi} \]

\section{Formula binomiale generalizzata}\index{Formula!binomiale generalizzata}
La formula del coefficiente binomiale
\[ m\in\N \quad (1+m)^m = \sum_{k=0}^{m} \binom{m}{k} x^k \]
utilizzata nello sviluppo del binomio di Newton
\[ m\in\N \quad (a+b)^m = \sum_{k=0}^{m} \binom{m}{k} a^{m-k} b^k \]
può essere generalizzata 
\[ \alpha\in\R \quad (1+m)^\alpha = \sum_{k=0}^{m} \binom{\alpha}{k} x^k \]
Ad esempio 
\[ (1+m)^{\frac{1}{2}} = \sum_{k=0}^{+\infty} \binom{\frac{1}{2}}{k} x^k = 1 + \frac{1}{2}x + \dots o(x) \]
dove $o(x)$ è un infinitesimo di ordine superiore a $x$ per $x\to 0$.
\\
Ulteriore esempio
\[ \frac{1}{\sqrt{1+t}} = \sum_{k=0}^{+\infty} \binom{-\frac{1}{2}}{k} t^k ,\, t\in(-1,1), \rho=1 \]
Fissato $x\in(0,1)$ ho che in $[0,x]$ anche $t^2\in(-1,1)$ e $-t^2\in(-1,1)$. Posso calcolare i seguenti integrali per la convergenza della serie
\[ \intd{0}{x}{\frac{1}{\sqrt{1+t}}}{t} = \sum_{k=0}^{+\infty}\binom{-\frac{1}{2}}{k}(-1)^k t^{2 k}  \]
\[ \intd{0}{x}{\frac{1}{\sqrt{1-t^2}}}{t} = \sum_{k=0}^{+\infty}\binom{-\frac{1}{2}}{k}(-1)^k \intd{0}{x}{t^{2 k}}{t} = \sum_{k=0}^{+\infty} \binom{-\frac{1}{2}}{k} (-1)^k \frac{1}{2k+1}x^{2k+1}\]
che è lo sviluppo in serie di Mac Laurin della funzione $\arcsin x \quad \forall x\in(-1,1) $.

I coefficienti dello sviluppo in serie di Mac Laurin si possono esprimere con le derivate calcolate nel centro $x=0$:
\[ \restrict{ \Deriv[5]{\left(\frac{x}{1+x^4}\right)} }{x=0} \]

\[\frac{1}{1+x^4}=\frac{1}{1-(-x^4)}=\sum_{k=0}^{+\infty}(-x^4)^k=\sum_{0}^{+\infty}(-1)^4 x^{4k}\;\forall x\in(-1,1)\]

\[\frac{x}{1+x^4}=\frac{x}{1-(-x^4)}=x\sum_{k=0}^{+\infty}(-x^4)^k=\sum_{0}^{+\infty}(-1)^4 x^{4k+1}\;\forall x\in(-1,1)\]

Si hanno coefficienti della derivata diversi da zero per $k=0\to x$, per $k=1\to (-1)^5$, per $k=2\to x^9$, $\dots$
