\documentclass[12pt,a4paper,onecolumn,titlepage,twoside,openright,final]{book}
\usepackage[utf8]{inputenc}
\usepackage[italian]{babel}
\usepackage{amsmath}
\usepackage{amsthm}
\usepackage{amsfonts}
\usepackage{amssymb}
%\usepackage{booktabs}
\usepackage{caption}
\usepackage[binary-units]{siunitx}
\captionsetup{tableposition=top,figureposition=bottom,font=small}
%\usepackage{mathtools}
\usepackage{hyperref}
\usepackage{graphicx}
\usepackage{pgfplots}
\usepgfplotslibrary{patchplots}
\usetikzlibrary{patterns}
\usetikzlibrary{pgfplots.patchplots}
\usepackage[width=15.00cm, left=3.00cm, height=23.00cm]{geometry}
\usepackage{makeidx}
\usepackage[siunitx]{circuitikz}
\usepackage{ccicons}

\bibliography{biblio.bib}

\theoremstyle{definition}
\newtheorem{definizione}{Definizione}[section]
\theoremstyle{plain}
\newtheorem{teorema}{Teorema}[section]
\theoremstyle{definition}
\newtheorem{corollario}{Corollario}[section]
\theoremstyle{remark}
\newtheorem{osservazione}{Osservazione}[section]
\theoremstyle{remark}
\newtheorem{esempio}{Esempio}[section]
\theoremstyle{remark}
\newtheorem{esercizio}{Esercizio}[section]

\DeclareMathOperator{\sen}{sen}
\DeclareMathOperator{\sinc}{sinc}

\DeclareMathOperator{\senh}{senh}
\DeclareMathOperator{\arctg}{arctg}
\DeclareMathOperator{\cov}{cov}
\DeclareMathOperator{\Arg}{Arg}
\DeclareMathOperator{\Log}{Log}
\DeclareMathOperator{\Err}{Err}
\DeclareMathOperator{\Res}{Res}
\DeclareMathOperator{\Realpart}{Re}
\renewcommand{\Re}{\Realpart}
\DeclareMathOperator{\Imaginarypart}{Im}
\renewcommand{\Im}{\Imaginarypart}
\DeclareMathOperator{\Imaginary}{\mathbf{i}}
\renewcommand{\imath}{\Imaginary}
%\DeclareMathOperator{\Differential}{\mathbf{d}}
%\renewcommand{\d}{\Differential}
%\DeclarePairedDelimiter{\abs}{\lvert}{\rvert}
%\DeclarePairedDelimiter{\norma}{\lVert}{\rVert}
\newcommand{\abs}[1]{\left|{#1}\right|}
\newcommand{\norma}[1]{\lVert{#1}\rVert}
\newcommand{\res}[2]{\Res\left({#1},{#2}\right)}

\newcommand*\diff{\mathop{}\!\mathrm{d}}
\providecommand*{\deriv}[3][]{\frac{\diff^{#1}#2}{\diff #3^{#1}}}
\providecommand*{\pderiv}[3][]{\frac{\partial^{#1}#2}
{\partial #3^{#1}}}
\providecommand*{\Deriv}[2][]{\mathop{}\!\mathrm{D}^{#1}#2}
\providecommand*{\disk}[2][]{\mathop{}\!\mathrm{D}^{#1}({#2})}

\pgfmathdeclarefunction{gauss}{2}{ %
    \pgfmathparse{1/(#2*sqrt(2*pi))*exp(-((x-#1)^2)/(2*#2^2))}
    %
}

\newcommand{\numberset}{\mathbb}
\newcommand{\N}{\numberset{N}}
\newcommand{\Z}{\numberset{Z}}
\newcommand{\R}{\numberset{R}}
\newcommand{\Q}{\numberset{Q}}
\newcommand{\C}{\numberset{C}}

\newcommand{\tc}{\;\;\textrm{t.c.}\;\;}
\newcommand{\intd}[4]{\int_{#1}^{#2}{#3}{\,\diff{#4}}}
\newcommand{\restrict}[2]{\left.{#1}\right|_{#2}}


\author{Corso del Prof. Mario Savino\\Dipartimento di Elettrotecnica e Elettronica \\Politecnico di Bari}
\title{Fondamenti della Misurazione}
\makeindex

\makeatletter
\def\cleardoublepage{\clearpage\if@twoside \ifodd\c@page\else
\hbox{}
\vspace*{\fill}
\begin{center}
\end{center}
\vspace{\fill}
\thispagestyle{empty}
\newpage
\if@twocolumn\hbox{}\newpage\fi\fi\fi}
\makeatother

\begin{document}
\frontmatter
\newpage
\maketitle
\newpage
\vfill
Il presente documento è rilasciato sotto licenza \ccLogo \textbf{Creative Commons 3.0 by-sa-nc} \ccbyncsa. 

\'{E} consentita la creazione di opere derivate, traduzioni, adattamenti, totali o parziali, fatta salva l'attribuzione dell'autore originale e il mantenimento della licenza. 



\thanks{Marco Vanadia\\Politecnico di Bari}

\cleardoublepage \clearpage{\pagestyle{empty}\cleardoublepage}
\tableofcontents
\mainmatter

\clearpage{\pagestyle{empty}\cleardoublepage}
\part{Fondamenti della Misurazione}

\clearpage{\pagestyle{empty}\cleardoublepage}
\chapter{Misura e incertezza}

\section{Concetto di misura}
Spesso non si fa distinzione tra le parole misurazione e misura, anche se a rigore per \textsc{misurazione} s’intende una serie di operazioni che hanno come fine la determinazione di un valore di una quantità, in altre parole il processo che porta alla quantificazione di una grandezza, mentre la \textsc{misura} è il risultato della misurazione.

La misurazione o più semplicemente, come si dirà nel seguito, la misura è quindi un procedimento semplice o complesso, che permette di quantificare, assegnando dei numeri, le proprietà degli oggetti e degli eventi del mondo reale. Misurare permette di conoscere, di descrivere e quindi di controllare qualsiasi sistema fisico nel miglior modo possibile.

La scienza delle misure è antica in quanto misurare è un'esigenza vitale dell'uomo. Ciò si può evincere dalle parole sia di \textbf{Galileo Galilei} sia di \textbf{Lord Kelvin}.

Galileo Galilei affermò: \begin{quote}
\emph{"Contiamo ciò che è contabile, misuriamo ciò che è misurabile e rendiamo misurabile ciò che non lo è"}
\end{quote}".

Lord Kelvin scrisse: \begin{quote}
\emph{"Io spesso affermo che quando puoi misurare ciò di cui stai parlando e lo puoi esprimere in numeri, tu conosci qualcosa di ciò, ma quando non puoi esprimerlo in numeri, la tua conoscenza è povera e insoddisfacente".}
\end{quote}

Eseguire misure è vitale per una comprensione del mondo fisico nel quale viviamo. In tutte le branche delle scienze fisiche e ingegneristiche si ha costantemente da operare con dei numeri che derivano dalle osservazioni sperimentali.

Negli ultimi anni molte industrie, ma anche diversi governi, nell’ambito delle nazioni più progredite, stanno dedicando sempre maggiore attenzione alla scienza delle misure riconoscendone una notevole importanza nella formazione dei quadri dirigenti, per le implicazioni che essa ha nelle transazioni commerciali.

Esiste un'unità metodologica nella scienza delle misure, purtroppo si deve superare il ritardo causato dalla scarsa considerazione in cui si è tenuta questa realtà anche nel mondo accademico. Infatti, fino a non molto tempo fa si è ritenuto che ogni branca della tecnologia richiedesse l’esecuzione di misure specialistiche e che ogni specialista di quella branca fosse in grado di eseguirle, anche in assenza di conoscenze specifiche sui fondamenti della misurazione.

Le misure sono fondamentali per la \textsc{verifica di un modello}, di \textsc{una teoria}; se il modello o la teoria sono errati, ciò sarà rivelato dalle misure. Viceversa se la misura è errata, non si avrà conferma della validità o meno della teoria. È quindi necessario imparare a capire se una misura è stata o meno eseguita correttamente e può essere impiegata per i fini che si intendeva perseguire. Occorre un insegnamento propedeutico di base in cui si apprendano i fondamenti della misurazione prima di poter affrontare qualsiasi tipo di misura specialistica. I concetti fondamentali da apprendere riguardano i principi base della scienza delle misure, come l’\textsc{incertezza}, l’\textsc{analisi statistica dei dati}, l’\textsc{interpretazione dei risultati}, l'\textsc{affidabilità}, la \textsc{certificazione}, in specie quella di \textsc{qualità}, inoltre occorre imparare a conoscere la strumentazione di base che è essenzialmente di tipo numerico.

Per eseguire una misura ci si serve di opportuni strumenti costruiti in modo da rendere semplice l'esecuzione e facile la lettura. A questo scopo si sono molto diffusi in tutti i campi gli \textsc{strumenti elettrici, elettronici analogici e digitali}. In particolare negli ultimi trent'anni si è avuto uno straordinario impulso della strumentazione elettronica digitale, con la proliferazione di strumenti accurati, precisi, sensibili, dedicati, intelligenti ed esperti. Gli strumenti digitali sono estremamente flessibili e questo ha determinato una loro proliferazione e differenziazione. Inoltre l'avvento dei sensori intelligenti ha notevolmente e ulteriormente espanso il loro campo di applicazione. In Fig.~\ref{fig:1-1} è mostrato uno schema a blocchi semplificato di un generico strumento digitale singolo. Il primo elemento della catena di misura è un \textsc{sensore}, ovvero un elemento di un sistema di misura che è direttamente soggetto all’azione di un fenomeno, di corpi o di sostanze che trasmettono la grandezza da misurare. Come mostrato in figura il segnale in uscita al sensore è condizionato prima di essere inviato al convertitore analogico digitale (ADC) e a una memoria dalla quale poi sono trasmesse le informazioni al sistema di visualizzazione, il tutto operato in modo automatico tramite un sistema di controllo.
L’importanza di avere sensori precisi e accurati è aumentata con l’avvento di \textsc{IoT}
(\emph{Internet of Things}) un sistema di condivisione in rete non solo di \emph{software}, ma anche di dispositivi di misura.

Una misura deve iniziare con un’appropriata specificazione del \textsc{misurando}, del
metodo di misura e della procedura di misura. Per \textsc{misurando}\index{misurando} si intende una quantità soggetta a misura, valutata nello stato assunto dal sistema in osservazione durante la stessa misura.

Per \textsc{metodo di misura} s’intende la sequenza logica di operazioni, descritte in
modo generico, impiegate nell’esecuzione delle misure.

Per \textsc{procedura di misura} s’intende l’insieme di operazioni, descritte in modo specifico, utilizzate nell’esecuzione di particolari misure, in accordo a un metodo prefissato.

Con lo strumento di figura si esegue una misura con metodo diretto. Spesso una prova consiste nell'esecuzione di diverse \textsc{misure dirette}, ottenute mediante l'uso di specifici strumenti. Un metodo diretto di misura permette di ottenere il risultato della misura dalla lettura dello strumento senza necessità di conoscere esplicitamente valori di altri parametri, eccetto quelli delle grandezze d’influenza, che saranno esaminate nel capitolo terzo.

Molto più diffusi sono sistemi che prevedono ingressi analogici e digitali multipli. I sistemi di acquisizione dati hanno la peculiarità di facilità di adattamento al processo industriale da controllare. Si va sempre più affermando una nuova filosofia di misura che, partendo dal punto di vista classico di misurare solo una grandezza con uno strumento a ciò dedicato, si sta orientando verso un vero e proprio \textsc{sistema di misura} basato su un calcolatore in grado di elaborare una gran quantità di dati provenienti da più sensori. A volte dalla combinazione di risultati di misure dirette su parametri funzionalmente legati al misurando si risale, mediante l'esecuzione di calcoli, al risultato di una misura, in tal caso si parla di \textsc{misure indirette} o di metodo indiretto di misura.

\begin{figure}
\begin{tikzpicture}
[auto, thick, block/.style ={draw, rectangle, thick, rounded corners , minimum height=2em, text width=4em, text centered, node distance=1em}, line/.style={draw, thick, -stealth}]
\node[block] at (-1,0) (n1) {\textsc{Sensore}};
\node[block,text width=9em] at (2.5,0) (n2) {\textsc{Sistema di condizionamento del segnale}};
\node[block] at (6,0) (n3) {\textsc{ADC}};
\node[block,text width=5em] at (8.5,0) (n4) {\textsc{Memoria}};
\node[block,text width=7.5em] at (12,0) (n5) {\textsc{Visualizzatore numerico}};
\node[block,text width=7.5em] at (6,-3) (n6) {\textsc{Sistema di controllo}};
\path [line] (-2.5,0)--(n1);
\path [line] (n1)--(n2);
\path [line] (n2)--(n3);
\path [line] (n3)--(n4);
\path [line] (n4)--(n5);
\path [line] (n6)--(6,-1.5)-|(n1);
\path [line] (n6)--(6,-1.5)-|(n2);
\path [line] (n6)--(6,-1.5)-|(n3);
\path [line] (n6)--(6,-1.5)-|(n4);
\path [line] (n6)|-(6,-1.5)-|(n5);
\end{tikzpicture}
\caption{Schema semplificato di uno strumento digitale singolo}
\label{fig:1-1}
\end{figure}

Qualunque sia la strumentazione utilizzata, l'esecuzione corretta di una misura richiede sempre la conoscenza dell'unità di misura, della metodologia seguita e di alcune proprietà della variabile da misurare, oltre che esperienza da parte dell'operatore. L'operatore nel fornire il risultato della misura dovrà essere sicuro di aver operato correttamente ed esprimere in forma appropriata il numero, con le sue \textsc{cifre significative}.

\section{Errori e incertezza}
La \textsc{misurazione} è definita dal \textsc{VIM}\index{VIM} \emph{(International vocabulary of basic and general terms in metrology)} il processo per ottenere sperimentalmente uno o più valori che possono essere ragionevolmente attribuiti ad una grandezza. Essa richiede teoricamente un confronto tra una quantità incognita e una nota, assunta come \textsc{campione}\index{campione}. Nessun risultato di una misura è esente da incertezza. Quando si fornisce il risultato di una misura, occorre riportare un’indicazione quantitativa sulla qualità del risultato, in modo che gli utilizzatori possano valutarne la sua attendibilità. Senza tale indicazione è impossibile confrontare i risultati tra loro o con quelli forniti da uno strumento campione. È stato quindi necessario standardizzare una procedura per valutare ed esprimere la sua incertezza. L'\textsc{incertezza di misura} è il parametro, associato al risultato di una misura, che caratterizza la dispersione dei valori che potrebbero essere ragionevolmente attribuiti al \textsc{misurando}. Per misurando si intende una quantità soggetta a misura, valutata nello stato assunto dal sistema in osservazione durante la stessa misura. Le cause, facilmente intuibili, alle quali addebitare queste incertezze possono essere:
\begin{enumerate}
\item la imperfezione strutturale nei componenti degli strumenti utilizzati;
\item la inadeguatezza del campione di confronto;
\item la limitatezza della scala o del sistema numerico di visualizzazione dello strumento;
\item fretta o eccessiva sicumera da parte dell'operatore.
\end{enumerate}

D'altra parte il solo fatto di esser obbligati ad inserire uno strumento di misura in un sistema altera le condizioni iniziali del sistema stesso e non consente la misura del valore che il misurando assumeva prima dell'inserzione. Il processo di misura disturba il sistema e altera il valore delle quantità fisiche da misurare. L'entità del disturbo varia con il tipo di strumento usato per la misura. Lo studio dei mezzi per minimizzare questo disturbo è uno tra i principali scopi della scienza delle misure.

In letteratura si incontrano correntemente le dizioni di \textsc{valore vero} o \textsc{valore convenzionalmente vero}, \textsc{valore atteso} e \textsc{valore teorico} a significare il valore della grandezza che si tende a misurare. La scelta dell'una o dell'altra dizione o di dizione analoga è stata oggetto di discussioni e dispute filosofiche, che qui non è il caso di esaminare; si preferirà nel prosieguo far riferimento a quanto riportato nella \textsc{GUM}\index{GUM} \emph{“Guide to the expression of uncertainty in measurement”} dell’ISO (International Organization for Standardization) stampata nel 1993, corretta nel 1995, nel seguito indicata come “Guida”. La Norma europea ENV 13005 del 1999 recepisce l'articolato della GUM dell'ISO e nel luglio del 2000 è diventata norma italiana sperimentale UNI CEI ENV 13005 \emph{"Guida all'espressione dell'incertezza di misura"}. In tale Norma alla definizione di errore si afferma: ‘‘dato che un valore vero non si può determinare, in pratica si usa un valore convenzionale’’. In essa si afferma che scopo di una misura è di determinare il valore (non il valore vero) del misurando.

Oggi si assiste ad una netta distinzione tra un \textsc{approccio classico} (\emph{CA "Classical Approach"}) alla teoria della misurazione, contrapposto a quello \textsc{basato sull'incertezza} (\emph{UA "Uncertainty Approach"}). Questa contrapposizione sta creando, tra quanti si occupano di misurazioni, una pericolosa spaccatura, che vede da una parte i difensori del CA e dall'altra i sostenitori dell'UA. Si rischia, proseguendo così le cose, sia di non far progredire ed affermare i nuovi concetti metrologici, legati all'incertezza, sia di far perdere un prezioso patrimonio di conoscenze, basato sugli sviluppi che negli anni passati ha avuto la teoria degli errori. La teoria degli errori ha consentito lo sviluppo di nuove metodologie scientifiche ed il raggiungimento di eccellenti risultati in diversi campi del sapere. In particolare la tecnica di minimizzazione degli errori è uno strumento di indubbia utilità, che continua ad essere giustamente ancora molto usato in diversi settori della scienza e delle tecnologie.


\section{Errori e loro propagazione}\label{par:1-3}
Prima di eseguire una misura si può avere una \textsc{stima}\index{stima}, $A$, del valore del misurando. Questa stima $A$ può essere assunta come \textsc{valore convenzionalmente vero}\index{valore convenzionalmente vero} del misurando; la sua valutazione può derivare dalla disponibilità di un campione e dalla conoscenza del suo valore e della sua incertezza, o anche dalla definizione convenzionale a priori del valore del misurando, o dal valor medio di misure precedentemente eseguite con cura sullo stesso misurando, o da una indagine attraverso banche dati su risultati di misure eseguite da altri sullo stesso misurando, o da altri casi ancora.

Allo scopo anche di operare alcune possibili correzioni alle misure eseguite, è tradizionalmente risultato utile introdurre il concetto di \textsc{errore}\index{errore}. Gli errori di misura possono essere espressi come: \textsc{assoluto}, \textsc{relativo}, \textsc{percentuale}.

Nel caso specifico esaminato precedentemente, l'\textsc{errore assoluto}\index{errore!assoluto}, $E$, è definito come la differenza fra il valore misurato, $X$, e il valore di una grandezza di riferimento
$A$, assunta come valore convenzionalmente vero: \begin{equation}\label{eq:1-1}E=X-A\end{equation}
è evidente che essendo $A$ solo una stima del valore del misurando, l’errore $E$ è un concetto idealizzato e non può essere mai conosciuto esattamente, quindi la \textsc{correzione} non potrà mai essere completa.

Ne deriva che una misura sarà sempre affetta da incertezza. Occorre distinguere le parole “\textsc{errore}” e “\textsc{incertezza}”, che non sono assolutamente dei sinonimi, ma rappresentano concetti completamente differenti, come sarà chiarito in seguito. Essi non devono essere confusi l’uno con l’altro, né scambiati tra loro.

L'\textsc{errore relativo}\index{errore!relativo}, $e$, è definito come il rapporto tra l'errore assoluto, $E$, e il valore $A$: \begin{equation}\label{eq:1-2}e=\frac{X-A}{A}\cong\frac{E}{X}\end{equation}

L'\textsc{errore percentuale}\index{errore!percentuale}, $e_\%$, è definito come l'errore relativo, $e$, espresso in percento:
\begin{equation}\label{eq:1-3}
e_\%=\frac{X-A}{A}\cdot 100
\end{equation}

Si vuole ora esaminare come si \textsc{propagano gli errori } in \textsc{misure indirette}. La valutazione del modo in cui si propagano gli errori può risultare utile in una fase iniziale di scelta del metodo più corretto per l’esecuzione di una misura e non va confusa con la procedura necessaria all’indicazione del risultato finale di una misura indiretta, per cui occorre far riferimento alla propagazione dell’incertezza, che sarà esaminata in seguito.

Si consideri una grandezza $X= f(a,b,c,\dots)$ funzione di diverse grandezze misurabili: $a,b,c,\dots$. Gli errori da cui sono affette le misure di $a,b,c,\dots$ si propagano su $X$ e tale propagazione può essere studiata mediante semplici tecniche matematiche.

Nell'ipotesi che gli \textsc{errori} siano \textsc{sufficientemente piccoli} e che sia possibile confondere l'errore assoluto, dato dall'Eq.~\ref{eq:1-1}, con il differenziale totale della funzione X:
\begin{equation}\label{eq:1-4}
\diff X = \pderiv{f}{a}\diff a+\pderiv{f}{b}\diff b+\pderiv{f}{c}\diff c+\dots
\end{equation}
si può scrivere la seguente relazione tra l'errore assoluto sulla $X$, $E_x$, e quelli sulle grandezze misurabili, $E_a$, $E_b$, $E_c$, $\cdots$:
\begin{equation}\label{eq:1-5}
E_x = \pderiv{f}{a}E_a+\pderiv{f}{b}E_b+\pderiv{f}{c}E_c+\dots
\end{equation}

In base all'Eq.~\ref{eq:1-4} è facile esprimere l'errore relativo sulla $X$, in funzione degli errori relativi su $a,b,c,\dots$ : 
\begin{equation}\label{eq:1-6}
e_x = \frac{a}{X}\pderiv{f}{a}e_a+\frac{b}{X}\pderiv{f}{b}e_b+\frac{c}{X}\pderiv{f}{c}e_c+\dots
\end{equation}

La validità dell'Eq.~\ref{eq:1-6} può essere dimostrata con riferimento, ad esempio, al \textsc{prodotto di due grandezze}: $X=a b$. In base all'Eq.~\ref{eq:1-2} è possibile esprimere il valore del misurando della grandezza $X$ in funzione del suo errore relativo:
\begin{equation}\label{eq:1-7}A_x = X(1-e_x)\end{equation}

Considerando le espressioni dei valori dei misurandi delle grandezze misurabili, $a$ e $b$, in funzione degli errori relativi delle grandezze stesse, si ha: \begin{equation}\label{eq:1-8}
A_x = A_aA_b = a(1-e_a) b(1-e_b) = a b(1-e_a-e_b)\end{equation}
l'ultima uguaglianza deriva dal fatto che il prodotto $e_ae_b$ risulta trascurabile rispetto ai singoli fattori $e_a$ ed $e_b$. Dal confronto tra l'Eq.~\ref{eq:1-7} e l'Eq.~\ref{eq:1-8} si ottiene la seguente uguaglianza:
\begin{equation}\label{eq:1-9}e_x=e_a+e_b\end{equation}

Il risultato ottenuto può essere facilmente esteso ad altri casi analoghi. Ponendo $a=b$ si ha che l'\textsc{errore relativo su un quadrato} è due volte l'errore relativo sulla base. Se si considera $X$ grandezza misurata e $a$ grandezza incognita, si ha che l'\textsc{errore relativo su una radice quadrata} è la metà dell'errore relativo sul radicando. Inoltre l'\textsc{errore relativo su un prodotto di più fattori} è dato dalla somma degli errori relativi sui singoli fattori. Così l'\textsc{errore relativo su una potenza} con esponente n è pari a $n$ volte l'errore relativo sulla base, il che è valido per valori di $n$ sia positivi sia negativi. Applicando l'Eq.~\ref{eq:1-6}, ovvero il principio di sovrapposizione degli errori, al rapporto $X=a/b$, si ha:
\begin{equation}\label{eq:1-10}
e_x=\frac{a}{X b}e_a-\frac{b a}{X b^2}e_b=e_a-e_b
\end{equation}
dalla quale si ricava che l'\textsc{errore relativo su un rapporto}\index{errore!relativo su un rapporto} è dato dalla differenza degli errori relativi su dividendo e divisore. Poiché spesso accade in pratica che gli errori relativi non siano noti con esattezza in entità e segno, se ne fissano i limiti che delimitano la fascia di incertezza. Si preferisce quindi in genere fornire una stima del valore massimo dell'errore relativo, ponendosi nell'ipotesi del "caso peggiore" e sommando i moduli dei due errori relativi. Alternativo al criterio del \emph{"caso peggiore"} è quello del \emph{"valore più probabile"}, che consiste nel calcolo della radice quadrata della somma dei quadrati dei valori più grandi degli errori relativi: $\sqrt{(e_a^2+ e_b^2)}$. Questa quantità è maggiore di $e_a$ o di $e_b$, ma minore della loro somma.

Si consideri ora la \textsc{somma} di due grandezze $X=a+b$; dall'applicazione dell'Eq.~\ref{eq:1-6} si ha:
\begin{equation}\label{eq:1-11}
e_x=\frac{a\abs{e_a}+b\abs{e_b}}{a+b}
\end{equation}
questa uguaglianza diventa $e_x=e_a$ nel caso in cui $e_a=e_b$.

Infine si consideri la \textsc{differenza} di due grandezze $X=a-b$; dall'applicazione dell'Eq.~\ref{eq:1-6} si ha:
\begin{equation}\label{eq:1-12}
e_x=\frac{a e_a-b e_b}{a-b}
\end{equation}

L'Eq.~\ref{eq:1-12} si modifica nel caso in cui si applichi il criterio del caso peggiore nella seguente espressione:
\begin{equation}\label{eq:1-13}
e_x=\frac{a\abs{e_a}+b\abs{e_b}}{a-b}
\end{equation}
in base alla quale l'errore relativo su una grandezza ottenuta per differenza è tanto maggiore quanto più le grandezze misurabili $a$ e $b$ sono vicine tra loro. Ne risulta che un metodo di misura basato sulla differenza fra due grandezze misurabili va applicato solo in casi particolari.

\section{Classificazione degli errori e correzione}

Normalmente si distinguono due categorie di errori: accidentali e sistematici. A queste due categorie se ne può aggiungere una terza quella degli errori grossolani.

Gli \textsc{errori grossolani}\index{errore!grossolano} sono quelli addebitabili a imperizia dell'operatore o a sua distrazione. Essi possono derivare da letture errate o da un uso improprio degli strumenti, da trascrizioni non corrette dei dati sperimentali, da errori nell’elaborazione dei risultati. Questi errori sono assenti dagli esperimenti condotti con cura e attenzione: possono essere eliminati ripetendo l'esperimento.

Gli \textsc{errori non sistematici o accidentali}\index{errore!accidentale} , $E_a$, o \emph{“random”} sono quelli che permangono anche nell'ipotesi di essere riusciti a correggere tutti gli errori grossolani e sistematici. Gli errori accidentali si calcolano come la differenza tra il risultato di una misura e la media di una serie di misure ripetute. Essi sono l'insieme di un gran numero di effetti. Le cause degli errori accidentali sono prevalentemente imprevedibili fluttuazioni nelle condizioni operative, strumentali e ambientali. Gli errori accidentali possono essere analizzati statisticamente, in quanto si è trovato empiricamente che essi sono frequentemente distribuiti secondo leggi semplici. Se si ipotizza che le cause di errore agiscano in modo completamente aleatorio, esse determineranno scarti dal valore medio sia positivi sia negativi. Globalmente è da attendersi che gli effetti mediamente si annullino, ovvero il valore atteso degli errori accidentali è nullo. Quindi, al limite, se si sono corretti tutti gli errori sistematici e gli errori accidentali seguono leggi simili di variazione, \textsc{il valore del misurando tende alla media aritmetica di un numero molto elevato di osservazioni}. Quanto più piccoli risultano gli errori accidentali, tanto più si dice che la misura è precisa.

Gli \textsc{errori sistematici} sono quelli che si ripresentano sempre con lo stesso segno e la stessa ampiezza, ripetendo la misura di una grandezza con la stessa strumentazione quando siano immutate le condizioni operative e ambientali. Il VIM
definisce \textsc{errore sistematico} la componente dell’errore di misura che in misure ripetute resta costante o varia in modo prevedibile. Gli errori sistematici si calcolano attraverso la differenza tra il risultato della misura o il valor medio di una serie ripetuta di misure e una stima nota del valore del misurando o il valore convenzionalmente vero del misurando. Essi sono in genere dovuti ad una non corretta \textsc{taratura}\index{taratura} o a difetti degli strumenti. I difetti possono essere costruttivi, oppure derivare dall'avere sottoposto lo strumento a particolari condizioni o ambientali od operative. Particolarmente temibili sono \emph{elevate temperature, forti campi elettrostatici o elettromagnetici, sovraccarichi}. Gli errori strumentali possono essere ridotti attraverso una \textsc{regolazione}\index{regolazione} della curva di taratura dello strumento, usandolo in modo appropriato, maneggiandolo con cura e sottoponendolo a una frequente manutenzione. Gli errori sistematici dipendono anche dall'ambiente in cui si esegue la misura. Infatti variazioni di temperatura, la presenza di campi elettromagnetici possono influenzare in modo continuativo sia la strumentazione sia il misurando. In tal caso si asserisce che esiste una \textsc{interferenza} esterna sul sistema di misura e gli errori prendono il nome anche di \textsc{condizionati}. Gli errori sistematici sono difficili da valutare e solo un operatore esperto può prevenirli o correggerli. Essi possono rivestire maggiore importanza di quelli accidentali, in quanto essenzialmente da loro dipende l'accuratezza della misura. \emph{Mentre la riduzione degli errori accidentali consente di migliorare la precisione, quella degli errori sistematici permette di migliorare l'accuratezza}.

Per evidenziare la presenza e l'entità degli errori sistematici è utile confrontare i risultati utilizzando strumenti o metodi di misura più accurati. Si definisce \textsc{correzione}\index{correzione} il valore da aggiungere algebricamente al risultato non corretto di una misura per compensarne l’errore sistematico. Indicata con $C$ la correzione, pari al valore negativo dell’errore sistematico stimato, $E_S$:
\begin{equation}\label{eq:1-14}C=-E_S\end{equation}
una \emph{stima }corretta del valore del misurando si potrà ottenere dalla relazione: \begin{equation}\label{eq:1-15}A=X+C\end{equation}
poiché non possono essere noti perfettamente né l’errore sistematico, né quindi la correzione, la compensazione non può essere completa. Si definisce anche un \textsc{fattore di correzione} $C_F$, per il quale va moltiplicato il risultato, $X$, di una misura per compensare un errore sistematico. In tal caso l’Eq.~\ref{eq:1-15} si modifica nel modo seguente:
\begin{equation}\label{eq:1-16}A = C_FX\end{equation}
È ora opportuno sottolineare che l’incompleta conoscenza del valore richiesto per la correzione contribuisce all’incertezza del risultato e che il risultato della misura, dopo la correzione, è ancora solo una \textsc{stima} del valore del misurando a causa dell’incertezza, dovuta sia all’imperfetta correzione, sia alla presenza degli effetti accidentali. Dopo la correzione il risultato di una misura potrebbe essere molto vicino al valore del misurando, ovvero l’errore sistematico residuo potrebbe essere molto piccolo, ma l’incertezza di misura potrebbe essere molto grande, in quanto i fattori che la determinano (come per esempio l'incertezza sulla correzione effettuata) non vanno confusi con gli errori. Per dirla in altri termini, \emph{l’incertezza del risultato di una misura non va confusa con l’errore sistematico residuo non corretto}.

\section{Accuratezza e precisione}
Qualsiasi misura è soggetta a limitazioni, quando si fornisce il risultato di una misura è necessario dare anche un'indicazione sull'incertezza della misura stessa. In letteratura per qualificare la bontà di una misura si incontrano diversi termini, come quelli di \textsc{accuratezza}\index{accuratezza} e \textsc{precisione}, sui quali non si è pervenuti a una definizione univoca.

Molto spesso si usa un termine per l'altro, dando luogo a grande confusione. È bene quindi chiarire l'uso che di questi due termini si farà nel seguito. Si intenderà per \textsc{accuratezza}\index{accuratezza} il grado di approssimazione fra un valore di una grandezza misurata e il \textsc{valore convenzionalmente vero} di un misurando. In tal modo si riprende la definizione, riportata nella maggior parte dei testi in lingua inglese, di \emph{“accuracy”}, termine che molti traducono in lingua italiana con la parola \emph{“precisione”}, favorendo in tal modo la confusione. Le norme internazionali consigliano di considerare l’accuratezza come un concetto qualitativo e non quantitativo. Spesso però sui cataloghi e su alcuni testi si trova quantificata l’accuratezza. Si trova scritto o si sente dire che uno strumento presenta un'accuratezza dello $0,5\%$, il che, se preso alla lettera, starebbe a significare che lo strumento fornisce delle pessime prestazioni. Probabilmente invece si voleva far riferimento all'incertezza. Se così fosse, in modo del tutto qualitativo si dovrebbe dire semplicemente che lo strumento presenta un’ottima accuratezza.

La \textsc{precisione}\index{precisione} di una misura è intesa come il grado di approssimazione fra le indicazioni o i valori della grandezza misurata ottenuti da misure ripetute sullo stesso oggetto o su oggetti simili in condizioni specificate.

Il \textsc{VIM} riporta altri concetti simili come quelli di \textsc{ripetibilità} dei risultati delle misure e di \textsc{riproducibilità}. La precisione di una misura a volte è espressa numericamente attraverso l’\textsc{imprecisione}, quantificata mediante la deviazione standard (scarto tipo nella norma italiana) o la varianza o un coefficiente di variazione, calcolati in condizioni specificate delle misure ripetute. Il VIM associa al concetto di precisione quelli di ripetibilità e di riproducibilità dei risultati delle misure. Si definisce \textsc{ripetibilità}\index{ripetibilità} la precisione ottenuta operando in un insieme di condizioni ripetibili. Si intendono condizioni ripetibili quelle che comprendono misure eseguite sullo stesso oggetto o su oggetti simili in un breve periodo di tempo, nella stessa postazione e nelle stesse condizioni operative, seguendo la stessa procedura, impiegando gli stessi operatori e lo stesso sistema di misura. Si definisce inoltre \textsc{riproducibilità}\index{riproducibilità} la precisione ottenuta operando in un insieme di condizioni riproducibili. Si intendono condizioni riproducibili quelle che comprendono misure ripetute sullo stesso oggetto o su oggetti simili, in diverse postazioni, utilizzando diversi sistemi di misura che possono seguire anche procedure differenti, con l’impiego anche di vari operatori. Il VIM introduce  inoltre la definizione di \textsc{precisione intermedia}\index{precisione!intermedia} di misura, per cui le condizioni di misura includono la stessa procedura, la stessa postazione e misure  ripetute sullo stesso oggetto o su oggetti simili, in un periodo di tempo esteso, ma che possono includere altre condizioni, comprendenti anche variazioni, come nuove tarature, nuovi calibratori, nuovi operatori o nuovi sistemi di misura.

È bene chiarire che l'accuratezza e la precisione di una misura sono concetti qualitativi e si sono voluti distinguere per rimarcare, come sarà evidente in seguito, che una bassa incertezza di misura si può ottenere solo quando entrambe queste caratteristiche sono elevate.

Esse dipendono sia dalla qualità degli strumenti utilizzati, sia della cura esercitata dall'operatore nell'esecuzione della misura.

La precisione, in una visione estensiva, implica sia ripetibilità di una serie di misure, sia un sufficiente numero di \textsc{cifre significative}. Quanto maggiore è la precisione della misura tante più cifre significative la rappresentano e gli scarti tra le misure sono piccoli tra loro. Viceversa una misura non è precisa, anche se gli scarti tra più misure sono piccoli, quando sono poche le cifre significative che la rappresentano. Per esempio se si disponesse di uno strumento digitale che consentisse la lettura di sole due cifre della grandezza da misurare, si avrebbe una serie di misure probabilmente ripetibili, ma non precise.

Sorge ora il problema se una misura precisa è anche accurata e viceversa. Ebbene si può affermare che la precisione è un requisito auspicabile ma non sufficiente per assicurare accuratezza. Ovvero si auspica che una misura accurata sia anche precisa e rappresentabile con un sufficiente numero di cifre significative, ma una misura precisa non è detto che sia anche accurata. Infatti si ipotizzi di avere uno strumento digitale che permetta di leggere sei cifre della grandezza da misurare e inoltre di eseguire diverse misure abbastanza vicine tra loro. Si può affermare di avere eseguito una misura precisa, nell’ipotesi che più misure si scostino poco tra loro, ma non è detto che essa sia accurata, potendo lo strumento risultare non correttamente tarato o potendo aver perso le sue caratteristiche nel tempo a causa di degradazione di componenti o per motivi accidentali. In alcune applicazioni, come per esempio nel controllo di processo, spesso si richiede ripetibilità delle indicazioni, ovvero un’ottima precisione, che risulta più importante dell’accuratezza.

Per una semplice comprensione della differenza tra accuratezza e precisione spesso si fa riferimento al tiro con l’arco. Si pensi ad un bersaglio costituito da tante corone circolari attorno al cerchio centrale, che simula il misurando, mentre i tiri sono le misure. Quando si effettuano diversi tiri e le frecce si concentrano nel cerchio centrale le misure sono accurate e precise, se invece sono sparse su tutte le corone circolari, dalle più centrali alle più estreme, allora le misure non sono né accurate né precise. Può però capitare che le frecce, pur essendo distanti dal cerchio centrale, siano molto vicine tra loro, in tal caso le misure saranno precise, ma non accurate. Soffermiamoci su questa condizione. Le frecce vicine tra loro lasciano supporre buona abilità da parte del tiratore. Perché allora le frecce non sono finite nel cerchio centrale? Probabilmente a causa di un effetto sistematico dell’arco, per esempio di un non corretto allineamento del mirino (se l’arco ne dispone di uno) o della corda non tesa bene. Correggendo questi effetti sistematici, ovvero nel caso di uno strumento, effettuando una sua regolazione, si potranno avere tiri, ovvero risultati, precisi ed accurati. D’altra parte il costruttore dell’arco può anche aver evidenziato l’effetto sistematico nel foglio di accompagnamento dello strumento, indicando la correzione da apportare, in termini di scostamento del tiro dal cerchio centrale. L’arbitro della gara può allora accettare come validi i tiri, se riscontrasse che, una volta apportata la correzione, i tiri risulterebbero tutti nel cerchio centrale. Un’ultima condizione si può verificare quando il livello di accuratezza richiesto non è elevato e si ritengono accettabili i tiri all’interno non solo del cerchio centrale, ma anche della prima corona circolare vicina al cerchio centrale. Se le frecce sono sparse lungo la circonferenza della suddetta corona circolare, ma ne cadono all’interno, i tiri, ovvero i risultati, saranno accurati, ma non precisi. Questa condizione permette di chiarire un aspetto importante della sensoristica in campo industriale. Il fine del costruttore è certamente quello di realizzare sensori con le migliori prestazioni possibili, tenendo sempre in conto il bilancio costi benefici. Tutto sta ad intendersi su quali sono le prestazioni del sensore che lo rendono idoneo all’uso. Un sensore è idoneo quando rispetti la sua \textsc{classe di accuratezza} (quasi sempre nei testi italiani indicata come \textsc{classe di precisione}), indicata con un numero o un simbolo, ovvero soddisfi requisiti metrologici stabiliti, tesi a mantenere gli errori di misura o le incertezze strumentali entro limiti specificati in relazione a determinate condizioni operative. Quindi è importante che il sensore rispetti le specifiche indicate dalla normativa vigente per la particolare applicazione in cui esso sarà impiegato. Riprendendo la metafora del tiro con l’arco, l’arco sarà idoneo se assicurerà ai tiri di cadere nel cerchio centrale e nella prima corona ad esso adiacente, quando questo è previsto dal regolamento della gara. È inutile perfezionare l’arco perché i tiri cadano nel cerchio centrale, specie se ciò comporta una spesa aggiuntiva. Tale perfezionamento sarà necessario solo se il regolamento della gara riterrà validi solo i tiri che raggiungono il cerchio centrale. Non va sottaciuta a questo punto la necessità di abilità, che deriva dall’esperienza, da parte del tiratore. Un arco idoneo nelle mani di un inesperto non fornirà risultati soddisfacenti. Un sensore nelle mani di chi non lo sa usare serve a molto poco. Per passare da indicazioni prevalentemente qualitative sulla bontà di una misura, ottenibili attraverso l’accuratezza e la precisione, a rappresentazioni quantitative del risultato di una misura, occorre quantificare l’incertezza che è un parametro sia qualitativo sia quantitativo.

La definizione dell'\textsc{incertezza}\index{incertezza} presuppone l’esistenza del misurando all'interno di una fascia di valori, che dipende da una deviazione standard, stabilita in base ad un ben preciso livello di confidenza. Ne deriva chiaramente che l’analisi dell'incertezza richiede semplicemente il ricorso ai principi noti della probabilità e della statistica. L’abbandono dell’approccio deterministico rende superata e inutile la definizione di valore vero del misurando, che è un'entità inconoscibile, ma rende più difficile la comprensione di come migliorare l’accuratezza di una misura. Infatti per accuratezza si intende il grado di concordanza tra il risultato di una misurazione e il valore convenzionalmente vero del misurando.

Normalmente si parte dal concetto di accuratezza per introdurre la taratura di uno strumento e per far comprendere che ottenere una misura precisa, ovvero ripetibile non fornisce assicurazioni sulla bontà della misurazione e dello strumento, se non è stata regolata recentemente la sua curva di taratura e se la misura non è stata corretta, ovvero depurata dagli errori sistematici. 

Si è detto in precedenza che l’incertezza del risultato di una misura riflette la mancanza dell’esatta conoscenza del valore del misurando e si è anche sottolineato che il risultato di una misura dopo la correzione è solo una stima del valore del misurando. Per poter quantificare l’incertezza occorre introdurre alcuni semplici concetti di statistica, che sono esaminati nei successivi paragrafi.

\section{Taratura o calibrazione}
Per stabilire in modo compiuto il valore del segnale di uscita di uno strumento di misura, di un sensore, in condizioni di regime stazionario del misurando occorre che sia nota una serie di parametri che definiscono le caratteristiche metrologiche in regime permanente. La più importante fra queste caratteristiche è la curva di taratura o calibrazione. Purtroppo spesso si fa confusione tra taratura e regolazione della
caratteristica, per cui nel seguito si cercherà di chiarire la loro differenza. Per \textsc{taratura} o \textsc{calibrazione} si intende l’operazione che, in condizioni specificate, in una prima fase stabilisce una relazione tra i valori della grandezza misurata con dei campioni di misura (tenendo conto delle loro incertezze di misura) e le corrispondenti indicazioni dello strumento o del sensore, con associate le sue incertezze strumentali, e in una seconda fase utilizza questa informazione per stabilire una relazione, che consenta di ottenere il risultato di misura da un’indicazione dello strumento. Attraverso la taratura si determina l’\textsc{incertezza strumentale dello strumento o del sensore}\index{incertezza!strumentale}, valutata in genere come semi ampiezza dell’intervallo di massimo scostamento tra i valori del misurando corrispondenti ad una stessa indicazione dello strumento o del sensore. Perché la taratura sia effettuata correttamente l’incertezza strumentale deve essere grande in confronto con le incertezze di misura associate ai valori della grandezza ottenuti dai campioni di misura. Il costruttore è tenuto ad indicare le \textsc{condizioni operative di riferimento} definite come quelle prescritte per la valutazione delle prestazioni del dispositivo o per il confronto dei risultati di misura. La specifica delle condizioni operative durante la taratura richiede che siano forniti gli intervalli dei valori sia del misurando sia delle grandezze d’influenza.

L’espressione grafica, per esempio su un piano cartesiano, della relazione tra l’indicazione dello strumento, posta su un asse, e il corrispondente risultato di misura, posto sull’altro asse, è definita come \textsc{diagramma di taratura}\index{taratura!diagramma di}. In genere ad una stessa indicazione dello strumento corrispondono diversi valori della grandezza misurata, i cui valori limite superiori ed inferiori definiscono la \textsc{fascia d’incertezza} (a volte erroneamente denominata banda d’errore) e permettono la valutazione dell’incertezza strumentale dello strumento. Per eseguire la taratura si deve disporre di un generatore variabile del misurando, in grado di fornire valori in tutto il campo di misura del dispositivo, e di uno strumento di misura, assunto come campione e, quindi, con un’incertezza strumentale molto minore di quella del dispositivo in prova. Si fa variare il misurando entro tutto il campo di misura del dispositivo e si ripete il ciclo diverse volte, registrando su un grafico e in una tabella per ogni indicazione del dispositivo la corrispondente misura fornita dallo strumento assunto come campione. Per facilitare la raccolta dei dati si possono fissare in genere da otto a dodici valori dell’indicazione del dispositivo e si opera sul generatore variabile finché non si abbiano quelle indicazioni in uscita al dispositivo, in corrispondenza delle quali si registrano le misure fornite dallo strumento campione. Si eviti di fissare, in modo alternativo, i valori del misurando e di registrare le corrispondenti indicazione del dispositivo, in quanto queste hanno meno cifre significative dello strumento campione. Raccordando i punti superiori del grafico, in corrispondenza delle diverse indicazioni del dispositivo precedentemente fissate, e i punti inferiori, si delineano due curve che delimitano la fascia d’incertezza. All’interno di tale fascia d’incertezza si può ricavare una relazione biunivoca, in modo tale che ad una indicazione del dispositivo corrisponda uno ed un sol valore della grandezza misurata, generalmente il valor medio fra quelli relativi ad ogni singola indicazione del dispositivo.

Questa curva è definita \textsc{curva di taratura}\index{taratura!curva di} e non dà indicazioni sull’incertezza. Pertanto quando si fornisce la curva di taratura ad essa va associata l’incertezza strumentale del dispositivo o una tabella di taratura o una serie di funzioni che consentano di delimitare la fascia d’incertezza. In realtà l’utente è interessato principalmente a conoscere l’incertezza strumentale del dispositivo sull’intero campo di misura. Il costruttore quindi in genere fornisce semplicemente il valor massimo della semi ampiezza della fascia d’incertezza, esprimendo tale incertezza strumentale o in valore assoluto o in valori percentuali riferiti alla portata o valore di fondo scala (\% FSO). Il diagramma e la curva di taratura forniscono informazioni sul comportamento del dispositivo in condizioni di regime permanente. Quando la curva di taratura è riconducibile ad una retta, il dispositivo è caratterizzato da un’unica costante che lega ingresso e uscita, denominata \textsc{costante di taratura}\index{taratura!costante di} del dispositivo. 

Uno strumento e un sensore ideali presentano una relazione tra ingresso e uscita ben definita data da una curva di taratura teorica, che, come si è detto, può essere fornita dal costruttore in forma di equazione matematica, di grafico o di tabella di valori. La curva teorica ideale è quella rappresentata da una linea retta. Lo scostamento della curva reale da quella ideale è dovuto a varie cause di errore, le più frequenti fra le quali sono la non linearità, la deviazione dallo zero e le variazioni di sensibilità. La conoscenza degli effetti di queste cause di errore può consentire di effettuare la loro correzione mediante un’opportuna regolazione e quindi di aumentare la veridicità delle misure.

Si è detto che il legame $y=f(x)$ tra il misurando $x$ e l’indicazione dello strumento o sensore $y$ in condizioni di regime stazionario potrebbe essere rappresentato da una costante, condizione auspicabile, in quanto presupporrebbe una relazione lineare tra i segnali d’ingresso e di uscita, rendendo applicabile l’importante principio di sovrapposizione degli effetti. L’importanza di avere una relazione lineare tra misurando e indicazione è tale che, come sarà meglio evidenziato nel paragrafo successivo, spesso gli strumenti o semplicemente i sensori sono dotati di una serie di componenti aggiuntivi per la linearizzazione della caratteristica. Le relazioni fra i due segnali possono essere scritte nel modo seguente:
\begin{equation*}
y = k x \qquad x = k_t y
\end{equation*}

Il parametro $k$ è la \textsc{sensibilità}\index{sensibilità} definita come il rapporto tra la variazione dell’indicazione del dispositivo e la corrispondente variazione del valore della grandezza misurata. Essa è legata alla pendenza della curva di taratura. Uno strumento è tanto più pregiato quanto più è elevata la sua sensibilità, in quanto ciò implica che è sufficiente una piccola variazione del misurando per avere un’elevata indicazione facilmente misurabile. La sensibilità non va confusa con la \textsc{risoluzione}\index{risoluzione}, definita come la minima variazione del misurando che dà luogo a una variazione percettibile della corrispondente indicazione. La risoluzione può essere espressa come valore assoluto o percentuale, riferito alla massima indicazione (FSO) del sensore e in genere può avere diversi valori in differenti parti del campo di misura. Il VIM precisa che per la determinazione della sensibilità la variazione da dare al misurando deve essere superiore a quella che serve a valutare la risoluzione. La risoluzione, a sua volta è spesso confusa con la \textsc{banda morta} (termine molto diffuso tra i tecnici dell’industria), definita come l’intervallo massimo all’interno del quale si può far variare il misurando in entrambi i sensi senza che si produca una variazione rivelabile nella corrispondente indicazione dello strumento. La sensibilità non va neanche confusa con la \textsc{selettività}\index{selettività}, definita come la proprietà del dispositivo, impiegato in una specifica procedura di misura, nella quale esso fornisce i valori della grandezza da misurare, in presenza di uno o più misurandi, in modo tale che i valori di ogni misurando siano indipendenti dagli altri misurandi o da altre grandezze presenti nel fenomeno, nel corpo o nella sostanza oggetto dell’esame. Per esempio se il dispositivo è impiegato per misurare una sola componente di un segnale multifrequenziale, esso sarà tanto più selettivo quanto meno la sua indicazione sarà disturbata dalle altre componenti o da altri segnali a frequenza differente da quella che si vuole misurare.

Il parametro $k_t$ è la costante di taratura dello strumento o del solo sensore che è il rapporto tra il segnale di ingresso e il segnale di uscita in risposta all'ingresso. Essa è un parametro che ha dimensioni date dal rapporto delle unità di misura del misurando e di quella di uscita (per esempio nel caso di un sensore di spostamento con in uscita una tensione elettrica si ha che la costante di taratura è espressa in metri al volt o, con una dizione preferita a livello internazionale, metri per volt). La costante di taratura è il fattore per cui va moltiplicata l’indicazione dello strumento o del solo sensore al fine di ottenere il valore del misurando e che, in base alle relazioni precedentemente scritte, risulta l’inverso della sensibilità. Le relazioni scritte precedentemente presuppongono che la curva di taratura non solo sia una retta, ma che passi anche per l’origine degli assi cartesiani, caratterizzanti il piano $(x,y)$. Questa condizione non sempre si verifica a causa della presenza di soglie, grandezze note anche con il termine inglese molto diffuso di \emph{offset}. Il VIM definisce una \textsc{soglia di discriminazione}\index{soglia di discriminazione} come la più grande variazione del valore del misurando che non produce alcuna variazione rivelabile nella corrispondente indicazione dello strumento o del solo sensore. In realtà le oscillazioni della caratteristica intorno allo zero possono causare l’insorgere sia di una \textsc{soglia} sia di un’indicazione del sensore presente anche in assenza di segnale in ingresso, in alcuni testi inglesi indicato come piedistallo, che può essere sia positivo sia negativo. L’insorgere di una soglia di discriminazione può essere causato dalla \textsc{deriva strumentale} dello strumento o del solo sensore, ovvero da una variazione continua o incrementale nel tempo di un’indicazione, dovuta ad alcune variazioni nelle proprietà metrologiche dello strumento o del solo sensore.

Quando, come spesso accade, l’indicazione a esempio di un sensore è di natura elettrica è possibile controllare la deriva e correggere gli effetti sistematici dovuti agli \emph{offset}, riportando la curva di taratura del sensore a ripartire dall’origine. Questo aggiustamento rientra nella \textsc{regolazione}\index{regolazione} del sensore, definita come l’insieme di operazioni eseguite sul sensore in modo che esso fornisca le indicazioni prescritte corrispondenti a determinati valori del misurando. La regolazione non dovrebbe essere confusa con la taratura, che è un suo prerequisito, anzi a rigore, dopo la regolazione il sensore dovrebbe essere ritarato. Per effettuare la regolazione basterà aggiungere o sottrarre, mediante un dispositivo sommatore-sottrattore, in uscita al sensore una grandezza uguale ed opposta a quella di \emph{offset}, in modo da riportare la retta nella posizione iniziale. La \textsc{deriva strumentale} del sensore può causare non solo problemi di \emph{offset}, ma anche di variazioni della pendenza della retta con una conseguente modifica della costante di taratura. Per comprendere come effettuare la correzione di questo ulteriore effetto sistematico, si consideri la relazione $y = k x$. Quando l’indicazione del sensore è di natura elettrica il contributo prevalente alla sensibilità $k$ è dato dal guadagno di un amplificatore o di una catena di amplificatori, posti a valle del sensore. Sarà quindi sufficiente dotare tale catena di un amplificatore a guadagno variabile, in modo che con una sua opportuna regolazione si riporti il valore della pendenza della retta, ovvero della sensibilità e quindi della costante di taratura, che è il suo inverso, ai valori iniziali o nominali, indicati nelle specifiche del sensore.

Quando il campo nominale del sensore non comprenda lo zero, la regolazione, ovvero le correzioni da apportare in seguito alla deriva strumentale del sensore, risultano leggermente più complesse. In tal caso è necessario conoscere i valori limite del campo di misura e le corrispondenti indicazioni del sensore. Si indichino con $(x_ {\text{min}}, y_{\text{min}})$ e $(x_ {\text{max}}, y_{\text{max}})$ le coordinate dei punti relativi ai suddetti valori. Per apportare la correzione generalmente si applica all’ingresso del sensore il valore $x_{\text{min}}$ del misurando e si aggiunge o sottrae a monte dell’amplificatore una grandezza tale da render nullo il segnale in ingresso all’amplificatore e quindi l’indicazione del sensore. Con questa operazione si è fatta traslare la retta facendola passare per il punto di coordinate $(x_{\text{min}},0)$. All’ingresso dell’amplificatore si ha tensione nulla che non influenza il valore del suo guadagno. Poiché al valore del misurando $x_{\text{min}}$ deve corrispondere l’indicazione nota $y_ {\text{min}}$ del sensore, occorre attraverso un sommatore aggiungere in uscita all’amplificatore una tensione pari proprio a $y_ {\text{min}}$, in modo tale che al valore $x_ {\text{min}}$ del misurando corrisponda l’indicazione $y_{\text{min}}$ del sensore. A questo punto si applica al sensore un valore del misurando pari a $x_{\text{max}}$ e, agendo sull’amplificatore a guadagno variabile, si fa assumere alla retta la pendenza corrispondente alla sua costante di taratura nominale, condizione raggiunta quando la tensione in uscita all’amplificatore risulta pari a $y_{\text{max}}-y_{\text{min}}$, in modo tale che la corrispondente indicazione del sensore sia $y_{\text{max}}$, visto che all’uscita dell’amplificatore è sempre sommata una tensione pari a $y_{\text{min}}$. Quindi, anche in questo caso, impiegando due semplici sommatori-sottrattori, uno a monte e uno a valle dell’amplificatore, con una sola traslazione della caratteristica e una sola variazione del guadagno si sono apportate le correzioni necessarie a riportare il sensore all’interno delle sue specifiche. Al termine di queste operazioni il sensore è stato regolato. Quando queste operazioni sono effettuate automaticamente, si dice che il sensore è dotato della \textsc{funzione} di \textsc{autoregolazione}\index{autoregolazione}  della curva di taratura. Spesso questa operazione è detta impropriamente autotaratura. Poiché l’autoregolazione può essere eseguita frequentemente e allo scopo di non sollecitare indebitamente il sensore con il valore massimo del suo misurando si scelgono coppie di valori misurandoindicazione differenti da quelle limiti del campo nominale. Ciò presuppone che la caratteristica non si discosti da un andamento lineare, il che consente di considerare due punti qualsiasi, purché non troppo vicini tra loro, per le inevitabili incertezze che accompagnano tutti i processi di misura. 

Un altro effetto sistematico più difficile da correggere è rappresentato dall'\textsc{isteresi}\index{isteresi} che è la massima differenza tra le indicazioni dello strumento o del solo sensore corrispondenti al medesimo misurando quando la misura è eseguita procedendo per valori prima crescenti e poi decrescenti del misurando stesso nell’ambito del suo intervallo di misura. Essa dà luogo ad un errore sistematico in genere espresso in per cento del fondo scala, è presente in diversi componenti ed è causata da un ritardo nell’azione di un elemento. Valori diversi dell’isteresi si presentano al variare del campo di escursione del misurando. Essa è massima quando il misurando varia dall’inizio della scala fino al fondo scala e viceversa. Un errore analogo a quello causato dalla presenza dell’isteresi è quello di frizione, presente ad esempio nei potenziometri dove una spazzola scorre su delle spire. 

Al costruttore si richiede di assicurare la ripetibilità delle misure durante tutta la vita utile dello strumento o del solo sensore, quali che siano le grandezze d’influenza che su esso possano agire. La ripetibilità nel tempo è detta \textsc{stabilità}\index{stabilità}, definita come la proprietà dello strumento o del solo sensore di conservare le sue caratteristiche metrologiche costanti nel corso del tempo. Quanto più sarà stabile il dispositivo tanto minore sarà nel tempo il numero di regolazioni da apportare alla curva di taratura. Per ottenere la curva di taratura, una volta disponibile il diagramma di taratura, si possono utilizzare diversi algoritmi matematici, il metodo più utilizzato è quello dei minimi quadrati, noto anche con l’acronimo inglese LSM (\emph{least square method}), che sarà esaminato nell’ultimo paragrafo di questo capitolo. L’algoritmo LSM è ormai  disponibile non solo tra i pacchetti \emph{software} di statistica, ma anche nelle calcolatrici scientifiche tascabili. Si assume per ogni indicazione dello strumento o del solo sensore il valor medio fra quelli del misurando relativi alla suddetta indicazione. Operando in tal modo si ottengono tante coppie di coordinate, in numero $n$, quante sono le indicazioni del dispositivo prefissate in sede di taratura (come si è detto in precedenza, in genere si fissano da otto a dodici indicazioni), ottenendo altrettanti punti sperimentali sul piano cartesiano. Si inizia con il fissare come curva teorica una retta di equazioni $y=k_1 x+q$, dove $k_1$ è la sensibilità di misura e $q$ rappresenta il valore del possibile \emph{offset}. Per il calcolo dei due parametri $k_1$ e $q$, si applica l’LSM, minimizzando la somma degli scarti  quadratici fra i punti sperimentali sul piano cartesiano e la retta di equazione data, tale somma è definita \textsc{funzione obiettivo}, F. Si passa poi a fissare come curva teorica una  quadratica, per esempio del tipo $y=k_2 x^2+k_1 x+q$, e si applica nuovamente l’LSM. Se il minimo della nuova funzione obiettivo è inferiore a quello ottenuto per la retta vorrà dire che la funzione quadratica raccorda i punti sperimentali meglio di quanto non avvenga con la retta. Si passa quindi a fissare come curva teorica una cubica, per esempio del tipo $y=k_3 x^3+k_2 x^2+k_1 x+q$, e si applica nuovamente l’LSM. Se il minimo della nuova funzione obiettivo è inferiore a quello ottenuto per la funzione quadratica vorrà dire che la funzione cubica raccorda i punti sperimentali meglio di quanto non avvenga con le due curve precedenti. Il processo si ferma non appena la curva di taratura rientra all’interno della fascia di incertezza, specie se tale funzione è una retta, in quanto la caratteristica rettilinea è particolarmente apprezzata negli strumenti di misura. Si può anche verificare che lo scarto tipo o deviazione standard $\sigma$ della funzione obiettivo, calcolata come la radice quadrata della stessa funzione diviso per il numero n di punti sperimentali, $\sigma=(F/n)^{1/2}$, risulti minore della semi ampiezza del massimo scarto misurato sulla fascia d’incertezza, ovvero dell’incertezza strumentale del dispositivo. 

Quando si effettua la \textsc{verifica} della taratura si assume come curva teorica di riferimento per l’applicazione per esempio dell’LSM quella fornita dal costruttore. La verifica della taratura è positiva se l’ampiezza massima della fascia d’incertezza misurata è inferiore al doppio dell’incertezza strumentale indicata dal costruttore. Tra i dati della verifica che si forniscono vi è anche il massimo scarto tra la curva di taratura sperimentale ricavata e quella fornita dal costruttore. 

Quando la curva di riferimento è una retta si fornisce l’\textsc{errore di linearità}\index{errore!di linearità}, che è un’indicazione di quanto la curva di taratura si discosti dall'andamento rettilineo. A significare la sua rilevanza si fa presente che l’errore di linearità è una delle caratteristiche indicate dal costruttore nel foglio illustrativo o nel manuale di accompagnamento dello strumento o del sensore. L’errore di linearità, indicato molto spesso semplicemente come linearità, è espresso in funzione del valor massimo dello scostamento dei singoli punti della curva di taratura da una retta di riferimento opportunamente definita. 

Esistono tanti tipi di linearità quanti sono i modi di stabilire la retta di riferimento. La\textsc{ linearità riferita alla retta teorica} è relativa ad una retta di equazione $y=k x$, che passa per lo zero e per il punto che ha coordinate prefissate, senza alcun riferimento a valori misurati. Se queste coordinate corrispondono al cento per cento del fondo scala sia del misurando sia dell’indicazione dello strumento o del sensore, si ha la cosiddetta \textsc{linearità terminale}. La \textsc{linearità riferita agli estremi} è relativa alla retta che si ottiene congiungendo i punti estremi ottenuti durante la taratura dello strumento o del sensore.  In tal caso in genere si richiede che siano fornite le incertezze con cui sono stati ottenuti questi punti estremi. La \textsc{linearità indipendente} è riferita alla retta “migliore” ottenuta come linea media tra due rette parallele il più vicino possibile tra loro e in grado di avere al loro interno tutti i valori misurati nel corso della taratura. La \textsc{linearità secondo i minimi quadrati} fa riferimento alla retta ottenuta applicando il metodo dei minimi quadrati, ovvero minimizzando la somma dei quadrati degli scostamenti. Si trovano anche altri tipi di linearità ottenute imponendo il passaggio della retta da punti prefissati, come ad esempio quello corrispondente al misurando nullo (\textsc{linearità riferita allo zero}), ma quelle precedentemente esaminate sono le più utilizzate.

\section{Linearizzazione della curva di taratura}
Da quanto esposto precedentemente è evidente la rilevanza che assume la linearità
nella definizione delle caratteristiche dello strumento o del sensore. Con una funzione
lineare è possibile sia applicare il principio di sovrapposizione degli effetti, sia risalire al
valore del misurando dall’indicazione del dispositivo attraverso facili operazioni di
prodotti o divisioni e somme o sottrazioni, tutte disponibili in semplici strutture
elettroniche o nelle prestazioni di un elaboratore numerico. Purtroppo raramente la
funzione $y=f(x)$ che lega il misurando x all’indicazione y dello strumento o del sensore è
di tipo lineare. In molti casi, però, con opportuni accorgimenti è possibile ricondurre la
curva di taratura ad una retta o, per meglio dire, far rientrare una retta all’interno della
fascia d’incertezza e fornire l’errore di linearità in funzione dello scostamento massimo
tra tale retta e la reale curva di taratura. Si pensi, per fare semplici esempi, a funzioni
quadratiche o esponenziali, è possibile effettuare l’operazione descritta in zone limitate
delle curve rappresentative di tali funzioni. Ne scaturiscono due possibili soluzioni per la
linearizzazione o considerare un intervallo di misura limitato o linearizzare a tratti la
caratteristica, suddividendo il campo in tanti intervalli di misura ciascuno caratterizzato
da una diversa costante di taratura. Questa soluzione attualmente è la più adottata per
la facilità di realizzazione attraverso l’elaborazione numerica. Infatti, in genere molti
strumenti e sensori sono dotati di un sistema automatico di scelta della portata. Il
microprocessore in corrispondenza della portata scelta ricava il valore del misurando x
in genere da un’equazione del tipo $y=k x+q$, avendo memorizzati in corrispondenza di
quella portata i corrispondenti valori di $k$ e $q$.

Molti dispositivi hanno un segnale in uscita di tipo elettrico ed integrano al loro interno circuiti elettronici che presentano caratteristiche non lineari. Nei dispositivi integrati, molto spesso, per ridurre l’\textsc{errore di linearità} si utilizzano diverse soluzioni di tipo analogico che permettono la linearizzazione delle caratteristica stazionaria. Una tecnica molto semplice consiste nel porre un derivatore in parallelo o un resistore addizionale in serie al dispositivo o al componente non lineare all’interno di un trasduttore, in modo tale che, a parità di indicazione, circoli nel dispositivo o nel componente non lineare una corrente inferiore, nel caso di derivatore in parallelo, o superiore, nel caso di resistore in serie, rispetto a quella che circolerebbe in assenza della resistenza. La scelta del derivatore in parallelo è operata quando il componente presenta una buona linearità a bassi valori di corrente e la perde con il superamento di una soglia di corrente, condizione detta di saturazione. Si fa in modo che il derivatore assorba una corrente tale che nel campo di misura del dispositivo questo non raggiunga mai la condizione di saturazione. In genere quando si opera la linearizzazione con derivatore in parallelo i dispositivi sono schematizzati con un generatore equivalente di corrente. Nel caso si predisponga il sensore addizionale in serie al componente non lineare, la tecnica funziona a condizione che il segnale di uscita sia prelevato ai capi del resistore addizionale ed è analoga a quella impiegata per la linearizzazione della caratteristica di un diodo, come mostrato nella Fig.~\ref{fig:1-2}. La scelta del resistore addizionale in serie si opera quando, come nel caso del diodo, la non linearità del componente è relativa al primo tratto della caratteristica, per cui si fa in modo che la prima indicazione del dispositivo si abbia quando la corrente che in esso circola supera il valore da cui inizia la caratteristica lineare. In genere quando si opera la linearizzazione con resistore addizionale in serie i dispositivi sono schematizzati con un generatore equivalente di tensione.

In Fig~\ref{fig:1-2} è mostrato come l’inserimento del resistore di resistenza $R_{S1}$ migliora la linearità del diodo. Durante la semionda positiva il diodo $D_1$ non conduce e l’amperometro $A$, di resistenza interna $R_m$, sarà attraversato da una corrente caratterizzata solo dalle semionde positive, per effetto dell’azione raddrizzatrice del diodo $D_2$. Durante la semionda negativa il diodo $D_1$ conduce, in modo che ai capi del circuito a valle sia applicata una tensione trascurabile. Come risultato si ha che si riduce considerevolmente l'effetto della corrente inversa e inoltre non vi è possibilità di scarica del diodo $D_2$. Lo scopo del resistore addizionale $R_{S1}$ in serie al diodo è quello di far sì che durante la semionda positiva circoli nel diodo $D_2$ una corrente superiore rispetto a quella misurata dall'amperometro. In tal modo il diodo $D_2$ potrà operare in zona lineare della sua caratteristica, anche in corrispondenza di bassi valori di tensione e quindi di corrente. 

È bene evidenziare che la presenza del derivatore in parallelo o del resistore addizionale in serie degrada sia la risoluzione sia la sensibilità del dispositivo in quanto aumenterà la variazione del misurando che dia luogo a una variazione percettibile della corrispondente indicazione del dispositivo ed inoltre per avere la stessa variazione dell’indicazione del dispositivo, che si aveva prima dell’inserimento del resistore, occorrerà una maggiore variazione del valore della grandezza misurata. La resistenza del derivatore in parallelo o del resistore addizionale in serie deve essere scelta in modo da rendere piccolo l’errore di linearità rispetto all’incertezza strumentale del dispositivo senza che ciò comporti un degrado eccessivo della risoluzione e della sensibilità.

\begin{figure}[!ht]
\begin{center}
\begin{circuitikz}[european resistors]
\draw
 (0,0)	node[anchor=east] {b}
 		to[short, o-*]	(3,0)
 		to[D, l_=${D_1}$]		(3,4)
	 	to[R, l_=${R_S}$] (0,4)
		to[short, -o]	(0,4) node[anchor=east]{a}
 (3,4)	to[D, l_=${D_2}$]	(6,4)
	 	to[R, l_=${R_{S1}}$] (6,0)
	 	to[short,*-]		(8,0)
 		to[ammeter, l_=${R_m}$]	(8,4)
 		to[short,-*]		(6,4)
 (3,0) to [short,-*]	(6,0)
;
\end{circuitikz}
\end{center}
\caption{Linearizzazione della caratteristica di un diodo raddrizzatore}
\label{fig:1-2}
\end{figure}

Non va neanche sottaciuto che la tecnica analogica di linearizzazione esposta è applicabile quando, come nel caso del diodo, la caratteristica $y=f(x)$ presenta una concavità verso il basso. Nel caso la concavità fosse verso l’alto infatti occorrerebbe una resistenza negativa, che richiede il ricorso a circuiti elettronici più complessi di quelli rappresentati da un semplice resistore. Un altro sistema di linearizzazione della caratteristica con tecniche analogiche è quello di ricorrere a sistemi con controreazione negativa, infatti è noto che una controreazione negativa consente di limitare le distorsioni e di linearizzare la risposta. Anche in questo caso si ha una riduzione della sensibilità che è tanto più accentuata quanto maggiore è il fattore di reazione.

Molto spesso si impiegano blocchi analogici con caratteristica inversa a quella del dispositivo. Per esempio sono ampiamente impiegati amplificatori logaritmici con caratteristiche esponenziali. Un metodo più recente che si è molto diffuso negli smart sensor è quello di impiegare un convertitore analogico digitale, ADC, con caratteristica non lineare tale da compensare la non linearità del sensore, in questo modo la conversione e la linearizzazione sono effettuate contemporaneamente utilizzando un’unica unità fisica. Sono stati proposti al riguardo diversi schemi di conversione che in genere si basano sul principio di adattare la conversione alle caratteristiche non lineari del sensore. Un’altra tecnica è quella di realizzare un ADC con una caratteristica che a tratti approssimi la caratteristica inversa del sensore.

Come si è accennato inizialmente le tecniche che si vanno più diffondendo per la linearizzazione della caratteristica stazionaria dei dispositivi sono quelle di tipo numerico. La più semplice è realizzata col memorizzare in una ROM (\emph{read only memory}) la caratteristica inversa del dispositivo con associati gli errori di linearità e di indirizzare l’uscita dell’ADC in quella zona di memoria per apportare la correzione. Tecniche più evolute si basano su un approccio adattativo costituito da due fasi. La prima delle quali consiste nell’invertire la caratteristica del sensore e nel suddividerla in diversi tratti, a questo scopo è molto usato lo schema iterativo di \emph{Newton-Raphson}. La seconda fase consiste nella implementazione di un algoritmo iterativo in grado di migliorare con continuità la linearità dei tratti in cui è stata suddivisa la caratteristica inversa di uno strumento o del semplice sensore, utilizzando una procedura basata sulla minimizzazione dell’errore di linearità relativo ai diversi tratti. L’algoritmo inoltre aggiorna continuamente la tabella delle correzioni, rendendo trascurabile nei risultati forniti l’errore di linearità.

\section{Media polarizzazione e deviazione}\label{par:1-8}
Se si considera un insieme $X_i$ di $n$ misure, dove con $X_i$ si è indicato il risultato della i-esima misura, si definisce \textsc{media aritmetica}, $\overline{X}$, delle $n$ misure:
\begin{equation}\label{eq:1-17}
\overline{X}=\frac{1}{n}\sum_{i=1}^{n}{X_i}
\end{equation}

Nel calcolo della media a volte può essere conveniente attribuire maggiore rilievo a delle misure più attendibili o maggiormente significative. Allo scopo si moltiplica ciascuna misura per un appropriato fattore peso, $w_i$, e si divide la somma di questi prodotti per la somma dei fattori peso ottenendo una \textsc{media pesata} , $X_p$:
\begin{equation}\label{eq:1-18}
\overline{X_p}=\dfrac{\frac{1}{n}\sum_{i=1}^{n}{w_i X_i}}{\sum_{i=1}^{n}{w_i}}
\end{equation}

Si noti che l'Eq.~\ref{eq:1-18} coinciderebbe con l'Eq.~\ref{eq:1-17} nel caso in cui tutti i pesi fossero uguali. Si può utilizzare come i-esimo peso la quantità $1/2 u_i^2$, dove $u_i$ è l'incertezza relativa della i-esima misura.

In base alle considerazioni fatte sugli errori, prescindendo momentaneamente dall’incertezza di misura, indicati con $E_{si}$ e $E_{ai}$ gli errori sistematici e accidentali relativi alla i-esima misura, questa potrebbe essere scritta nel modo seguente:
\begin{equation}
X_i=A+E_{si}+E_{ai}
\end{equation}
che sostituita nell'Eq.~\ref{eq:1-17} consente di esprimere la media nella forma seguente:
\begin{equation}\label{eq:1-20}
\overline{X}=A+\frac{1}{n}\sum_{i=1}^{n}{E_{si}}+\frac{1}{n}\sum_{i=1}^{n}{E_{ai}}
\end{equation}

Gli errori accidentali $E_{ai}$ rappresentano una tipica variabile aleatoria con valor medio che si approssima a zero per $n$ che tende all'infinito.
Dall'Eq.~\ref{eq:1-20} si ricava quindi che la media aritmetica di un insieme di misure è una stima del valore del misurando, tanto migliore quanto maggiore è il numero di misure e quanto più sono stati corretti gli errori sistematici.
Si noti inoltre che l'Eq.~\ref{eq:1-20} si può esprimere anche nella forma:
\begin{equation}\label{eq:1-21}
\overline{X}-A=\frac{1}{n}\sum_{i=1}^{n}{E_{si}}
\end{equation}

La differenza fra il valor medio e la stima $A$ del misurando si definisce "\textsc{bias}", che ha una difficile traduzione in italiano, da alcuni è tradotto come \textsc{polarizzazione}, da altri \textsc{distorsione} ed è un indice dell'\textsc{inaccuratezza} di una misura. 

La polarizzazione rappresenta la media degli errori sistematici e sarà tanto più piccola, quanto migliori saranno le correzioni apportate alle misure. Essa è detta anche \textsc{errore sistematico} e con il segno meno rappresenta la \textsc{correzione} totale da apportare alle misure per migliorarne l’accuratezza. Tale correzione è sempre accompagnata da una propria incertezza.

La \textsc{dispersione} delle misure intorno al valor medio si può valutare introducendo la definizione di \textsc{deviazione} della misura $X_i$ come la seguente differenza:
\begin{equation}
d_i=X_i-\overline{X}
\end{equation}
essa è denominata anche \textsc{residuo} e a volte è definita come la somma tra $X_i$ e la media.

Per quantificare la dispersione dell'insieme delle misure si potrebbe pensare di valutare la media delle deviazioni, ma, in base alla definizione data di deviazione, la sua media è sempre zero:
\begin{equation}
\frac{1}{n}\sum_{i=1}^{n}d_i=\frac{1}{n}\sum_{i=1}^{n}(X_i-\overline{X})=\frac{1}{n}\sum_{i=1}^{n}X_i-\overline{X}=0
\end{equation}
e quindi non può essere un indice della dispersione. Si può ovviare a ciò considerando la \textsc{deviazione media} come la media dei valori assoluti delle deviazioni:
\begin{equation}
\alpha=\frac{1}{n}\sum_{i=1}^{n}\abs{d_i}=\frac{1}{n}\sum_{i=1}^{n}\abs{(X_i-\overline{X})}
\end{equation}
anche se non utilizzata tanto quanto la deviazione standard.

\section{Deviazione standard, varianza e momento centrale}
La più importante misura della dispersione è la \textsc{deviazione standard}\index{deviazione standard}, normalmente indicata con $\sigma$. La deviazione standard del campione di dati in esame è definita in termini dei quadrati delle deviazioni della media nel modo seguente:
\begin{equation}\label{eq:1-25}
\sigma\cong\sqrt{\frac{1}{n}\sum_{i=1}^{n}{d_i}^2}=\sqrt{\frac{1}{n}\sum_{i=1}^{n}(X_i-\overline{X})^2}
\end{equation}
Si definisce invece come \textsc{varianza}\index{varianza} del campione delle misure il quadrato della deviazione standard, ovvero la somma delle deviazioni quadratiche delle misure dal loro valor medio diviso per il numero delle misure:
\begin{equation}\label{eq:1-26}
\sigma^2\cong\frac{1}{n}\sum_{i=1}^{n}{d_i}^2=\frac{1}{n}\sum_{i=1}^{n}(X_i-\overline{X})^2
\end{equation}
la presenza del segno di all’incirca uguale presente nelle Eq.~\ref{eq:1-25} e Eq.~\ref{eq:1-26} deriva dal fatto che la varianza di un campione di una popolazione così come la deviazione standard, definite dalle precedenti equazioni, rappresentano stime distorte dei loro valori attesi. Infatti il \textsc{numero di deviazioni indipendenti} ovvero il \textsc{grado di libertà}\index{grado di libertà} non è $\nu=n$ bensì $\nu=n-1$, in quanto per il calcolo della deviazione standard e della varianza occorre valutare la media, servendosi dello stesso insieme di dati. I gradi di libertà di una variabile aleatoria o di una statistica in genere, esprimono il numero di dati effettivamente disponibili per valutare la quantità d'informazione contenuta nella statistica. Infatti, quando un dato non è indipendente, l'informazione che esso fornisce è già contenuta implicitamente negli altri. È possibile quindi calcolare le statistiche utilizzando soltanto il numero di osservazioni indipendenti, consentendo in questo modo di ottenere stime non distorte dei risultati. Il concetto di gradi libertà fu introdotto in statistica da \emph{Ronald Fisher} negli anni 1920. Stime non distorte della deviazione standard e della varianza sono date dalle seguenti espressioni:
\begin{equation}\label{eq:1-27}
s=\sqrt{\frac{1}{n}\sum_{i=1}^{n}(X_i-\overline{X})^2} \end{equation}
\begin{equation}\label{eq:1-28}
s^2=\frac{1}{n}\sum_{i=1}^{n}(X_i-\overline{X})^2
\end{equation}

Esse sono note anche come \textsc{stime corrette di Bessel}. La sostituzione di $n$ con $n-1$ non ha importanza pratica, in quanto, per avere una buona precisione, $n$ deve essere abbastanza grande, come in genere accade. È bene sottolineare, in base all'Eq.~\ref{eq:1-27}, che sia la deviazione standard sia la varianza decrescono al ridursi degli errori accidentali, il che chiarisce l'importanza dell'approccio statistico per la minimizzazione di questi errori e per ridurre l'incertezza La varianza è anche comunemente indicata come \textsc{scarto quadratico medio}. Si definisce \textsc{momento centrale}\index{momento centrale} di ordine $q$ la media aritmetica della potenza q-esima della differenza tra i valori misurati e la loro media:
\begin{equation}\label{eq:1-29}
\frac{1}{n}\sum_{i=1}^{n}(X_i-\overline{X})^q
\end{equation}

È evidente in base alle equazioni precedenti che il momento centrale di ordine 1 è uguale a zero e che la varianza di un campione di misure è il momento centrale di ordine 2 del campione stesso.

\section{Concetti di frequenza e di probabilità}
La comprensione di un fenomeno fisico può essere facilitata da un esame visivo dei risultati di misure ripetute di una grandezza o più in generale di dati statistici. Sorge il problema sul modo migliore di rappresentare graficamente i dati disponibili. Un ausilio può rivenire dalla \textsc{frequenza}\index{frequenza}, $F_i$, delle misure, ovvero dal numero di volte che si ripete la generica misura $X_i$ delle $n$ eseguite. Si definisce inoltre, \textsc{frequenza relativa}\index{frequenza!relativa}, $f_i$, la frequenza, $F_i$, divisa per il numero $n$ di prove eseguite. Nel caso in cui tutte le misure fossero diverse le une dalle altre, la frequenza relativa risulterebbe uguale per tutte e pari a $1/n$. Ad evitare ciò è preferibile raggruppare le misure in $k$ gruppi o classi. La frequenza relativa è allora rappresentata dal numero di misure che cadono in ogni classe, diviso per $n$. In un \textsc{istogramma} la frequenza relativa rappresenta l'area di un generico intervallino, in quanto si assume unitaria l'ampiezza delle singole classi in cui sono suddivise le misure, come mostrato in Fig.~\ref{fig:1-3}. Inoltre l'area sottesa dall'istogramma è unitaria, in quanto la somma di tutte le frequenze relative è l'unità:
\begin{equation}\label{eq:1-30}
\sum_{i=1}^{k}{f_i}=\frac{1}{n}\sum_{i=1}^{k}n_i=1
\end{equation}
dove con $n_i$ si è indicato il numero di risultati che cadono nella generica classe o intervallino $\Delta X_i =(X_{max} - X_{min})/K$, dove con $X_{max}$ e $X_{min}$ si sono indicati rispettivamente i valori massimo e minimo dell’insieme dei risultati e con $k$ il numero di classi. Nel caso sia difficile porre uguale ad $1 \Delta X$, si definisce una frequenza specifica data da $f_i$ diviso per l’ampiezza dell’i-esimo intervallino, in modo che $f_i$ sia sempre uguale all’area dell’i-esimo rettangolo costituente l’istogramma. L'istogramma di Fig.~\ref{fig:1-3} si modifica in quello di Fig.~\ref{fig:1-4}, nel caso in cui i risultati delle n prove si ripetano singolarmente, come avviene, per esempio, quando si considerino i risultati del lancio di due dadi (intero compreso tra due e dodici). La media degli eventi è ottenibile dalla somma dei prodotti fra i risultati delle prove e il numero delle volte che essi possono verificarsi, $n_i=n f_i$, diviso per il numero delle prove eseguite, pari a $n$:
\begin{equation}\label{eq:1-31}
\overline{X}=\frac{1}{n}\sum_{i=1}^{k}{X_{ic}n f_i}=\sum_{i=1}^{k}{X_{ic}f_i}
\end{equation}
dove $X_{ic}$ è il valor medio delle misure nell'intervallino $\Delta X_i$. La media risulta pertanto indipendente dal numero $n$ di prove eseguite. In base all'Eq.~\ref{eq:1-31} si può affermare che la media di una serie di eventi ripetibili è una media pesata i cui pesi sono rappresentati dalle frequenze relative $f_i$. Nel caso in cui i risultati siano raggruppati in \textsc{classi}, si assumerà per $X_{ic}$, da porre nell'Eq.~\ref{eq:1-29}, come si è detto il valor medio dei risultati relativi alla generica classe o intervallino $\Delta X_i$. La \textsc{deviazione media}, la \textsc{deviazione standard} e la \textsc{varianza} assumono le seguenti espressioni:
\begin{equation}
\alpha\cong\sum_{i}f_i\abs{X_{ic}-\overline{X}} \qquad \sigma\cong\sqrt{\sum_{i=1}^{k}f_i(X_{ic}-\overline{X})^2}  \qquad \sigma^2\cong\sum_{i=1}^{k}f_i(X_{ic}-\overline{X})^2
\label{eq:1-32}
\end{equation}

In genere le frequenze relative variano con il numero delle prove eseguite e tendono ad assumere valori sempre più stabili quanto più $n$ aumenta, fino ad un valore limite ben definito detto \textsc{probabilità} dell'evento.

Indicato con $X$ un evento qualsiasi dell'insieme $S$ di eventi aleatori, la probabilità che si verifichi l'evento $X$ è sempre compresa tra $0$ e $1$. La probabilità di tutti gli eventi è
la certezza:
\begin{equation}\label{eq:1-33}
0<\Pr(X)<1 \qquad \Pr(S)=1
\end{equation}
In genere se $p_r$ è la probabilità che l'evento $X$ assuma il risultato $x_r$ si scriverà:
\[p_r=\Pr(X=x_r)\]
\begin{figure}[!ht]
\begin{center}
\begin{tikzpicture}
\begin{axis} [xlabel={$x$},ylabel={$f_i$},ybar,ymin=0,xtick=data,xticklabels={,,,,$\Delta x$,,},yticklabels={},xtick={},axis lines=middle,enlargelimits,x tick label style={anchor=east}
]
\addplot
[ybar interval,draw=black] coordinates
{(1, 16) (2, 31)
(3, 64) (4, 132)
(5, 266) (6, 334)
(7, 248) (8, 144)
(9, 64) (10, 24)(11, 14)};
\end{axis}
\end{tikzpicture}
\end{center}
\caption{Istogramma dei risultati di una prova}
\label{fig:1-3}
\end{figure}
\begin{figure}[!ht]
\begin{center}
\begin{tikzpicture}
\begin{axis} [xlabel={$x$},ylabel={$f_i$},xtick={2,3,4,5,6,7,8,9,10,11,12},axis lines=middle,xmin=1,xmax=13]
\addplot
[ycomb,draw=black] coordinates
{ (1,0)(2, 1) (3, 2) (4, 3) (5, 4) (6, 5) (7,6) (8,5) (9,4) (10,3) (11,2) (12,1)};
\end{axis}
\end{tikzpicture}
\end{center}
\caption{Probabilità relative al lancio di una prova di due}
\label{fig:1-4}
\end{figure}

Si consideri ora la variabile discreta $x_i$ e siano $p_i$ le corrispondenti probabilità, per cui $\Pr(X=x_i)=p_i$. Si definisce \textsc{funzione di probabilità di massa}\index{funzione!probabilità di massa} di $X$ la seguente funzione:
\begin{equation}\label{eq:1-34}
p(x)=
\begin{cases}
p_i & \text{quando } x=x_i, \quad (i=1,\dots,n) \\
0, & \text{altrove}
\end{cases}
\end{equation}
per cui risulta in base alla seconda dell'Eq.~\ref{eq:1-33}:
\begin{equation}\label{eq:1-35}
\sum_{i=1}^{\infty}{p(x_i)=1}
\end{equation}

In Tabella~\ref{tab:1-1} sono riportate le probabilità relative ai risultati del lancio di due dadi. Si può verificare facilmente che la somma di tutte le probabilità è pari ad 1.

\begin{table}[!ht]
\begin{center}
\begin{tabular}{ccc}
$x$ & $p_i$ & $x_{p_i}$ \\
\hline
2 & $1/36$ & $1/18$ \\
3 & $1/18$ & $3/18$ \\
4 & $1/12$ & $1/3$ \\
5 & $1/9$ & $5/9$ \\
6 & $5/36$ & $5/6$ \\
7 & $1/6$ & $7/6$ \\
8 & $5/36$ & $10/9$ \\
9 & $1/9$ & $1$ \\
10 & $1/12$ & $5/6$ \\
11 & $1/18$ & $11/18$ \\
12 & $1/36$ & $1/3$
\end{tabular}
\end{center}
\caption{Probabilità del lancio di due dadi}
\label{tab:1-1}
\end{table}

\section{Leggi di distribuzione di probabilità}
Per introdurre il concetto di \textsc{distribuzione di probabilità}\index{probabilità!distribuzione} si consideri una serie di prove molto estesa, i cui risultati numerici siano rappresentati dall'insieme $x_i$ di $n$ elementi. Esisterà una certa probabilità $\Pr(X\leq x)$, tale che la variabile $X$, non necessariamente discreta, assuma qualsiasi valore più piccolo o uguale a $x$. Questa funzione prende il nome di \textsc{funzione di distribuzione cumulativa}\index{funzione!di distribuzione cumulativa} della variabile $X$ e sarà indicata nel seguito con $F(x)$:
\begin{equation}
F(x)=\Pr(X\leq x)
\end{equation}
Se ora si considerano due numeri reali $a$ e $b$ si avrà:
\begin{equation}
\Pr(a<X\leq b)=P(X\leq b)-P(X\leq a)=F(b)-F(a)
\end{equation}
Si ipotizzi ora che $X$ sia una variabile aleatoria continua, in tal caso è necessario introdurre una nuova funzione, la densità della distribuzione di probabilità o, brevemente, \textsc{funzione densità di probabilità}\index{funzione!densità di probabilità}, definita come la derivata della funzione di distribuzione: $p(x)=\diff F(x)/ \diff x$, per cui:
\begin{equation}
F(x)=\intd{-\infty}{x}{p(x)}{x}
\label{eq:1-37}
\end{equation}
la funzione densità di probabilità è indicata a volte anche con $f(x)$. In base all'Eq.~\ref{eq:1-37} si ha: 
\begin{equation}
F(x)=\intd{-\infty}{+\infty}{p(x)}{x}=1
\label{eq:1-39}
\end{equation}
Se è soddisfatta l'Eq.~\ref{eq:1-39} si dice che la funzione $p(x)$ è normalizzata. Nota la $p(x)$ è possibile calcolare ad esempio la probabilità che $x$ cada nell'intervallo $(x, x+\Delta x)$ mediante il seguente integrale:
\begin{equation}
\Pr(x< X < x+\Delta x)=F(x+\Delta x)-F(x)=\intd{x}{x+\Delta x}{p(x)}{x}
\label{eq:1-40}
\end{equation}
la probabilità è uguale all'area sottesa dalla curva della densità $p(x)$ compresa tra $x$ e
$x+ \Delta x$.

La funzione densità di probabilità, se nota a priori completamente o parzialmente, può essere utilizzata per migliorare la precisione della misura e anche per ridurre l'incertezza.

Essa è stata considerata una funzione continua, in cui la variabile $x$ può assumere tutti i valori nel campo $[-\infty,+\infty]$, il che contrasta con il campione limitato da cui si è partiti.

In realtà un numero finito di osservazioni può essere considerato solo un
\textsc{campione di un insieme} infinito che presenta una certa funzione densità di probabilità. L'istogramma delle probabilità di occorrenza degli eventi relativi al campione è una approssimazione della curva $p(x)$ e il grado di approssimazione dipende dal numero di prove e dall'ampiezza in cui i risultati sono raggruppati.

Per distinguere i risultati ottenuti con un piccolo numero di prove da quelli relativi ad un numero molto grande, si usa considerare i risultati derivanti da un numero limitato di prove come una \textsc{stima} di queste funzioni.
In termini statistici il \textsc{valore atteso}, o \textsc{speranza matematica}, o semplicemente l’\textsc{aspettazione}, o la \textsc{media statistica} di una variabile aleatoria discreta $\{x_i\}$ si esprime simbolicamente come $E[x_i]$. A tale funzione si applicano le stesse proprietà della  sommatoria per le variabili discrete e dell'integrale per le variabili continue:
\begin{equation}
\mu_x=E[X]=\sum_{i=1}^{k}{p_i x_i}
\label{eq:1-41}
\end{equation}
la grandezza $\mu_x$ prende anche il nome di \textsc{media della distribuzione}\index{distribuzione!media} della variabile aleatoria. Nel caso di variabili aleatorie continue qualora sia nota la funzione densità di probabilità $p(x)$ della variabile continua $X$, l’aspettazione se esiste è:
\begin{equation}
\mu_x=E[X]=\intd{-\infty}{+\infty}{x p(x)}{x}
\label{eq:1-42}
\end{equation}
la deviazione media, la deviazione standard e la varianza della distribuzione assumono le seguenti espressioni:

\begin{eqnarray}
\alpha=\intd{-\infty}{+\infty}{\abs{x-\mu}p(x)}{x} \\ \sigma=\sqrt{\intd{-\infty}{+\infty}{(x-\mu)^2p(x)}{x}} \\ \sigma^2=\intd{-\infty}{+\infty}{(x-\mu)^2p(x)}{x} 
\label{eq:1-43}
\end{eqnarray}


Si noti quindi che per il calcolo delle aspettazioni è necessario conoscere, per variabili aleatorie discrete, la funzione di probabilità di massa, per variabili aleatorie continue, la funzione densità di probabilità. Si è detto che la \textsc{media aritmetica} rappresenta una \textsc{stima} del valore del misurando quando siano stati corretti gli errori sistematici correggibili. È bene precisare che mentre la media aritmetica è una stima dell’aspettazione $\mu$ la grandezza $A$, che compare nell’Eq.~\ref{eq:1-1}, è una stima dell’aspettazione del misurando.

\section{Distribuzione uniforme}
Si consideri un intervallo $(a,b)$ della variabile aleatoria $X$, si dice che la funzione di
distribuzione è uniforme se la probabilità $\Pr(X\leq x)$ aumenta in modo uniforme al
crescere di $x$ tra $a$ e $b$:
\begin{equation}
F(X)=\begin{cases}
0 & x<a \\
\dfrac{x-a}{b-a} & a<x\leq b \\
1 & x>b
\end{cases}
\label{eq:1-44}
\end{equation}
E presenta quindi una funzione densità di probabilità data da:
\begin{equation}
p(X)=\begin{cases}
0 & x<a \\
\dfrac{1}{b-a} & a<x\leq b \\
1 & x>b
\end{cases}
\label{eq:1-45}
\end{equation}

In Fig.~\ref{fig:1-5} è riportato l'andamento di tali funzioni
\begin{figure}[!ht]
\begin{center}
\begin{tikzpicture}[auto, thick,>=latex]
\draw [<->] (4,0) node [below] {$x$}--(0,0)--(0,2) node [left] {$p(x)$};
\draw (1,0) node [below] {$a$}--(1,1)--(3,1)--(3,0) node [below] {$b$};
\draw [dashed](0,1) node [left] {$\frac{1}{b-a}$}--(1,1);
\end{tikzpicture}

\begin{tikzpicture}[auto, thick,>=latex]
\draw [<->] (4,0) node [below] {$x$}--(0,0)--(0,2) node [left] {$F(x)$};
\draw (1,0) node [below] {$a$}--(3,1)--(4,1);
\node at (3,0) [below] {$b$};
\draw [dashed](0,1) node [left] {$1$}--(3,1);
\end{tikzpicture}
\end{center}
\caption{Schema semplificato di uno strumento digitale singolo}
\label{fig:1-5}
\end{figure}

La media e la varianza di tale distribuzione sono pari a:

\begin{equation}
\begin{split}
\mu&=\frac{1}{b-a}\intd{a}{b}{x}{x}=\frac{b^2-a^2}{2(b-a)}=\frac{a+b}{2}
\\
\sigma^2&=\frac{1}{b-a}\intd{a}{b}{(x-\mu)^2}{x}=\frac{1}{b-a}\intd{a-\mu}{b-\mu}{x_1^2}{x_1}=\\
&=\frac{(b-\mu)^3-(a-\mu)^3}{3(b-a)}=\frac{1}{3(b-a)}\left[\left(\frac{b-a}{2}\right)^3+\left(\frac{b-a}{2}\right)^3\right]=\frac{(b-a)^2}{12}
\end{split}
\end{equation}

\section{Distribuzione di Gauss}
La distribuzione detta normale fu derivata da \emph{Demoivre} nel 1733 studiando i problemi associati con il lancio di monete.

Più tardi, in modo autonomo, essa fu ricavata da \emph{Laplace} e da \emph{Gauss}, dal quale prende il nome. Fu Gauss che l'applicò per primo alla distribuzione degli errori accidentali su dati astronomici e scientifici in genere.

La distribuzione di Gauss ha grande importanza pratica, nel campo della teoria degli errori e delle incertezze, per diverse ragioni. In particolare essa descrive, in molti gruppi di misure effettuate in diversi campi, la \textsc{distribuzione degli errori aleatori} e permette la \textsc{valutazione di tipo A delle incertezze}.

Per questo motivo essa prende anche il nome di \textsc{funzione errore normale}.

La distribuzione di Gauss da alcuni è considerata un risultato derivato matematicamente da considerazioni elementari, da altri una formula empirica che bene si raccorda con la teoria degli errori aleatori. Questo secondo punto di vista appare, pur se pragmatico, sostenuto dal fatto che molti insiemi di osservazioni sperimentali presentano una distribuzione degli errori aleatori che è bene approssimata dalla curva di Gauss.

D'altra parte è bene sottolineare che una distribuzione binomiale approssima molto bene la curva di errore normale quando $n$ è molto grande, anche se vi è la differenza sostanziale che la distribuzione binomiale è discreta, mentre quella normale è continua.

La distribuzione di Gauss ha per funzione densità:
\begin{equation}
p(x)=A e^{-h^2 (x-m)^2}
\label{eq:1-47}
\end{equation}
dove $A$, $h$ e $m$ sono delle costanti.

In Fig.~\ref{fig:1-6} è riportata tale tale funzione che ha un valor massimo pari ad $A$, in corrispondenza di $x=m$.

Inoltre la curva è simmetrica rispetto alla retta $x=m$.

Per $x=m\pm1/h$ la funzione assume lo stesso valore pari a $A/e$.

La costante $h$ fornisce un'indicazione della maggiore o minore larghezza della curva a forma di campana. Un valore elevato di $h$ corrisponde a una curva appuntita con un picco pronunciato, mentre un piccolo valore di $h$ dà luogo a una curva più piatta con una maggiore dispersione dei risultati intorno alla media. Per questo $h$ prende il nome di \textsc{costante} o \textsc{indicatore di precisione} della distribuzione.

Perché la distribuzione sia normalizzata deve risultare verificata l'Eq.~\ref{eq:1-39}, dalla cui applicazione è possibile ricavare il valore della costante A:
\begin{equation}
\intd{-\infty}{\infty}{A e^{-h^2(x-m)^2}}{x} = \frac{A}{h}\intd{-\infty}{\infty}{e^{-z^2}}{z}=1
\label{eq:1-48}
\end{equation}
dove si è introdotta la variabile $z=h(x-m)$. Ricordando che:
\begin{equation}
\intd{-\infty}{\infty}{e^{-z^2}}{z}= \sqrt{\pi}
\end{equation}
si ricava:
\begin{equation}
A=\frac{h}{\sqrt{\pi}}
\end{equation}

Per la simmetria della curva tracciata in Fig.~\ref{fig:1-6} è ovvio che $m$ coincide con la media della distribuzione, ma ciò può essere verificato matematicamente, in base all’Eq.~\ref{eq:1-42}:
\begin{equation}
\begin{split}
\mu&=\intd{-\infty}{+\infty}{x p(x)}{x}=\frac{h}{\sqrt{\pi}}\intd{-\infty}{\infty}{x e^{-h^2(x-m)^2}}{x}=\\
&=\frac{1}{\sqrt{\pi}}\intd{-\infty}{\infty}{\left(\frac{z}{h}+m\right)e^{-z^2}}{z}=\\
&=\frac{1}{\sqrt{\pi}}\intd{-\infty}{\infty}{\frac{z}{h}e^{-z^2}}{z}+\frac{m}{\sqrt{\pi}}\intd{-\infty}{\infty}{e^{-z^2}}{z}=\\
&=\frac{m}{\sqrt{\pi}}\sqrt{\pi}=m
\end{split}
\label{eq:1-51}
\end{equation}

Nell'equazione precedente l'integrale
\begin{equation*}
\intd{-\infty}{\infty}{z e^{-z^2}}{z}=0
\end{equation*}
è nullo per la simmetria della funzione $p(z)$ rispetto all’ascissa zero. Il calcolo della \textsc{varianza} procede in modo analogo; in base alla terza espressione dell'Eq.~\ref{eq:1-43}
\begin{equation}
\begin{split}
\sigma^2&=\intd{-\infty}{+\infty}{(x-\mu)^2p(x)}{x} = \frac{h}{\sqrt{\pi}}\intd{-\infty}{\infty}{(x-\mu)^2e^{-h^2(x-\mu)^2}}{x}\\
&=\frac{1}{h^2\sqrt{\pi}}\intd{-\infty}{\infty}{z^2e^{-z^2}}{z}=\frac{1}{h^2\sqrt{\pi}}\frac{\sqrt\pi}{2}=\frac{1}{2h^2} \\
\sigma&=\frac{1}{h\sqrt{2}}
\end{split}
\label{eq:1-52}
\end{equation}

La \textsc{deviazione standard}\index{deviazione standard} è inversamente proporzionale alla costante di precisione $h$, quindi quanto più $\sigma$ è piccolo tanto più la curva è appuntita e minore è la dispersione intorno alla media.

Ciò è evidenziato nella Fig.~\ref{fig:1-6} dove sono mostrate diverse curve della $p(x)$ al variare della deviazione standard.

In base alle equazioni precedenti la funzione densità di probabilità, data dall'Eq.~\ref{eq:1-47}, può essere scritta nella seguente forma:
\begin{equation}
p(x)=\frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{(x-\mu)^2}{2\sigma^2}}
\label{eq:1-55}
\end{equation}
Questa funzione è rappresentativa di una \textsc{distribuzione normale} della variabile $x$ la cui deviazione standard è $\sigma$.

\begin{figure}[!ht]
\begin{center}
\begin{tikzpicture}
\begin{axis}
[xlabel=$x$,ylabel={$p(x)$},axis lines=middle,
enlargelimits,smooth,xmin=0, xmax=6.5,xtick={2.14156,3.14156,4.14156},xticklabels={$\mu-\frac{1}{h}$,$\mu$,$\mu+\frac{1}{h}$},
ytick={0.36787944117,1}, yticklabels={$k/e$,$k$}
]
\addplot [smooth,thick] {exp(-((x-pi)^2))};
\draw[ultra thin,dashed] (axis cs:0,0.36787944117) -- (axis cs:\pgfkeysvalueof{/pgfplots/xmax},0.36787944117);
\draw[ultra thin,dashed] (axis cs:0,1) -- (axis cs:\pgfkeysvalueof{/pgfplots/xmax},1);
\draw[ultra thin,dashed] (axis cs:pi,0) -- (axis cs:pi,\pgfkeysvalueof{/pgfplots/ymax});
\draw[ultra thin,dashed] (axis cs:pi-1,0) -- (axis cs:pi-1,0.36787944117);
\draw[ultra thin,dashed] (axis cs:pi+1,0) -- (axis cs:pi+1,0.36787944117);
\end{axis}
\end{tikzpicture}
\end{center}
\caption{Funzione di densità di probabilità($k=A=h/\sqrt\pi$)}
\label{fig:1-6}
\end{figure}

\begin{figure}[!ht]
\begin{center}
\begin{tikzpicture}
\begin{axis}
[xlabel=$x$,ylabel={$p(x)$},axis lines=middle,
enlargelimits,smooth,xmin=0,xmax=6.14156,samples=512,xtick={3.14156},xticklabels={$\mu$},
ytick={0.19947,.39894,0.79788}, yticklabels={$1/2\sqrt{2\pi}$,$1/\sqrt{2\pi}$,$2/\sqrt{2\pi}$}]
\addplot [smooth,thick] {1/(sqrt(2*pi))*exp(-((x-pi)^2)/2)};
\addplot [smooth,thick] {1/(.5*sqrt(2*pi))*exp(-((x-pi)^2)/(.5))};
\addplot [smooth,thick] {1/(2*sqrt(2*pi))*exp(-((x-pi)^2)/8)};
\draw[ultra thin,dashed] (axis cs:0,0.79788) -- (axis cs:\pgfkeysvalueof{/pgfplots/xmax},0.79788);
\draw[ultra thin,dashed] (axis cs:0,.39894) -- (axis cs:\pgfkeysvalueof{/pgfplots/xmax},.39894);
\draw[ultra thin,dashed] (axis cs:0,.19947) -- (axis cs:\pgfkeysvalueof{/pgfplots/xmax},.19947);
\node at (axis cs:3.6415,.6) % <− ordinata
[fill=gray,circle,scale=0.1,pin={30:{$\sigma_0=0{,}5$}}] {};
\node at (axis cs:4.1415,.33) % <− ordinata
[fill=gray,circle,scale=0.1,pin={30:{$\sigma_1=1$}}] {};
\node at (axis cs:4.6415,.17) % <− ordinata
[fill=gray,circle,scale=0.1,pin={30:{$\sigma_2=2$}}] {};
\end{axis}
\end{tikzpicture}
\caption{Curve di densità di probabilità}
\end{center}
\label{fig:1-7}
\end{figure}

\section{Calcolo della funzione di distribuzione di Gauss}
In base all'Eq.1-36 ed Eq.~\ref{eq:1-55} è possibile calcolare la funzione di distribuzione normale:
\begin{equation}
F(x)=\frac{1}{\sigma\sqrt{2\pi}} \intd{-\infty}{x}{e^{-\frac{(x-\mu)^2}{2\sigma^2}}}{x}
\label{eq:1-56}
\end{equation}
e quindi la probabilità che una misura cada nell’intervallo compreso tra due valori $x_1$ e
$x_2$:
\begin{equation}
\Pr(x_1<X\leq x_2)=F(x_2)-F(x_1)=\frac{1}{\sigma\sqrt{2\pi}} \intd{x_1}{x_2}{e^{-\frac{(x-\mu)^2}{2\sigma^2}}}{x}
\label{eq:1-57}
\end{equation}
pari all'area sottesa dalla curva $p(x)$ fra le suddette ascisse. L'integrale presente nell'Eq.~\ref{eq:1-56} ed Eq.~\ref{eq:1-57} non può essere calcolato con i metodi elementari, ma può essere espresso come differenza di due integrali del seguente tipo:
\begin{equation}
\Phi(z)=\frac{1}{\sqrt{2\pi}} \intd{-\infty}{z}{e^{\frac{z^2}{2}}}{z}
\label{eq:1-58}
\end{equation}
che è la \textsc{funzione di distribuzione normale standard} ovvero la distribuzione normale con \textsc{media 0} e \textsc{varianza 1}, le cui soluzioni, ottenute mediante approssimazioni numeriche, sono tabulate. In base all'Eq.~\ref{eq:1-57} ed Eq.~\ref{eq:1-58}, posto $z_1=(x_1-\mu)/\sigma$ e $z_2= (x2-\mu)/\sigma$, si può verificare che sussiste l'importante relazione:
\begin{equation}
\Pr(\mu-k\sigma<X\leq \mu+k\sigma)=F(x_2)-F(x_1)=\Phi(z_2)-\Phi(z_1)
\label{eq:1-59}
\end{equation}

La funzione di distribuzione normale standard è mostrata in Fig.~\ref{fig:1-8}. In Tabella~\ref{tab:1-3} sono riportate le soluzioni dell'integrale nell'Eq.~\ref{fig:1-78check} per diversi valori di $z$, i dati forniti si intendono preceduti dalla virgola decimale.

È interessante notare anche dalla Fig.~\ref{fig:1-8} che la funzione distribuzione normale gode la seguente proprietà: $\Phi(-z) =1-\Phi(z)$. Inoltre quando $x_1=\mu-\sigma$ si ha $z_1=-1$ e quando $x_2=\mu+\sigma$ si ha $z_2=1$; più in generale quando $x_1=\mu-k\sigma$ si ha $z_1=-k$ e quando $x_1=\mu+k\sigma$ si ha $z_2=k$ e pertanto si può scrivere:
\begin{equation}
\Pr(\mu-k\sigma<X\leq \mu+k\sigma)=\frac{1}{\sigma\sqrt{2\pi}} \intd{-k}{k}{e^{\frac{z^2}{2}}}{z}=2\Phi(k)-1
\label{eq:1-60}
\end{equation}

In base alla precedente e ai dati riportati in Tabella~\ref{tab:1-2} si possono calcolare alcune probabilità di particolare interesse:
\begin{equation*}
\begin{aligned}
\Pr (\mu-\sigma<x< \mu+\sigma) &= 2\Phi (1)-1 =0,683 \\ 1-\Pr(\mu-\sigma<x<\mu+\sigma) &= 0,317 \\
\Pr(\mu-2\sigma<x< \mu+2\sigma) &= 2 \Phi(2) -1 = 0,954 \\ 1-\Pr(\mu-2\sigma<x<\mu+2\sigma)&= 0,046 \\
\Pr(\mu-3\sigma<x< \mu+3\sigma) &=2 \Phi(3) -1 = 0,997\\ 1-\Pr(\mu-3\sigma<x<\mu+3\sigma) &= 0,003
\end{aligned}
\end{equation*}

Quindi la probabilità che le misure cadano nell'\textsc{intervallo di confidenza} $x=\mu\pm\sigma$ ovvero il \textsc{livello di confidenza}, è circa il $68\%$, nell'intervallo $x=\mu\pm2\sigma$ è circa il $95\%$, mentre la probabilità che le misure cadano al di fuori dell'intervallo $x=\mu\pm 3\sigma$ è solo dello $0,3\%$.

\begin{figure}[!ht]
\begin{center}
\begin{tikzpicture}
\begin{axis} [no marks, xlabel={$x$},ylabel={$\Phi(z)$},ytick={0,0.5,1}, grid=major,ymin=0,ymax=1,xmin=-2,xmax=2, axis lines=middle,enlargelimits]
\addplot [thick, smooth, black,] coordinates
{(-2, 0.0227501319)
(-1.9, 0.0287165598)
(-1.8, 0.0359303191)
(-1.7, 0.0445654628)
(-1.6, 0.0547992917)
(-1.5, 0.0668072013)
(-1.4, 0.0807566592)
(-1.3, 0.0968004846)
(-1.2, 0.1150696702)
(-1.1, 0.1356660609)
(-1, 0.1586552539)
(-0.9, 0.1840601253)
(-0.8, 0.2118553986)
(-0.7, 0.2419636522)
(-0.6, 0.2742531178)
(-0.5, 0.3085375387)
(-0.4, 0.3445782584)
(-0.3, 0.3820885778)
(-0.2, 0.4207402906)
(-0.1, 0.4601721627)
(0, 0.5)
(0.1, 0.5398278373)
(0.2, 0.5792597094)
(0.3, 0.6179114222)
(0.4, 0.6554217416)
(0.5, 0.6914624613)
(0.6, 0.7257468822)
(0.7, 0.7580363478)
(0.8, 0.7881446014)
(0.9, 0.8159398747)
(1, 0.8413447461)
(1.1, 0.8643339391)
(1.2, 0.8849303298)
(1.3, 0.9031995154)
(1.4, 0.9192433408)
(1.5, 0.9331927987)
(1.6, 0.9452007083)
(1.7, 0.9554345372)
(1.8, 0.9640696809)
(1.9, 0.9712834402)
(2, 0.9772498681)
};
\end{axis}
\end{tikzpicture}
\end{center}
\caption{Grafico della funzione distribuzione normale standard}
\label{fig:1-8}
\end{figure}

\begin{table}
\caption{Valori della funzione distribuzione normale}
\small
\begin{tabular}{ccc|ccc|ccc|ccc}
\hline
$z$&$\Phi(z)$&$z$&$\Phi(z)$&$z$&$\Phi(z)$&$z$&$\Phi(z)$&$z$&$\Phi(z)$&$z$&$\Phi(z)$\\
\hline
0,01&0,5040&0,51&0,6950&1,01&0,8438&1,51&0,9345&2,01&0,9778&2,51&0,9940\\
0,02&0,5080&0,52&0,6985&1,02&0,8461&1,52&0,9357&2,02&0,9783&2,52&0,9941\\
0,03&0,5120&0,53&0,7019&1,03&0,8485&1,53&0,9370&2,03&0,9788&2,53&0,9943\\
0,04&0,5160&0,54&0,7054&1,04&0,8508&1,54&0,9382&2,04&0,9793&2,54&0,9945\\
0,05&0,5199&0,55&0,7088&1,05&0,8531&1,55&0,9394&2,05&0,9798&2,55&0,9946\\
0,06&0,5239&0,56&0,7123&1,06&0,8554&1,56&0,9406&2,06&0,9803&2,56&0,9948\\
0,07&0,5279&0,57&0,7157&1,07&0,8577&1,57&0,9418&2,07&0,9808&2,57&0,9949\\
0,08&0,5319&0,58&0,7190&1,08&0,8599&1,58&0,9429&2,08&0,9812&2,58&0,9951\\
0,09&0,5359&0,59&0,7224&1,09&0,8621&1,59&0,9441&2,09&0,9817&2,59&0,9952\\
0,1&0,5398&0,6&0,7257&1,1&0,8643&1,6&0,9452&2,1&0,9821&2,6&0,9953\\
0,11&0,5438&0,61&0,7291&1,11&0,8665&1,61&0,9463&2,11&0,9826&2,61&0,9955\\
0,12&0,5478&0,62&0,7324&1,12&0,8686&1,62&0,9474&2,12&0,9830&2,62&0,9956\\
0,13&0,5517&0,63&0,7357&1,13&0,8708&1,63&0,9484&2,13&0,9834&2,63&0,9957\\
0,14&0,5557&0,64&0,7389&1,14&0,8729&1,64&0,9495&2,14&0,9838&2,64&0,9959\\
0,15&0,5596&0,65&0,7422&1,15&0,8749&1,65&0,9505&2,15&0,9842&2,65&0,9960\\
0,16&0,5636&0,66&0,7454&1,16&0,8770&1,66&0,9515&2,16&0,9846&2,66&0,9961\\
0,17&0,5675&0,67&0,7486&1,17&0,8790&1,67&0,9525&2,17&0,9850&2,67&0,9962\\
0,18&0,5714&0,68&0,7517&1,18&0,8810&1,68&0,9535&2,18&0,9854&2,68&0,9963\\
0,19&0,5753&0,69&0,7549&1,19&0,8830&1,69&0,9545&2,19&0,9857&2,69&0,9964\\
0,2&0,5793&0,7&0,7580&1,2&0,8849&1,7&0,9554&2,2&0,9861&2,7&0,9965\\
0,21&0,5832&0,71&0,7611&1,21&0,8869&1,71&0,9564&2,21&0,9864&2,71&0,9966\\
0,22&0,5871&0,72&0,7642&1,22&0,8888&1,72&0,9573&2,22&0,9868&2,72&0,9967\\
0,23&0,5910&0,73&0,7673&1,23&0,8907&1,73&0,9582&2,23&0,9871&2,73&0,9968\\
0,24&0,5948&0,74&0,7704&1,24&0,8925&1,74&0,9591&2,24&0,9875&2,74&0,9969\\
0,25&0,5987&0,75&0,7734&1,25&0,8944&1,75&0,9599&2,25&0,9878&2,75&0,9970\\
0,26&0,6026&0,76&0,7764&1,26&0,8962&1,76&0,9608&2,26&0,9881&2,76&0,9971\\
0,27&0,6064&0,77&0,7794&1,27&0,8980&1,77&0,9616&2,27&0,9884&2,77&0,9972\\
0,28&0,6103&0,78&0,7823&1,28&0,8997&1,78&0,9625&2,28&0,9887&2,78&0,9973\\
0,29&0,6141&0,79&0,7852&1,29&0,9015&1,79&0,9633&2,29&0,9890&2,79&0,9974\\
0,3&0,6179&0,8&0,7881&1,3&0,9032&1,8&0,9641&2,3&0,9893&2,8&0,9974\\
0,31&0,6217&0,81&0,7910&1,31&0,9049&1,81&0,9649&2,31&0,9896&2,81&0,9975\\
0,32&0,6255&0,82&0,7939&1,32&0,9066&1,82&0,9656&2,32&0,9898&2,82&0,9976\\
0,33&0,6293&0,83&0,7967&1,33&0,9082&1,83&0,9664&2,33&0,9901&2,83&0,9977\\
0,34&0,6331&0,84&0,7995&1,34&0,9099&1,84&0,9671&2,34&0,9904&2,84&0,9977\\
0,35&0,6368&0,85&0,8023&1,35&0,9115&1,85&0,9678&2,35&0,9906&2,85&0,9978\\
0,36&0,6406&0,86&0,8051&1,36&0,9131&1,86&0,9686&2,36&0,9909&2,86&0,9979\\
0,37&0,6443&0,87&0,8078&1,37&0,9147&1,87&0,9693&2,37&0,9911&2,87&0,9979\\
0,38&0,6480&0,88&0,8106&1,38&0,9162&1,88&0,9699&2,38&0,9913&2,88&0,9980\\
0,39&0,6517&0,89&0,8133&1,39&0,9177&1,89&0,9706&2,39&0,9916&2,89&0,9981\\
0,4&0,6554&0,9&0,8159&1,4&0,9192&1,9&0,9713&2,4&0,9918&2,9&0,9981\\
0,41&0,6591&0,91&0,8186&1,41&0,9207&1,91&0,9719&2,41&0,9920&2,91&0,9982\\
0,42&0,6628&0,92&0,8212&1,42&0,9222&1,92&0,9726&2,42&0,9922&2,92&0,9982\\
0,43&0,6664&0,93&0,8238&1,43&0,9236&1,93&0,9732&2,43&0,9925&2,93&0,9983\\
0,44&0,6700&0,94&0,8264&1,44&0,9251&1,94&0,9738&2,44&0,9927&2,94&0,9984\\
0,45&0,6736&0,95&0,8289&1,45&0,9265&1,95&0,9744&2,45&0,9929&2,95&0,9984\\
0,46&0,6772&0,96&0,8315&1,46&0,9279&1,96&0,9750&2,46&0,9931&2,96&0,9985\\
0,47&0,6808&0,97&0,8340&1,47&0,9292&1,97&0,9756&2,47&0,9932&2,97&0,9985\\
0,48&0,6844&0,98&0,8365&1,48&0,9306&1,98&0,9761&2,48&0,9934&2,98&0,9986\\
0,49&0,6879&0,99&0,8389&1,49&0,9319&1,99&0,9767&2,49&0,9936&2,99&0,9986\\
0,5&0,6915&1&0,8413&1,5&0,9332&2&0,9772&2,5&0,9938&3&0,9987\\
\hline
\end{tabular}
\label{tab:1-2}
\end{table}

\section{Deviazione standard della media}
In genere, come si è accennato in precedenza, un insieme finito di dati è considerato un \textsc{campione} di una popolazione molto più numerosa. 

Così $n$ misure di una quantità fisica possono essere considerate come un campione limitato di un numero molto grande di misure, rappresentanti la \textsc{popolazione}.

Sorge ora il problema di stabilire quale sia la precisione della media e della deviazione standard del campione di $n$ misure. Ovvero ci si può chiedere se valori più attendibili della media e della deviazione standard si possano ottenere considerando altri campioni della popolazione.

Per due insiemi di $n$ misure, in genere, le medie e le deviazioni standard non coincideranno. Quindi per $m$ insiemi di $n$ misure sarà possibile calcolare la deviazione standard delle medie, che è un indicatore della \textsc{attendibilità della media}. Tenendo conto che il numero totale delle misure è $n m$, si indichi con:
\[
\begin{split}
X_{ji}\qquad&\text{la $i$-esima misura dell'insieme $j$-esimo}\\
\overline{X}_{j}=\frac{1}{n}\sum_{i=1}^{n}X_{ij}\qquad&\text{la media dell'insieme $j$-esimo}
\end{split}
\]
la aspettazione della media di tutte le misure
\begin{equation*}
\begin{split}
d_{ij}=X_{ji}-\mu
\qquad&\text{la deviazione della misura $X_{ji}$}\\
D_m=\overline{X}_{j}-\mu \qquad&\text{la deviazione della media $\overline{X}_j$}
\end{split}
\end{equation*}

La varianza dell'insieme delle misure è data da:
\begin{equation}
\sigma^2=\frac{1}{m n}\sum_{j=1}^{m}\sum_{i=1}^{n}{d_{ji}^2}
\label{eq:1-61}
\end{equation}
mentre la varianza delle medie risulta:
\begin{equation}
\sigma_m^2=\frac{1}{m}\sum_{j=1}^{m}{D_{mj}^2}
\label{eq:1-62}
\end{equation}

La \textsc{deviazione} $D_{mj}$ può essere espressa in funzione di $d_{ji}$:
\begin{equation}
D_{mj}=\overline{X}_j-\mu=\frac{1}{n}\sum_{i=1}^{n}X_{ji}-\mu=\frac{1}{n}\sum_{i=1}^{n}{(X_{ji}-\mu)}=\frac{1}{n}\sum_{i=1}^{n}d_{ji}
\label{eq:1-63}
\end{equation}

In base all'Eq.~\ref{eq:1-63}, se s’ipotizza che la variabile aleatoria discreta $X$ presenti i valori di $X_{ji}$ \textsc{mutuamente incorrelati}, l'Eq.~\ref{eq:1-62} diventa:
\begin{equation}
\sigma_m^2=\frac{1}{m}\sum_{j=1}^{m}{\left(\frac{1}{n}\sum_{i=1}^{n}d_{ji}\right)^2}=\frac{1}{m n^2}\sum_{j=1}^{m}{\left(\sum_{i=1}^{n}d_{ji}\right)^2}=\frac{1}{m n^2}\sum_{j=1}^{m}\sum_{i=1}^{n}d_{ji}^2=\frac{s^2}{n}
\label{eq:1-64}
\end{equation}

La penultima uguaglianza nell'espressione precedente deriva dalla possibilità di ritenere il quadrato della sommatoria degli scarti coincidente con la sommatoria dei quadrati degli scarti.

Questa condizione è facilmente comprensibile nel caso della distribuzione normale, infatti per la sua simmetria, nell'ipotesi che il numero $m n$ sia molto elevato, i termini a prodotto di differenti $d_{ij}$ tenderanno a cancellarsi vicendevolmente e la loro somma risulterà pertanto uguale a zero.

In base all'ultima uguaglianza si ottiene il seguente risultato:
\begin{equation}
\sigma_m=\frac{\sigma}{\sqrt{n}}
\label{eq:1-65}
\end{equation}
ovvero la \textsc{deviazione standard della media}\index{media!deviazione standard} di $m$ campioni di $n$ misure è uguale alla deviazione standard di tutta la popolazione diviso per il numero $n$ di misure.

La misura appropriata dell’\textsc{incertezza} del risultato di una misura è proprio legata alla \textsc{varianza della media}\index{media!varianza} delle osservazioni $\sigma_m$, piuttosto che alla varianza delle singole osservazioni $\sigma$.

L'esame dell'Eq.~\ref{eq:1-65} induce a ritenere che sia preferibile aumentare il numero di misure relative ad un solo campione di una popolazione invece del numero $m$ di campioni. Solo che con riferimento ad un solo campione si avranno delle \textsc{stime} sia della media, sia della deviazione standard o incertezza. In particolare il valore teorico della varianza della media fornito dall'Eq.~\ref{eq:1-65} non è noto, in quanto non è nota l’aspettazione $\mu$, e di esso si può ricavare una \textsc{stima dalla varianza}\index{varianza!stima} sperimentale della media aritmetica delle $n$ misure indipendenti:
\begin{equation}
s^2(\overline{X})=\frac{s^2(X_i)}{n}=\frac{1}{n(n-1)}\sum_{i=1}^{n}(X_i-\overline{X})^2
\label{eq:1-66}
\end{equation}

La radice quadrata dell’Eq.~\ref{eq:1-66} è la \textsc{deviazione standard sperimentale della media}\index{media!deviazione standard sperimentale} e costituisce anche una stima dell'attendibilità della media aritmetica di n misure come stima della media della popolazione dei risultati della grandezza misurata:
\begin{equation}
s(\overline{X})=\frac{s(X_i)}{\sqrt{n}}=\sqrt{\frac{1}{n(n-1)}\sum_{i=1}^{n}(X_i-\overline{X})^2}
\label{eq:1-67}
\end{equation}

\section{Definizione e calcolo dell'incertezza}
Si è detto precedentemente che le parole accuratezza e precisione sono dei parametri qualitativi e stanno a rappresentare il grado di approssimazione di misure ripetute rispettivamente al valore del misurando e alla media aritmetica dell’insieme di misure. L’\textsc{incertezza} invece è un parametro sia qualitativo sia quantitativo.

\emph{Qualitativamente} essa rappresenta il grado di dubbio sulla validità del risultato di una misura, quando invece essa deve fornire un’indicazione quantitativa va accompagnata dall’aggettivo appropriato.

\emph{Il risultato di una misura dovrebbe essere la migliore stima del valore del misurando e va sempre accompagnato dall’indicazione dell’incertezza, che, come si è detto, caratterizza la dispersione dei risultati ragionevolmente attribuibili al misurando.}

L’incertezza di misura in generale comprende più componenti ed è data da una deviazione standard o dalla semi-ampiezza di un intervallo, avente un livello d’incertezza stabilito, come sarà chiarito in seguito. Essa, in alcuni casi particolari, può anche essere espressa, in modo tradizionale, semplicemente dall’errore possibile da cui è affetto il valore stimato del misurando o da una stima di una fascia di valori in cui è presumibile che cada il valore del misurando.

Si definisce \textsc{incertezza standard}\index{incertezza standard} (o \textsc{tipo}) quella espressa come deviazione standard.

Il modo di valutazione dell’incertezza può essere di due Tipi “A” e “B”, il che non significa che le incertezze siano classificabili in questo modo.

\subsection{Valutazione Tipo A (o di categoria A) dell'incertezza}
La valutazione Tipo A dell’incertezza è ottenuta utilizzando i metodi dell’\textsc{analisi statistica} di serie di osservazioni. Per esempio la valutazione Tipo A di un’incertezza standard è ottenuta prendendo la radice quadrata della varianza valutata statisticamente.

Come si è detto in molti casi la \textsc{migliore stima} $x$ disponibile del valore atteso di una grandezza $X$, che varia casualmente, e della quale sono state ottenute $n$ osservazioni indipendenti nelle stesse condizioni sperimentali è la media aritmetica $\overline{X}$ o valor medio delle $n$ osservazioni, dato dall’Eq.\ref{eq:1-8}, come dimostrato nel paragrafo 1.9.

Le singole osservazioni differiscono a causa di effetti aleatori o variazioni casuali delle \textsc{grandezze d’influenza}, ovvero di grandezze che non sono il misurando, ma che alterano il risultato della misura.

La varianza sperimentale delle osservazioni, che stima la varianza della distribuzione di probabilità di $x$ è data da $s^2$ espresso nell’Eq.~\ref{eq:1-28}. Questa stima della varianza e la sua radice quadrata positiva $s$, denominata \textsc{deviazione standard sperimentale}, caratterizzano la variabilità dei valori osservati $X_i$ o, più specificamente la loro dispersione intorno alla media $X$. La migliore stima della varianza di $\overline{X}$ è data dall’Eq.~\ref{eq:1-66}, che insieme con la sua radice, ovvero con la deviazione standard della media, data dall’Eq.~\ref{eq:1-67}, quantificano quanto bene $\overline{X}$ stimi il valore dell’aspettazione di x, ed entrambi possono essere adottati come incertezza della misura di $\overline{X}$ :
\begin{equation}
\begin{split}
u(x)=s(\overline{X})=\frac{s(X_i)}{\sqrt{n}}=\sqrt{\frac{1}{n(n-1)}\sum_{i=1}^{n}(X_i-\overline{X})^2}\\
u^2(x)=s^2(\overline{X})=\frac{s^2(X_i)}{n}=\frac{1}{n(n-1)}\sum_{i=1}^{n}(X_i-\overline{X})^2
\end{split}
\label{eq:1-68}
\end{equation}
le quantità $u(x)$ e $u^2(x)$ sono spesso chiamati \textsc{deviazione standard di Tipo A} e \textsc{varianza di Tipo A}.

Sebbene la grandezza primitiva fondamentale sia la varianza, la deviazione standard è più conveniente nell’uso pratico in quanto ha la stessa dimensione di $x$ e il suo valore è più facilmente interpretabile di quello della varianza.

Quando si forniscono valutazioni di tipo A dell’incertezza occorre sempre indicare il numero di gradi di libertà.

Si ricorda che per una variabile discreta il numero dei \textsc{gradi di libertà} è quello degli addendi di una somma meno il numero dei vincoli sugli addendi della somma. Quindi i gradi di libertà della media aritmetica ottenuta da $n$ osservazioni indipendenti sono $\nu=n-1$.

La trattazione precedente non intende essere esauriente, in quanto esistono molte situazioni, alcune molto complesse, che possono essere trattate con metodi statistici e che dovranno essere esaminate di volta in volta.

\subsection{Valutazione Tipo BA (o di categoria B) dell'incertezza}
La valutazione Tipo B dell’incertezza è ottenuta utilizzando metodi diversi da quelli dell’analisi statistica di serie di osservazioni. Per esempio la valutazione tipo B di un’incertezza standard è ottenuta valutando per via non statistica una deviazione standard equivalente e calcolando la varianza equivalente, elevando tale deviazione al quadrato.

Per una stima $x$ di una grandezza $X$ non ottenuta da osservazioni ripetute, le incertezze, valutate come deviazione standard e varianza stimate $u(x)$ e $u^2(x)$, chiamate anche \textsc{deviazione standard di Tipo B} e \textsc{varianza di Tipo B} sono ottenute attraverso un giudizio scientifico basato su tutte le informazioni disponibili sulla possibile variabilità di $X$. L’insieme delle informazioni può comprendere:
\begin{itemize}
\item dati di misure precedenti;
\item esperienza o conoscenza generale del comportamento e delle proprietà dei
materiali e degli strumenti d’interesse;
\item specifiche tecniche del costruttore;
\item dati forniti in certificati di taratura o altri;
\item incertezze assegnate a valori di riferimento presi da manuali o da banche dati.
\end{itemize}

Quando $x$ è ottenuta da una \textsc{distribuzione a priori}, la varianza associata è scritta in modo appropriato come $x^2(X)$, ma si può anche indicare normalmente come $u^2(x)$.
L’uso delle informazioni disponibili per una valutazione Tipo B dell’incertezza standard richiede notevole esperienza da parte dell’operatore.

L’\textsc{attendibilità} di una valutazione di Tipo B può essere analoga a quella di Tipo A, specie se quest’ultima si basa su un numero relativamente ridotto di osservazioni.

Se la stima x è ottenuta da una specifica del costruttore dello strumento impiegato, da un certificato di taratura, da un manuale o da una fonte simile e se la sua incertezza è definita come un particolare multiplo di una deviazione standard, l’incertezza standard $u(x)$ si calcola semplicemente dal valore dichiarato diviso il moltiplicatore della deviazione standard, mentre la varianza stimata $u^2(x)$ è il quadrato di tale rapporto.

A volte l’incertezza indicata nelle specifiche che accompagnano uno strumento è data da un intervallo con il suo livello di confidenza. Qualora non sia dichiarato il tipo di \textsc{distribuzione} si può ipotizzare che questa sia di \textsc{tipo normale} e quindi ricostruire l’incertezza standard, dividendo l’incertezza dichiarata per il fattore appropriato relativo alla distribuzione normale, riportato in Tab.~\ref{tab:1-3}.

Così, se per esempio si afferma in un foglio di accompagnamento dello strumento che la grandezza $X$ può cadere con uguale probabilità all’interno o all’esterno dell’intervallo compreso tra $a$ e $b$ (ovvero che la probabilità che $X$ giaccia all’interno dell’intervallo è del $50\%$) e si ritiene che la distribuzione dei valori possibili di $X$ sia normale, si può prendere come migliore stima $x$ di $X$ il punto medio dell’intervallo $x=(a+b)/2$ e come incertezza standard $u(x)=1,49(b-a)/2$ (infatti per una distribuzione normale un intervallo di confidenza $\mu\pm 0,67\sigma$ ha un \textsc{livello di confidenza} del $50\%$, pertanto: $a=\mu-0,67\sigma$; $b=\mu+0,67\sigma$; $\sigma=(1/0,67)(b-a)/2$).

Un altro caso che si può presentare frequentemente è quello in cui siano noti semplicemente i limiti superiore, $b$, e inferiore, $a$, dell’intervallo nel quale la probabilità che il valore di $X$ cada è pari a 1, ai fini pratici, mentre è praticamente zero quella che ne cada al di fuori. Se non vi è altra informazione sulla distribuzione di X all’interno dell’intervallo si può solo ipotizzare una distribuzione uniforme o rettangolare. In tal caso la stima x coincide con l’aspettazione o speranza di X ed è il punto medio dell’intervallo, mentre il quadrato dell’incertezza è dato dalla varianza secondo l’Eq.1-70:
\begin{equation}
x=\frac{a+b}{2}\quad u^2(x)=\frac{(b-a)^2}{12}
\label{eq:1-69}
\end{equation}

Un esempio di questo tipo di distribuzione può essere dato nel caso della risoluzione di un’indicazione digitale. Se s’ipotizza che misure ripetute fossero tutte identiche, l’incertezza della misura attribuibile alla ripetibilità non sarebbe zero, in quanto vi è un insieme di segnali d’ingresso, all’interno di un intervallo noto, che produce la stessa indicazione in uscita.

Se la risoluzione dello strumento è $\Delta x$, il valore della sollecitazione che  produce un’indicazione data $X$ può giacere con uguale probabilità in qualunque punto dell’intervallo compreso tra i valori $X-\Delta x/2$ e $X+\Delta x/2$. La sollecitazione è allora descritta da una distribuzione di probabilità rettangolare di ampiezza $\Delta x$ con varianza $u^2(x)=(\Delta x)^2/12$ e incertezza standard $u(x)=0,29\Delta x$ per qualsiasi indicazione.

Un altro esempio si ha nel caso di arrotondamento o troncamento di numeri che si verifica nell’elaborazione automatica dei dati su calcolatore. Se per esempio  un calcolatore ha una lunghezza di parola di 16 bit e nel corso dell’elaborazione un numero è sottratto da un altro da cui differisce solo nel sedicesimo bit, resta un solo bit significativo.

\subsection{Raccomandazioni sull'incertezza}
È importante sottolineare che le incertezze non possono essere classificate come gli errori in sistematiche e accidentali (o aleatorie), né si può associare a un errore sistematico una valutazione di Tipo B dell’incertezza, né a un errore accidentale una valutazione di Tipo A dell’incertezza. Infatti l’incertezza associata all’effettuazione di una correzione e quindi a un errore sistematico può essere valutata con i metodi caratteristici di Tipo A o anche con quelli di Tipo B. Così viceversa l’incertezza associata a un errore accidentale può essere valutata con i metodi tipici di Tipo B, invece che con quelli di Tipo A.

Proprio allo scopo di evitare queste possibili fonti di confusione, si classificano i metodi per valutare le componenti dell’incertezza piuttosto che le componenti stesse.

È bene sottolineare che la classificazione delle modalità di valutazione dell’incertezza in due tipi ha solo utilità didattica, non essendoci differenza nella natura dell’incertezza calcolata nei due modi sopra indicati, infatti come si è visto entrambi i tipi di valutazione sono basati su distribuzioni di probabilità e le componenti dell’incertezza risultanti da ambedue i metodi sono quantificate mediante varianze o deviazioni standard.

Un’incertezza con valutazione di Tipo A è ottenuta da una funzione densità di probabilità derivata da una distribuzione di frequenza osservata, mentre un’incertezza con valutazione di Tipo B è ottenuta da una funzione densità di probabilità ipotizzata sulla base del grado di fiducia nel verificarsi di un evento, sovente chiamata \textsc{probabilità soggettiva}. Ambedue i metodi utilizzano le conoscenze statistiche precedentemente esaminate ed altre note in letteratura.

Nell’ipotesi che per il calcolo dell’incertezza della stima x di una misura ci si sia avvalsi di valutazioni sia di Tipo A sia di Tipo B, si deve procedere alla loro combinazione in un unico valore di incertezza standard $u(x)$, a volte con l’indicazione di una stima della sua incertezza. 

Indicati per semplicità di trattazione con $u_A(x)$ e $u_B(x)$ le incertezze standard con valutazioni di Tipo A e B e le varianze con i quadrati delle stesse grandezze, l’\textsc{incertezza totale} sulla stima x sarà data da:
\begin{equation}
u(x)=\sqrt{u_A^2+u_B^2}
\label{eq:1-70}
\end{equation}

Per mostrare un possibile \textsc{esempio}, si può far riferimento al classico caso di $n$ misure ripetute dello stesso misurando, $X$, che ha media aritmetica $\overline{X}$, e speranza matematica o aspettazione $mu_X$. $\overline{X}$ rappresenta il risultato della misurazione e si avvicinerà tanto più alla sua aspettazione, $\mu_X$, quanto maggiore è il numero delle misure; esso va accompagnato dall'indicazione dell'incertezza: $X=\overline{X}\pm u(X)$.

Si può avere un miglioramento  dell'accuratezza della misura e quindi della stima del misurando rappresentata da $\overline{X}$ mediante l'effettuazione della \textsc{correzione}. Si supponga di conoscere una stima, $A$, del valore del misurando, o, ancora meglio, della sua speranza matematica, o della sua aspettazione, $\mu_A$. Infatti, avendo abbandonato il concetto di valore vero, il misurando va considerato appartenente ad un intervallo di valori, all'interno di una distribuzione di probabilità, e la sua migliore stima è data proprio dalla \textsc{media aritmetica}, $\overline{X}$, che è il valore più prossimo all'aspettazione, $\mu_X$, di quell'insieme di misure effettuate sullo stesso misurando.

La stima del misurando, $\overline{X}$, sarà tanto migliore quanto più saranno stati corretti gli errori sistematici, in quanto in tal caso essa si avvicinerà ad $A$ e quindi a $\mu_A$. Cioè si hanno due valori conoscibili $X$ ed $A$ appartenenti entrambi a due distribuzioni di probabilità con medie statistiche rispettivamente $\mu_X$ e $\mu_A$.

Nel caso specifico, in base a quanto precedentemente esposto, l'errore assoluto, $E$, si può definire come la differenza fra il valore misurato, $X$, e la stima $A$: $E=X-A$; è evidente che essendo A solo una stima del valore del misurando, la correzione dell'errore E potrà semplicemente portare ad avvicinarsi alla migliore stima del misurando, o alla sua aspettazione, $\mu_A$, ovvero la correzione non potrà mai essere completa, ma contribuirà alla quantificazione dell'incertezza con una sua componente che si indicherà con $u_s(X)$.

Indicati con $E_{si}$ e $E_{ai}$ gli errori sistematici e accidentali relativi alla i-esima misura, questa può essere scritta come: $X_i=A+E_{si}+E_{ai}$, che consente di esprimere la media aritmetica nella forma seguente:
\begin{equation}
\overline{X}=A+\frac{1}{n}\sum_{i=1}^{n}E_{si}+\frac{1}{n}\sum_{i=1}^{n}E_{ai}
\end{equation}
Gli errori accidentali $E_ai$ rappresentano una tipica variabile aleatoria con valor medio che si approssima a zero per $n$ che tende all'infinito. L'errore sistematico è assimilabile ad un'\textsc{interferenza} e quello aleatorio a un \textsc{rumore}, il che permette di considerare la tecnica dell'\emph{averaging} o della media, come strumento elementare per ridurre gli effetti del rumore.

Anche gli errori aleatori non sono completamente eliminabili e contribuiscono all'incertezza con una componente $u_r(X)$. Ipotizzando l'esistenza delle sole due incertezze precedentemente indicate l'incertezza tipo, complessiva sarà data da:
\begin{equation}
u(X)=\sqrt{u_s^2(X)+u_r^2(X)}
\end{equation}

La valutazione delle componenti dell'incertezza $u_s(X)$ e $u_r(X)$ può essere di tipo A o B indifferentemente per l'una o per l'altra, in base alla metodologia di misura seguita.

L’incertezza, come l’errore, può essere espressa in valori assoluto, dato dall’Eq.~\ref{eq:1-70}, relativo $u(x)/x$ o percentuale $[u(x)/x] 100$.

È importante sottolineare un’ultima raccomandazione riportata nella Guida: essa è da considerarsi un quadro di riferimento generale per la valutazione dell’incertezza, ma non può sostituirsi al pensiero critico, all’onesta intellettuale, alla capacità e, aggiungerei, alla deontologia professionale dell’operatore.

La valutazione dell’incertezza non è un compito di \emph{routine}, né un esercizio puramente matematico, ma dipende dalla conoscenza approfondita della natura del misurando e del metodo di misura. Le capacità di analisi critica e l’onesta di chi è chiamato ad assegnare il valore dell’incertezza determinano la qualità e l’utilità dell’incertezza attribuita al risultato di una misura.

\section{Incertezza standard combinata e propagazione delle incertezze}
Si definisce \textsc{incertezza standard combinata} di un risultato di una misura, quando questa è ottenuta in funzione di altre grandezze misurabili, come avviene nei metodi di misura indiretti, la radice quadrata positiva di una somma di addendi, rappresentati dalle varianze o covarianze delle grandezze stesse, pesate in base alla variazione del risultato della misura al variare delle grandezze stesse. Essa è indicata con $u_c(x)$ e si basa sulla legge di propagazione dell’incertezza.

Si consideri un misurando
\begin{equation}
Y=f(X_1, X_2, X_3\dots, X_N)
\label{eq:1-71}
\end{equation}
funzione di diverse quantità misurabili: $X_1, X_2, X_3\dots, X_N$, le quali prendono il nome di \textsc{grandezze d’ingresso} e in genere dipendono da altre quantità, incluse tutte le correzioni e i fattori di correzione, che possano originare sul risultato della misura una componente d’incertezza significativa.

Le incertezze da cui sono affette le misure delle grandezze $X_1, X_2, X_3\dots, X_N$ si propagano su $Y$, che prende il nome di \textsc{grandezza d’uscita}, e tale propagazione può essere studiata mediante semplici tecniche matematiche.

Le grandezze d’ingresso possono, con le loro incertezze, essere determinate direttamente da misure effettuate sul misurando. Possono essere ottenute da una singola osservazione, o da misure ripetute, o da un giudizio basato sull’esperienza.

Tra le grandezze d’ingresso e le loro incertezze possono essere incluse anche informazioni esterne, come grandezze associate con campioni di misura tarati, materiali di riferimento certificati, dati di riferimento ricavati da manuali o da banche dati.

Una \textsc{stima} del misurando $Y$, indicata con $y$, può essere facilmente ricavata dalle stime $x_1, x_2, x_3\dots, x_N$ delle $N$ grandezze $X_1, X_2, X_3\dots, X_N$:
\begin{equation}
y = f(x_1, x_2, x_3\dots, x_N )
\label{eq:1-72}
\end{equation}

In alcuni casi la stima y può essere ottenuta dalla media aritmetica di $n$ \textsc{misure indipendenti} di $Y$, basate su un insieme completo di valori osservati delle $N$ grandezze d’ingresso:
\begin{equation}
y=\overline{Y}=\frac{1}{n}\sum_{i=1}^{n}Y_i=\frac{1}{n}\sum_{i=1}^{n}f(X_{1,i},X_{2,i},\dots,X_{N,i})
\label{eq:1-73}
\end{equation}

Questo modo di ottenere la stima in genere, quando f è una funzione non lineare delle grandezze d’ingresso, è preferito all’altro, basato sul calcolo delle medie aritmetiche delle singole grandezze d’ingresso:
\begin{equation}
y=f(\overline{X_1},\overline{X_2},\dots,\overline{X_N})
\label{eq:1-74}
\end{equation}

I due metodi sono identici quando $f$ è funzione lineare delle grandezze d’ingresso.

L’incertezza standard combinata, indicata con $u_c(y)$, è determinata dalla
\textsc{deviazione standard stimata}, associata a ciascuna delle stime d’ingresso $x_i$, denominate \textsc{incertezze standard} e indicate con $u(x_i)$. Ciascuna stima delle grandezze d’ingresso $x_i$ e ciascuna incertezza standard $u(x_i)$ sono ricavate da una distribuzione di valori possibili delle grandezze d’ingresso $X_i$.

Queste distribuzioni di probabilità possono essere basate su valutazioni Tipo A, ovvero su una serie di osservazioni e sulle relative distribuzioni di frequenza, o su valutazioni Tipo B, ovvero su distribuzioni a priori.

Nel paragrafo~\ref{par:1-3} si è considerata la propagazione dell'errore su misure indirette, si vuole ora mostrare come sia possibile calcolare la incertezza standard combinata di grandezze misurate indirettamente quando siano note sia le stime $x_1, x2, x3\dots, x_N$ delle $N$ grandezze $X_1, X_2, X_3\dots, X_N$ misurate, sia le incertezze standard $u(x_1), u(x_2), u(x_3),\dots, u(x_N)$.

L’incertezza standard combinata $u_c(y)$ della stima y del misurando è la radice quadrata positiva della varianza standard combinata. Lo sviluppo dell’Eq.~\ref{eq:1-72} in serie di Taylor intorno ai valori di aspettazione delle $x_i$, $E[x_i]= \mu_i$, troncato al primo ordine, consente di confondere la differenza con il differenziale. Quindi per piccoli scostamenti di $y$ intorno alla $\mu_y$ in funzione di piccoli scostamenti delle xi intorno alle $\mu_i$ è possibile scrivere:

\begin{equation}
\begin{split}
(y-\mu_y)^2&=\left[\sum_{i=1}^{N}\pderiv{f}{x_i}(x_i-\mu_i)\right]^2=\\
&=\sum_{i=1}^{N}\left(\pderiv{f}{x_i}\right)^2(x_i-\mu_i)^2+2\sum_{i=1}^{N-1}\sum_{j=i+1}^{N}\pderiv{f}{x_i}\pderiv{f}{x_j}(x_i-\mu_i)(x_j-\mu_j)
\end{split}
\label{eq:1-75}
\end{equation}

Passando dal quadrato dello scostamento $(y-\mu_y)^2$ al suo valore atteso, che è la
varianza di $y$ $\sigma_y^2=E[(y-\mu_y)^2]$, indicando con $\sigma_i^2=E[(x_i-\mu_i)^2]$ la varianza di $x_i$ e con $cov_{ij}=E[(x_i-\mu_i)(x_j-\mu_j)]$ la covarianza di $x_i$ e $x_j$, dall'Eq.~\ref{eq:1-75} si ha:
\begin{equation}
\sigma_y^2=\sum_{i=1}^{N}\left(\pderiv{f}{x_i}\right)^2\sigma_i^2+2\sum_{i=1}^{N-1}\sum_{j=i+1}^{N}\pderiv{f}{x_i}\pderiv{f}{x_j}\sigma_i\sigma_j\varrho_{ij}
\label{eq:1-76}
\end{equation}
dove $\varrho=\cov_{ij}/\sigma_i\sigma_j$ è il \textsc{coefficiente di correlazione} in funzione della covarianza $\cov_{ij}$ di $x_i$ e $x_j$. Dall’Eq.~\ref{eq:1-76} si ricava come si vedrà in seguito la legge di propagazione delle incertezze.


\subsection{Grandezze d’ingresso non correlate}
In una prima analisi si ipotizzi che le grandezze d’ingresso siano tutte indipendenti. In tal caso le variabili casuali associate alle grandezze d’ingresso possono essere ritenute \textsc{scorrelate}.

Ciò può accadere quando le grandezze d’ingresso siano state misurate ripetutamente, ma non simultaneamente in esperimenti indipendenti distinti, o perché rappresentano grandezze risultanti da valutazioni distinte fatte indipendentemente, o se le grandezze d’ingresso possono essere trattate come costanti, o se vi è informazione insufficiente per valutare la covarianza associata alle stime delle grandezze d’ingresso.

Nei casi esemplificati l’Eq.~\ref{eq:1-76} si semplifica nella seguente:
\begin{equation}
\sigma_y^2=\sum_{i=1}^{N}\left(\pderiv{f}{x_i}\right)\sigma_i^2
\label{eq:1-77}
\end{equation}

L'Eq.~\ref{eq:1-77} fornisce la relazione tra la deviazione standard della grandezza misurata indirettamente e le deviazioni standard delle grandezze d’ingresso indipendenti di cui essa è funzione.

È importante sottolineare l’esistenza del \textsc{teorema del limite centrale} che afferma la possibilità di approssimare la distribuzione di $Y$ a quella normale anche se le distribuzioni delle $X$ non risultino perfettamente normali, qualora la varianza $\sigma_y^2$ sia molto più grande di ogni singola componente della varianza $c_i^2 \sigma_i^2$ delle grandezze d’ingresso con distribuzioni che si discostino da quella normale, dove $c_i$ è il coefficiente di sensibilità, derivata parziale della funzione rispetto a $x_i$.

Poiché si è detto che le incertezze standard sono calcolate ricorrendo alle varianze, o meglio l’incertezza standard combinata $u_c(y)$ della stima $y$ del misurando è la radice quadrata positiva della varianza standard combinata, questa per grandezze d’ingresso non correlate, in base all’~\ref{eq:1-77} si può scrivere:
\begin{equation}
u_c^2(y)=\sum_{i=1}^{N}\left(\pderiv{f}{x_i}\right)u^2(x_i)
\label{eq:1-78}
\end{equation}

Ciascuna incertezza $u(x_i)$ è standard ottenuta con valutazioni sia di tipo A sia di Tipo B. Le derivate parziali presenti nell’Eq.~\ref{eq:1-78} sono pari alle derivate parziali rispetto alle grandezze d’ingresso, valutate nei valori di aspettazione delle $X_i$, anche se si calcolano per $X_1= x_1$:
\begin{equation}
c_i=\pderiv{f}{x_i}=\restrict{\pderiv{f}{X_i}}{x_1,x_2,\dots,x_N}
\label{eq:1-79}
\end{equation}

Le derivate presenti nell’Eq.~\ref{eq:1-79} sono chiamate anche \textsc{coefficienti di sensibilità}, indicati con $c_i$, e descrivono come la stima della grandezza d’uscita $y$ varia al variare dei valori delle stime delle grandezze d’ingresso $x_1, x_2, x_3\dots, x_N$. La incertezza combinata quadrata può pertanto essere scritta come la seguente somma di termini costituiti dalle incertezze quadrate delle grandezze d’ingresso:
\begin{equation}
u_c^2(y)=\sum_{i=1}^{N}c_i^2u^2(x_i)=\sum_{i=1}^{N}\left[c_iu(x_i)\right]^2=\sum_{i=1}^{N}u_i^2(y)
\label{eq:1-80}
\end{equation}
dove si sono indicate con $u_i(y)=\abs{c_i}u(x_i)$ le incertezze standard della stima $y$ generate dalle incertezze standard delle stime $x_i$. Ciò è valido in quanto nelle ipotesi di piccole variazioni di $x_i$, cui corrisponda una variazione di $y$, si ha $(\Delta y)_i= c_i\Delta x_i$. Pertanto, in base all’Eq.~\ref{eq:1-80}, la incertezza combinata quadrata può essere vista come la somma delle incertezze della stima d’uscita $y$ generate dalle incertezze quadrate stimate associate alle stime d’ingresso $x_i$.

I \textsc{coefficienti di sensibilità}\index{sensibilità!coefficienti}, $c_i$, a volte invece di essere calcolati in base alla conoscenza della funzione $f$, possono essere valutati sperimentalmente. In tal caso si misura la variazione prodotta su $Y$ da una variazione di una specifica grandezza d’ingresso $X_i$, mantenendo costanti le altre grandezze d’ingresso: $c_i=\Delta y/\Delta x_i$ (costanti tutte le grandezze d’ingresso diverse da $x_i$).

\subsection{Grandezze d’ingresso correlate} 
L’Eq~\ref{eq:1-79} e le sue derivate sono valide solo se le grandezze d’ingresso, $X_i$, sono indipendenti o scorrelate.

Se alcune delle $X_i$ sono \textsc{correlate} in misura significativa, bisogna tener conto delle correlazioni e in base all’Eq.~\ref{eq:1-11} l’espressione della varianza combinata risulta:
\begin{equation}
\begin{split}
u_c^2(y)&=\sum_{i=1}^{N}\left(\pderiv{f}{x_i}\right)^2u^2(x_i)+2\sum_{i=1}^{N-1}\sum_{j=i+1}^{N}\pderiv{f}{x_i}\pderiv{f}{x_j}u(x_i,x_j)=\\
&=\sum_{i=1}^{N}\left(\pderiv{f}{x_i}\right)^2u^2(x_i)+2\sum_{i=1}^{N-1}\sum_{j=i+1}^{N}\pderiv{f}{x_i}\pderiv{f}{x_j}u(x_i)u(x_j)r(x_i,x_j)=\\
&=\sum_{i=1}^{N}c_i^2u^2(x_i)+2\sum_{i=1}^{N-1}\sum_{j=i+1}^{N}c_ic_ju(x_i)u(x_j)r(x_i,x_j)
\end{split}
\label{eq:1-81}
\end{equation}
dove $u(x_i, x_j)=u(x_j, x_i)$ è la covarianza stimata associata a $x_i$ e a $x_j$.

Il grado di correlazione è caratterizzato dal coefficiente di correlazione $r(x_i,x_j)=r(x_j,
x_i)$, compreso tra $-1$ e $1$.

Nel caso le stime $x_i$ e $x_j$ siano indipendenti $r(x_i, x_j)=0$, se invece si presenti il caso particolarissimo di tutti i coefficienti di correlazione pari a $r(x_i, x_j)=1$, la precedente equazione si ridurrebbe alla seguente:
\begin{equation}
u_c^2(y)=\left[\sum_{i=1}^{N}\left(\pderiv{f}{x_i}\right)u(x_i)\right]^2=\left[\sum_{i=1}^{N}c_iu(x_i)\right]^2
\label{eq:1-82}
\end{equation}

La \textsc{covarianza}\index{covarianza} stimata di due grandezze d’ingresso $(X_i, X_j)$ correlate, stimate dalle medie determinate da $n$ coppie indipendenti di osservazioni simultanee ripetute è data da:
\begin{equation}
u(x_i,x_j)=s(\overline{X_i},\overline{X_j})=\frac{1}{n(n-1)}\sum_{k=1}^{n}(X_{ik}-\overline{X_i})(X_{jk}-\overline{X_j})
\label{eq:1-83}
\end{equation}
dove la coppia $(X_{ik}, X_{jk})$ è la $k$-esima delle $n$ coppie di osservazioni.

Le correlazioni esistenti e significative tra grandezze d’ingresso possono essere valutate sia sperimentalmente (valutazione di Tipo A della covarianza), sia teoricamente, utilizzando l’insieme di informazioni disponibili sulla variabilità correlata delle grandezze in questione (valutazione di tipo B della covarianza).

Una formula semplificata per il calcolo del coefficiente di correlazione con valutazione di tipo A è la seguente:
\begin{equation}
r(x_i,x_j)\approx\frac{u(x_i)\delta_j}{u(x_j)\delta_i}
\label{eq:1-84}
\end{equation}
dove $\delta_i$ è la variazione in $x_i$ che produce una variazione $\delta_j$ in $x_j$.
L’Eq.~\ref{eq:1-84} può anche essere usata per calcolare la variazione approssimata indotta su una stima d’ingresso da una variazione di un’altra, quando sia noto il loro coefficiente di correlazione.

Quando si deve valutare la correlazione tra una grandezza d’ingresso e una \textsc{grandezza d’influenza}, come la temperatura ambiente, la pressione atmosferica e l’umidità, occorre molta esperienza da parte dell’operatore.

Fortunatamente spesso tali correlazioni sono trascurabili, se così non fosse, si può evitare di introdurre le correlazioni se le grandezze d’influenza sono considerate come grandezze d’ingresso indipendenti aggiuntive, note che siano le loro incertezze standard indipendenti.

\section{Incertezza estesa}
Nel campo industriale e commerciale, così come in quello sanitario o lì dove siano coinvolte la salute e la sicurezza pubbliche, è preferibile introdurre l’\textsc{incertezza estesa}\index{incertezza!estesa} $U$, ottenuta moltiplicando l’incertezza standard combinata $u_c$ per un \textsc{fattore di copertura}\index{fattore di copertura} $k$:
\begin{equation}
U=k u_c(y)\label{eq:1-85}
\end{equation}

L’incertezza estesa è quella grandezza che definisce un intervallo, intorno al risultato della misura, che ci si aspetta contenga una frazione rilevante della distribuzione di valori, ragionevolmente attribuibili al misurando.

La scelta del fattore $k$, di solito compreso tra 2 e 3, è basata sulla probabilità di copertura o \textsc{livello di confidenza} o ancor meglio \textsc{grado di confidenza} richiesto all’intervallo. Tale fattore deve essere dichiarato, in modo che si possa ricavare l’incertezza standard della grandezza misurata, da usarsi nel calcolo dell’incertezza standard combinata di altri risultati di misure eventualmente dipendenti da quella grandezza.

Il risultato di una misura è espresso in modo appropriato come:
\begin{equation}
Y=y\pm U
\label{eq:1-86}
\end{equation}

L’Eq.~\ref{eq:1-86} sta a significare che la migliore stima del valore attribuibile al misurando $Y$ è $y$ e che ci si aspetta che l’intervallo $[y-U, y+U]$ comprenda una gran parte della distribuzione di valori ragionevolmente attribuibili a $Y$. Un intervallo di questo tipo è anche espresso come:
\begin{equation}
y-U\leq Y\leq y+U
\label{eq:1-87}
\end{equation}

Il termine livello di confidenza sarebbe appropriato solo se le incertezze fossero ottenute con valutazioni di tipo A, poiché l’incertezza estesa non fa riferimento specifico a un tipo di valutazione dell’incertezza, è più corretto parlare di \textsc{grado di confidenza}\index{confidenza!grado}. Si può quindi affermare che $U$ definisce, intorno al risultato della misura, un intervallo che comprende una gran parte $p$ della distribuzione di probabilità caratterizzata dal risultato stesso e dalla sua incertezza standard combinata, dove $p$ è la probabilità di copertura o grado di confidenza dell’intervallo. È chiaro che dovrebbe essere buona norma nella dichiarazione della incertezza estesa indicare anche il grado di confidenza p associato alla fascia d’incertezza definita da $\pm U$.

Nel caso in cui la distribuzione di probabilità delle stime del misurando e delle incertezze standard combinate siano di tipo normale, o approssimativamente tali, e il numero di gradi di libertà sia sufficientemente elevato, si può ritenere che per $k=2
p\approx 95\%$ e per $k=3 p\approx 99\%$.

Spesso la definizione di $p$ non è facile, in quanto non si riesce ad avere una conoscenza approfondita della distribuzione di probabilità delle stime del misurando.

\section{Livelli e intervalli di confidenza}
L'\textsc{intervallo di confidenza}\index{confidenza!intervallo} sta a indicare una \textsc{fascia di valori} entro la quale si può presumere che cadano i risultati di misure di una stessa grandezza, ottenuti anche con metodi diversi, una volta prefissata una certa \textsc{probabilità di copertura} o \textsc{grado di confidenza}.

Così, per esempio, nel caso particolare di una distribuzione gaussiana si è trovato che, fissato un livello di confidenza del $99,73\%$, i risultati sono  contenuti in una fascia di valore con scarti da quello centrale non superiori a $3\sigma$.

Nella Tabella~\ref{tab:1-3} sono riportati i valori del fattore di copertura $k$ che produce un intervallo avente un grado di confidenza $p$, nell’ipotesi di distribuzione normale.

\begin{table}[!ht]
\caption{Valori del fattore di copertura e del livello di confidenza nel caso di una distribuzione di tipo normale}
\begin{center}
\begin{tabular}{cc}
\hline
Livello o grado di confidenza p (percento) & Fattore di copertura k \\
\hline
68,27 & 1 \\
90 & 1,645 \\
95 & 1,960 \\
95,45 & 2\\
99 & 2,576\\
99,73 & 3
\end{tabular}
\end{center}
\label{tab:1-3}
\end{table}

In modo analogo si può definire un fattore di copertura per una qualsivoglia distribuzione.

Così per esempio nel caso di una distribuzione di probabilità rettangolare si ricorda che fissato un intervallo $(a,b)$ la deviazione standard risulta $\sigma=c/\sqrt 3$, dove $c=(b-a)/2$ è la mezza ampiezza della distribuzione. Il livello di confidenza p è: $57,74\%$ per $k=1$; $95\%$  per $k=1,65$; $99\%$ per $k=1,71$; $100\%$ per $k\geq\sqrt 3$. Il valor massimo $k=\sqrt 3=1,735$ deriva dall'uguaglianza $\mu+k\sigma=b$ od anche dalla $\mu-k\sigma=a$. Si dice che la distribuzione rettangolare è più stretta di quella normale, nel senso che essa è di estensione finita e non ha code.

Nell'\textsc{intervallo di confidenza} dovrebbe rientrare, con un prefissato \textsc{grado di confidenza}, il parametro da stimare o \textsc{misurando}.

\section{Presentazione dei risultati}
Il \textsc{risultato} di una misura, ovvero il valore attribuito a un misurando ottenuto dalla misura, va inteso come un’approssimazione o una \textsc{stima} del valore del misurando e quindi è completo solo quando è accompagnato dall’\textsc{indicazione dell’incertezza} di quella stima.

Nella presentazione del risultato di una misura le cifre riportate devono contenere tutte le informazioni che possono correttamente essere utilizzate.

È compito dell'operatore escludere le cifre che non contengano utili indicazioni e che appesantirebbero inutilmente un’eventuale successiva elaborazione dei dati.

L'operatore inoltre è la persona più qualificata a stabilire l'accuratezza del risultato ottenuto, ovvero quanto esso si avvicini al valore del misurando. Il risultato della misura è generalmente scritto come somma e differenza di due grandezze: il valore centrale $y$ della \textsc{fascia di incertezza} del misurando e la \textsc{metà $U$ dell’ampiezza} di tale fascia:
\[Y=y\pm U\]
l'\textsc{incertezza estesa} $U$ è riportata con una o preferibilmente, se possibile, due \textsc{cifre significative}, sebbene sia talvolta opportuno nel calcolo delle componenti dell’incertezza conservare ulteriori cifre per evitare errori di arrotondamento nei calcoli successivi.

I \textsc{coefficienti di correlazione} dovrebbero essere scritti con tre cifre significative se i loro valori assoluti sono prossimi a uno.

Esistono delle convenzioni sulle cifre significative da riportare nella presentazione di un risultato. Anche se non vi è un accordo internazionale ben definito, alcune scelte sono accettate da tutti. Normalmente l'\textsc{ultima cifra significativa} di un risultato è quella su cui ricade l'\textsc{incertezza della misura}. Inoltre nell'arrotondamento di un numero, l'ultima cifra che si conserva è aumentata di una unità se la prima cifra eliminata è maggiore di 5 o è 5. Ovvero l'ultima cifra non è variata solo quando la prima cifra eliminata è inferiore a 5. Nella presentazione dell’incertezza si può in alcuni casi \textsc{arrotondare per eccesso} anche quando la prima cifra eliminata è inferiore a 5.

\begin{table}
\caption{Elenco dei prefissi}
\begin{center}
\begin{tabular}{cccc}
\hline
Simbolo & Nome & Potenza & Esempi\footnote{Sono vietati i prefissi composti, formati mediante giustapposizione di più prefissi} \\
\hline
Y & $\si\yotta$ & $\num{1e24}$&\\
Z & $\si\zetta$ & $\num{1e21}$&\\
E & $\si\exa$ & $\num{1e18}$&\\
P & $\si\peta$ & $\num{1e15}$ & $\SI{1}{\peta\hertz}$\\
T & $\si\tera$ & $\num{1e12}$ & $\SI{1}{\tera\watt\hour}$\\
G & $\si\giga$ & $\num{1e9}$ & $\SI{1}{\giga\hertz}$\\
M & $\si\mega$ & $\num{1e6} $ &$\SI{1}{\mega\watt}$\\
k & $\si\kilo$ & $\num{1e3}$&$\SI{1}{\kilo\volt}$\\
h & $\si\hecto$ & $\num{1e2}$&$\SI{1}{\hecto\gram}$\\
da & $\si\deca$ & 10&\\
d & $\si\deci$ & $\num{1e-1}$&$\SI{1}{\deci\metre}$\\
c & centi & $\num{1e-2}$&$\SI{1}{\centi\radian}$\\
m & $\si\milli$ & $\num{1e-3}$&$\SI{1}{\milli\ampere}$\\
$\mu$ & $\si\micro$ & $\num{1e-6}$&$\SI{1}{\micro\second}$\\
n & $\si\nano$ & $\num{1e-9}$&\\
p & $\si\pico$ & $\num{1e-12}$&$\SI{1}{\pico\farad}$\\
f & $\si\femto$ & $\num{1e-15}$&\\
a & $\si\atto$ & $\num{1e-18}$&\\
z & $\si\zepto$ & $\num{1e-21}$&\\
y& $\si\yocto$ & $\num{1e-24}$&\\
\hline
\end{tabular}
\end{center}
\label{tab:1-5}
\end{table}

Un'altra convenzione correntemente accettata è  quella relativa agli \textsc{zeri significativi}. Nella presentazione di un numero non si considerano significativi quegli zeri che hanno la sola funzione di indicare l'entità numerica del dato presentato, ovvero la corretta posizione delle cifre significative alla destra o alla sinistra degli zeri. I numeri 512 000 e 0,003 18 hanno, ad esempio, solo tre cifre significative, mentre 0,051 300 ne ha cinque, in quanto gli ultimi due zeri sarebbero superflui se servissero a posizionare le cifre 513 e quindi sono riportati unicamente per stabilire la precisione della misura.

Ad evitare incomprensioni nella presentazione di risultati di esperienze scientifiche, si è convenuto di non riportare alla destra delle cifre significative zeri che non siano anch'essi significativi, utilizzando opportuni \textsc{prefissi} che rappresentano determinate potenze del $10$ e che sono riportati in Tabella~\ref{tab:1-5}.

Un modo molto utilizzato per la presentazione delle misure eseguite e dei risultati ottenuti è quello delle tabelle. Una \textsc{tabella} di misure e di calcoli dovrebbe rispettare determinate regole.

Essa deve avere un \textsc{titolo} esplicativo dei dati presentati.

\emph{Ogni colonna} di cifre dovrebbe far riferimento a risultati, ottenuti da misure dirette o indirette, associati ad \emph{una sola quantità}, essa inoltre in testa deve riportare un titolo che consenta di identificare i dati contenuti nella colonna stessa.

È importante anche non dimenticare di riportare sotto il titolo della colonna l'\textsc{unità di misura} dei dati, racchiusa in parentesi tonde o quadre. Il titolo della tabella e i titoli delle colonne con le unità di misura vanno separati tra loro e dai dati numerici mediante linee orizzontali.

È buona norma infine associare ad ogni colonna di dati le \textsc{incertezze} da cui essi sono affetti, con la loro denominazione, o utilizzando una colonna aggiuntiva o facendo riferimento solo al valor massimo della fascia d’incertezza e in tal caso questo si riporterà in coda alla rispettiva colonna.

A volte la presentazione dei dati avviene in \textsc{forma grafica}, anche se si perdono inevitabilmente informazioni dettagliate sull’accuratezza dei risultati. Vi sono degli innegabili vantaggi di tale presentazione su quella tabellare.

In particolare i grafici forniscono una \textsc{rappresentazione visiva} dei risultati che consente una comprensione più immediata del fenomeno fisico. Inoltre è possibile verificare in modo immediato e sintetico il tipo di relazione esistente fra due variabili.

Come per il caso della compilazione di tabelle, esistono determinate regole per una rappresentazione appropriata dei dati in forma grafica.

Il grafico deve innanzi tutto contenere indicazioni, attraverso un’\textsc{intestazione}, un titolo, una didascalia, sul tipo di misure eseguite, sulla \textsc{apparecchiatura in prova} e sulle condizioni nelle quali sono state eseguite le misure.

Le curve vanno tracciate con cura scegliendo in modo opportuno le \textsc{scale}. Su uno stesso grafico si possono tracciare più curve e in tal caso su ciascuna sinteticamente va indicata la grandezza rappresentata.

La scelta delle scale sia in ascisse sia in ordinate deve essere fatta in modo da rendere facile la \textsc{lettura} dei valori relativi a un determinato punto della curva, nel senso che la grandezza sia letta direttamente senza che venga richiesta alcuna operazione ausiliaria di moltiplicazione o divisione.

È importante non dimenticare l'indicazione, attraverso il simbolo, racchiuso in parentesi tonde o quadre, delle \textsc{unità di misura} sia sull'asse delle ascisse sia su quella o quelle delle ordinate.

La \textsc{scala} inoltre deve consentire la \textsc{lettura} dei dati con l’\textsc{approssimazione} derivante dall'\textsc{incertezza di misura} associata a quella grandezza.

Così per esempio se i risultati di una misura sono conosciuti con un’incertezza dell'un per cento non è corretto scegliere una scala che consenta una lettura con un'approssimazione intorno a frazioni dell'unità per cento o a decine per cento.

La \textsc{scala} non va riportata a margine del grafico, ma deve essere comprensibile dalla \textsc{lettura dei valori numerici} riportati sugli \textsc{assi}.  Questi valori numerici devono essere possibilmente \textsc{interi}, \textsc{equispaziati} sull'asse e in numero di tre o quattro per ragioni estetiche.

I \textsc{punti sperimentali} vanno evidenziati sul grafico, senza l'indicazione dei valori delle coordinate, e nel caso si riportino più curve sullo stesso grafico è bene distinguere i punti relativi a ciascuna di loro con segni differenti.

Poiché i fenomeni macroscopici sono continui, i punti sperimentali vanno raccordati con \textsc{curve continue}, salvo quando si tratti di \textsc{caratteristiche discontinue}, nel qual caso si può ricorrere anche a una \textsc{spezzata} o a un \textsc{istogramma}.

Quando il raccordo dei diversi punti risulta difficoltoso è necessario \textsc{interpolarli}, il che lo si può fare ad occhio o ricorrendo a particolari algoritmi ai quali si accennerà in seguito.

È importante sottolineare al riguardo che ogni \textsc{linea} che raccordi i punti sperimentali è matematicamente accettabile come una rappresentazione grafica del fenomeno fisico in esame se la \textsc{massima deviazione} dei \textsc{punti sperimentali} dalla curva è inferiore ai valori limite delle possibili \textsc{incertezze di misura}. Tuttavia fra le varie curve che si possono tracciare ve ne è una che risulta la migliore, in grado di minimizzare la somma algebrica degli scarti tra i punti sperimentali e quelli corrispondenti giacenti sulla curva stessa. Il miglior accordo tra curva e punti sperimentali si ottiene mediante opportune \textsc{ tecniche di regressione}.

\section{Prova del Chi-quadro}
Uno speciale tipo di prova, spesso utilizzata per verificare la equivalenza tra una funzione di densità di probabilità di dati, relativi a un campione di una popolazione, e una funzione teorica di densità di probabilità, è la prova del $\chi^2$ o della \textsc{bontà dell'approssimazione}. Un esempio può chiarire il significato della prova.

Al paragrafo~\ref{par:1-8}, in Tabella~\ref{tab:1-1}, sono stati forniti i dati relativi alla legge di probabilità, pi, relativa al lancio di due dadi.

La validità di tale legge è legata all'ipotesi di perfetta realizzazione dei dadi. Nel caso si esegua un gran numero di lanci e i risultati siano tali da non rispettare la suddetta legge di probabilità, sorge il dubbio che i dadi siano truccati.

Il problema è quello di stabilire un criterio per quantificare il disaccordo tra le due leggi. Con riferimento alle variabili discrete, la funzione di probabilità è in genere espressa in termini di frequenze dei vari eventi $F(x)$. 

In particolare si consideri un campione di $n$ misure della variabile $x$ e si presuma di conoscere la funzione di probabilità $p(x)$ (nel caso di variabili continue si farà riferimento alla densità di probabilità).

Le $n$ misure si raggruppino in $k$ \textsc{intervalli}, o \textsc{classi}, di prefissata ampiezza $\Delta x$, che insieme formano un istogramma delle frequenze. Il numero di misure che cadono all'interno dell'$i$-esima classe è chiamato la frequenza misurata nell'$i$-esima classe e sarà indicata con $F_i(\Delta x)$.

Il numero di osservazioni, che si attenderebbe cadere entro la $i$-esima classe in base alla funzione di probabilità attesa, sarà dato dal prodotto del numero di osservazioni $n$ per la probabilità che la misura cada nell'intervallo $i$-esimo, detta frequenza attesa: $np_i(\Delta x).$

\begin{table}[!ht]
\caption{Valori del chi-quadro per diversi gradi di libertà}
\begin{center}
\small
\begin{tabular}{ccl|ccl|ccl}
\hline
$\nu$&$\chi^2$&$\Pr$&$\nu$&$\chi^2$&$\Pr$&$\nu$&$\chi^2$&$\Pr$\\
\hline
1&.003157&.99&2&.0201&.99&3&.115&.99\\
1&.003628&.98&2&.0404&.98&3&.185&.98\\
1&.00393&.95& 2&.103&.95&3&.352&.95\\
1&.0158&.90& 2&.211&.90&3&.584&.90\\
1&.0642&.80&2&.446&.80&3&1.005&.80\\
1&1.642&.20&2&3.219&.20&3&4.642&.20\\
1&2.706&.10&2&4.605&.10&3&6.251&.10\\
1&3.841&.05&2&5.991&.05&3&7.815&.05\\
1&5.412&.02&2&7.824&.02&3&9.837&.02\\
1&6.635&.01&2&9.210&.01&3&11.341&.01\\
1&10.827&.001&2&13.815&.001&3&16.268&.001\\
4&.297&.99&5&.554&.99&6&.872&.99\\
4&.429&.98&5&.752&.98&6&1.134& .98\\
4&.711&.95&5&1.145&.95&6&1.635&.95\\
4&1.064&.90&5&1.61&.90&6&2.204&.90\\
4&1.649&.80&5&2.343&.80&6&3.07&.80\\
4&5.989&.20&5&7.289&.20&6&8.558&.20\\
4&7.779&.10&5&9.236&.10&6&10.645&.10\\
4&9.488&.05&5&11.07&.05&6&12.592&.05\\
4&11.668&.02&5&13.388&.02&6&15.033&.02\\
4&13.277&.01&5&15.086&.01&6&16.812&.01\\
4&18.465&.001&5&20.517&.001&6&22.457&.001\\
7&1.239&.99&8&1.646&.99&9&2.088&.99\\
7&1.564&.98&8&2.032&.98&9&2.532&.98\\
7&2.167&.95&8&2.733&.95&9&3.325& .95\\
7&2.833&.90&8&3.49&.90&9&4.168&.90\\
7&3.822&.80&8&4.594&.80&9&5.38&.80\\
7&9.803&.20&8&11.03&.20&9&12.242&.20\\
7&12.017&.10&8&13.362&.10&9&14.684&.10\\
7&14.067&.05&8&15.507&.05&9&16.919&.05\\
7&16.622&.02&8&18.168&.02&9&19.679&.02\\
7&18.475&.01&8&20.09&.01&9& 21.666&.01\\
7&24.322&.001&8&26.125&.001&9&27.877&.001\\
10&2.558&.99&11&3.053&.99&12&3.571&.99\\
10&3.059&.98&11&3.609&.98&12&4.178&.98\\
10&3.940&.95&11&4.575&.95&12&5.226&.95\\
10&4.865&.90&11&5.578&.90&12&6.304&.90\\
10&6.179&.80&11&6.989&.80&12&7.807&.80\\
10&13.442&.20&11&14.631&.20&12&15.812&.20\\
10&15.987&.10&11&17.275&.10&12&18.549&.10\\
10&18.307&.05&11&19.675&.05&12&21.026&.05\\
10&21.161&.02&11&22.618&.02&12&24.054&.02\\
10&23.209&.01&11&24.725& .01&12&26.217&.01\\
10&29.588&.001&11&31.264&.001&12&32.909&.001\\
13&4.107&.99&14&4.660&.99&15&5.229&.99\\
16&5.812&.99&17&6.408&.99&18&7.015&.99\\
19&7.633&.99&20&8.26&.99&21&8.897&.99\\
22&9.542&.99&23&10.196&.99&24&10.856&.99\\
25&11.524&.99&26&12.198&.99&27&12.897&.99\\
28&13.565&.99&29&14.256&.99&30&14.953&.99
\end{tabular}
\end{center}
\label{tab:1-4}
\end{table}

La differenza tra la frequenza attesa e quella misurata è data da $np_i(\Delta x)-F_i(\Delta x)$
per la $i$-esima classe. Un indicatore della differenza totale, relativa a tutte le classi, è il
$\chi^2$ definito nel modo seguente:
\begin{equation}
\chi^2=\sum_{i=1}^{k}\frac{\left[np_i(\Delta x)-F_i(\Delta x)\right]^2}{np_i(\Delta x)}
\label{eq:1-88}
\end{equation}

Si tratta ora di interpretare il risultato della prova. Chiaramente, al limite, se la funzione di probabilità relativa al campione preso in esame riproponesse esattamente quella attesa, si avrebbe $\chi^2=0$, il che è estremamente improbabile, ma fornisce l'indicazione di massima che la  discrepanza fra le distribuzioni cresce all'aumentare del $\chi^2$.

Un criterio per stabilire la bontà di approssimazione delle distribuzioni è quello di verificare che il $\chi^2$ sia inferiore al numero $k$ di classi, ma per meglio quantificare il risultato della prova conviene introdurre il concetto di grado di libertà $\nu$ della distribuzione fornita dall'Eq.~\ref{eq:1-88}. Esso è definito dal numero di quadrati indipendenti che sono presenti nell'Eq.~\ref{eq:1-88} ed è dato da $k$ meno il numero di vincoli lineari indipendenti imposti sulle misure.

Un vincolo è dato dal fatto che la frequenza relativa alla classe $k$-esima è nota una  volta raggruppati i dati nelle rimanenti $k-1$ classi, essendo noto $n$. Nel caso in cui la densità di probabilità attesa sia quella normale, con media e  varianza incognita, vi saranno altri due vincoli in quanto i dati dovranno essere utilizzati per il calcolo della media e della deviazione standard. Pertanto, nel caso molto comune in cui la prova del $\chi^2$ sia utilizzata per una verifica di normalità della funzione di distribuzione, i gradi di libertà risultano $\nu=k-3$.

In Tabella~\ref{tab:1-5} sono riportati i valori delle probabilità dell'evenienza che $\chi^2$ superi un determinato valore, riportato in tabella, in funzione di $\nu$, con probabilità variabile tra $0,99$ e $0,001$. Ad esempio per $\nu=25$ la probabilità che $\chi^2$ abbia un valore maggiore o uguale a $11,524$ è pari a $0,99$.

\section{Metodo dei minimi quadrati}
Il principio dei minimi quadrati fu formulato inizialmente da \emph{Legendre} il quale affermò che \emph{il valore più probabile di qualunque quantità misurata è tale che la somma dei quadrati delle deviazioni delle misure da questo valore è minimo.}

Assegnato quindi un insieme di $n$ misure il valore più probabile x della variabile è quello che minimizza la seguente sommatoria:
\begin{equation}
\sum_{i=1}^{n}(x-x_i)^2
\label{eq:1-89}
\end{equation}
il che si ottiene imponendo la condizione:
\begin{equation}
\deriv{}{x}\sum_{i=1}^{n}(x-x_i)^2=0
\label{eq:1-90}
\end{equation}

L'Eq.~\ref{eq:1-90} può essere considerata come una procedura di minimizzazione della varianza, da essa si ha:
\begin{equation}
\sum_{i=1}^{n}\deriv{}{x}(x-x_i)^2=2\sum_{i=1}^{n}\deriv{}{x}(x-x_i)=2n x-2\sum_{i=1}^{n}x_i=0
\label{eq:1-91}
\end{equation}
da cui
\begin{equation}
\chi=\frac{1}{n}\sum_{i=1}^{n}x_i
\label{eq:1-92}
\end{equation}
Dall'applicazione del principio dei minimi quadrati deriva dunque, in modo conforme a quanto esaminato in precedenza, che \emph{il valore più probabile di una quantità misurata è la media aritmetica delle misure}. Legendre applicò il metodo dei minimi quadrati alle equazioni lineari in due variabili. Si consideri l'equazione:
\begin{equation}
y=m x+q
\label{eq:1-93}
\end{equation}
e si supponga di aver eseguito diverse misure delle variabili $x$ e $y$ per aumentare la precisione nell'identificazione parametrica dell'Eq.1-140. Il numero $n$ di misure deve essere maggiore di $2$, in questo caso in cui le incognite $m$ ed $q$ sono in numero di $2$. Le $n$ equazioni trovate in genere non saranno consistenti e quindi esisteranno delle deviazioni che, con riferimento alla generica coppia $(x_i,y_i)$, possono essere espresse come segue:
\begin{equation}
d_i = m x_i + q - y_i
\label{eq:1-94}
\end{equation}

Se i punti sperimentali sono raccordabili con una retta, l'esistenza di valori non nulli delle deviazioni deriva dalla presenza di errori sperimentali sulle variabili $x$ e $y$. I valori più probabili di $m$ e $q$, ovvero quelli che consentono di individuare la retta che meglio raccordi i punti sperimentali, sono ottenibili dalla minimizzazione della seguente quantità:
\begin{equation}
\sum_{i=1}^{n}d_i^2=\sum_{i=1}^{n}(m x_i+q-y_i)^2
\label{eq:1-95}
\end{equation}

Per minimizzare la funzione a due variabili si possono uguagliare a zero le derivate parziali della funzione rispetto a ciascuna delle incognite:
\begin{equation}
\pderiv{}{m}\sum_{i=1}^{n}d_i^2=0 \qquad \pderiv{}{q}\sum_{i=1}^{n}d_i^2=0
\label{eq:1-96}
\end{equation}

Si ottengono in tal modo due equazioni che risolte simultaneamente forniscono i valori attesi di $m$ e $q$. Dall'Eq.~\ref{eq:1-96} si ottiene il seguente sistema:
\begin{equation}
\begin{cases}
\sum_{i=1}^{n}\pderiv{}{m}d_i^2 &= \sum_{i=1}^{n}2x_i(m x_i+q-y_i)\\
\sum_{i=1}^{n}\pderiv{}{q}d_i^2 &= \sum_{i=1}^{n}2(m x_i+q-y_i)
\end{cases}
\begin{cases}
m\sum_{i=1}^{n}x_i^2 +q n \overline{x} &= \sum_{i=1}^{n}x_iy_i\\
m \overline{x}+q=\overline{y}
\end{cases}
\label{eq:1-97}
\end{equation}
le cui soluzioni sono:
\begin{equation}
\begin{cases}
m=\frac{\sum_{i=1}^{n}x_iy_i-n\overline{x y}}{\sum_{i=1}^{n}x_i^2-n\overline{x}^2}=\frac{\sum_{i=1}^{n}x_iy_i-n\overline{x y}}{n\sigma_x^2}\\
q=\frac{\overline{y}\sum_{i=1}^{n}x_i^2-\overline{x}\sum_{i=1}^{n}x_iy_i}{\sum_{i=1}^{n}x_i^2-n\overline{x}^2}=\frac{\overline{y}\sum_{i=1}^{n}x_i^2-n\sum_{i=1}^{n}x_iy_i}{n\sigma_x^2}
\end{cases}
\label{eq:1-98}
\end{equation}

Il metodo dei minimi quadrati può essere generalizzato al caso in cui la relazione tra le variabili $x$ e $y$c non sia lineare. Questa per esempio può avere una relazione del tipo:
\begin{equation}
y=a_0+a_1x+a_2x^2+\dots+a_mx_m\label{eq:1-99}
\end{equation}
che comporta la determinazione di $m+1$ incognite. In tal caso le coppie di misure $(x_i,y_i)$ devono essere in numero $n$ maggiore di $m+1$. Le costanti $a_k$ possono essere valutate imponendo che sia minima la somma delle seguenti deviazioni:
\begin{equation}
\sum_{i=1}^{n}d_i^2=\sum_{i=1}^{n}(y_i-a_0-a_1x_i-a_2x_i^2-\dots-a_mx_i^m)^2
\label{eq:1-100}
\end{equation}

La procedura comporta la soluzione di $m+1$ equazioni ottenute uguagliando a zero le derivate parziali della somma delle deviazioni al quadrato rispetto a ognuna delle incognite $a_k$. I tempi di calcolo possono essere lunghi, anche utilizzando dei calcolatori numerici, quando il numero delle incognite risulti elevato.

Ciò ha portato alla messa a punto di una serie di algoritmi che consente di accelerare la minimizzazione di funzioni obiettivo del tipo di quelle date dall'Eq.~\ref{eq:1-100}. Queste procedure vanno sotto il nome di tecniche di ottimizzazione mediante l'\textsc{LSM} (acronimo delle parole inglesi "\emph{Least Squares Method}").

È sempre possibile considerare, al solito, opportuni pesi che possono servire sia ad accelerare la convergenza del metodo, sia a dare maggiore risalto ad alcuni risultati che si ritengano più attendibili di altri.

\section{Rette di regressione e coefficiente di correlazione}
Nel paragrafo precedente si è ipotizzato di conoscere a priori il legame funzionale
tra $x$ e $y$, a volte si può non essere certi su questa relazione funzionale.

Allo scopo di trovare la legge che meglio raccordi i punti sperimentali sono state concepite \textsc{procedure iterative di identificazione}.

Si ricorre in particolare a \textsc{tecniche di regressione} che consistono nel ricercare una relazione matematica fra le misure di due variabili, in modo tale che il valore di una variabile possa essere predetto dalla misura dell'altra variabile.

Senza entrare nel merito delle tecniche di regressione, si sottolinea che la verifica più semplice è quella della correlazione lineare. Per questa verifica si procede al solito ipotizzando la validità dell'Eq.~\ref{eq:1-93}. In genere si preferisce esprimere questa in altra forma, tenendo conto, come è facile verificare, che la coppia di punti, costituiti dalle medie dei dati sperimentali, cade sulla retta di Eq.~\ref{eq:1-93} per cui si può scrivere:
\begin{equation}
\overline{y}=m\overline{x}+q
\label{eq:1-101}
\end{equation}
Sottraendo l'Eq.~\ref{eq:1-101} dall'Eq.~\ref{eq:1-93}si ha l'equazione:
\begin{equation}
y-\overline{y}=m(x-\overline{x})
\label{eq:1-102}
\end{equation}
che prende anche il nome di retta di regressione di $y$ su $x$. L'Eq.~\ref{eq:1-101} può anche essere posta nella forma:
\begin{equation}
x-\overline{x}=\frac{1}{m}(y-\overline{y})=m'(y-\overline{y})
\label{eq:1-103}
\end{equation}
che fornisce la retta di regressione di $x$ su $y$.

Dal confronto tra l'Eq.~\ref{eq:1-102} e l'Eq.~\ref{eq:1-103} dovrebbe risultare verificata la uguaglianza $mm'=1$, nel caso di perfetta correlazione.

La relazione lineare in genere è vera solo approssimativamente. Si definisce
pertanto come \textsc{coefficiente di correlazione} la quantità $r=\sqrt{(mm')}$.

Nel caso in cui questo coefficiente risulti pari a 1 vi è perfetta correlazione tra $x$ e
$y$. Nel caso in cui $r$ sia uguale a zero, dovrà essere nullo o $m$ o $m'$. Nel primo caso dall'Eq.~\ref{eq:1-102} si ha $y=\overline{y}$ , ovvero non vi è correlazione tra i punti e la retta di regressione è parallela all'asse delle $x$, nel secondo caso, in base all'Eq.~\ref{eq:1-103} si ha $x=\overline{x}$ e la retta di regressione è parallela all'asse delle $y$.

In genere $r$ (compreso tra 0 e 1) non è mai perfettamente uguale a 1, per cui le due rette, le cui equazioni sono date dall'Eq.~\ref{eq:1-102} e Eq.~\ref{eq:1-103}, non coincideranno, ma passeranno ambedue per il punto di coordinate $(\overline{x},\overline{y})$. Si assume come retta che meglio approssima i dati sperimentali la bisettrice dell'angolo acuto fra le suddette rette.

Allo scopo di fornire un'espressione per il calcolo del coefficiente di correlazione si minimizzi la somma degli scarti al quadrato calcolati in base all'Eq.~\ref{eq:1-103} per il calcolo di $m’$, che consente di ottenere la seguente espressione di $r$:
\begin{equation}
r=\sqrt{m m'}=\frac{\sum_{i=1}{n}{x_iy_i}-n\overline{x y}}{n\sigma_x\sigma_y}
\label{eq:1-104}
\end{equation}

A volte le rette di regressione sono espresse in funzione del coefficiente di
correlazione e in tal caso è facile che assumono la seguente forma:
\begin{equation}
\frac{y-\overline{y}}{\sigma_y}=r\frac{x-\overline{x}}{\sigma_x}\qquad\frac{x-\overline{x}}{\sigma_x}=r\frac{y-\overline{y}}{\sigma_y}
\end{equation}

Purtroppo in molti casi l'esame su un grafico dei punti sperimentali mostra che non esiste una relazione lineare tra i punti sperimentali. Tuttavia la conoscenza delle leggi fisiche che governano il processo possono spesso suggerire trasformazioni tali da ottenere una rappresentazione grafica approssimabile con una relazione lineare.

Tipico è il caso in cui le due variabili siano legate da una legge di tipo esponenziale, in quanto diagrammando, sui due assi cartesiani, i logaritmi delle due variabili si ottiene una relazione lineare che può essere stimata da una regressione lineare ai minimi quadrati.

Quando non è nota la legge fisica che lega le due variabili e la rappresentazione grafica mostra che i dati non siano raccordabili con una retta, le tecniche di regressione vanno applicate stimando i parametri di polinomi di ordine superiore, finché si ottiene una curva che approssimi i dati sperimentali in modo soddisfacente.

Uno dei requisiti fondamentali nelle tecniche di regressione è che la massima deviazione fra i diversi dati e la curva calcolata sia inferiore all’incertezza di misura calcolata e che determina la fascia di incertezza. Questa condizione non sempre è soddisfatta, per cui occorre un criterio che consenta di stabilire quale curva approssimi meglio di un’altra i dati sperimentali. Si tratta anche in questo caso di trovare un opportuno coefficiente di correlazione o qualcosa di analogo. Le cosiddette prove di confidenza, tese a questo scopo, sono diverse, una di queste consiste nel calcolare la somma $S$ delle deviazioni quadratiche relative ad un dato polinomio, che leghi le due variabili $x$ e $y$ e con il quale si è tentato di raccordare i dati, e nel confrontarlo con il valore di $S$ calcolato per la curva di regressione di un ordine superiore. La curva che si riterrà raccordare meglio delle altre i dati sperimentali sarà quella che presenterà il valore di $S$, tale che tutti i dati cadano all’interno della fascia d’incertezza. Esistono altre prove di confidenza che vanno oltre gli scopi del corso.


\clearpage{\pagestyle{empty}\cleardoublepage}
\chapter{Grandezze Unità Campioni}

\section{Cenni storici introduttivi}
La \textsc{metrologia} è, in senso lato, la scienza della misurazione delle grandezze fisiche e, più propriamente, lo studio storico dei sistemi metrici utilizzati dai vari popoli nelle diverse nazioni.

Essa è scienza antica e le sue origini sono difficilmente databili, in quanto pur avendo certezza sull'esistenza di diverse unità di misura, utilizzate anche prima della nascita di Cristo, non ne conosciamo né il valore né chi le propose.

È da ricordare la data del \textsc{7 aprile 1795}, quando con decreto legge in Francia la Convenzione Nazionale istituì il \textsc{Sistema Metrico Decimale}, che riconduceva tutte le unità di misura a soltanto quattro grandezze fondamentali e permetteva l'uso di soli multipli e sottomultipli decimali.

Il \textsc{metro}, unità di lunghezza, era definito come la decimilionesima parte di quadrante di un particolare meridiano terrestre passante nei pressi di Parigi e serviva a definire anche l'unità di superficie. Il \textsc{kilogrammo}, unità di massa, era definito come la massa di un decimetro cubo di acqua distillata alla temperatura della sua massima densità ($\SI{4}{\celsius}$). Il \textsc{litro}, unità di capacità o di volume, era definito come il volume di un kilogrammo di acqua distillata sempre alla temperatura di $\SI{4}{\celsius}$.

La poca praticità delle unità di misura così definite portò all'accordo di costruire dei campioni materiali disponibili in laboratorio. Il \textsc{29 giugno 1799} una delegazione dell'Istituto Nazionale delle Scienze e delle Arti presentava al Consiglio dei Cinquecento e deponeva negli archivi francesi i \textsc{prototipi} metallici del metro e del kilogrammo, detti degli Archivi.

\section{La conferenza generale dei pesi e delle misure (CGPM)}
Nel \textsc{1875}, con la partecipazione di rappresentanti provenienti da 17 paesi, veniva istituita la \textsc{Conferenza Generale dei Pesi e delle Misure} (CGPM), dove per misure si intendevano le lunghezze e le loro grandezze geometriche derivate. Inoltre si formavano sia il \textsc{CIPM} (\emph{Comité International des Poids et Mesures}), braccio esecutivo della CGPM, organizzato in \textsc{Comitati Consultivi}, sia il \textsc{BIPM} (\emph{Bureau International des Poids et Mesures}), la cui sede è Sèvres con compiti di ricerca e coordinamento internazionale.

La CGPM è ancora operante e mentre inizialmente si riuniva ogni sei anni, attualmente è convocata a Sèvres ogni quattro anni.

Fu la undicesima CGPM, tenutasi a Parigi dall'11 al \textsc{20 ottobre 1960} che, considerata sia la sesta risoluzione della decima CGPM, con la quale erano state adottate sei unità di un sistema pratico di misure per le relazioni internazionali, sia la terza risoluzione adottata nel 1956 dal CIPM, sia le raccomandazioni adottate dal CIPM nel 1958, concernenti l'abbreviazione del nome di questo sistema e i prefissi per la formazione dei multipli e sottomultipli delle unità, decise:
\begin{enumerate}
\item Il sistema metrico fondato sulle sei unità di misura base: \textsc{metro}; \textsc{kilogrammo}; \textsc{secondo}; \textsc{ampere}; \textsc{kelvin}; \textsc{candela}, è designato con il nome di "\textsc{Sistema Internazionale di Unità}";
\item L'abbreviazione internazionale di detto sistema è "\textsc{SI}".
\end{enumerate}

Nel 1971 la quattordicesima CGPM aggiunse nell'SI una settima unità base per le quantità di sostanza, costituita dalla \textsc{mole}. Il Sistema Internazionale è stato legalmente adottato in \textsc{Italia} con la legge n.122 del 14 aprile \textsc{1978} e con il D.P.R. n.802 del 12 agosto 1982 ed ha avuto l'approvazione oltre che dall'IEC anche dall'\textsc{ISO}
(\emph{International Standards Organization}).

\section{Unità di misura fondamentali e derivate}
Una qualsiasi grandezza fisica o chimica, per poter essere compiutamente espressa e quindi confrontata con altre o perché su di essa possano essere eseguiti dei calcoli, deve essere definita sia qualitativamente sia quantitativamente.

La \textsc{misurazione} come si è detto è un processo che porta ad ottenere sperimentalmente uno o più valori che possano ragionevolmente essere attribuiti al misurando e può essere intesa come il rapporto tra la grandezza fisica osservata e l'\textsc{unità di misura} della grandezza stessa, essa deve avere l'indicazione dell'unità ed è il mezzo utilizzato in tutto il mondo per fornire le informazioni necessarie sia sul tipo o specie sia sull’ampiezza della grandezza fisica in oggetto. Per \textsc{unità di misura} si intende quella grandezza reale scalare definita ed adottata per convenzione, con la quale può essere confrontata qualsiasi altra grandezza della stessa natura, per esprimere il rapporto di due grandezze come un numero.

Priva di unità la misura non ha alcun significato fisico. Questo mezzo efficiente di cui oggi si dispone, che ci consente di parlare la stessa lingua, anche se si lavora in continenti diversi, e che ci appare così logico e naturale, è in realtà, come si è tentato di mostrare sinteticamente nel paragrafo precedente, il frutto di un lavoro antico e faticoso di unificazione e razionalizzazione al quale hanno partecipato scienziati di tutto il mondo. E questo lavoro spesso sommerso continua e procede di pari passo con lo sviluppo ad abbracciare tutti i campi e i settori scientifici e tecnologici in rapida
espansione.

Le \textsc{unità di misura} si suddividono in \textsc{unità base} o \textsc{fondamentali} e \textsc{unità derivate}. Per \textsc{unità base} o fondamentale si intende l’unità di misura adottata per convenzione come grandezza base, mentre \textsc{unità derivata} è l’unità di misura di una grandezza derivata, definita, in un sistema di grandezze, in funzione delle grandezze base dello stesso sistema. Un’\textsc{unità derivata} si definisce \textsc{coerente} quando è un prodotto di potenze di unità base senza altro fattore di proporzionalità che non sia l’unità. Le unità base e derivate costituiscono un \textsc{sistema di unità}, inteso appunto come l’insieme delle unità base e derivate, con i loro multipli e sottomultipli, definito in accordo con regole fornite, in relazione a un dato sistema di grandezze. Un \textsc{sistema di unità} si definisce \textsc{coerente} quando tutte le unità derivate comprese in esso siano coerenti.

La scelta di alcune grandezze fisiche, da assumere come fondamentali e dalle quali, attraverso le leggi fisiche note, ricavare quelle derivate, non è stato affatto semplice ed è tutt'ora oggetto di discussione. È evidente, infatti, che da questa scelta dipende l'adozione di un certo sistema di unità di misure invece di un altro. Inoltre è da precisare che fra le grandezze fondamentali ve ne sono alcune cosiddette indipendenti in quanto non richiedono la definizione preventiva di alcuna unità.

Le grandezze e quindi le unità \textsc{derivate} possono essere definite o mediante le loro dimensioni, espresse in funzione delle unità base, o con nomi propri. Per esempio nell'SI l'unità di superficie è il metro quadro ($\si{\square\metre}$), mentre quella di forza è il \textsc{newton} ($\si{\newton}$) che dimensionalmente risulta pari a $\si{\kilogram\metre\per\second\squared}$.

Si riportano di seguito le unità base di misura del Sistema Internazionale, che è un sistema di unità coerente, con le definizioni e il simbolo, oltre che con le indicazioni sia della CGPM in cui tale definizione è stata adottata, sia dell'anno in cui si è tenuta la Conferenza. Grandezze fondamentali dell'SI:
\begin{enumerate}
\item Il \textsc{metro} (m) è la lunghezza del tragitto compiuto nel vuoto dalla luce in un  intervallo di tempo pari a 1/299 792 458 di secondo (diciassettesima CGPM del 1983)
\item Il \textsc{kilogrammo} (kg) è la massa del prototipo internazionale conservato al "Pavillon de Breteuil" in Sèvres (terza CGPM del 1901)
\item Il secondo (s) è l'intervallo di tempo che contiene 9 162 631 770 periodi della
radiazione corrispondente alla transizione tra i due livelli iperfini dello stato
fondamentale dell'atomo di cesio 133 (dodicesima CGPM del 1966)
\item L'\textsc{ampere} (A) è l'intensità di corrente elettrica che, mantenuta costante in due conduttori rettilinei, paralleli, di lunghezza infinita, di sezione circolare trascurabile e posti alla distanza di 1 m l'uno dall'altro nel vuoto, produce tra i due conduttori la forza di $2\,10^{-7}\si{\newton}$ su ogni metro di lunghezza (nona CGPM del 1948)
\item Il \textsc{kelvin} (K) è la frazione pari a 1/273,16 della temperatura termodinamica del punto triplo dell'acqua (tredicesima CGPM del 1968)
\item La \textsc{candela} (cd) è l'intensità luminosa in una assegnata direzione di una sorgente che emette una radiazione monocromatica di frequenza pari a 540 1012 Hz e la cui intensità energetica in quella direzione è di 1/683 W/sr (sedicesima CGPM 1979)
\item La \textsc{mole} (mol) è la quantità di sostanza di un sistema che contiene tante entità elementari quanti sono gli atomi in 0,012 kg di carbonio 12 (quattordicesima CGPM
del 1971).

Vi sono inoltre due \textsc{unità supplementari} relative agli angoli:
\item Il \textsc{radiante} (rad) è l'angolo piano fra due raggi di un cerchio che sottende sulla circonferenza un arco di lunghezza pari al raggio (undicesima CGPM del 1960)
\item Lo \textsc{steradiante} (sr) è l'angolo solido che avendo il suo vertice al centro di una sfera sottende una calotta sferica avente un'area di dimensioni pari al quadrato del raggio (undicesima CGPM del 1960).
\end{enumerate}

Nel \textsc{1980} il CIPM ha precisato che nell'SI le grandezze \textsc{angolo piano e angolo solido} devono esser considerate come grandezze derivate adimensionali e che, di conseguenza, le unità supplementari radiante e steradiante sono unità derivate adimensionali che possono o meno essere utilizzate nelle espressioni delle unità derivate.

Risulta evidente che con l'introduzione della nuova definizione del metro del 1983 oltre a dover fissare $\mu_0 = 4\pi 10^{-7}\si{\metre\,\kilogram/\second\squared\ampere\squared}$ la permeabilità del vuoto è stato necessario definire un'altra costante fondamentale, in particolare, la velocità della luce nel vuoto $c=2,997 924 58 \,10^8 \si{\metre/\second}$. In tal modo, per la legge di Maxwell, resta fissata anche la permettività del vuoto $\varepsilon_0=1/\mu_0 c^2= 8,854 187 817 6\,10^{-12}\si{\second^4\ampere\squared/\kilogram\,\meter^3}$. In realtà per la definizione della mole è stata implicitamente fissata anche la costante di \textsc{Avogadro}.

Le grandezze base \textsc{indipendenti} attualmente sono il \textsc{kilogrammo}, il \textsc{secondo} e il \textsc{kelvin}. Infatti la definizione del metro richiede quella del secondo, l'ampere è definito sulla base del kilogrammo e del metro, la mole utilizza la definizione del kilogrammo e la candela è definita in base al secondo al kilogrammo e al metro.

È interessante inoltre notare che le attuali unità base possono essere raggruppate in tre distinte categorie. La \textsc{prima categoria} è quella che fa riferimento a un \textsc{prototipo} e in essa è compreso esplicitamente il \textsc{kilogrammo} e in parte anche la \textsc{mole}, per il suo riferimento al kilogrammo. La \textsc{seconda categoria} è quella che fa riferimento alla \textsc{caratteristica di un fenomeno} o di uno \textsc{stato fisico}. Appartengono a questo gruppo esplicitamente il \textsc{secondo} e il \textsc{kelvin} e in subordine la \textsc{candela}. La \textsc{terza categoria} è quella che fa riferimento a \textsc{costanti fondamentali} e in essa rientrano il \textsc{metro} e l'\textsc{ampere}.

\begin{table}[!t]
\caption{Unità derivate del SI}
\begin{tabular}{p{0.25\textwidth}p{0.35\textwidth}ccc}
Quantità & Nome & Simbolo & Dimensioni & Derivazione \\
\hline
Area & metro quadro && $L^2$ & $\si{\meter\squared}$ \\
Volume & metro cubo && $L^3$ & $m^3$ \\
Densità di massa & kilogrammo per (o al) metro cubo && $L^{-3}M$ & $\si{\kilogram/\metre^3}$ \\
Velocità lineare & metro per (o al) secondo && $LT^{-1}$ & $\si{\metre/\second}$ \\
Velocità angolare & radiante per (o al) secondo && $T^{-1}$ & $\si{\radian/\second}$\\
Accelerazione lineare & metro per (o al) secondo quadro && $LT^{-2}$ & $\si{\metre/\second\squared}$ \\
Accelerazione angolare & radiante per (o al) secondo quadro && $T^{-2}$ & $\si{\radian/\second\squared}$ \\
Frequenza & hertz & Hz & $T^{-1}$ & $\si{1/\second} $ \\
Forza & newton & N & $LMT^{-2}$ & $\si{\kilogram\,\metre/\second\squared}$ \\ 
Pressione & pascal & Pa & $L^{-1}MT^{-2}$ & $\si{\newton/\metre\squared}$ \\
Potenza & watt & W & $L^2MT^{-3}$ & N m/s \\
Energia & joule & J & $L^2MT^{-2}$ & N m (W s) \\
Carica elettrica & coulomb & C & $TI$ & A s \\
Potenziale elettrico & volt & V &  $L^2MT^{-3}I^{-1}$ & W/A \\
Flusso magnetico & weber & Wb & $L^2MT^{-2}I{-1}$ & V s \\
Densità flusso magnetico & tesla & T & $MT^{-2}I{-1}$ & $\si{\weber/\metre\squared}$ \\
Resistenza & ohm & $\si{\ohm}$ & $L^2MT^{-3}I^{-2}$ & V/A \\
Conduttanza & siemens & S & $L^{-2}M^{-1}T^3I^2$ & $\si{\ampere/\volt}$ \\
Capacità & farad & F & $L^{-2}M^{-1}T^4I^2$ & $\si{\ampere\second/\volt}$ ($\si{\coulomb/\volt}$) \\
Induttanza & henry & H & $L^2MT^{-2}I{-2}$ & $\si{\volt\second/\ampere}$ ($\si{\weber/\ampere}$) \\
Flusso luminoso & lumen & lm && $\si{\candela\steradian}$ \\
Illuminamento & lux & lx && $\si{\lumen/\metre\squared}$ \\
Luminanza & nit & nt && $\si{\candela/\metre\squared}$ \\
Concentrazione & mole per (o al) metro cubo &&& $\si{\mol/\metre^3}$ \\
Campo elettrico & volt per (o al) metro && $LMT^{-3}I^{-1}$ & $\si{\volt/\meter}$ \\
Campo magnetico & ampere per (o al) metro && $L^{-1}I$ &$\si{\ampere/\meter}$  \\
Coppia & newton metro && $L^2MT^{-2}$ & $\si{\newton\metre}$ \\
Viscosità dinamica & pascal secondo && $L^{-1}MT^{-1}$ & $\si{\pascal\second}$ \\
Tensione superficiale & newton per (o al) metro && $MT^{-2}$ & $\si{\newton/\metre}$ \\
Densità di potenza & watt per (o al) metro quadro && $MT^{-3}$ & $\si{\watt/\metre\squared}$ \\
Densità di energia & joule per (o al) metro cubo && $L^{-1}MT^{-2}$ & $\si{\joule/\metre^3}$\\
Capacità termica & joule per (o al) kelvin && $L^2MT^{-2}K^{-1}$ & $\si{\joule/\kelvin}$ \\
Resistività & ohm metro && $L^3MT^{-3}I^{-2}$ & $\si{\watt\metre}$ \\
Permettività & farad per (o al) metro && $L^{-3}M^{-1}T^4I^2$ & $\si{\farad/\metre}$ \\
Permeabilità & henry per (o al) metro && $LMT^{-2}I^{-2}$ & $\si{\henry/\metre}$ \\
Densità di corrente & ampere per (o al) metro quadro && $L^{-2}I$ & $\si{\ampere/\meter\squared}$ \\
Forza magneto motrice & amperspira && $I$ & $\si{\ampere}$ \\
\hline
\end{tabular}
\label{tab:2-1}
\end{table}

È estremamente difficile prevedere come si evolverà e si modificherà il gruppo delle unità base nell’SI. Certamente il vincolo attuale dell'\textsc{ampere} a una grandezza meccanica quale il kilogrammo, definito tramite il prototipo, limita l'accuratezza delle misure di grandezze elettriche, in contrasto con le disponibilità oggi offerte dalla strumentazione in commercio. Questo lascia presumere che si possa andare presto alla sostituzione con altra dell'unità elettrica fondamentale. Già il \textsc{CCE}, nella diciottesima sessione del 1988, ha raccomandato la riproduzione del volt con l'\textsc{effetto Josephson}, fissando la costante $2e/h=483\,597,9 	,\si{\giga\hertz/\volt}$, con un'incertezza di 4 parti in 107. Una giunzione fra due materiali superconduttori costituita da un sottilissimo strato di materiale isolante quando sia irradiata con energia a radiofrequenza di frequenza f presenta una caratteristica tensione frequenza a gradinata indipendente dalle condizioni sperimentali, con una netta distinzione fra i livelli relativi a due gradini successivi. L'ampiezza di un gradino di tensione è data da:
\begin{equation}
\Delta V=\frac{h}{2e}f
\end{equation}
dove $h$ è la costante di Planck, e la carica dell'elettrone. Per mezzo di questa relazione è possibile effettuare una misurazione di tensione elettrica, indirettamente, con una
misurazione di frequenza. La giunzione isolante può essere prodotta in diversi modi e in
genere per frequenze di qualche decina di gigahertz manifesta livelli di tensione di diverse decine di microvolt. Il volt è quindi il possibile futuro sostituto dell'ampere tra le unità fondamentali.

Nella Tabella~\ref{tab:2-1} sono riportate alcune importanti unità derivate nell'SI, il loro
nome, il simbolo, la dimensione e la derivazione.

\begin{figure}
\includegraphics{document_image1}
\caption{Effetto Josephson “in corrente alternata”: Relazione tra la tensione (asse orizzontale) e la corrente (asse verticale) ai capi di una giunzione. In rosso sono evidenziati gli intervalli di valore di corrente (“gradini”) in cui il valore della tensione è costante e dipende solamente dalla frequenza del segnale con cui la giunzione viene irradiata.}
\label{fig:2-1}
\end{figure}

Nella Tabella~\ref{tab:2-1} sono riportate anche le dimensioni fisiche delle grandezze derivate, avendo indicato le dimensioni della lunghezza con $L$, della massa con $M$, del tempo con $T$ e della corrente elettrica con $I$.

L'indicazione dimensionale di una grandezza ha un duplice scopo, sia di facilitare il passaggio da un sistema di misura a un altro, sia di verificare la correttezza qualitativa di una relazione. Infatti per passare da un sistema di misura a un altro basta assegnare a ogni dimensione l'unità corrispondente e trasformare le unità da un sistema all'altro, il che risulta molto utile nel passaggio da vecchi sistemi all'SI. Inoltre per un rapido esame della correttezza formale di una relazione si può utilizzare il principio dell'\textsc{omogeneità dimensionale}\index{omogeneità dimensionale}, in base al quale il primo e il secondo membro di una determinata uguaglianza devono essere dimensionalmente identici.

È bene precisare che il CIPM ha anche fissato il modo in cui scrivere le unità di
misura e i relativi simboli.

Le \textsc{unità} anche se derivate da nomi propri \textsc{devono essere scritte} in carattere tondo, minuscolo e prive di accenti.

I \textsc{simboli} vanno scritti con l'iniziale maiuscola se derivati da nomi propri, minuscola in tutti gli altri casi, inoltre, essendo simboli e non abbreviazioni, non devono mai essere seguiti dal punto e infine vanno scritti sempre dopo il valore numerico.

L'\textsc{unità di misura}, quando non accompagnata dal valore numerico, nel contesto di una frase va riportata per esteso e mai in simbolo.

Per le \textsc{unità derivate}, composte da due o più altre, nella scrittura del simbolo non si devono usare trattini, ma o uno spazio vuoto o un punto a mezza altezza. Per quanto riguarda il prefisso kilo-, la scrittura riportata si preferisce in italiano a quella chilo-, inoltre esso nel simbolo va scritto con la lettera minuscola. Si consiglia infine, nella scrittura di un numero, di suddividere le terne di cifre partendo dalla virgola.

Nella Tabella~\ref{tab:2-2} sono invece riportate alcune \textsc{unità ausiliarie} il cui uso è ancora temporaneamente ammesso o riservato solo a campi specifici.

Per concludere questo paragrafo si riportano sinteticamente alcune definizioni relative ai \textsc{sistemi di unità di misura}.

Un sistema si dice \textsc{completo} quando le sue unità fondamentali siano tali da consentire di rappresentare tutti i fenomeni osservabili.

L'aggettivazione di \textsc{assoluto} compete ai sistemi caratterizzati dall'invariabilità temporale e spaziale delle unità per la cui definizione non occorre quindi ricorrere a sperimentazioni.

Un sistema, come si è detto, è \textsc{coerente} quando il prodotto e il quoziente di più unità danno luogo a una nuova unità di valore unitario.

\textsc{Decimale} è il sistema i cui multipli e sottomultipli delle sue unità sono potenze del dieci.

Un sistema si dice \textsc{razionalizzato} quando i coefficienti numerici che legano le diverse grandezze contengono il numero irrazionale $\pi$ solo in formule relative a configurazioni circolari, sferiche o cilindriche. Si ricorda che la razionalizzazione dei sistemi di unità è dovuta all'acume di \textsc{Giovanni Giorgi}, che includendo il fattore $4\pi$ nell'espressione della permeabilità del vuoto, consentì di far scomparire il numero irrazionale $\pi$ dalle equazioni dei campi non circolari scritte in unità CGS.

Un'ultima notazione va fatta a proposito della temperatura, per la quale oltre al kelvin è previsto anche l'uso del grado celsius che ha per simbolo $\si{\celsius}$, detto anche meno propriamente grado centigrado. Per definire la scala fondamentale delle temperature termodinamiche si fa riferimento al punto dello zero assoluto, al quale i corpi posseggono un'energia termica nulla. A scopi pratici sono stati fissati due punti sulla scala di temperatura Kelvin, precisamente $\SI{273.15}{\kelvin}$ e $\SI{373.15}{\kelvin}$, che definiscono la scala pratica internazionale di temperatura, ovvero le temperature di riferimento, $\SI{0}{\celsius}$ e $\SI{100}{\celsius}$, della scala Celsius. Così in termini di intervalli di temperatura si ha la seguente uguaglianza $\SI{1}{\kelvin}$ = $\SI{1}{\celsius}$, mentre come livelli di temperaura per ottenere dai gradi Celsius i kelvin occorre aggiungere $\num{273.15}$.
 
 \begin{table}[!ht]
 \caption{Unità derivate del SI}
 \begin{center}
 \begin{tabular}{lcl}
Quantità & Simbolo & Equivalente SI \\
 \hline
 giorno & d & $\SI{86\,400}{\second} $ \\
 ora & h & $\SI{3\,600}{\second}$  \\
 minuto (tempo) & min & $\SI{60}{\second}$ \\
 grado (angolo) & $\si{\degree} $ & $\pi/180\,\si{\radian}$ \\
 minuto (angolo) & $'$ & $\pi/10\,800\,\si{\radian}$ \\
  secondo (angolo) & $"$ & $\pi/648\,000\,\si{\radian}$ \\
 ara & a  & $\SI{1}{\deci\meter\squared} =\SI{100}{\meter\squared}$ \\
 ettaro & ha & $\SI{1}{\hecto\meter\squared}=10^4\,\si{\meter\squared}$ \\
 barn & b & $\SI{100}{\femto\meter\squared}=10^{-28} \si{\meter\squared}$ \\
 atmosfera standard & atm & $\SI{101325}{\pascal}$ \\
 bar & bar & $0,1 \si{\mega\pascal} = 10^5\,\si{\pascal}$ \\
 litro & l & $\SI{1}{\deci\metre^3} =10^{-3}\,\si{\metre^3}$ \\
 tonnellata & t & $ 10^3\si{\kilogram} = \SI{1}{\mega\gram}$ \\
 unità di massa atomica & u & $1,660\,53 \,10^{-27}\,\si{\kilogram}$ \\
 angstrom & \AA{} & $0,1 \si{\nano\metre} = 10^{-10}\,\si{\metre}$ \\
 elettron-volt & \si{\electronvolt} & $1,602\,19\,10^{-19}\,\si{\joule}$ \\
 curie & Ci & $3,7\,10^{10}\,\si{\per\second}$ \\
 rontgen & R & $2,58\,10^{-4}\,\si{\coulomb/\kilogram}$\\
 \hline
 \end{tabular}
 \end{center}
 \label{tab:2-2}
 \end{table}

\section{Campioni metrici e sistema di certificazione}
Uno dei problemi più delicati e di più difficile soluzione nell'ambito della metrologia è quello di definire e realizzare opportuni \textsc{campioni} delle unità di misura adottate, in modo da ottenere riferimenti precisi e accessibili a chiunque avesse interesse a utilizzarli. Inizialmente i campioni erano dei prototipi che consentivano essi stessi la definizione delle unità di misura. Si ricordino il metro e il kilogrammo degli archivi.

Oggi, come si è visto, questo è valido solo per il kilogrammo, in quanto i
prototipi hanno svariati difetti quali la variazione delle caratteristiche con il tempo,
l'influenza delle condizioni ambientali, il limite nell'accuratezza della loro misura.
Attualmente i migliori campioni sono quelli atomici per l'invariabilità delle proprietà degli atomi in un isotopo di un dato elemento. Infatti i requisiti di un buon campione sono soprattutto quelli di \textsc{elevata accuratezza} e di \textsc{stabilità}, ovvero di invariabilità con il tempo, e quindi quelli di \textsc{accessibilità} e \textsc{riproducibilità}.

L'\textsc{accuratezza} è requisito indispensabile perché si possa contare su un riferimento certo, per tutti coloro che avessero necessità di controllare la taratura dei propri strumenti di laboratorio. La \textsc{stabilità} come si è detto è notevolmente migliorata con l'adozione dei campioni atomici, che, a differenza di altri, risentono in minima parte l'effetto delle grandezze di influenza. In tal modo risulta anche meno problematica l'\textsc{accessibilità} al campione a scopi di confronto. La \textsc{riproducibilità} di un campione, necessaria per cautelarsi da accidentali danneggiamenti, richiede che siano precisati nei minimi particolari i dati di progetto e di costruzione.

Poiché non è pensabile poter disporre di campioni metrici che presentino le precedenti caratteristiche in tutti i laboratori dove si eseguono tarature, si è pensato di realizzare diversi tipi di campioni di misura. Come per le unità di misura esistono quelle fondamentali e quelle derivate, così i campioni si classificano in:\textsc{ internazionali, nazionali, primari, secondari, di riferimento, di lavoro (o operativi), da trasporto e intrinseci}.

I \textsc{campioni internazionali di misura} sono quelli definiti come riconosciuti dai sottoscrittori di un accordo internazionale ed intesi al servizio del mondo intero. Basati su un accordo internazionale sono valutati e controllati mediante \textsc{misure assolute}, in termini delle unità fondamentali. Questi campioni sono conservati dal \textsc{BIPM} (\emph{Bureau International des Poids et Mesures}) e non sono disponibili per l'ordinaria taratura degli strumenti di misura.

I \textsc{campioni nazionali di misura} sono quelli riconosciuti da una autorità nazionale per essere utilizzati nello Stato o nell’economia come strumento base per l’assegnazione dei valori delle grandezze ad altri campioni di misura della stessa natura. Essi sono quelli disponibili presso i \textsc{laboratori metrologici} dei paesi aderenti alla Conferenza Generale dei Pesi e delle Misure (CGPM). Essi rappresentano dei \textsc{campioni primari}, definiti come quelli impiegabili per una procedura di misura primaria, o creati come oggetto, scelto per convenzione, e sono tarati indipendentemente, mediante \textsc{misure assolute} in ognuno dei laboratori nazionali. I risultati delle misure sono confrontati con quelli ottenuti dagli altri laboratori, per giungere a un valore medio mondiale relativo a quel campione, con la definizione dell'\textsc{incertezza}. I Cicli internazionali di confronto sono organizzati dai singoli comitati consultivi del \textsc{CIPM} e, in ambito della Unione Europea (\textsc{UE}), dal "\emph{Bureau Communautaire de Référence}" (\textsc{BCR}). I campioni primari hanno lo scopo di consentire la \textsc{verifica} e la \textsc{taratura} dei campioni secondari. In Italia, la realizzazione dei campioni metrici primari è affidata all'Istituto Elettrotecnico Nazionale Galileo Ferraris (\textsc{IENGF}) e all'Istituto di Metrologia Gustavo Colonnetti (\textsc{IMGC}), che sono confluiti nell'\textsc{INRiM} (\emph{Istituto nazionale di ricerca metrologica}) con Decreto Legislativo n. 38 del 21 gennaio 2004. Uno degli istituti metrologici più famosi nel mondo è quello allogato a Gaithersburg e Boulder negli USA, che dal 1988 ha assunto il nome di \emph{National Institute of Standards and Techonology} (\textsc{NIST}), cambiando quello più noto di \emph{National Bureau of Standards} (\textsc{NBS}), istituito nel 1901.

I \textsc{campioni secondari} (detti anche campioni di prima linea) sono quelli tarati attraverso un confronto con i campioni primari relativi alla grandezza in esame e rappresentano, insieme con i campioni primari, i cosiddetti \textsc{campioni di riferimento}, definiti come quelli destinati alla taratura di altri campioni di misura per grandezze della stessa natura in una determinata organizzazione o in un dato ambiente. Essi sono utilizzati nei laboratori di misura dell'industria e dei centri di taratura, cui è demandato il compito del loro mantenimento e della verifica periodica. Essi con una certa frequenza sono inviati presso gli istituti primari per una verifica della taratura, inoltre dispongono di un certificato attestante la data della verifica e lo scostamento del valore da quello del campione primario.

I \textsc{campioni di lavoro} o \textsc{operativi} (detti anche campioni di seconda linea) definiti come quelli impiegati di routine per tarare o verificare la taratura di strumenti o sistemi di misura. Sono quelli disponibili sul mercato a prezzi contenuti in un ampio campo di valori, per consentire il controllo e la taratura di strumenti da laboratorio impiegati per svariate applicazioni industriali. La loro accuratezza è in genere dell'ordine di parti per milione (ppm). La loro utilizzazione è aumentata notevolmente con l'avvento dei sistemi automatici di prova e di quelli di controllo della qualità. In questi casi consentono  diverificare che il sistema di misura operi nei limiti di accuratezza richiesti. I campioni operativi sono controllati in sequenza e con una certa periodicità all'interno dei laboratori industriali mediante i campioni secondari.

I \textsc{campioni da trasporto} sono quelli realizzati con tecniche particolari in modo che possano essere trasportati fra luoghi diversi senza danneggiarsi o perdere le loro caratteristiche.

I \textsc{campioni intrinseci} sono quelli basati su una proprietà intrinseca e riproducibile di un fenomeno o di una sostanza. Così ad esempio una cella dove è conservato il punto triplo dell’acqua costituisce un campione intrinseco della temperatura termodinamica. Così un riferimento di tensione ad \textsc{effetto Josephson} rappresenta un campione intrinseco di differenza di potenziale elettrico, ovvero di tensione.

A causa della difficoltà di realizzazione di un campione di \textsc{ampere}, in base alla definizione di esso data nell'SI, la maggior parte degli istituti metrologici nazionali  utilizza banchi di pile campione e resistori per il mantenimento dei campioni primari dell'ampere. Il confronto degli standard nazionali è fatto regolarmente attraverso il \textsc{BIPM} a Sevres in Francia. Quindi il campione di intensità di corrente elettrica è ricavato dalla legge di \textsc{Ohm} mediante due campioni, uno di \textsc{f.e.m.} e uno di \textsc{resistenza}. In Italia  entrambi i campioni sono custoditi presso l'INRIM di Torino. Il campione di f.e.m. è un gruppo di pile \textsc{Weston} sature, controllate mediante l'\textsc{effetto Josephson}, il che assicura un'incertezza intorno a $10^{-7}$; quello di resistenza elettrica è definito come la resistenza media di un gruppo di 10 resistori campione in \emph{manganina} da $\SI{1}{\ohm}$, con un'incertezza di $1\,10^{-7}$ rispetto a quello del BIPM. Allo scopo di evitare l'influenza delle resistenze di contatto tra resistore e circuito di misura, i resistori campione presentano una  particolare realizzazione a \emph{quattro morsetti}, due amperometrici esterni, in genere di dimensioni geometriche maggiori degli altri due, attraverso i quali il resistore è soggetto al passaggio della corrente elettrica, e due voltmetrici interni rispetto a quelli  amperometrici, dai quali si preleva la caduta di tensione causata dalla circolazione della  corrente elettrica.

Il confronto tra le pile campione, nonostante mostri che esse presentano un elevato livello di precisione e stabilità, non garantisce il valore assoluto delle pile stesse. Per far questo attualmente nei laboratori primari si ricorre sempre più frequentemente all'effetto Josephson. Sfruttando l'effetto Josephson si riesce a correggere la deriva delle f.e.m. delle pile campione il che ha permesso di ottenere una maggiore uniformità nelle misure del volt tra i diversi laboratori primari.

Per quanto attiene ai resistori campioni a essi si richiede stabilità, basso coefficiente di temperatura e l'insorgere di f.e.m. termoelettriche di entità trascurabile nel contatto tra materiali diversi. I migliori risultati in tal senso si sono ottenuti con leghe di rame, manganese e nickel, immerse in olio.

La \textsc{riferibilità metrologica} delle misurazioni è la proprietà che ha un risultato di misura solo quando tale risultato possa essere ricondotto a un \textsc{riferimento} attraverso una catena ininterrotta e documentata di tarature, le quali contribuiscono ciascuna alla determinazione dell’incertezza di misura. La riferibilità ai campioni nazionali o internazionali delle unità del Sistema Internazionale (SI) delle unità di misura, con riferimento alle misure eseguite nei laboratori dell'industria e dei centri di ricerca è oggi garantita dal \textsc{Servizio di Taratura in Italia} (\textsc{SIT}), che opera secondo quanto previsto dalla normativa tecnica, dagli accordi internazionali siglati dal SIT e dalla legge n\textordmasculine 273/91 sul Sistema Nazionale di Taratura. La certificazione rilasciata dal SIT ha una validità che supera l'ambito nazionale, in quanto il SIT è consociato alla \textsc{WECC} (\emph{Western European Calibration Cooperation}) che vede dal 1975 la partecipazione di più di una decina di paesi europei. Con funzioni analoghe al SIT in Italia operano il \textsc{BCS} (\emph{British Calibration Service}) in Inghilterra e il \textsc{DKD} (\emph{Deutscher Kalibrierdienst}) in Germania, questi servizi hanno concordato il mutuo riconoscimento dell'equivalenza tecnica dei rispettivi certificati di  taratura. Nel 1991 è stato istituito l’SNT (Sistema Nazionale di Taratura) con il compito di disseminazione delle diverse unità di misura sul territorio nazionale. Esso è composto dai laboratori primari dell'INRIM, dell'\textsc{ENEA} (\emph{Ente Nazionale per la Ricerca e per lo Sviluppo dell'Energia Nucleare e delle Energie Alternative}) e dell'ISS (\emph{Istituto Superiore di Sanità}), dal \textsc{SIT} e da una serie sempre crescente di laboratori accreditati dagli istituti primari di metrologia. Questi laboratori, detti anche \textsc{Centri di Taratura}, operano come laboratori secondari, riconosciuti idonei ad affiancare gli istituti primari nella \textsc{disseminazione} delle unità di misura. Ogni centro di taratura è dotato di campioni secondari o di prima linea, che vanno verificati negli istituti primari e quindi devono assicurare stabilità anche se soggetti a trasporto. Per \textsc{accreditamento} si intende “attestazione dell’acquisizione delle competenze” e consiste in un procedimento con cui un organismo riconosciuto attesta formalmente la competenza di un altro organismo (o di una persona) a svolgere specifiche funzioni. I centri di taratura autorizzati devono quindi avere l’accreditamento SIT.

Gli \textsc{enti normatori} in Italia sono l’\textsc{UNI} (\emph{Ente Nazionale Italiano di Unificazione}) e il \textsc{CEI} (\emph{Comitato Elettrotecnico Italiano}). Questi enti sono i rappresentanti italiani nei principali organismi di normazione e certificazione internazionali, l’UNI nell’ISO e il CEI in: IEC, CENELEC, IECQ, IECEE, CIGRE, AVERE. Il CEI inoltre, tramite il CONCIT, partecipa all’attività dell’ETSI, ente normatore europeo nel settore delle telecomunicazioni.

Nel \textsc{1988} l’UNI e il CEI, con il patrocinio del Ministero dell’Industria del Commercio e dell’Artigianato (MICA), del CNR, dell’ENEA e delle Camere di Commercio, Industria, Artigianato e Agricoltura, hanno dato vita al \textsc{SINAL} (\emph{Sistema Nazionale per l’Accreditamento dei Laboratori}). L’accreditamento, ovvero l’accettazione in ambito nazionale dei risultati delle prove eseguite, è concesso ai laboratori di prova nazionali ed esteri che operano in conformità alle norme UNI CEI EN 45001 ed alle prescrizioni dello stesso SINAL. Nel \textsc{1991}, sempre per iniziativa dell’UNI e del CEI, con la partecipazione di MICA, CNR ed ENEA, è stato costituito un altro ente di accreditamento, il \textsc{SINCERT} (\emph{Sistema Nazionale per l’Accreditamento degli Organismi di Certificazione}). Il compito specifico di quest’ente è quello di accreditare organismi di certificazione di sistemi di qualità, prodotti, personale, sistemi di gestione ambientale e organismi di ispezione. A seguito di una direttiva comunitaria (regolamento CE 765/2008) che prevede in ogni nazione un unico istituto di accreditamento, nel \textsc{2009} il SINAL e il SINCERT si sono fusi in \textsc{ACCREDIA} ed è sorto il COPA (Consorzio pubblico per l’accreditamento).

\clearpage{\pagestyle{empty}\cleardoublepage}
\chapter{Fondamenti sui sensori}
\section{Introduzione e definizioni}
Le \textsc{grandezze fisiche} da misurare nella maggior parte dei casi risultano \textsc{non elettriche}. D'altra parte i metodi di misura che assicurano la migliore accuratezza dei risultati e che consentono l'ottimizzazione nella progettazione della strumentazione di misura e controllo sono quelli elettrici. Allo scopo di utilizzare i metodi e le tecniche delle misure elettriche, la quantità non elettrica deve essere convertita in un segnale elettrico, il che avviene utilizzando un dispositivo che prende il nome di \textsc{sensore} o \textsc{trasduttore}. Non esiste ancora a livello internazionale un accordo sulle definizioni da attribuire ai termini trasduttore e sensore che molto spesso sono utilizzati in modo indifferenziato. Per cercare di distinguere i due termini, nel seguito si fornisce per essi una definizione riportata nell’ultima edizione, la terza, del \textsc{VIM} (\emph{International Vocabulary of Metrology}).
I termini sensori e trasduttori sono molto spesso utilizzati in modo indifferenziato. Per sensore si intende un elemento di un sistema di misura che è direttamente soggetto all’azione di un fenomeno, di corpi o di sostanze che trasmettono la grandezza da misurare. Nella nota del VIM a questa definizione si precisa che in alcuni campi lo stesso concetto è espresso con il termine rivelatore, che è un dispositivo o una sostanza in grado di indicare la presenza sempre di un fenomeno, di corpi o di sostanze, quando si ecceda un valore di soglia della grandezza d’interesse.

Nel VIM si definisce \textsc{trasduttore} di misura un dispositivo impiegato nelle misurazioni, che fornisce una grandezza in uscita avente una specificata relazione con la grandezza d’ingresso. La parola trasduttore deriva dal verbo latino \emph{traducere} che significa convertire, pertanto per trasduttore si può intendere un dispositivo che riceva energia da un sistema e la ritrasmetta, in genere in forma differente, ad un altro sistema. Per sensore si può intendere un dispositivo sensibile alla grandezza da misurare e che rappresenta il primo elemento di una \textsc{catena di misura} o di un sistema di controllo, dove per catena di misura si intende una serie di elementi di un sistema di misura costituenti un singolo percorso del segnale dal sensore ad un elemento di uscita. Quindi il sensore svolge le stesse funzioni dei nostri sensi, rivelando l’esistenza di una grandezza al suo ingresso. Il sensore sarà tanto più pregiato quanto meno il contenuto dell'informazione, che esso trasmette in genere al trasduttore, è alterato. Poiché le capacità dei trasduttori si vanno sempre più estendendo, si può affermare, in base alle definizioni date, che un trasduttore molto spesso ingloba al suo interno diversi sensori, oltre che reti di compensazione e di controllo. In particolare è molto diffuso in diversi trasduttori il controllo della temperatura utilizzando un apposito sensore. Inoltre si va sempre più diffondendo l'utilizzazione della tecnologia a semiconduttore nella realizzazione dei trasduttori, il che sta comportando non solo una sempre più diffusa miniaturizzazione, ma anche una sensibile riduzione dei costi.

In base alla definizione data di trasduttore, si può asserire che in un sistema di misura o di controllo trasduttori si trovano sia negli stadi iniziali sia in quelli finali. Negli elementi di ingresso di un trasduttore si troveranno dei sensori in quelli di uscita il trasduttore conterrà un elemento, che prende il nome di \textsc{attuatore}. Il processo è molto simile a quello che avviene nel corpo umano. Ad ogni contatto con oggetti i nostri sensori tattili rivelano la loro presenza e tramite le sinapsi inviano messaggi bioelettrici ai nuclei dei neuroni, nel sistema nervoso centrale, che elabora l’informazione e assume delle decisioni, trasmesse attraverso dei neurotrasmettitori agli attuatori corporali, come muscoli, arti, bocca. Poiché le definizioni date di sensore e trasduttore sono abbastanza ampie, in realtà come è accaduto, sta accadendo e probabilmente accadrà i sensori e i trasduttori continueranno ad essere denominati molto spesso in modo differente. In molti processi industriali essi sono chiamati \textsc{trasmettitori} (di pressione, di temperatura, ecc.). In molti campi, come d’altra parte indicato anche nel VIM, in particolare nell’area dei dispositivi elettro-ottici, essi sono chiamati \textsc{rivelatori} (ad intensità di luce infrarossa, ecc.). Un altro termine molto utilizzato è quello di \textsc{cella} (cella di carico invece di sensore di forza, ecc.). Altre parole inglesi molto usate sono \textsc{gage} (scritto anche \textsc{gauge}, che significa misuratore) e \textsc{pickup} (nel senso che qui si vuol dare alla parola non può che essere tradotta come sensore). Molto spesso alcuni trasduttori sono denominati aggiungendo la desinenza \textsc{-metro} al misurando. A volte i sensori prendono il nome di \textsc{sistema sensorio}, ciò proprio per la necessità di adattare il sensore al processo industriale che si vuole governare.

Se si accetta la distinzione fatta precedentemente tra sensore e trasduttore e si conviene di utilizzare correttamente questo termine, a esso è necessario far riferimento quando si tratti di applicazioni industriali. Non è neanche da sottacere che è rilevante il valore aggiunto nel passaggio da sensore a trasduttore o, come anche sarà meglio spiegato nel seguito, da sensore a sensore intelligente. È chiaro allora che uno stesso sensore potrà essere utilizzato per differenti trasduttori e, reciprocamente, lo stesso trasduttore può utilizzare diversi sensori. In genere, mentre il sensore è definito esclusivamente dalla grandezza da misurare, il trasduttore dipende dal processo e dall'ambiente in cui opera.

I sensori possibilmente convertono la grandezza fisica da misurare in un segnale elettrico. La preferenza per un tale tipo di conversione deriva dalla facilità di condizionare, trasmettere, elaborare, memorizzare, visualizzare il segnale o il dato con le tecniche che l'elettronica e l'informatica mettono a disposizione al giorno d'oggi. La natura dell'uscita  elettrica dal trasduttore dipende dal principio base utilizzato nel progetto. L'\textsc{uscita} può essere \textsc{analogica}, \textsc{digitale} o \textsc{modulata in frequenza}. I trasduttori nell'industria e nella medicina misurano pressioni, forze, velocità, accelerazioni, flussi, suoni, temperature, parametri chimici come il pH, impedenze elettriche e tante altre grandezze. Inoltre, è solo il caso di ricordarlo, il segnale elettrico ha la prerogativa che con opportuna elaborazione permette l'automazione del processo da controllare e la verifica della taratura. I sensori ormai si vanno sempre più diffondendo e non si limitano a quelli necessari per il controllo di robot, di macchine, di vari dispositivi, ma si espandono in tanti altri campi, come quelli della biomedicina e del monitoraggio ambientale. Essi molto spesso sono inseriti in uno strumento di misura e, anche se genericamente il valore della grandezza fornita dal sensore è definito \textsc{indicazione}, i sensori possono espletare, oltre a quella indicativa, altre funzioni quali: \textsc{registrazione}; \textsc{controllo}; \textsc{diagnostica} (sia industriale, sia medica).

La \textsc{funzione indicativa}, come indicato in Fig.~\ref{fig:3-1} può avvenire attraverso un indice mobile su scala graduata o delle cifre su un display numerico o un’immagine sullo schermo di un oscilloscopio.

\begin{figure}
[!ht]\includegraphics[width=15cm]{document_image3_1}
\caption{A) indice mobile su scala graduata; B) display; C) schermo}
\label{fig:3-1}
\end{figure}

Si ricorre ad una registrazione quando è necessario avere una cronistoria dell’evoluzione di un fenomeno. Essa si espleta, come mostrato in Fig.~\ref{fig:3-2} sia attraverso una registrazione su carta o su un supporto magnetico o su un disco ottico o su un compact disk, sia attraverso la stampa su carta di una schermata sul monitor di un calcolatore.

\begin{figure}
[!ht]\includegraphics[width=15cm]{document_image3_2}
\caption{A) registratore su carta; B) plotter; C) RAM; D) supporto magnetico}
\label{fig:3-2}
\end{figure}

Un \textsc{sistema di controllo}, come mostrato nelle Fig.~\ref{fig:3-3} e \ref{fig:3-4}, richiede la presenza di uno o più sensori. Questi sono sensibili in ingresso alla grandezza da controllare e forniscono in uscita in genere un segnale elettrico che aziona un \textsc{attuatore}, il quale consente di trasformare l'energia in ingresso in altra forma utile al processo di controllo e di misura in atto nel sistema, si pensi ad esempio al termometro che è parte del sistema di controllo del riscaldamento di un ambiente. Per comprendere la funzione di un attuatore si può ancora una volta far riferimento al corpo umano che possiede diversi attuatori, di natura sia meccanica come per esempio i muscoli, sia acustica come per esempio la voce.

Mediante un opportuno trasduttore e un controllo in retroazione una termocoppia consente non solo la misura della temperatura, ma anche la regolazione della potenza immessa nell'elemento riscaldante, in modo che si abbia la costanza della temperatura entro limiti prefissati. Campi tipici di applicazione dei trasduttori sono i sistemi di controllo di processo, la robotica, le catene di produzione assistite dal calcolatore. L'utilizzazione dei sensori sempre più diffusa si è accompagnata al passaggio sempre più massivo dal controllo manuale dei processi a quello automatico. L'ottimizzazione del processo si ha mediante l'invio da parte del sensore del segnale di controllo ad un opportuno attuatore. 

La \textsc{diagnostica industriale} si pone l’obiettivo di acquisire tutte le informazioni possibili sullo stato sia delle macchine sia dei processi automatici e consente di individuare sul nascere potenziali guasti marginali incipienti o già in atto, di seguirne l’evoluzione nel tempo e di programmare con largo anticipo e flessibilità le necessarie azioni correttive. Tecniche di diagnostica industriale si vanno sempre più diffondendo in svariati settori in quanto, operando in \textsc{tempo reale}, consentono una riduzione dei costi di manutenzione preventiva, ma soprattutto migliorano la disponibilità delle macchine e dei processi produttivi e quindi la continuità del servizio. La diagnostica industriale richiede molti sensori predisposti nelle diverse parti del sistema in osservazione, sensori intelligenti, ovvero dotati di intelligenza distribuita e di sistemi di trasmissione ed elaborazione dei dati.

La \textsc{diagnostica medica} prevede non solo la definizione della malattia, ma anche la misura della sua gravità, la determinazione dei fattori sia prognostici sia predittivi di risposta della cura. Quanto meno la struttura ospedaliera è dotata di sistemi sensori in grado di fornire in tempi brevi tutte le informazioni necessarie ad una rapida diagnosi, tanto più elevata sarà l’incertezza con la quale il medico assumerà le decisioni sul da farsi.

Il \textsc{mercato dei sensori} si va allargando quindi con l'automazione di fabbrica anche nel nostro paese, interessando non solo aree nelle quali l'automazione è stata attuata ormai da tempo, ma anche nuovi settori emergenti quale ad esempio quello delle industrie manifatturiere. Definire il valore del mercato in un settore in rapida espansione tecnologica quale quello dei sensori e degli attuatori risulta estremamente difficile oltre che azzardato. Si tratta di un settore di una notevole vastità ed inoltre si va dal costo del sensore e dell'attuatore che può essere irrisorio a quello del trasduttore completo che risulta decisamente superiore e che permette i maggiori guadagni da parte delle imprese costruttrici. Questo è senza dubbio uno dei motivi per cui nelle statistiche ufficiali non vengono distinti i termini sensori e trasduttori. Nel seguente istogramma si riporta la crescita impetuosa dei sensori wireless e dei relativi trasmettitori di segnale.

\begin{figure}
[!ht]\includegraphics[width=15cm]{document_image3_3}
\caption{Mercato dei sensori wireless e dei trasmettitori dei relativi segnali}
\label{fig:3-3}
\end{figure}

Le \textsc{tecnologie utilizzate} per la realizzazione di sensori attuatori e trasduttori sono le più disparate per cui si assiste a una forte specializzazione da parte dei costruttori. Chi produce sensori per termocoppie difficilmente commercializza altri tipi di sensori, a meno che questi non si basino sulla stessa tecnologia utilizzata per la termocoppia. Per affrontare lo studio, la progettazione, la realizzazione di sensori occorre avere a disposizione \textsc{competenze multidisciplinari}, utilizzare ricerca di base molto specializzata e conoscere come sfruttare un particolare fenomeno per ricavare un elemento sensibile a un determinato misurando. I sensori diventano sempre più piccoli, meno costosi, più affidabili, più intelligenti, meno attaccabili da ambienti ostili e utilizzano sempre più semiconduttori e materiali ottici. Altre tendenze sono quelle di portare il sensore più vicino al processo e l'intelligenza più vicina al sensore. Tecnologie avanzate per la realizzazione di sensori impiegano la interferometria laser, le fibre ottiche, i radar modulati, l'interferenza ottica, i sensori di forza e movimento a sei assi. Molti di questi sono necessari nella fabbrica automatica e nella robotica (specie i sensori di forza con elevata risoluzione).

\section{Il sensore intelligente}
Le nuove tecnologie dei moderni microsistemi rendono possibile la realizzazione di sensori in cui l’elemento sensibile è integrato sullo stesso chip, in scala microscopica, con l’elettronica di controllo, di misura e di elaborazione dei segnali. Nel campo della microelettronica e dei sistemi a larga scala d’integrazione (\textsc{VLSI}) il materiale tecnologicamente più conosciuto è il silicio, che ha alcune proprietà tali da renderlo adatto alla realizzazione di sensori per diverse grandezze. Si parla correntemente di \textsc{sensori integrati} con riferimento a quei dispositivi in cui sono predisposti sullo stesso substrato, molto spesso di silicio, i sistemi sensori e l’elettronica di condizionamento del segnale. Nell’ambito dei sensori integrati è sorta l’esigenza di caratterizzarne un sottoinsieme che presenti oltre al sistema di condizionamento anche un sistema di elaborazione mediante un microprocessore. A questi dispositivi, che richiedono molto spesso un’unità fisica e anche una progettazione dedicata, si è dato il nome di \textsc{sensori intelligenti} o \textsc{smart sensor}. I sensori intelligenti hanno consentito una notevole semplificazione della misura oltre che l'ottimizzazione delle prestazioni dei sensori stessi. Lo sviluppo dei sensori intelligenti è legato non solo alle prestazioni che essi offrono, ma anche al notevole valore aggiunto rappresentato dal sistema di elaborazione e controllo. La riduzione delle dimensioni dei sensori ha comportato anche un notevole miglioramento delle prestazioni. Oggi, con l’avvento dei sensori ottici, si stanno sperimentando nuovi materiali in sostituzione del silicio. Si ha un uso sempre maggiore di sensori basati sulle fibre ottiche e nel campo della microfluidodinamica si impiegano vetro e plastica, oltre ad un particolare polimero, il polidimetilsilossano (\textsc{PDMS}).

Con le nanotecnologie molti ritengono che si sia raggiunto un limite che pone una serie di quesiti sui benefici di un ulteriore riduzione delle dimensioni del sensore, discutibile se non accompagnata da una possibile contestuale miniaturizzazione del sistema sul quale esso agisce. Per esempio il passaggio delle pompe da una scala macro ad una micro ha comportato grandi benefici alle industrie biochimiche e mediche, permettendo la realizzazione dei \textsc{lab on a chip} (\textsc{LOC}), veri e propri laboratori chimici in miniatura, con riduzione dei costi di fabbricazione e dei reagenti, analisi più accurate e più veloci, maggiore sicurezza nell’esame di contaminanti e di sostanze radioattive, possibilità di analisi contemporanee di diversi campioni. Nei LOC sono pompate quantità di fluido contenente campioni biologici quali proteine, cellule, reagenti, dell’ordine dei micro e nanolitri, ma se si considera che particelle come i globuli rossi possono avere un diametro di qualche micron, si rischia l’impossibilità che esse fluiscano in condotti di dimensioni ad esse paragonabili.

In uno \textsc{smart sensor}, il sensore stesso può essere solo una piccola parte del chip e quindi l’ulteriore riduzione delle sue dimensioni dovrebbe essere presa in considerazione solo se si possono prevedere vantaggi in termini di funzionalità, in quanto in genere vi è più interesse ad ottenere migliori prestazioni che non a ridurre ulteriormente le dimensioni. Infatti in alcuni casi si è riscontrato che al di sotto di certe dimensioni il sensore riduce la sua sensibilità. In definitiva nel campo della sensoristica andranno esaminati caso per caso i vantaggi legati all’impiego delle nanotecnologie.

L'impetuoso sviluppo delle tecnologie elettroniche e informatiche, della elaborazione dei segnali ed il suo utilizzo nella strumentazione programmabile si sta riversando quindi anche nell'ambito della sensoristica. Particolare attenzione va posta a tutte quelle tecniche che consentono di operare in tempo reale e quindi alle problematiche del campionamento, delle conversioni dal continuo al discreto, della trasmissione dei segnali. Le potenzialità di un sensore intelligente sono notevoli e nel seguito se ne accenna ad alcune. È possibile stabilire, in base al tipo di grandezza in esame, il miglior metodo di misura, la portata, la frequenza di campionamento, l'accuratezza della misura, il modo di presentazione del risultato. Spesso i sensori intelligenti hanno la capacità di comunicare con altri sensori, con sistemi di supervisione e con l'operatore, di adattarsi a diverse esigenze autoriconfigurandosi, di regolare automaticamente la curva di taratura, di eseguire l’autodiagnosi.

Nella Fig.~\ref{fig:3-3} si mostra una tipica applicazione di un sensore al test (\textsc{DUT}, \emph{device under test}) e al controllo (\textsc{DUC}, \emph{device under control}) di un dispositivo. Come mostrato in figura il segnale in uscita al sensore è condizionato prima di essere inviato al microprocessore ($\mu P$), dal quale poi sono trasmesse le informazioni sia al sistema di visualizzazione, registrazione e comunicazione dei dati, sia, tramite un convertitore da digitale in analogico, all’attuatore che chiude la catena di controllo.

I segnali in uscita a un sensore sono in genere tensioni elettriche con ampiezza variabile da pochi microvolt fino a qualche volt, possono cioè essere di piccola entità ed inoltre può anche essere presente un elevato rumore causato da interferenze e rumori esterni o generato all’interno dei circuiti elettronici del sensore, tale rumore può contenere componenti ad elevata frequenza di natura \emph{random}. La tensione dei segnali in uscita dai sensori deve essere amplificata, filtrata, convertita in forma digitale. Quindi all’interno del sistema di condizionamento del segnale si trovano amplificatori, filtri e \textsc{convertitori analogico digitali} (ADC). Inoltre il sensore deve essere schermato da possibili rumori od interferenze esterne. Come si dirà in seguito spesso il segnale in uscita al sistema è trasmesso in forma digitale ad una stazione remota, per cui si prevede anche un sistema di modulazione e demodulazione del segnale. La funzione del microprocessore è quella di elaborare il segnale proveniente dal sensore e di sovrintendere a tutte le operazioni del sistema.

Perché il segnale possa essere visualizzato su monitor o essere registrato si richiede spesso una sua forte amplificazione. Quindi gli amplificatori possono avere guadagni molto elevati anche superiori a 1000. Molto spesso il \textsc{guadagno} di un amplificatore è misurato in \textsc{decibel} (dB). Il guadagno lineare può essere trasformato in decibel mediante il logaritmo in base 10: Guadagno(dB)=20 lg(guadagno lineare).
L’ampiezza di banda nel dominio della frequenza di un amplificatore per sensori è data dalla differenza tra le frequenze di taglio superiore ed inferiore. Il guadagno a queste frequenze è 0,707 del guadagno in corrispondenza della frequenza centrale della banda. Si dice che tale guadagno è normalizzato ed ha un decremento rispetto al valore massimo del $70,7\%$. Poiché $\SI{3}{\decibel}=20 \lg(0,707)$, i punti corrispondenti alle frequenze di taglio sono denominati anche punti a $\SI{-3}{\decibel}$ e presentano una potenza pari a metà di quella massima dell’amplificatore. Un altro parametro importante da tener presente in uno  smart sensor è il \textsc{rapporto segnale rumore} o \textsc{SNR} (\emph{signal-to-noise ratio}), definito come il rapporto tra la potenza del segnale e la potenza totale del rumore ipotizzate agenti sullo stesso sensore, assimilato ad una resistenza elettrica, pertanto indicate con $P_s$ e $P_n$ le potenze del segnale e del rumore e con $V_s$ e $V_n$ le rispettive tensioni, si ha: $\text{SNR}= P_s/ P_n =V_s^2/ V_n^2$. Esso è espresso quasi sempre in decibel e simbolicamente anche con una barra tra S ed N ($S/N$), per cui si può scrivere: $S/N = 10\lg(P_s / P_n) = 20\lg(V_s / V_n)$. L’SNR può variare da punto a punto del sistema di misura e quindi è opportuno misurarlo nei punti in cui si teme che possa essere particolarmente basso. Spesso dal segnale prelevato dal sensore è sottratta una tensione di riferimento, proveniente da un sensore non sollecitato dal misurando, identico a quello di misura e a questo posto in vicinanza, in modo che sia soggetto alle stesse interferenze e agli stessi rumori. Il segnale differenza risultante è amplificato e filtrato mediante un processo di smoothing per ridurre il rumore. La risposta relativamente bassa del sensore rende indispensabile il filtraggio del rumore. Normalmente il segnale analogico è convertito in digitale e ciò permette di migliorare l’SNR attraverso l’elaborazione successiva, comprensiva anche del filtraggio numerico, in quanto i filtri digitali sono più flessibili ed efficaci di quelli analogici.

\begin{figure}
\begin{tikzpicture}
\node (D) [draw, minimum height=4cm,minimum width=1cm, text width=1cm] at (0,0) {DUT DUC};
\node (A) [draw, minimum height=1cm,minimum width=2cm] at (3,-1) {Attuatore};
\node (S) [draw, minimum height=1cm,minimum width=2cm] at (3,1) {Sensore};
\node (C) [draw, minimum height=1cm,minimum width=3cm, text width=2.8cm] at (6.5,1) {Sistema di condizionamento del segnale};
\node (DAC) [draw, minimum height=1cm,minimum width=1cm] at (7,-1) {DAC};
\node (P) [draw, minimum height=1cm,minimum width=1cm] at (10,1)  {$\mu P$};
\node (T) at(10,-1) {};
\node (V) [draw, minimum height=3cm,minimum width=3cm, text width=3.2cm]at (13,-1) {Sistema di Visualizzazione Registrazione Comunicazione Dati};
\draw [-latex, line width=2pt] (A)--(D);
\draw [-latex, line width=2pt] (D)--(S);
\draw [-latex, line width=2pt] (S)--(C);
\draw [-latex, line width=2pt] (C)--(P);
\draw [-latex, line width=2pt] (T)--(P);
\draw [-latex, line width=2pt] (T)--(V);
\draw [-latex, line width=2pt] (T)--(DAC);
\draw [-latex, line width=2pt] (DAC)--(A);
\end{tikzpicture}
\caption{Sensore inserito in una catena di test e controllo}
\label{fig:3-4}
\end{figure}

In realtà per effettuare correttamente una serie di operazioni occorrono più sensori i cui segnali siano convertiti dal dominio del continuo in quello del discreto. Più il sistema da provare o controllare diventa complesso più cresce il numero di sensori, e si parla di sistema multisensoriale, in cui le informazioni di più sensori (\textsc{sensor fusion}) concorrono a definire la conoscenza di un fenomeno, di una macchina, di un ambiente. La ricerca e lo sviluppo nell’ambito dei sensori intelligenti tendono a intensificarsi in quanto forte è la domanda che proviene dal mondo industriale. Le linee di tendenza di questo sviluppo stanno essenzialmente in una maggiore integrazione tra sistema sensorio e sistema di elaborazione, in un trasferimento dei risultati conseguiti nell’ambito dell’intelligenza artificiale alla sensoristica. Probabilmente presto si passerà dal sensore intelligente al \textsc{sensore esperto}.

Le fabbriche moderne sono fornite di un gran numero di sensori che permettono il monitoraggio delle variabili ambientali, oltre che d’alcune variabili specifiche all’interno delle macchine, in un sistema integrato, assistito da calcolatore. In tal modo si ha la possibilità di rilevare situazioni anomale ed anche d’avere indicazioni in tempi rapidi, sia di situazioni pericolose per le persone, sia di parti di macchine in avaria. In sistemi intelligenti, assistiti da calcolatori si è in grado anche di avere indicazioni sugli interventi da operare, sui tempi e sulle modalità d’intervento. In Fig.~\ref{fig:3-4} è mostrato lo schema a blocchi di un sistema multisensoriale, in cui sono distinte le funzioni di \textsc{autotest} e di controllo. Certamente il modo più diffuso per passare dal continuo al discreto è, come mostrato in figura, quello di utilizzare un \textsc{convertitore analogico digitale} (\textsc{ADC}) e su questo principio si basa la maggior parte dei sensori intelligenti disponibili sul mercato. Essi prevedono nel sistema di condizionamento oltre all’amplificatore, un adattatore d’impedenza, un filtro per ridurre il rumore e un filtro \textsc{anti-aliasing}, per evitare gli errori dovuti al campionamento. I segnali in uscita agli ADC, attraverso un \textsc{multiplatore digitale} (\textsc{MUX}) da paralleli diventano seriali, il che ne facilita la trasmissione. Dal MUX i segnali sono convogliati sia su un processore di segnali digitali (DSP) sia su un bus di comunicazione. Il DSP governa sia il controllo della macchina tramite un controllore locale dedicato, un DAC e un attuatore, sia la funzionalità dei sensori. A questo scopo sono necessari ancora i DAC, filtri e regolatori, oltre ad una tensione di riferimento (in genere ottenuta stabilizzando una tensione continua con un \textsc{diodo zener}), a \textsc{relé} ed interruttori non mostrati in figura. 
La catena di controllo del sistema multisensoriale consente la scelta della portata dei sensori e della polarità, della frequenza di campionamento oltre che l’autoconfigurazione.

Il bus di comunicazione interna permette ai segnali di raggiungere la stanza centralizzata di controllo dove si ha a disposizione un \textsc{host-computer}. Il sistema di comunicazione è molto importante non solo nella fase di esercizio del sensore, ma anche in quella iniziale di verifica della taratura. Infatti a questo scopo si utilizza quasi sempre un sistema automatico di regolazione della curva di taratura gestito dall’host-computer che ha una notevole capacità di calcolo per poter eseguire tutte le operazioni necessarie allo scopo. Il bus di comunicazione può trasmettere i segnali anche all’esterno.

\begin{figure}
\begin{tikzpicture}
\node (A) [draw, text width=1cm] at (2,0) {HOST CPU};
\node (R) [draw, minimum width=2cm] at (8,0.2) {MEMORIA ESTERNA};
\draw [latex-latex, line width=2pt] (2,.5)--(2,1.5);
\draw (-1,-1) rectangle (11,2);
\draw [latex-latex, line width=2pt] (5,1.5)--(5,2.5);
\draw [latex-latex, line width=2pt] (8,.5)--(8,1.5);
\draw [latex-latex, line width=6pt] (0,1.5)--(10,1.5);
\node (C) [minimum width=8cm] at (5,2.15) {BUS COMUNICAZIONE};
\node (C) [minimum width=8cm] at (5,-0.85) {STANZA CENTRALIZZATA DI CONTROLLO};
\draw [latex-latex, line width=6pt] (0,2.5)--(10,2.5);
\draw [latex-latex, line width=4pt] (2,2.5)--(2,4.5);
\draw [latex-latex, line width=4pt] (2,3.5)-|(7,4.5);
\node (C) [draw, minimum width=3cm, text width=3.2cm] at (9,3.5) {CONTROLLORE LOCALE};
\node (M) [draw, minimum width=4cm] at (2,5) {MUX};
\node (D) [draw, minimum width=5cm] at (8,5) {DSP}; \draw[<->](C)--(D);
\node (MC) [draw, minimum width=8cm] at (2,9) {MACCHINA CONTROLLATA};
\node (G1) [draw, minimum width=18mm] at (0,6) {ADC}; \draw [->](G1)--(M);
\node (G2) [draw, minimum width=18mm] at (2,6) {ADC}; \draw [->](G2)--(M);
\node (G3) [draw, minimum width=18mm] at (4,6) {ADC}; \draw [->](G3)--(M);
\node (F1) [draw, minimum width=18mm] at (0,7) {FILTRO}; \draw [->](F1)--(G1);
\node (F2) [draw, minimum width=18mm] at (2,7) {FILTRO}; \draw [->](F2)--(G2);
\node (F3) [draw, minimum width=18mm] at (4,7) {FILTRO}; \draw [->](F3)--(G3);
\node (S1) [draw, minimum width=20mm,font=\small] at (0,8) {SENSORE}; \draw [->](S1)--(F1);
\node (S2) [draw, minimum width=20mm,font=\small] at (2,8) {SENSORE}; \draw [->](S2)--(F2);
\node (S3) [draw, minimum width=20mm,font=\small] at (4,8) {SENSORE}; \draw [->](S3)--(F3);
\node (D1) [draw, minimum width=18mm] at (7,6) {DAC}; \draw [->](D)--(D1);
\node (D2) [draw, minimum width=18mm] at (9,6) {DAC}; \draw [->](D)--(D2);
\node (F4) [draw, minimum width=18mm] at (7,7) {FILTRO}; \draw [->](D1)--(F4);
\node (F5) [draw, minimum width=18mm] at (9,7) {FILTRO}; \draw [->](D2)--(F5);
\node (R) [draw, minimum width=20mm,font=\small] at (7,8) {REGOLATORE}; \draw [->](F4)--(R); \draw [->](R)--(S3);
\node (A1) [draw, minimum width=20mm,font=\small] at (10,8) {ATTUATORE}; \draw [->](F5)--(A1); \draw [->](A1)|-(MC);
\draw [->](MC)--(S1);
\draw [->](MC)--(S2);
\draw [->](MC)--(S3);
\end{tikzpicture}
\caption{Sensore inserito in una catena di test e controllo}
\label{fig:3-5}
\end{figure}

Oggi si vanno sempre più affermando reti di sensori distribuiti spazialmente, anche
in luoghi diversi, detti \emph{web sensor}, che trasmettono i segnali ad un computer remoto per l’elaborazione, utilizzando protocolli di comunicazione e interfacce standard (come ad esempio la IEEE 1451). Essi sono già impiegati, a volte ancora in fase sperimentale, in diversi campi quali il monitoraggio ambientale, il telerilevamento da satellite, la gestione dei trasporti, le informazioni per le forze dell’ordine, la gestione di impianti di sicurezza non presidiati, il monitoraggio di situazioni calamitose, operazioni SCADA (\emph{Supervisory Control And Data Acquisition}), controlli industriali, e si stanno molto sviluppando nel campo della telemedicina, con svariate applicazioni. L’approccio utilizzato è del tipo orientato agli oggetti (\emph{object-oriented}), un modo molto efficiente per generare schemi standard di gestione ed interpretazione dei dati provenienti dai sensori. I sensori intelligenti possono avere anche una codifica digitale diretta e in tal caso il segnale digitale, in genere disponibile in forma parallela, è prelevato all’uscita del sensore e inviato in ingresso al microprocessore. Dispositivi di questo tipo sono rari. Come esempio si può considerare un \emph{encoder}, un misuratore di spostamento lineare o angolare costituito da un disco circolare sul quale è stampigliato un opportuno schema, che consente la codifica diretta. Il disco è normalmente calettato su un albero e come questo ruota si genera una codifica differente per ogni posizione misurabile. La codifica può avvenire per contatto, per via magnetica o per via ottica. Quella per contatto richiede la presenza di spazzole con tutti i problemi che queste comportano. Quella magnetica utilizza dei \textsc{sensori ad effetto Hall}, sensibili alla presenza o meno di un campo magnetico. Questo tipo di codifica non soffre dell’usura delle spazzole e quindi assicura una vita utile maggiore al sensore. La codifica ottica, mostrata nella figura seguente è quella che si va diffondendo sempre più in quanto consente i maggiori livelli di accuratezza. In Fig.~\ref{fig:3-6} sono mostrati i tre componenti fondamentali di un encoder ottico: un disco segmentato composto da parti trasparenti e opache; una sorgente di luce LED (\emph{light emitting diode}) con un sistema di lenti ottiche, dei rivelatori di luce costituiti da tante cellule ad esempio \textsc{fotodiodi} o \textsc{fototransistor}, in grado di captare il fascio fornito dal LED.

\begin{figure}[!ht]
\includegraphics[width=15cm]{document_image3_6}
\caption{a) codifica con 8 settori b) sistema ottico c) disco segmentato}
\label{fig:3-6}
\end{figure}

II circuito di rivelazione fornisce lo 0 logico in corrispondenza della zona opaca ed 1 logico in corrispondenza della zona trasparente. In presenza di zona opaca la luce emessa dal LED, è interrotta, il corrispondente fotodiodo non è illuminato e la tensione ai capi della resistenza in serie al fotodiodo è nulla (0 logico). Se la zona è trasparente la luce emessa dal LED colpisce il fotodiodo, la fotocorrente scorre anche nella resistenza ai cui capi si manifesta una tensione (1 logico). La risoluzione del sensore dipende dal numero di settori circolari costituenti il disco che corrispondono ai bit del dispositivo a ciascuno dei quali è associato un fotorivelatore e un bit, questi tipi di codificatori sono in grado di rivelare spostamenti dell'ordine del micron. Con 8 settori è possibile discriminare $2^8=256$ posizioni. Questi tipi di codificatori sono in grado di rivelare spostamenti dell'ordine del micron con una risoluzione superiore a 14 bit.

Negli encoder a codice binario naturale si può avere l’insorgenza di glich quando il sensore, passando da una posizione alla successiva determina la commutazione di almeno due bit. Il sistema di lettura deve essere ben allineato ai settori circolari altrimenti si genera un codice errato durante il passaggio da una posizione all'altra (la cosiddetta corsa critica). Ad esempio, nel passaggio tra il codice 5 (101) e 6 (110), si potrebbe generare per un momento il codice 100 oppure 111. Risulta facile ovviare a tale inconveniente codificando il nastro, o il disco, con un codice binario a distanza di Hamming unitaria, come il codice Gray.

Altri tipi di sensori convertono la grandezza fisica da misurare in una serie di impulsi che sono inviati ad un contatore digitale (counter) che fornisce in uscita il segnale digitale disponibile in forma parallela in ingresso al microprocessore. Un esempio tipico è rappresentato da un misuratore di velocità angolare, costituito da un disco forato, calettato sull'asse di un organo in movimento. Una sorgente di luce invia un segnale rilevabile dall'altra parte del disco mediante una cella fotoelettrica che converte il segnale di velocità del disco in una serie di impulsi a frequenza variabile in dipendenza della velocità stessa. In Fig.~\ref{fig:3-7} è mostrato il disco e gli impulsi inviati al counter, oltre al sistema di illuminazione e rivelazione. Nel caso si effettuassero 60 fori la misura sarebbe espressa in giri al minuto.

\begin{figure}[!ht]
\includegraphics[width=7cm]{document_image3_7a}
\includegraphics[width=8cm]{document_image3_7b}
\caption{Misura di velocità angolare con un counter}
\label{fig:3-7}
\end{figure}

Grande sviluppo alla sensoristica industriale specie nei settori militare, biomedico, automobilistico e aeronautico è stata data dai \textsc{MEMS} (\emph{Micro-Electro-Mechanical Systems}).  I MEMS sono l’integrazione di elementi meccanici, di sensori, di attuatori e dell’elettronica per il condizionamento e l’elaborazione del segnale su un unico substrato di silicio, ottenuto attraverso le moderne tecnologie di microfabbricazione. I MEMS quindi rappresentano un’importante fusione della tecnologia dei circuiti integrati (IC) con la più avanzata tecnologia micromeccanica. L’acronimo MEMS risale agli anni Novanta anche se la tecnologia per la realizzazione di micro macchinari è nota già dagli anni Cinquanta, quando si scoprì che silicio e germanio manifestavano un \textsc{effetto piezoelettrico}. Questa tecnologia comprende un insieme piuttosto vario di processi che consentono di modellare sulle tre dimensioni uno o più \emph{wafer} di silicio. Anche se il silicio è il materiale più utilizzato, sono stati impiegati anche \emph{wafer} di vetro e di quarzo. Nei MEMS ai noti processi per la realizzazione di circuiti integrati si affiancano quelli di micromacchine in grado di realizzare componenti meccanici in scala micro per la fabbricazione di dispositivi elettromeccanici denominati \emph{systems on a chip}, tra i quali anche i già citati \emph{lab on a chip}. La presenza dei microsensori, in grado di rivelare la presenza di grandezze meccaniche, termiche, biologiche, chimiche, ottiche ed elettromagnetiche, insieme con quella dei microattuatori, capaci di muovere, posizionare, regolare, pompare e filtrare, fornisce ai MEMS straordinarie capacità di percezione e controllo e ne amplia le possibilità d’impiego in diversi campi con la realizzazione di dispositivi a più basso costo e con più elevati livelli di funzionalità ed affidabilità rispetto a quelli realizzati in scala macro. Questi benefici sono ottenuti proprio dalla riduzione dei costi di sensori ed attuatori, che tra l’altro nei MEMS raggiungono l’affidabilità dei circuiti integrati. Si sta ottenendo un ulteriore miglioramento delle prestazioni attraverso sistemi sia di trasmissione dati senza fili, sia di protezione dalle elevate temperature.

Senza dubbio uno dei maggiori benefici derivante dalla simbiosi tra elementi elettronici e meccanici è quello di permettere a molti circuiti MEMS di non richiedere l’impiego di batterie per l’alimentazione elettrica dei sensori. Come sarà meglio chiarito in seguito, la maggior parte dei sensori è di natura passiva, per cui si richiede l’impiego di una alimentazione esterna, costituita in genere da una batteria, con tutti i problemi legati ai costi di manutenzione della batteria e ai rischi di mal funzionamento dovuti a un deterioramento della stessa. La possibilità di utilizzare sensori auto alimentanti ne amplia enormemente l’uso. L’auto alimentazione deriva dalla conversione effettuata nei MEMS di energia meccanica in elettrica, energia quasi sempre più che sufficiente dato il bassissimo consumo di potenza richiesto al funzionamento dei circuiti integrati. L’energia meccanica convertita in elettrica è quella che deriva dal movimento dell’oggetto su cui è montato il sensore. Quando il sensore opera su un automobile o un aeromobile o un qualsiasi motore o un braccio o una gamba di un essere vivente la trasformazione di energia è semplice, più complessa quando il misurando è rappresentato da un oggetto apparentemente statico. In realtà in natura tutto è in movimento, in particolare il pavimento sul quale camminiamo è sollecitato da vibrazioni che diventano più intense con il passaggio di autoveicoli nelle strade adiacenti all’edificio nel quale ci troviamo. I MEMS più moderni iniziano a sfruttare l’energia di queste vibrazioni per la loro auto alimentazione, rendendo, come si può intuire, il futuro di questi dispositivi sempre più affascinante. In sintesi i vantaggi dei MEMS rispetto ai dispositivi tradizionali riguardano un minore consumo energetico con possibilità di auto alimentarsi, migliori caratteristiche di funzionamento, un peso ridotto e costi inferiori, in quanto la fabbricazione in serie riduce i costi di produzione e di assemblaggio. I principali materiali utilizzati per la fabbricazione dei mems sono: silicio, materiali vetrosi, metalli, polimeri. I MEMS nel campo medico prendono il nome di BIOMEMS e tendono sempre più a rimpiazzare i dispositivi biomedicali già esistenti. La diffusione dei BIOMEMS è dovuta anche al fatto che la maggior parte dei materiali utilizzati sono biocompatibili (silicio, ossido di silicio, metalli preziosi: oro e titanio, polimeri : \emph{polydimethiylsiloxane} (PDMS), \emph{parylene}).

Le tecnologie di fabbricazione dei MEMS in gran parte sono quelle impiegate nella realizzazione dei circuiti integrati come per esempio l’uso di basette di silicio, di film sottili e dei metodi foto litografici. Sulla superficie di un wafer di silicio si realizzano in scala micrometrica i componenti del dispositivo rimuovendo chimicamente strati di ossido. Con la sempre maggiore diffusione dei MEMS si sono già messi a punto diversi processi di fabbricazione alcuni dei quali anche differenti da quelli tipici degli IC. I tre processi principali sono quelli di \textsc{deposizione} di film sottili di materiale su un substrato, di \textsc{applicazione di una maschera} con lo schema circuitale sulla base del film attraverso la \textsc{fotolitografia} e di \textsc{incisione della maschera} sul film. Lo spessore dei film sottili varia in genere da un centinaio di micrometri fino a pochi nanometri. Per la fabbricazione di un dispositivo mems si possono avere da 1 a 15 cicli consecutivi. Per la fabbricazione in tecnologia CMOS si richiede necessariamente un numero di cicli maggiore di 30.

Il processo di \textsc{deposizione} può avvenire per reazione chimica o fisica. Nel caso si
impieghi una reazione chimica le tecniche più utilizzate sono l’\textsc{elettrodeposizione} se i \emph{film} sono di materiale conduttivo, come rame, oro o nichel e la crescita epitassiale su un substrato isolante sul quale si diffonde il silicio o l’arseniuro di gallio, tecnica che ha il vantaggio di essere molto rapida e di consentire la realizzazione di \emph{film} di spessori variabili da pochi micrometri a un centinaio di micrometri. Nel caso si impieghi una reazione fisica le tecniche più utilizzate sono l’evaporazione e lo \emph{sputtering}. L’\textsc{evaporazione} può avvenire o impiegando un fascio di elettroni o un riscaldamento resistivo. Nello \textsc{sp}uttering il materiale è rilasciato dalla sorgente ad una temperatura molto più bassa di quella che si ha nell’evaporazione. In questa tecnica un gas inerte, di solito argon, è portato allo stato plasmatico tramite una radiazione in genere a radiofrequenza. Gli ioni di argon, colpendo la superficie della sorgente, estraggono atomi che condensano su tutte le superfici compreso il substrato.

La \textsc{fotolitografia} nei MEMS prevede il trasferimento di uno schema circuitale su un materiale fotosensibile, in grado di modificare le sue proprietà fisiche quando è sottoposto all’esposizione selettiva ad una sorgente di radiazione luminosa. Ovvero si realizza lo schema desiderato in quanto il materiale fotosensibile mostrerà caratteristiche diverse nelle regioni che sono state esposte alle radiazioni, da quelle non esposte. Il materiale fotosensibile è un polimero che varia la propria solubilità in base all’azione della radiazione agente su di esso. La parte non esposta può essere selettivamente rimossa nella successiva fase di lavorazione. I MEMS sono realizzati strato dopo strato per successive litografie. Particolarmente delicate nelle tecniche litografiche sono le fasi sia di allineamento al \emph{wafer} delle diverse maschere necessarie alla realizzazione dei componenti, sia di esposizione alle radiazioni del materiale fotosensibile, perché questo modifichi le sue proprietà nel modo desiderato.

L’\textsc{incisione} della maschera sul \emph{film} è una tecnologia basata sull’asportazione di materiale e può avvenire per via chimica, dissolvendo il materiale da asportare mediante una soluzione liquida, o a secco, impiegando ioni reattivi o lo \emph{sputtering} o corrodenti in fase vaporosa. La tecnologia per via chimica è più semplice e meno costosa, purché si disponga di una soluzione in grado di dissolvere selettivamente il materiale da asportare.
Purtroppo nel caso del silicio facce diverse del cristallo presentano caratteristiche chimiche diverse, il che può portare ad un errore nello spessore asportato con alterazioni nelle caratteristiche previste in sede di progetto. L’incisione a secco con ioni reattivi è ottenuta mediante un plasma che produce ioni reagenti con il materiale da asportare. Il processo per \emph{sputtering} è analogo a quello esaminato per la deposizione, solo che in questo caso il substrato sostituisce la sorgente e subisce il bombardamento degli elettroni.
Infine l’incisione in fase vapore prevede l’introduzione in un’apposita camera di uno o più gas reattivi, che formano prodotti gassosi per il substrato da asportare. In genere si usa acido fluoridrico gassoso per l’asportazione dell’ossido di silicio o fluoruro di xenon per l’incisione del silicio.

Attualmente i sensori basati sui MEMS sono principalmente quelli di pressione, di accelerazione, di velocità, di forza e di flusso oltre ai già citati biosensori. I sensori di pressione trovano largo impiego nel settore automobilistico e in quello biomedicale, dove si stanno diffondendo dispositivi usa e getta, dopo il successo dei misuratori di glucosio. I MEMS per misurare l’accelerazione e i giroscopi hanno trovato il mercato più ampio nell’ambito degli \emph{airbag} per autovetture. I sensori di velocità hanno trovato il principale mercato nei GPS su automobili, cellulari e palmari, mentre quelli di forza sono impiegati nella fabbricazione di bilance. Nel seguito si accennerà ad altre applicazioni dei MEMS, in fase di sviluppo. A titolo di esempio si riportano nella seguente tabella~\ref{tab:3-1} i MEMS attualmente impiegati in campo automobilistico.

\begin{table}[!ht]
\caption{Applicazioni di sensori MEMS alle autovetture}
\begin{center}
\begin{tabular}{p{0.25\textwidth}p{0.25\textwidth}p{0.4\textwidth}}
MEMS Sensors & Auto Parts & Application \\
\hline
Pressure sensor & Engine assembly & To reflect the air-intake volume and control the fuel injection \\
Pressure sensor & Engine assembly & To measure the internal pressure of cylinder \\
Oxygen sensor  & Engine assembly & To reflect the concentration of the engines combustible gas \\
Cranshaft position sensor & Engine assembly &  To reflect the engine cranshaft speed and angle and top-dead-center piston position \\
Throttle position sensor & Engine assembly & To reflect the engine load \\
Speed sensor & Engine assembly & To reflect the auto speed and control the fuel injection \\
Water temperature sensor & Engine assembly & To measure and control the engine coolant temperature as well as the fuel injection \\
Acceleration sensor & Air bag &  To test and control the airbag popping-up time \\
Pressure sensor & Air bag &  To test and control the airbag inflation pressure \\
Pressure sensor & Braking system & To control the oil pressure of the braking system \\
Pressure sensor & Suspension system & To test and control the suspension hydraulic pressure \\
Pressure sensor & Tire & To test the tire pressure \\
Wheel speed sensor & ABS/TCS/ESP & Traction control \\
Tilt sensor & Chassis systems & To measure and control the vehicle seat angle \\
Gyro & Navigation equipment & To measure and control the angular velocity \\
\hline
\end{tabular}
\end{center}
\label{tab:3-1}
\end{table}

\section{Classificazione dei sensori}
Nella trattazione dei sensori si trovano diversi modi di classificazione: per \textsc{tecnologia} e \textsc{principio fisico} che essi utilizzano (ottico, piezoelettrico, fotoelettrico, fotovoltaico, ecc.); per funzione che essi svolgono o per \textsc{grandezza da misurare} (lunghezza, temperatura, pressione, vibrazione, ecc.); per \textsc{settore} cui essi sono destinati (agricoltura, siderurgia, chimica, manufatturiero, ecc.); per \textsc{dispositivo} interessato alla misurazione (macchine utensili, motori, variatori, cuscinetti, pompe, compressori, valvole, saldatrici, forni, ecc.). 

Le diverse classificazioni sono adottate in modo alternativo in diversi testi. La prima, quella per \textsc{tecnologie}, riesce a dare una visione ragionevolmente integrata dei processi utilizzatinella realizzazione dei sensori e risulta particolarmente utile al progettista di sensori. Essa evidenzia lo stato dell’arte e le possibilità che un dato principio fisico soddisfi una determinata richiesta, purtroppo è poco utile quando uno desideri comparare i pregi e i difetti di sensori in grado di misurare una stessa grandezza. Per esempio se si ha da scegliere un termometro occorrerebbe andare ad esaminare separatamente le sessioni riguardanti i dispositivi resistivi, quelli termoelettrici, quelli a semiconduttore, i pirometri.

Anche una classificazione per settore può risultare utile a chi operi in un certo campo, ma, a parte la difficoltà di individuazione dei tanti settori in cui si utilizzano i sensori, essa darebbe luogo a ripetitività o a continui rinvii, in quanto uno stesso sensore viene correntemente adoperato in diverse aree. La classificazione per \textsc{dispositivo\textsf{}} interessato alla misurazione, mettendo in evidenza i particolari requisiti dei sensori in relazione alle differenti applicazioni e fornendo una panoramica dei sensori utilizzabili per eseguire misure su un determinato macchinario, è particolarmente utile agli specialisti. Da un punto di vista dell’utente senza dubbio la migliore classificazione è quella per grandezze da misurare in quanto consente di stabilire subito quali siano i sensori disponibili con le loro caratteristiche. È evidente che una classificazione per \textsc{funzioni} deve soprattutto mettere in evidenza i particolari requisiti dei sensori in relazione alle differenti applicazioni, dando una panoramica delle varie proprietà fisiche utilizzabili per eseguire una determinata misura. In tal modo l’utente potrà operare la sua scelta in base alle necessità, tenendo conto del rapporto costi benefici. Purtroppo molti testi classificando i sensori per grandezze da misurare spesso tendono ad assumere la veste di un catalogo con la giustapposizione di dispositivi privi di un minimo di correlazione, perdendo molto spesso di scientificità.

Nel prosieguo si fornisce una sintetica visione dei processi fisici che presiedono alla trasformazione da una forma di energia all’altra nei diversi trasduttori. Si descriveranno sensori da anni utilizzati a livello industriale e alcuni che si affacciano in maniera promettente sul mercato. Infine si cercherà di dare un quadro dei possibili futuri sviluppi nel campo della sensoristica.

Solo per completezza di trattazione si accenna a un altro tipo di classificazione dei sensori che si trova in alcuni testi, riprendendo un concetto presente nell'elettronica. I sensori possono suddividersi in \textsc{passivi} (detti anche a \textsc{modulazione}) quando richiedono potenza dall'esterno per fornire un segnale di tensione o di corrente e in \textsc{attivi} (detti anche ad \textsc{auto-generazione}) quando non richiedono una potenza esterna (a esempio in forma di energia elettrica) per fornire il segnale in uscita derivato dalla grandezza fisica da misurare.

I \textsc{sensori passivi} agiscono come impedenze elettriche. Il misurando può produrre una variazione nei parametri geometrici (volume, superficie, lunghezza, ecc.) o una variazione delle proprietà elettriche (resistività, permettività, permeabilità, ecc.).

Anche se è molto importante tener conto che le variazioni nei parametri geometrici frequentemente producono anche variazioni nelle proprietà elettriche.

Di queste variazioni occorre tener conto in quanto esse possono alterare sensibilità e accuratezza del sensore.

La variazione nei parametri geometrici può essere dovuta a una forza, a uno spostamento, a una vibrazione, a una velocità, ecc. La variazione nelle proprietà elettriche è dovuta generalmente a umidità, temperatura, pressione, forza, coppia, radiazione luminosa.

Un esempio di classificazione sulla base della natura passiva dei sensori è fornito nella Tabella~\ref{tab:3-2a}, dove sono riportate alcune delle più importanti applicazioni relative ai più diffusi sensori passivi basati sui tecnologie mature. Si può così riscontrare che un semplice resistore può consentire misure di spostamento, di velocità, di vibrazione, di sforzi, di forze, di coppie, di pressioni, di temperature, di flussi, di portate, di umidità, di dimensioni, solo per fare alcuni esempi.


\begin{table}[!ht]
\caption{Sensori passivi}
\begin{center}
\begin{tabular}{p{0.25\textwidth}p{0.25\textwidth}p{0.4\textwidth}}
Classi ed esempi & Natura del sensore &  Misurando e applicazioni \\
\hline
Resistore a filo & Resistenza variabile & Dimensioni, spostamento
in un potenziometro \\
Strain gage & Resistenza variabile & Sforzi, forze, coppie,
con lo sforzo pressioni \\
Termometri a resistenza& Spira o termistore con variazioni di resistenza & Temperatura, effetti termici, calore irradiato \\
Sensore a spira calda & Spira riscaldata elettricamente & Variazioni di flusso, turbolenze, densità gas \\
Igrometro a resistenza & Variazioni di resistività con l'umidità & Umidità relativa\\
Radiometro a termistore & Radiazioni focalizzate su un bolometro & Inseguimento di missili e satelliti \\
Misuratore di spessori del contatto & Misura di resistenza & Spessore di fogli, livello di liquidi \\
Cellule fotoconduttive & Resistenze variabili con radiazioni incidenti & Relè sensibili alla luce o a radiazioni infrarosse \\
Tubi fotoemissivi & Emissione di elettroni con le radiazioni & Relè fotosensibili \\
Misuratori di ionizzazione & Flusso di elettroni con la ionizzazione & Conteggio di radiazioni e particelle \\
Misuratori di traferro & Variazioni di induttanza & Spessori, spostamenti, con campo magnetico pressioni \\
Sensore a riluttanza & Variazioni di riluttanza con posizione,materiale  & Posizione, spostamenti, vibrazioni, pressioni \\
Sensore a correnti-parassite & Variazioni di induttanza & Spessori, spostamenti con l'avvicinamento \\
Trasformatori differenziali & Nucleo magnetico mobile in speciali avvolgimenti & Spostamenti, posizioni, pressioni, forze \\
Sensore a magneto-strizione & Proprietà magnetiche variabili con sforzi & Suoni, pressioni, forze \\
Sensore a effetto Hall & Interazioni campo magnetico corrente & Forza del campo, correnti \\
Condensatore variabile & Variazioni capacità lunghezza o area & Spostamenti, pressioni \\
Microfono a condensatore & Variazioni capacità per pressione del suono & Voce, musica, rumori, vibrazioni \\
Dielettrico & Variazioni nel dielettrico & Livelli, spessori \\
\hline
\end{tabular}
\end{center}
\label{tab:3-2}
\end{table}

I \textsc{sensori attivi} forniscono un segnale elettrico in uscita derivato semplicemente dalla grandezza fisica in ingresso. I trasduttori di questo tipo sfruttano diversi effetti fisici quali quelli piezoelettrico, fotoelettrico, fotovoltaico, elettromagnetico e termoelettrico. Poiché l'uscita elettrica è limitata dal misurando fisico, questi tipi di trasduttori tendono ad avere una uscita a bassa energia, per cui in genere richiedono una amplificazione. Un esempio di classificazione sulla base della natura attiva dei sensori è fornito nella Tabella~\ref{tab:3-2b}.

\begin{table}[!ht]
\caption{Sensori attivi}
\begin{center}
\begin{tabular}{p{0.25\textwidth}p{0.25\textwidth}p{0.4\textwidth}}
Classi ed esempi & Natura del sensore & Misurando e applicazioni \\
Sensori a equipaggio mobile & Movimento relativo tra magnete ed equipaggio  & Velocità di vibrazione,
 velocità di spostamento \\
Termocoppie & Metalli dissimili a diverse temperature & Temperature, radiazioni flussi di calore \\
Sensori piezoelettrici & Compressione del quarzo o altro cristallo & Vibrazioni,accelerazioni, suoni, pressioni \\
Cellule fotovoltaiche & Generazione in semiconduttori di tensione dalla luce solare & Esposizione, luce \\
\hline
\end{tabular}
\end{center}
\label{tab:3-2b}
\end{table}

In alcuni testi accanto ai sensori passivi (o a modulazione) e a quelli attivi (o ad autogenerazione) si contempla un terzo gruppo cui appartengono i sensori noti come \textsc{modificatori} (in alcuni testi sono classificati come \textsc{convertitori}), che hanno la prerogativa di avere la stessa forma di energia all'ingresso e all'uscita con caratteristiche modificate.

\section{Caratteristiche di un sensore}
Si è già accennato che per un corretto impiego dei sensori è necessario conoscere le loro
prestazioni. A loro fa riferimento sia il progettista del sistema nel definire le specifiche
necessarie per il buon funzionamento, sia il costruttore quando indica la qualità del
prodotto.

Nel definire le caratteristiche di un sensore, si può rappresentarlo come un blocco in grado di trasferire l'informazione e l’energia in ingresso all’uscita in forma invariata o convertita. Allo scopo di studiare nel modo più completo possibile il funzionamento di un sensore, nel seguito si esamineranno le seguenti caratteristiche: \textsc{stazionarie, dinamiche, ambientali, di qualità e affidabilità}.

Le \textsc{caratteristiche metrologiche stazionarie} sono quelle che fanno riferimento alle \textsc{condizioni di regime permanente} definite come quelle condizioni operative del sensore nelle quali la relazione ottenuta durante la taratura resti valida anche quando il misurando vari nel tempo. Esse descrivono il comportamento di un sensore in condizioni di funzionamento normale, quando il misurando subisce variazioni molto lente e in assenza di urti, vibrazioni o accelerazioni (a meno che una di queste non debba essere oggetto di misura).

Le \textsc{caratteristiche metrologiche dinamiche} sono relative alla risposta del sensore alle variazioni con il tempo del misurando, quando non è più valida la relazione tra i segnali di ingresso e di uscita ottenuta durante la taratura. La caratteristica dinamica è definita mediante un’opportuna \textsc{funzione di trasferimento}. Mentre la maggior parte delle prestazioni può essere riferita alla caratteristica in regime stazionario, è opportuno conoscere anche la caratteristica dinamica per una corretta utilizzazione del sensore, anche nelle condizioni di funzionamento in condizioni di regime permanente.

Le caratteristiche metrologiche di qualità e affidabilità sono relative alla vita operativa (o al cosiddetto numero di cicli) di un sensore, alle possibili cause del suo malfunzionamento e alla sua capacità di soddisfare le esigenze del cliente.

Le caratteristiche metrologiche ambientali si riferiscono al comportamento di un sensore dopo l’applicazione (caratteristiche ambientali non operative) o durante l'applicazione (caratteristiche ambientali operative) di una o più grandezze di influenza.

È bene precisare che solo raramente accade che l’indicazione y del sensore sia funzione, oltre che del tempo, della sola variabile in ingresso x (misurando), in genere essa dipende, anche se in misura ridotta, da altre grandezze fisiche denominate grandezze d'influenza o a volte anche fattori perturbanti, capaci di modificare più o meno e in modo generalmente non desiderato la relazione tra l’indicazione del sensore e il misurando. Il VIM definisce d’influenza quella grandezza che in una misura diretta, come sinteticamente mostrato in Fig.3.7, non ha un effetto sulla grandezza che si sta misurando, ma altera la relazione tra l’indicazione, in questo caso del sensore, e il risultato di misura. 

È bene chiarire quanto esposto, prendendo a riferimento per esempio l’effetto termico. La temperatura agirà sia sul misurando sia sul sistema di misura, mentre la variazione sul misurando è legata a una proprietà del sistema sotto osservazione e rappresenta quindi qualcosa che va rivelata, l’effetto di temperatura sul sensore è indesiderato e quindi va effettuata la correzione dell’errore derivante da tale effetto. Per eseguire la correzione non è sufficiente misurare le variazioni di temperatura, ma è anche necessario conoscere con precisione la legge di dipendenza dalla temperatura della curva di taratura del sensore.

Nella figura è evidenziato anche come la presenza del sensore alteri le condizioni iniziali del sistema in cui esso è inserito e non consenta la misura del valore che il misurando assumeva prima dell'inserzione. L’entità dell’interazione varia con il tipo di sensore usato per la misura. Se il sensore è passivo ha bisogno di un sistema di alimentazione, il quale introduce quasi sempre del rumore. Una misura inoltre richiederebbe sempre un attento monitoraggio ambientale, per definire la sensibilità del sistema alle grandezze d’influenza.

\begin{figure}
\begin{tikzpicture}[node distance=2cm, every pin edge/.style={<-}]
%nodi
\node (b) [draw, pin=above left:$x_1$, pin=above:$x_2$, minimum height=1cm, minimum width=3cm] {Misurando};
\node (a) [draw,above of=b, minimum height=1cm, minimum width=8cm] at (2,0) {Grandezze d'influenza};
\node (c) [draw, right of=b, minimum height=1cm, minimum width=3cm,pin=above:$x_1$, pin=above right:$x_2$]at(3,0) {Sensore};
\node (d) [draw, below of=c, minimum height=1cm, minimum width=3cm] {Sistema di alimentazione};
\node (y) [right of=c] {$y$};
%rami
\draw (a)--(b);
\draw (a)--(c);
\draw [-stealth] (b)-- node[above]{Flusso di // informazione X} (c) ;
\draw [stealth-stealth] (b) -- node[below]{interazione $x_3$} (c) ;
\draw [-stealth] (c) -- (y);
\draw [-stealth] (d) -- node[right]{$x_5$} (c);
\end{tikzpicture}
\caption{Schema di un sensore con alcune possibili interazioni}
\label{fig:3-8}
\end{figure}
%

Quando non sia possibile trascurare nella risposta del sensore gli effetti indesiderati, attribuibili alle grandezze d’influenza, occorre introdurre delle correzioni, che possono essere effettuate in fase di elaborazione del segnale in uscita, noti che siano gli effetti delle grandezze di influenza sul sensore stesso. Dalla figura si nota che le grandezze d’influenza agiscono anche sul misurando, alterandone le caratteristiche. Come si è detto, tali alterazioni sono molto spesso oggetto della misura e il sensore sarà tanto più pregiato quanto più riuscirà a distinguere le variazioni del segnale in uscita, attribuibili a fluttuazioni del misurando, da quelle addebitabili al suo normale funzionamento influenzato da perturbazioni dell’ambiente esterno. 

Le crescenti potenzialità dei microprocessori rendono possibili tali correzioni, si richiede semplicemente l’utilizzazione di altri sensori, sensibili alle grandezze d’influenza i cui effetti sul sensore collegato al misurando non siano trascurabili, nel senso che le variazioni nel segnale in uscita, determinati da queste grandezze, risultino superiori all’incertezza strumentale del sensore stesso. Per esempio la temperatura è un parametro che è sempre presente nei fenomeni fisici e chimici, pertanto nella quasi totalità dei casi, quando si misura una grandezza bisognerà tener conto dell’influenza della temperatura sul sensore e quindi sulla relazione esistente tra i segnali $x$ ed $y$. Ecco perché è ormai invalso nell’uso dotare tutti i sistemi automatici di misura di un sensore termico.

\section{Le caratteristiche di qualità}
Molto spesso gli utilizzatori di sensori sono interessati alla loro qualità a lungo termine. I sensori impiegati nell’industria, nel commercio, in agricoltura, nei servizi, con particolare riguardo a quelli in campo medico, nei laboratori di ricerca devono essere in grado di soddisfare pienamente le esigenze del \textsc{cliente}. La globalizzazione dell’economia, il crescente interesse al commercio elettronico hanno determinato una maggiore offerta di sensori con conseguente aumento della competizione su tutti i mercati. I clienti diventano sempre più esigenti e consapevoli della necessità di svolgere con competenza le proprie scelte. Essi valutano, con cognizione di causa, la qualità del prodotto offerto e quindi sono in grado di conoscere quali informazioni pretendere dai fornitori, in particolare le prestazioni qualificanti ed i relativi livelli.

La competizione impone ai produttori di sensori la realizzazione di sistemi organizzativi sempre più efficaci ed efficienti, che consentano il miglioramento continuo della qualità, mirata alla soddisfazione dei clienti. L’ottimizzazione dell’\textsc{organizzazione} deve coinvolgere tutte le fasi dei processi di \emph{marketing}, progettazione, produzione e commercializzazione, anche se si tende sempre più a concentrare nella parola marketing tutte le fasi di ingegnerizzazione e commercializzazione del prodotto, comprensive di quella del controllo della qualità.
 
 I requisiti richiesti dal cliente sono definiti nelle \textsc{specifiche}. Le specifiche devono essere chiaramente quantificate, sistematicamente verificate e validate, attraverso opportune misure, e continuamente controllate. È proprio nella fase di validazione che il metrologo gioca un ruolo fondamentale all’interno del controllo della qualità. Molti paesi richiedono la certificazione di qualità perché un prodotto possa essere commercializzato al loro interno. Per esempio, la \textsc{marcatura CE} è una sigla che deve essere apposta in modo visibile e indelebile su un prodotto per attestare che esso possiede i requisiti essenziali fissati da una o più direttive comunitarie. La marcatura CE attesta la \textsc{conformità} a i requisiti prescritti dalle direttive. Le specifiche rappresentano una variabile da aggiornare in modo continuo sulla base di indagini di mercato. Per il sistematico aggiornamento delle specifiche e, contestualmente, del prodotto realizzato l’organizzazione si deve dotare di un sistema di gestione adeguato a fornire e sostenere il prodotto stesso e quindi a fronteggiare, anche nel corso della fornitura, la richiesta di variazioni. In modo sintetico ed efficace si può affermare che la qualità di un sensore è la sua adeguatezza all’uso. Poiché l’uso che si può fare di un sensore è vastissimo, non si deve confondere qualità con eccellenza, si restringerebbe in tal modo inesorabilmente il mercato, che invece dovrebbe allargarsi quanto più possibile sempre nel rispetto delle diversità, delle attese, delle esigenze e dei gusti dei clienti, anche in base alle loro capacità di spesa. Convenzionalmente si parla di un sistema qualità costituito da un certo numero di elementi, attuato mediante processi che si svolgono sia all’interno delle singole funzioni sia attraverso le stesse. Perché un sistema qualità sia efficace questi processi (e le relative responsabilità, le procedure e risorse) dovrebbero essere definiti e distribuiti in modo coerente. Un sistema è la somma e l’interazione di più processi. Perché un sistema sia efficace sono indispensabili coordinamento e compatibilità delle diverse fasi che lo compongono e la definizione delle loro interfacce. In Fig. 3.8 è riportato un esempio di cerchio della qualità che comprende tutte le fasi di un ciclo produttivo, a partire dalle indagini di mercato, fino ad arrivare alla commercializzazione e allo smaltimento attraverso l’eliminazione o il riciclaggio del prodotto in disuso.
 
 La prima fase è quella di ricerca di mercato, che può essere commissionata all’esterno a ditte specializzate, le quali abbiano mostrato particolare esperienza nel settore d’interesse. Questa prima indagine serve a stabilire le attese e i bisogni dei clienti, la loro ubicazione geografica e soprattutto i pesi percentuali delle attese, che consentiranno non solo di definire le specifiche, ma anche di attribuire a queste, attraverso alcuni coefficienti, una maggiore o minore importanza. In tal modo si potranno programmare le attività dei vari processi, tese al rispetto delle specifiche nel loro ordine di priorità. Questa prima fase è senza dubbio la più delicata, in quanto prevede la programmazione del marketing, che come si diceva inizialmente comprende non solo le politiche di penetrazione nei mercati, ma anche quelle di controllo della qualità e di verifica della soddisfazione dei clienti.

La seconda fase è quella che prelude all’ingegnerizzazione dei prodotti o dei servizi attraverso la \textsc{progettazione} e lo sviluppo. Esiste una tecnica di progetto particolarmente efficiente, quella del \emph{concurrent engineering}, che permette di ridurre drasticamente i tempi di sviluppo e i costi connessi. Essa è sorta anche per consentire maggiore flessibilità alla progettazione e alla produzione, oltre che per migliorare la qualità dei prodotti. Si basa su tre fasi distinte, così esemplificabili: \textsc{modello complesso}; progetto orientato all’assemblaggio; gestione dei dati aziendali. Per quanto attiene al modello complesso, si ha che diversi gruppi di lavoro con competenze in campi differenti collaborano tra loro in un approccio interdisciplinare alla soluzione del problema. Nel campo specifico dell’organizzazione del lavoro in fabbrica le competenze richieste sono molteplici e si affiancano a quelle tipiche di natura tecnico-scientifica alcune di tipo socio-economico quali per esempio: gestione aziendale; \emph{marketing}; sociologia; psicologia sperimentale e applicata; scienza del comportamento; dinamica di gruppo. Il \textsc{modello dell’organizzazione} aziendale entra a far parte del modello complessivo della produzione consentendo di ottimizzare le risorse e l’efficienza del sistema globale di fabbrica. Il sistema se efficiente permette di superare la iper-specializzazione e di enfatizzare le capacità del gruppo di gestire situazioni complesse. Il sistema se ben progettato è in grado non solo di dare risposte corrette, ma di essere un ottimo agente della trasformazione del prodotto e del suo adeguamento alle esigenze del cliente. Il modello complesso ha permesso di superare la tecnica seriale, in quanto si ha la contemporanea azione degli esperti sul modello in modo parallelo. La comunicazione tra i diversi gruppi di lavoro, che operano allo stesso progetto, è favorita dalla tecnica di Definizione Elettronica del Prodotto [\emph{Electronic Product Definition (EDP)}], un pacchetto di moduli software, in grado di rendere visibile ai gruppi di specialisti un albero di componenti. Le connessioni che legano tra loro le diverse parti dell’intero obiettivo assemblato sono facilmente accessibili. Ogni progettista può operare sulla propria parte considerando i vincoli posti dagli altri progettisti e dalle altre fasi del ciclo di produzione. Essi sono in grado di simulare tutte le fasi di produzione, inserendo i dati relativi alla loro parte di programma in modo da avere un’idea del prodotto finito derivante dalle variazioni progettuali da loro introdotte. Se si tiene conto che i costi di progettazione coprono più del $50\%$ del bilancio complessivo della produzione di un oggetto, è evidente il beneficio derivante al ciclo completo dall’ottimizzazione della progettazione. La nuova tecnica messa a punto consente di: ridurre i costi di progettazione; ottimizzare i tempi di produzione; seguire le fluttuazioni del mercato. Il \textsc{sistema di gestione dell’informazione} è strategico.

Ad esso hanno accesso in tempo reale tutte le persone autorizzate, seguendo una logica di estensione del sistema aziendale. I dati disponibili riguardano ogni variazione e sviluppo della progettazione e realizzazione dei prodotti. Le informazioni disponibili in rete possono al limite vedere coinvolti anche i clienti, in genere una particolare categoria di clienti privilegiati. Il sistema può essere reso interattivo, in modo da recepire indicazioni, suggerimenti, critiche provenienti da quanti direttamente impiegano il prodotto e potenzialmente possono essere interessati a suoi aggiornamenti, a modifiche, in base a loro esigenze specifiche o implicite, attraverso un rapporto continuativo con il cliente. In ambito aziendale è divenuta fondamentale l’\textsc{ergonomia gestionale} d’impresa, che vede il lavoratore non più come un fattore condizionante la produttività, ma come portatore di conoscenze e di efficienza quando se ne assecondino i bisogni e se ne riconoscano i limiti lavorativi nel tempo. È noto l’apporto che i lavoratori sono stati in grado di fornire in molte nostre aziende al miglioramento della qualità dei prodotti. I più capaci in questo processo si sono rivelati i lavoratori con maggiore esperienza e con maggiore integrazione nella filosofia di sviluppo aziendale, in quanto soddisfatti del loro lavoro. La competitività sul mercato globale richiede che siano sfruttate tutte le potenzialità umane presenti in azienda, abituandole all’interdisciplinarità. Nell’ambito della fase di progettazione è fondamentale la sua \textsc{validazione}, per assicurarsi che il prodotto soddisfi definite esigenze e requisiti dell’utilizzatore; è importante che la validazione sia eseguita su un prototipo del prodotto finale (o in una fase intermedia di sviluppo) dopo una positiva verifica della progettazione, in condizioni operative definite. Si richiede anche che tutte le varianti o modifiche siano documentate.

Terminata la fase di progettazione si passa alla pianificazione e allo sviluppo dei processi. Il concetto di pianificazione della qualità risponde alle necessità di innovazione e di dinamica produttiva delle imprese inserendo il sistema qualità nel quadro organizzativo
e gestionale costituito dalla compagine aziendale. A questo scopo è compito della
organizzazione predisporre, documentare e mantenere attivo un sistema di gestione per
la qualità inteso come strumento perché il prodotto sia conforme a requisiti specificati,
assicuri la soddisfazione del cliente ed il suo miglioramento continuo. La organizzazione
deve predisporre un manuale della qualità che contenga o richiami le procedure del
sistema qualità e delinei la struttura della documentazione relativa al sistema stesso.
Particolare rilevanza assume poi la produzione del prodotto. Subito dopo la seconda
guerra mondiale si ebbe l’introduzione di macchine di elevata complessità e sorse la
necessità di incrementare l’automazione prima delle macchine e poi dei processi
produttivi, assegnando all’uomo semplicemente compiti di controllo e coordinamento.

L’automazione dei processi produttivi è stata favorita dall’avvento di sistemi assistiti da calcolatore e dagli sviluppi della robotica. La possibilità di corredare la macchina con sensori in grado di trasmettere le informazioni a distanza ha dato la possibilità di rilevare situazioni anomale ed anche di avere indicazioni in tempi rapidi sia di situazioni pericolose per le persone sia di parti di macchine in avaria. In sistemi intelligenti, assistiti da calcolatori si è in grado anche di avere indicazioni sugli interventi da operare, sui tempi e sulle modalità di intervento. Al fine di soddisfare gli elevati requisiti di qualità che debbono essere garantiti sia per quanto attiene alla produzione sia per quanto si riferisce ai materiali di base utilizzati nei processi produttivi, sono introdotti sistemi di controllo e di garanzia della qualità che accompagnano tutte le fasi di produzione. Si può quindi affermare che il \textsc{sensore è soggetto e oggetto della qualità}, nel senso che un sensore è parte integrante di quasi tutti i sistemi di produzione in qualità ed al tempo stesso anche la sua produzione richiede un’organizzazione in qualità. Particolare cura va posta alle \textsc{prove}, ai \textsc{controlli} e ai \textsc{collaudi}. Il fornitore dei sensori deve predisporre e mantenere attive \textsc{procedure} documentate per le attività di prova, controllo e collaudo allo scopo di validare i requisiti specificati per il sensore. Le prove, controlli e collaudi richiesti e le registrazioni da eseguire devono essere indicati nel \textsc{piano della qualità} o in procedure documentate. Il fornitore deve assicurarsi che il prodotto in arrivo non sia utilizzato o messo in lavorazione  senza essere stato controllato, ovvero che si sia accertato in altro modo la sua \textsc{conformità} ai requisiti specificati. L’organizzazione deve anche predisporre e mantenere attive procedure documentate per evitare che venga involontariamente utilizzato o installato un prodotto non conforme. Devono essere definite le responsabilità per l’esame del prodotto non conforme e l’autorità per le relative decisioni. Il prodotto non conforme deve essere esaminato secondo procedure documentate. Inoltre si devono predisporre e mantenere attive procedure per identificare il prodotto con mezzi adeguati, a partire dal ricevimento e durante tutte le fasi di produzione, consegna e installazione. L’organizzazione deve conservarne le registrazioni, che devono identificare il responsabile del controllo e collaudo per il rilascio del prodotto. Le apparecchiature per prova, \textsc{misurazione e collaudo} vanno periodicamente controllate, tarate e sottoposte a manutenzione. La taratura è solo una delle fasi della \textsc{conferma metrologica} di tali apparecchiature. Per assicurare la loro conformità ai requisiti metrologici occorre seguire le indicazioni contenute nella norma UNI EN ISO 10012, sia nella fase della loro messa in servizio, sia quando si siano verificate condizioni che possono aver pregiudicato il loro corretto funzionamento (urti, sovraccarichi, grandezze d’influenza temibili, ecc.), sia quando si teme che la deriva strumentale possa aver ridotto la loro accuratezza. La \textsc{verifica della taratura} deve essere eseguita ad intervalli prefissati e prima dell’uso, impiegando strumenti certificati riferibili a campioni di misura riconosciuti nazionali o internazionali. In mancanza di tali campioni di misura il criterio utilizzato sia per la taratura, sia per la verifica deve essere documentato. Data la sempre maggiore rilevanza dei sistemi di prova automatici, si richiede che le procedure di verifica siano estese anche al software di prova. 
Le apparecchiature di prova, misurazione e collaudo devono essere scelte ed utilizzate in modo da assicurare che la loro \textsc{incertezza strumentale} di misura sia conosciuta e compatibile con le esigenze di misurazione richieste. Esse devono essere verificate prima della loro utilizzazione in produzione, installazione o assistenza e devono essere ricontrollate a intervalli di tempo e di uso prefissati solitamente dal costruttore dell’apparecchiatura di misura. L’organizzazione deve conservare le relative registrazioni.

È bene anche sottolineare la necessità di \textsc{verifiche ispettive} interne della qualità.
L’organizzazione deve predisporre e mantenere attive procedure documentate per la pianificazione e l’esecuzione di verifiche ispettive interne per la qualità, allo scopo di accertare se le attività inerenti alla qualità e i relativi risultati siano in accordo con quanto pianificato e per valutare l’efficacia del sistema qualità. Le verifiche ispettive interne per la qualità devono essere programmate in funzione della importanza della attività da verificare e devono essere eseguite da personale indipendente da chi ha diretta responsabilità delle attività da sottoporre a visita ispettiva. I risultati devono essere registrati e portati all’attenzione di chi ha la responsabilità dell’area verificata perché questi intraprenda tempestive azioni correttive.

È importante anche la \textsc{gestione del magazzino}, che può risultare molto dispendiosa. Con la politica del \emph{just in time} si cerca di rendere minime le giacenze di magazzino in termini sia di materie prime, sia di prodotto finito. Per quanto attiene alla gestione del magazzino l’organizzazione deve predisporre e mantenere attive procedure documentate sia per la \textsc{movimentazione}, allo scopo di impedire danni o deterioramenti, sia per l’\textsc{immagazzinamento} o deposito, allo scopo di evitare il danneggiamento o il deterioramento del prodotto in attesa della sua utilizzazione o consegna, sia per l’\textsc{imballaggio}, la \textsc{conservazione} e la \textsc{consegna} del prodotto. Per la \textsc{vendita e distribuzione} l’organizzazione si deve dotare di una rete quanto più estesa possibile di venditori nelle aree geografiche, nelle quali dalle indagini di mercato è risultata la presenza di potenziali clienti.

Cura va posta anche all’\textsc{installazione} del sensore, che in genere è demandata direttamente al cliente, quando risulti semplice, accompagnando il sensore con un piccolo manuale di installazione, che deve risultare facilmente comprensibile o, come è ormai invalso dire, amichevole nell’uso. Nel caso l’installazione sia demandata in fase contrattuale ai fornitori, sarà necessario porre molta attenzione. È bene sottolineare la delicatezza di questa fase, in cui si è a diretto contatto con il cliente. Un cattivo servizio può vanificare completamente quanto fatto in precedenza per assicurare la soddisfazione del cliente. L’installatore deve essere non solo qualificato, ma anche a conoscenza delle procedure richieste dal manuale di qualità aziendale o, come si dice anche, dello stile dell’azienda, a salvaguardia del suo \textsc{marchio} o \emph{brand}. Il manuale d’uso del sensore deve contenere istruzioni in merito anche alla \textsc{manutenzione} del prodotto. Il cliente si sentirà pienamente soddisfatto se potrà confidare nella continuità d’uso del sensore e, quindi, in un rapido intervento di personale qualificato, qualora trovi difficoltà nell’uso del prodotto o ritenga che questo abbia subito un guasto. Il manuale d’istruzioni deve contenere indicazioni dettagliate sulla migliore manutenzione del prodotto, ma è sempre bene addestrare personale qualificato per un eventuale pronto intervento. A tal proposito l’organizzazione deve predisporre e mantenere attive procedure documentate per individuare le necessità di addestramento del personale che svolge attività che hanno influenza sulla qualità. Il personale che svolge compiti particolari deve essere qualificato. La qualificazione si acquisisce attraverso un’adeguata istruzione, l’addestramento e l’esperienza acquisita.

Una fase delicata nel ciclo delle attività tese alla qualità è quella relativa ad attività e \textsc{verifica ex post}. Può essere considerata come il bilancio di tutte le procedure seguite, finalizzato, in un processo dialettico, ad attivare tutte quelle azioni correttive e preventive tese al miglioramento nell’organizzazione della qualità. Ogni azione correttiva o preventiva intrapresa per eliminare le cause di non conformità effettive o potenziali deve essere di livello appropriato all’importanza dei problemi e commisurata ai rischi relativi. L’organizzazione deve attuare tutte le modifiche derivanti dalle azioni correttive e preventive, registrandole nelle procedure documentate. A questo proposito sarà necessario attivare procedure documentate per l’identificazione, la raccolta, la catalogazione, l’accesso, l’archiviazione, la conservazione, l’aggiornamento e l’eliminazione delle registrazioni della qualità. 

Ultima fase non meno delicata delle precedenti è quella attinente all’\textsc{eliminazione} o al \textsc{riciclaggio} del prodotto da sostituire. Le previsioni più ottimistiche sono che il terzo millennio sarà dedicato al benessere dell’uomo e alla prevenzione dei disagi. Questo progetto richiede una rivoluzione culturale che veda coinvolti i governanti, i lavoratori, i cittadini, gli insegnanti. Un ausilio considerevole a questo progetto potrebbe derivare da un cambiamento culturale, che consideri al centro di qualsiasi processo produttivo i bisogni dell’uomo e l’umanizzazione della tecnologia. In questi ultimi anni, molte grandi industrie e governi dei paesi più industrializzati incominciano a dedicare attenzione sempre crescente ai problemi dell’ambiente e della sua tutela, riconoscendone notevole importanza per le implicazioni non solo sociali, ma anche economiche e aziendali. L’inquinamento ambientale è un problema ormai noto a tutti, in un certo periodo storico i lavoratori si sono sentiti minacciati dal movimento ecologista, per timore di perdita del posto di lavoro. Oggi la qualità della vita e la difesa dell’ambiente non sono più in antitesi al mantenimento del posto di lavoro e alla promozione della sicurezza, in quanto si è chiaramente compreso che non vi sono più motivi per pensare che il miglioramento delle condizioni ambientali possa causare chiusura di impianti o perdita dei posti di lavoro, anzi il controllo dell’inquinamento ambientale anche fuori dalle aziende e la difesa del suolo possono determinare nuovi profitti e nuova occupazione. Un’azienda quindi che si faccia carico dell’eliminazione o del riciclaggio dei sensori in disuso o del riutilizzo di loro parti acquisisce meriti in campo sociale ed è fortemente apprezzata da una clientela, sempre più numerosa, attenta alla conservazione dell’ecosistema. Non va sottaciuto che l’Unione europea ed alcuni enti pongono il vincolo del riciclaggio o riuso tra le clausole di molti loro bandi di gara. Una procedura operativa per la realizzazione di un prodotto o servizio deve essere realizzata nel rispetto dei requisiti di qualità del processo, tutelando l’ambiente oltre alla sicurezza e alla salute dei lavoratori. Si potrebbe, quindi, unificare e giungere a una sola politica aziendale per la qualità, la sicurezza e la difesa dell’ambiente.

\section{Affidabilità dei sensori}
Uno dei requisiti richiesti ad un sensore di qualità è un’elevata affidabilità. Limitazioni e difetti nella progettazione e realizzazione di un sensore, deterioramenti legati al suo uso intenso o a condizioni operative anomale, l’influenza delle condizioni ambientali sono fattori che possono causare incertezze ed errori nella risposta del sensore. Allo scopo di studiare l’influenza di questi fattori sul suo funzionamento e sulle sue caratteristiche nel tempo, in modo da poterla quantificare, è stato introdotto il concetto di affidabilità. Si associa un elevato grado di affidabilità di un sensore a un buon progetto, a una corretta costruzione, all'utilizzazione di componenti di qualità.

L’inizio dello studio dell’affidabilità si può far risalire intorno al 1930. Il maggiore sviluppo è avvenuto in campo militare e aerospaziale. Con gli inizi degli anni 70 si è avuta una significativa incidenza anche in campo industriale. Oggi l’affidabilità è presa in considerazione in diverse discipline soprattutto in campo ingegneristico, biomedico e scientifico in generale. Senza tema di smentita è però opportuno sottolineare che le maggiori applicazioni dell’affidabilità si sono avute e continuano ad aversi nel campo dell’elettronica e dell’informatica.

Al concetto di affidabilità è legato il controllo di qualità che si è diffuso negli ultimi anni soprattutto nel campo dei processi manufatturieri. La necessità di assicurare il corretto funzionamento di un dispositivo per tempi prefissati, ha indotto a quantificare i valori dell’affidabilità. Ciò richiede una serie di misure o prove di affidabilità tese a evidenziare l'insorgere di \textsc{guasti} o di malfunzionamenti al di fuori delle specifiche. Per guasto si intende la cessazione dell’attitudine di un oggetto ad adempiere alla funzione  richiesta. Si definisce invece \textsc{avaria} lo stato dell’oggetto, caratterizzato dall’inabilità di adempiere alla funzione richiesta. Si noti che il guasto è un evento, mentre l’avaria si riferisce a uno stato. Per cui si dice che un sensore guasto è in avaria. I costruttori seri  specificano tra i dati tecnici di un sensore i valori di affidabilità o altri parametri ad essa legati. In genere il raggiungimento di elevati livelli di affidabilità in un sensore è vincolato al contributo congiunto del progettista, del costruttore, del collaudatore, del controllore di qualità, dell’installatore e dell’utilizzatore.

I concetti precedentemente esposti, in sintesi, sono riassumibili nelle varie definizioni di \textsc{affidabilità}, considerata l’insieme dei concetti, teorie matematiche, modelli, analisi di comportamenti fisici, aventi lo scopo di descrivere, prevedere e dominare il comportamento degli oggetti nel tempo. Le norme UNI (Ente Nazionale Italiano di Unificazione) la definiscono l’attitudine di un oggetto ad adempiere alla funzione richiesta nelle condizioni fissate e per un periodo di tempo stabilito. Per affidabilità di un sensore si può quindi intendere la probabilità che esso esplichi la funzione richiesta in condizioni stabilite per un periodo di tempo specificato. Una probabilità zero o affidabilità nulla sta a significare che il sensore è guasto o non funzionante secondo le specifiche. Una probabilità uno o massima affidabilità significa che un guasto del sensore è una evenienza molto improbabile.

Una caratteristica importante è anche quella di \textsc{ciclo o tempo di vita} di un sensore.
Per esso si intende il tempo totale tra la nascita e la morte del sensore quando operi nelle
condizioni definite da uno specificato schema di manutenzione, prefissato a priori. 

La \textsc{vita operativa} (o \textsc{tempo di funzionamento}) è il minimo intervallo di tempo nel quale il sensore opererà in modo continuativo o intermittente, con cicli di lavoro prefissati, senza variazioni nelle sue caratteristiche di funzionamento entro limiti di errore definiti. Il \textsc{numero di cicli} è il numero di escursioni del misurando da un estremo all'altro del campo di misura o fra due limiti diversamente specificati cui si sottopone il sensore senza che si presentino variazioni nelle sue caratteristiche di funzionamento entro limiti di incertezza strumentale definiti.

Le caratteristiche di affidabilità del sensore dipendono molto dalla cura con cui esso è utilizzato, dal rispetto delle condizioni di sicurezza, dall'assenza o dal controllo di condizioni ambientali particolarmente avverse. È evidente che esiste una relazione stretta tra la filosofia di produzione di un sensore e la sua affidabilità. Fortunatamente sempre più in ambito industriale si sta affermando il principio propugnato da alcune aziende americane del \emph{pay now, save later} (tradotto letteralmente “paga ora, risparmi più tardi”). Infatti il buon nome di un \textsc{marchio} (\emph{brand}) si conquista negli anni, immettendo sul mercato prodotti sempre più affidabili oltre che naturalmente sicuri per le persone e per le cose. Spesso inoltre in un sistema complesso le conseguenze di un guasto ad un sensore o ad un suo componente sono difficilmente prevedibili e possono determinare blocchi e danni inimmaginabili. A questo proposito in seguito si introdurrà un’altra caratteristica importante che è quella di disponibilità.

Per quantificare quanto espresso precedentemente e per chiarire meglio che l'affidabilità è una caratteristica temporale della qualità, si considerino $N$ componenti in numero molto elevato e si provino per un tempo $t$. Se si indicano con $N_s$ il numero di componenti che non hanno subito guasti e con $N_f$ il numero di quelli che hanno subito guasti, si definiscono \textsc{affidabilità} $R(t)$ e \textsc{inaffidabilità} $Q(t)$ le seguenti quantità:
\begin{equation}
R(t)=\frac{N_s}{N}=\frac{N-N_f}{N}\qquad Q(t)=\frac{N_f}{N}
\end{equation}
poiché il numero totale dei componenti è la somma di quelli guasti e di quelli sani, $N=N_f+N_s$, dalle precedenti equazioni si desume che la somma dell’affidabilità e dell’inaffidabilità è pari ad uno: $R(t)+Q(t)=1$. L'affidabilità è una funzione che varia con il tempo da 1, all'inizio della prova quando tutti i componenti sono integri ($t=0$), fino a 0, quando tutti i componenti hanno subito un guasto. In realtà, come si verificherà anche in seguito, con $N_f$ si può indicare sia il numero di guasti di un dispositivo, sia il numero di componenti in prova che subiscono guasti.

I guasti possono essere dovuti a difetti costruttivi o a errata utilizzazione. In genere si distinguono come si è detto precedentemente i guasti e le conseguenti avarie. I \textsc{guasti} possono essere \textsc{catastrofici} e \textsc{marginali}. I guasti catastrofici sono improvvisi e completi e impediscono completamente l'espletamento della funzione del componente. I guasti marginali (definiti anche da \textsc{degrado}) sono sia graduali sia parziali e non consentono un funzionamento pienamente rispondente alle specifiche; essi sono dovuti nella maggior parte dei casi a perdita delle caratteristiche metrologiche e a degradazione dei materiali costituenti un sensore, uno strumento, un sistema. In genere i guasti marginali sono più temibili in quanto possono dar luogo a errori difficilmente valutabili. Quando si individua un guasto in un sensore, in uno strumento è sempre bene che l'utilizzatore lo annoti e lo faccia presente al costruttore. Queste informazioni possono risultare estremamente utili per individuare punti deboli in modo tale che nella revisione del progetto si migliori il manufatto eliminando i componenti del sensore che per esempio non sopportano determinati sovraccarichi.

È evidente che l’affidabilità richiesta ad un sensore dipende molto dall’utilizzazione che se ne vuole fare. Per esempio i sensori utilizzati nel campo aerospaziale e biomedico devono avere un’affidabilità molto elevata, che comporta naturalmente alti costi. I fattori o parametri che caratterizzano l’affidabilità e la qualità di un sensore si suddividono in costruttivi, operativi e ambientali. I \textsc{fattori costruttivi} sono legati al progetto del sensore.
Ad esempio nei sensori che presentano organi mobili, la presenza degli attriti può determinare guasti marginali difficilmente rilevabili oltre che prevedibili in sede di progetto. Un difetto nell’unità aritmetica in un sensore intelligente può essere causa di errori e malfunzionamenti non previsti. Il miglioramento dell’affidabilità o dell’adeguatezza, in relazione a possibili difetti costruttivi, è legato a una corretta progettazione e a una buona realizzazione del sensore. I \textsc{fattori operativi} sono legati al funzionamento del sensore. 
Guasti marginali possono insorgere a causa di variazioni delle caratteristiche dei componenti, dovute a deterioramento fisico o chimico dei materiali. Questo deterioramento è naturale, ma può essere accelerato da una utilizzazione del sensore oltre i limiti imposti in sede di progetto. In questo caso verifiche della taratura, regolazioni e collaudi frequenti possono aumentare l’affidabilità e la disponibilità del sensore. I \textsc{fattori ambientali} sono spesso i più temibili. Un’elevata affidabilità è sempre assicurata solo quando il sensore operi in laboratorio in  condizioni ambientali controllate. Forti gradienti di temperatura riducono l’affidabilità per gli effetti deleteri sui materiali. L’alta umidità è un’altra causa di incremento del tasso di guasto, specie se associata con elevate temperature. 

In un sensore o in un sistema sensorio si possono distinguere alcune parti che dopo un certo tempo devono essere sostituite, altre che richiedono una periodica manutenzione per assicurare prefissate prestazioni. Alcune parti inoltre in caso di guasto vanno sostituite, altre possono essere riparate. È ovvio allora che il lavoro di un responsabile della manutenzione risulta notevolmente facilitato quando abbia a disposizione i tempi medi entro i quali occorre intervenire, per sostituire o riparare, in modo da assicurare il corretto funzionamento di un sensore. Con riferimento alle parti non riparabili si definisce un \textsc{MTTF} (acronimo di \emph{Mean Time To Failure}, ovvero tempo medio al guasto) come la misura del tempo medio al guasto di un gran numero di sensori o componenti uguali che operano tutti nelle stesse condizioni operative e ambientali. In base a tale definizione se $N$ sono i componenti in prova e ti è il tempo necessario perché il generico componente \emph{i-esimo} subisca un guasto, si ha:
\begin{equation}
\text{MTTF}=\frac{1}{N}\sum_{i=1}^{N}t_i=\intd{0}{\infty}{R(t)}{t}
\end{equation}
La misura dell’MTTF è in genere eseguita su un numero ridotto di componenti, ma può richiedere un tempo proibitivo. Per questo in molti casi si preferisce provare un numero di componenti di uno o di due ordini di grandezza maggiore del precedente, per un periodo più breve, e determinare il numero totale di guasti nel \textsc{tempo cumulativo} delle prove alle quali sono sottoposti i componenti. Se questi sono $N_p$ e sono provati tutti per uno stesso tempo $t_p$ , il tempo cumulativo $t_c$ risulta pari a $N_p t_p$ Nell'ipotesi che nel tempo $t_c$ siano $N_f$ i componenti che subiscono guasti, si ha che l’MTTF può essere espresso come rapporto tra il tempo cumulativo e il numero di componenti che in quel periodo di tempo si guastano: $MTTF=t_c/N_f$. È evidente che l’equazione precedente fornisce semplicemente una stima dell’MTTF effettivo. Si definiscono pertanto un intervallo e un limite di confidenza, stabiliti in funzione di $N_p$ e $t_p$. Perché si abbia un elevato livello di confidenza il numero di componenti $N_f$ che subiscono guasti deve essere significativo. 

Per quei dispositivi che dopo aver subito un guasto possono essere riparati si definisce un \textsc{MTBF} (acronimo di \emph{Mean Time Between Failures}, tempo medio tra guasti) che si calcola nello stesso modo dell’MTTF definito precedentemente. L’MTBF è legato alle condizioni operative cui è soggetto il sistema oltre che a quelle ambientali. A volte accanto all’MTBF è fornito anche l’\textsc{MTTFF} (acronimo di \emph{Mean Time To First Failure}), che è il tempo al primo guasto di un sistema riparabile. 

Un altro parametro legato all’MTBF è la \textsc{disponibilità}, D, definita come l’attitudine di un oggetto ad essere in grado di svolgere una funzione richiesta a un dato istante o
durante un dato intervallo di tempo, in condizioni determinate, supponendo che siano
assicurati i mezzi esterni eventualmente necessari:
\begin{equation}
D=\frac{\text{MTBF}{\text{MTBF}+\text{MTTR}}
\end{equation}
dove l’\textsc{MTTR} (acronimo di \emph{Mean Time To Repair}, tempo medio alla riparazione) è il tempo medio necessario alla riparazione del guasto, includendo il tempo per la diagnosi, per la localizzazione del guasto e per il lavoro meccanico. Dall’equazione precedente risulta che si ha massima disponibilità, a parità di MTBF, quanto minore è l’MTTR. Un metodo per migliorare la disponibilità di un sensore è quello della \textsc{ridondanza}, che consiste nell'aggiungere un dispositivo addizionale in parallelo a uno gemello, in modo che lo rimpiazzi in caso di guasto. In tal modo il guasto del sensore non causa l'andata fuori servizio dell'intero sistema. Quando in un sistema ridondante si ha la commutazione di un componente sano su uno guasto, in tempi brevissimi, si aumenta notevolmente la disponibilità del sistema.

Sono state sviluppate diverse tecniche matematiche per il calcolo sia della affidabilità sia della disponibilità. Nel caso di sistemi riparabili le tecniche più utilizzate sono quelle markoviane, in grado di descrivere il comportamento stocastico del sistema nel caso di una gran varietà di guasti e di condizioni di riparabilità. Quella di una elevata disponibilità è una qualità che molti utilizzatori richiedono ai componenti, ai sensori, agli strumenti, ai sistemi. Infatti a volte anche poche ore di non utilizzabilità di questi possono comportare rilevanti danni alla produzione, per non dire che a volte occorrono diverse settimane per la riparazione di un componente reso alla ditta costruttrice. È ovvio quindi che anche se un dispositivo presenta elevati gradi di affidabilità, ovvero basse probabilità che subisca guasti, non è detto che soddisfi pienamente alle esigenze dell'utente se la sua disponibilità risulta bassa, ovvero è notevole il tempo che rimane non utilizzabile quando si guasta. I sensori intelligenti, in cui sia prevista la autodiagnosi, quindi la localizzazione del guasto, e che siano in grado di fornire indicazioni sul modo di ripararlo, consentono di aumentare notevolmente la disponibilità. Allo stesso scopo è necessario istruire in fabbrica gli addetti al servizio riparazioni che devono avere conoscenze nel campo delle misure e della componentistica. Inoltre è auspicabile che il reparto acquisti della fabbrica si accerti che i componenti necessari alla riparazione siano forniti da buoni costruttori e rispondano alle specifiche fornite. A questo fine è raccomandabile una prova dei componenti per campioni. Non bisogna neanche sottovalutare la giacenza in magazzino dei componenti occorrenti alla riparazione; essa non dovrebbe mai essere molto lunga, perché, a parte i costi del magazzino, i componenti nel tempo modificano le loro caratteristiche. A volte si richiede che siano tenute sotto controllo la temperatura e l'umidità del magazzino.

Una particolare categoria di \textsc{sensori} è quella dei \textsc{tolleranti al guasto} (anche se è diffuso dire con la dizione inglese \emph{fault tolerant}). I sensori ed attuatori tradizionali sono vulnerabili, soggetti a possibili guasti. Questi guasti possono causare malfunzionamenti in tutta la catena di produzione, con gravi conseguenze al ciclo produttivo. Un sensore che abbia subito nel tempo una variazione delle sue caratteristiche in genere non determina il blocco della catena di produzione, ma non ne consente il corretto funzionamento. Per esempio, in uno stabilimento di imbottigliamento automatico del vino se un sensore di posizione non funziona correttamente può determinare il non allineamento tra il collo della bottiglia e il tubo di immissione del vino, con una notevole perdita del liquido. Stesse considerazioni possono essere fatte per il sensore di livello, destinato ad arrestare il flusso del vino quando ha raggiunto il giusto livello. Lo scopo principale di un sensore \emph{fault tolerant} è evitare che avarie localizzate possano ripercuotersi su tutto il processo produttivo, portando a gravi rischi. Sensori tolleranti al guasto sono impiegati anche in campo medico per assicurare la sicurezza e la salute dei pazienti. Questi sensori sono in grado di rivelare, stimare e compensare possibili malfunzionamenti al loro interno, in modo da non interrompere il funzionamento del sistema dove sono inseriti. Essi segnalano anche la condizione di avaria in modo che il gestore del sistema possa ripristinarne appena possibile la piena funzionalità del sensore senza compromettere il ciclo produttivo. Essi dispongono di un \textsc{rivelatore} di \textsc{limite di errore}. Come si è detto, questo limite, indicato anche come \textsc{errore di misura massimo ammissibile}, è definito come il valore  estremo dell’errore di misura in rapporto a un valore noto di una grandezza di riferimento, permesso dalle specifiche o dalle regolazioni di un sensore. Quando si è raggiunto questo valore di soglia si procede alla commutazione automatica su un componente sano, interno al sensore che ne permette il ripristino del funzionamento secondo le sue specifiche.
Spesso la commutazione fra i diversi componenti uguali all’interno del sensore avviene con una certa frequenza prestabilita, questa procedura rende molto improbabile l’evenienza di commutazione su un elemento in avaria quando si sia rivelata la presenza dell’errore massimo ammissibile in uno dei due componenti. È ovvio che la commutazione è bloccata quando uno dei due componenti è in avaria. La condizione è segnalata, in modo che appena possibile si sostituisca o si ripari tale componente, quando è fermo il ciclo produttivo. Questa tecnica è molto costosa in quanto richiede la presenza all’interno dei sensori o dei sistemi sensori del doppio dei componenti strettamente necessari per la loro realizzazione. Una tecnica meno costosa anche se meno affidabile è quella di sottoporre il sensore a frequenti autoregolazioni che ne correggano gli errori in modo che non si raggiunga l’errore di misura massimo ammissibile e quando questo non è possibile si ferma automaticamente il ciclo inviando contemporaneamente un segnale al gestore del sistema in modo che sappia dove si è verificato il guasto e si possa ridurre al minimo l’MTTR. Questo ultimo tipo di $sensore$ è detto a $controllo di guasto$ (\emph{fail controlled}).

Un altro parametro utile per lo studio dell’affidabilità di un sensore è il tasso di guasto $\delta(t)$ definito nel modo seguente:
\begin{equation}
\delta=\frac{1}{N_s}\deriv{N_f}{t}
\end{equation}
dove $\diff N_f$ è il numero di guasti che si verifica nel tempo dt. Il modo in cui $\delta(t)$ varia nel tempo dipende sia da parametri costruttivi (eventuali difetti in parti del sensore), sia da parametri operativi (condizioni anomale di funzionamento del sensore), sia da parametri ambientali (particolari condizioni termiche o di umidità o di salinità, ecc.). In molti casi l'andamento nel tempo di $\delta$ assume la forma tipica di una vasca da bagno, come indicato
in Fig.~\ref{fig:3-9}.



\clearpage{\pagestyle{empty}\cleardoublepage}
\chapter{Strumenti digitali}
\section{Introduzione}
Gli strumenti digitali possono essere considerati combinazioni di porte logiche che variano stato a velocità molto elevata. Sono utilizzati in diversi settori quali quelli delle misure, dei sistemi di controllo, delle telecomunicazioni, dell'informatica, per citarne solo alcuni. Essi si stanno diffondendo in modo estensivo e tendono nella maggior parte delle applicazioni a sostituire quelli di natura analogica. Presentano infatti rispetto a questi diversi vantaggi molto attrattivi che saranno di seguito sintetizzati, ma la loro diffusione è dovuta essenzialmente al costo. Si può affermare che a parità di costo l'accuratezza e la risoluzione risultano di un ordine di grandezza superiori a quelle di uno strumento analogico che svolga le stesse funzioni. 

I pregi della strumentazione digitale sono: la facilità di lettura e quindi l'attendibilità dei risultati, dovute alla presentazione dei dati su un visualizzatore numerico; gli alti livelli di accuratezza e risoluzione, dovuti alla disponibilità oggi sul mercato di componenti veloci ad elevato numero di bit; gli alti valori di velocità sia di campionamento sia di conversione, che rendono possibile il processo in tempo reale; l'elevata immunità al rumore e ai processi di deriva tipici dei componenti elettronici, il che insieme con la facilità di trasmissione dei dati numerici ha favorito lo sviluppo degli strumenti digitali nel campo delle telecomunicazioni; la facile realizzabilità dell'isolamento galvanico, specie con il ricorso agli optoisolatori; la possibilità e la facilità di ulteriore elaborazione dei dati acquisiti; la sempre più diffusa intelligenza interna agli strumenti cosiddetti esperti; la sovraccaricabilità; l'indicazione della polarità; la scelta automatica del campo; le possibilità sempre più utilizzate di auto test, ovvero di autoregolazione della curva di taratura, di autoriconfigurazione, di facilità nell'indicazioni di situazioni anomale; l'inclusione in sistemi ATE (\emph{Automatic Test Equipment}); la possibilità di essere programmati in ambito CAT (\emph{Computer Aided Testing}); l'ottimizzazione nell'interazione uomo-strumento. Naturalmente esistono anche alcuni limiti dipendenti principalmente da: dipendenza delle prestazioni dalla temperatura; sensibilità ai campi elettromagnetici; presenza di errori di aliasing, di troncamento e di quantizzazione; necessità di particolari algoritmi di interpolazione per valutare i valori intermedi tra un campione e quello successivo; mancanza di esperienza consolidata nella progettazione e realizzazione.

Gli strumenti digitali sono estremamente flessibili e questo ha determinato una loro proliferazione e differenziazione. Inoltre l'avvento dei sensori intelligenti ha notevolmente e ulteriormente espanso il loro campo di applicazione. In Fig.\ref{fig:1-1} è mostrato uno schema a blocchi semplificato di un generico strumento digitale singolo.

Molto più diffusi sono sistemi che prevedono ingressi analogici e digitali multipli. I sistemi di acquisizione dati hanno la peculiarità di facilità di adattamento al processo industriale da controllare.

Da quanto esposto in precedenza si evince quanto risulti difficile fornire indicazioni sui prototipi più diffusi di strumenti digitali. Nel seguito si esamineranno alcuni fra i dispositivi più impiegati nel campo delle misure, fornendo alcune specifiche.

\section{Errori di campionamento e troncamento}
Il processo di campionamento di un segnale analogico, variabile nel tempo, riveste una notevolissima importanza nella maggior parte dei sistemi elettronici di misura e di controllo. Esso infatti consente il passaggio dal dominio del continuo a quello del discreto, operazione che facilita la conversione dei segnali da analogico in digitale. È bene precisare che non tutti gli strumenti digitali richiedono il campionamento del segnale di misura. Si pensi ai frequenzimetri, ai voltmetri in c.c., o ad alcuni in c.a. che forniscono semplicemente la misura del valore efficace, per accennare a dispositivi che non sempre richiedono la presenza di un campionatore. Esiste d'altra parte una serie consistente di strumenti, in cui il campionamento o la discretizzazione del segnale è la prima operazione di un processo, che può risultare più o meno complesso. Solo l'esecuzione corretta del campionamento può evitare errori che vanificherebbero il ricorso alla strumentazione digitale. Si ritiene quindi importante soffermarsi sul teorema del campionamento.  

Le conversioni digitale-analogico e analogico-digitale consentono il collegamento fondamentale tra il mondo delle quantità analogiche e quello dei segnali numerici o digitali. Lo sviluppo dei \textsc{DAC} (acronimo di "\emph{Digital Analog Converter}") è stato reso possibile dall'avvento degli interruttori elettronici ad alta velocità. Questi convertitori hanno lo scopo di ricostruire un segnale analogico in uscita a un dispositivo digitale dopo per esempio una elaborazione o l'immagazzinamento in una memoria numerica o semplicemente una trasmissione di segnali in forma digitale. Gli \textsc{ADC} (acronimo di "\emph{Analog Digital Converter}") hanno il compito di convertire il segnale analogico in ingresso a un dispositivo nella sua equivalente forma digitale. Essi sono disponibili sul mercato in diverse forme realizzative utili per una vasta serie di applicazioni.

Nei moderni sistemi digitali è spesso necessario collegare componenti o parti che possono essere lontane tra loro. Questa tendenza è favorita dal fatto che i segnali digitali sono meno soggetti di quelli analogici all'influenza dei disturbi e del rumore. Ciò nonostante è importante utilizzare linee di trasmissione progettate ad hoc per evitare una degradazione del contenuto informativo dei segnali digitali. È infatti importante sottolineare che i segnali digitali hanno frequentemente tempi di transizione dell'ordine dei nanosecondi, per cui richiedono linee in grado di trasmettere segnali a elevata frequenza

La fase iniziale e spesso la più critica dell'elaborazione digitale di un segnale analogico è quella del campionamento. Se questa operazione non è eseguita correttamente, tenendo presenti le caratteristiche spettrali del segnale in esame, si ottengono dei risultati errati anche se apparentemente attendibili, in quanto il contenuto delle informazioni del segnale campionato risulta diverso da quello del segnale di partenza.

\begin{figure}[!ht]
\begin{center}
\begin{tikzpicture}
\begin{axis} [width=10cm,xlabel={$t$}, ylabel={$x(t)$}, xmin=0, xmax=6.28, ytick={-1,1}, xtick={1.5707,3.1415,4.7123,6.2831}, xticklabels={$\frac{\pi}{2}$,$\pi$,$\frac{3\pi}{2}$,$2\pi$},axis lines=middle, enlargelimits]
\addplot [domain=0:2*pi,
samples=40,smooth,thick]
{cos(deg(x))};
\end{axis}

\begin{axis} [ height=5cm, width=10cm, xlabel={$t$}, ylabel={$s(t)$}, xmin=0, xmax=6.28, ymin=0, ymax=1, ytick={-1,1}, yshift=-4cm, xtick={0.2618,1.5707,3.1415,4.7123,6.2831}, xticklabels={$\frac{\pi}{12}$,$\frac{\pi}{2}$,$\pi$,$\frac{3\pi}{2}$,$2\pi$},axis lines=middle, enlargelimits]
\addplot [ycomb,black] coordinates
{(0.2618, 1) (0.5235, 1) (0.7853, 1) (1.0472, 1) (1.309, 1) (1.5707, 1) (1.8326, 1) (2.0944, 1) (2.3562, 1) (2.6180, 1)(2.8797, 1)(3.1415,1)(3.4034,1)(3.6652,1)(3.927,1)(4.1887,1)(4.4505,1)(4.7123,1)(4.9742,1)(5.2359,1)(5.4977,1)(5.7595,1)(6.021,1)(6.2831,1)};
\end{axis}

\begin{axis} [ yshift=-12cm, width=10cm, ycomb, xlabel={$t$}, ylabel={$x(t)$}, xmin=0, xmax=6.28, ytick={-1,1}, xtick={1.5707,3.1415,4.7123,6.2831},  xticklabels={$\frac{\pi}{2}$,$\pi$,$\frac{3\pi}{2}$,$2\pi$},axis lines=middle, enlargelimits]
\addplot [domain=0:2*pi,
samples=24,black]
{cos(deg(x))};
\end{axis}
\end{tikzpicture}
\end{center}
\caption{Esempio di segnale campionato}
\label{fig:4-2}
\end{figure}

L'operazione di campionamento consiste nel prodotto fra il segnale continuo e una serie di impulsi unitari e periodici, di periodo $T_c$, che prende anche il nome di \textsc{intevallo di campionamento} o \textsc{tempo fra campioni}. In Fig.~\ref{fig:4-2} è mostrato questo processo che porta come risultato finale a una sequenza di campioni rappresentativi della forma d'onda di partenza. È bene precisare subito, che un numero finito di campioni può rappresentare in modo accurato un segnale analogico solo se questo è a banda limitata ed è rispettato il teorema del campionamento. Si ricorda che un segnale a banda limitata ha uno spettro in frequenza con ampiezza nulla in tutto il campo eccetto una banda ben definita. Segnali ad ampiezza di banda limitata possono derivare da un processo di filtraggio o dalle limitazioni in banda imposte da sensori, amplificatori o altri componenti del sistema.

Si definisce $f_c$, frequenza o velocità di campionamento, il reciproco di $T_c$. Un altro parametro importante è la \textsc{durata del campionamento} o \textsc{finestra di osservazione}, data dal tempo totale del campionamento.

Il campionamento può portare a incorrere in due errori, uno di "\emph{aliasing}", come è ormai invalso dire anche in lingua italiana per la difficoltà di traduzione e l'altro di troncamento (o "\emph{truncation}").

Perché il segnale campionato contenga le stesse informazioni di quello originale non è possibile scegliere in modo casuale la frequenza di campionamento, ma deve essere rispettato il \textsc{teorema del campionamento o di Shannon}\index{teorema!del campionamento}\index{teorema!Shannon}. Questo afferma che: \emph{"un segnale analogico il cui spettro si estenda dalla frequenza nulla a quella $f_M$ può essere completamente rappresentato da una sequenza di campioni regolarmente spaziati,  ottenuti con una frequenza di campionamento non inferiore a $2f_M$, ovvero quando sia verificata la condizione $fc\geq 2f_M$"}.

La frequenza critica $f_c/2$ prende il nome di frequenza di \emph{folding}\index{frequenza!folding}, mentre la frequenza minima di campionamento\index{frequenza!minima di campionamento} richiesta per prevenire l'aliasing, ovvero due volte la frequenza più elevata contenuta nel segnale prima del campionamento, prende il nome di "\emph{Nyquist rate}". La metà della "\emph{Nyquist rate}", ovvero la massima frequenza della componente armonica contenuta nello spettro, prende il nome di "\emph{Nyquist frequency}". Il non rispetto del teorema del campionamento comporta l'insorgere dell'errore dell'aliasing. Per interpretare il campionamento si può considerare il segnale analogico $x(t)$ a banda limitata, modulato mediante un treno periodico di impulsi $s(t)$ aventi durata infinitesima rispetto al periodo di campionamento $T_c$:
\begin{equation}
s(t)=\sum_{k=-\infty}^{\infty}{\delta(t-k T_c)}
\end{equation}
dove $\delta$ è la funzione impulso unitario, in modo da fornire un segnale modulato in ampiezza o PAM:
\begin{equation}
x_c(k T_c)=\sum_{k=-\infty}^{\infty}{x(t)\delta(t-k T_c)}
\end{equation}

Poiché alla moltiplicazione nel dominio del tempo corrisponde la convoluzione nel dominio della frequenza la trasformata di Fourier di $x_c(n T_c)$ è data da:
\begin{equation}
\begin{split}
X_c(\omega)&=X(\omega)\ast S(\omega)
\\
S(\omega)&=\frac{2\pi}{T_c}\sum_{k=-\infty}^{\infty}{\delta(\omega-\frac{2\pi k}{T_c})}=\omega_x\sum_{-\infty}^{+\infty}{\delta(\omega-k\omega_c)}\\
X_c(\omega)&=\omega_c\sum_{k=-\infty}^{\infty}{X(k\omega_c)\delta(\omega-k\omega_c)}
\end{split}
\end{equation}
dove $X(\omega)$ e $S(\omega)$ sono le trasformate di Fourier del segnale di ingresso e del treno d'impulsi, $k$ sono solo numeri interi e inoltre si è posto $\omega_c=2\pi f_c=2\pi/T_c$.

Il segnale campionato ha quindi come spettro quello del segnale analogico ripetuto periodicamente a frequenze multiple di quelle di campionamento. In Fig.~\ref{fig:4-3} sono riportati sia un singolo possibile spettro di un segnale analogico a banda limitata (a), la sua replica
traslata di multipli interi della $f_c$ nel caso di assenza di aliasing (b) e le repliche sovrapposte nel caso di non rispetto del teorema del campionamento (c).

La Fig.~\ref{fig:4-3} (c) mostra che nel caso in cui la frequenza di \emph{folding} sia inferiore alla frequenza $f_M$ si ha la sovrapposizione, anche se parziale, delle ripetizioni periodiche dello spettro del segnale, ovvero si ha l'aliasing delle frequenze più elevate (comprese tra la "\emph{Nyquist rate}" e la frequenza $f_M$) con frequenze inferiori alla frequenza $f_c/2$. In particolare si ha una rotazione di $180\si{\degree}$ delle frequenze superiori a quella di \emph{folding} intorno a questa. I nuovi valori delle frequenze false dovute all'aliasing si ottengono facilmente dalla differenza fra la frequenza di campionamento e quelle comprese tra la frequenza di \emph{folding} e la $f_M$. Nel caso in cui queste nuove frequenze si sovrappongano a frequenze già esistenti nello spettro del segnale analogico, si ha il fenomeno dell'\emph{interferenza armonica}.

\begin{figure}[!ht]
\begin{center}
\begin{tikzpicture}
\begin{axis} [xlabel={$t$}, ylabel={$x(t)$}, xmin=-6.28, xmax=6.28, ytick={-1,1}, xtick={-6.2831,-3.1415,0,3.1415,6.2831}, xticklabels={$-2\pi$,$-\pi$,0,$\pi$,$2\pi$},axis lines=middle, enlargelimits]
\addplot [domain=-pi:pi,samples=40,smooth,thick,black]
{cos(deg(x))-.4*cos(deg(x*2))};
\end{axis}

\begin{axis} [yshift=-6cm, xlabel={$t$}, ylabel={$x(t)$}, xmin=-6.28, xmax=6.28, ytick={-1,1}, xtick={-6.2831,-3.1415,0,3.1415,6.2831}, xticklabels={$-2\pi$,$-\pi$,0,$\pi$,$2\pi$}, axis lines=middle, enlargelimits]
\addplot [domain=-2*pi:2*pi,samples=40,smooth,thick]
{cos(deg(x))-.4*cos(deg(x*2))};
\end{axis}

\begin{axis} [yshift=-12cm, xlabel={$t$}, ylabel={$x(t)$}, xmin=-6.28, xmax=6.28, ytick={-1,1}, xtick={-6.2831,-3.1415,0,3.1415,6.2831}, xticklabels={$-2\pi$,$-\pi$,0,$\pi$,$2\pi$},axis lines=middle, enlargelimits]
\foreach \theta in {-pi,0,pi}
	\addplot [domain=-pi+\theta:pi+\theta,samples=120,smooth,thick,black]
{cos(deg(x+\theta))-.4*cos(deg( (x+\theta)*2)) };
\end{axis}
\end{tikzpicture}
\end{center}
\caption{Spettri in frequenza del segnale campionato}
\label{fig:4-3}
\end{figure}

Una più facile comprensione dell'errore di aliasing si ha se si considerano segnali o con una sola armonica o con uno spettro discreto costituito da poche armoniche. Per esempio in Fig.\ref{fig:4-4} (a) e (b) sono mostrati un segnale sinusoidale a $\SI{50}{\hertz}$ campionato a $\SI{75}{\hertz}$ con la ricostruzione del segnale campionato, che presenta una frequenza falsa di $\SI{25}{\hertz}$ (Fig.3.4a), e gli spettri di un segnale con componenti armoniche a $\SI{50}{\hertz}$, $\SI{100}{\hertz}$ e $\SI{150}{\hertz}$, e di quello campionato con una frequenza di campionamento pari a $\SI{180}{\hertz}$ (Fig.3.4b). In Fig.3.4(b) è quindi mostrato come un campionamento a $\SI{180}{\hertz}$ di un segnale contenente componenti a $\SI{50}{\hertz}$, $\SI{100}{\hertz}$ e $\SI{150}{\hertz}$ dà luogo a un segnale campionato che presenta frequenze spurie a $\SI{30}{\hertz}$ e $\SI{80}{\hertz}$. Si è avuta cioè una traslazione delle frequenze più elevate verso le basse frequenze, anche se la componente fondamentale a $\SI{50}{\hertz}$ non ha subito interferenze, cosa che sarebbe accaduta se si fosse campionato a $\SI{150}{\hertz}$ o a $\SI{200}{\hertz}$. 

Un'estensione del teorema del campionamento è relativa a segnali con banda non comprendente la frequenza nulla. Per essi è possibile ricostruire il segnale senza perdita d'informazione campionando con una frequenza doppia dell'ampiezza di banda del segnale. Questa estensione permette di ridurre considerevolmente la frequenza di campionamento nel caso di segnali a banda stretta. Così per esempio se lo spettro di un segnale ha un'ampiezza di banda di $\SI{500}{\hertz}$, una frequenza di campionamento di $\SI{1}{\kilo\hertz}$ dovrebbe essere sufficiente a ricostruire il segnale, quale che sia la localizzazione della suddetta ampiezza di banda nel campo delle frequenze. Un semplice ribaltamento dello spettro del segnale campionato intorno alla frequenza di folding consente la ricostruzione dello spettro del segnale originario. Per esempio un segnale il cui spettro abbia frequenze comprese tra $\SI{1}{\kilo\hertz}$ e $\SI{1.5}{\kilo\hertz}$, se campionato a $\SI{2}{\kilo\hertz}$, presenterà lo spettro del segnale campionato con ampiezza di banda compresa tra $\SI{500}{\hertz}$ e $\SI{1}{\kilo\hertz}$. Lo spettro del segnale originario si otterrà ribaltando lo spettro del segnale campionato intorno alla frequenza di \emph{folding}, in questo caso pari a $\SI{1}{\kilo\hertz}$. È bene però sottolineare che la eventuale presenza di componenti al di fuori della banda di frequenza considerata potrebbe determinare fenomeni di interferenza armonica, rendendo difficile la ricostruzione accurata del segnale originario.

\begin{figure}[!ht]
\begin{center}
\begin{tikzpicture}
\begin{axis} [xlabel={$t$}, ylabel={$x(t)$}, 
xmin=0, xmax=62.8, ymin=-1, ymax=1, 
ytick={}, xtick={}, xticklabels={}, 
axis lines=middle, enlargelimits,
 height=5cm,width=8cm]
\addplot [domain=0:62.8,samples=120, smooth, thick]
{.5*sin(deg(x))};
\end{axis}
\begin{axis} [xlabel={$t$}, ylabel={$x(t)$},
 xmin=0, xmax=62.8, ymin=-1, ymax=1, 
ytick={}, xtick={}, xticklabels={}, 
clip=false, axis lines=middle, enlargelimits, 
yshift=-3.5cm, height=5cm, width=8cm]
\addplot [domain=0:62.8,samples=120, smooth,thick]
{.5*sin(deg(x/2))};

\foreach \k in {1,3,5,7,9,11,13,15,17,19}
	\addplot [dashed,black] coordinates { (\k*2*pi/3,0) (\k*2*pi/3,1) };
\end{axis}

\end{tikzpicture}
\end{center}
\caption{Due esempi di aliasing}
\label{fig:4-4}
\end{figure}

Il rispetto del teorema del campionamento consente di evitare gli errori di aliasing. Purtroppo sorgono diverse difficoltà quando si deve operare concretamente. Infatti la finestra di osservazione determina una limitazione nel tempo del segnale analogico da analizzare, dando luogo a un segnale teoricamente con spettro infinito, il che causerebbe inevitabilmente una sovrapposizione delle repliche traslate dello spettro del segnale. In altri termini l'errore di aliasing è teoricamente sempre presente. L'unico modo per evitare la sovrapposizione delle repliche traslate dello spettro del segnale è quello di limitarlo in banda prima di campionarlo, il che può avvenire con opportuni filtri. Solo un preventivo filtraggio del segnale analogico permette la successiva corretta discretizzazione.
Naturalmente il filtro dovrebbe sopprimere solo le componenti spettrali che abbiano contenuto energetico minimo, in modo da limitare le distorsioni del segnale filtrato. Il filtro analogico in ingresso al sistema digitale sarà del tipo passabasso nel caso in cui la potenza del segnale sia concentrata alle basse frequenze, decadendo rapidamente a valori d'ampiezza trascurabile oltre una certa frequenza, e un passabanda in caso contrario, per esempio quando si tratti di segnali modulati.

Si è detto che oltre all'errore di aliasing il campionamento comporta anche l’errore di troncamento, legato al numero di campioni necessariamente finito per le limitazioni sia della memoria sia del tempo di esecuzione della misura. Ciò determina spesso una perdita di informazioni, contenute nella parte troncata del segnale. Mentre per segnali transitori l'errore è di scarsa rilevanza se si è in presenza di un rapido decadimento, come per esempio negli esponenziali e nei segnali gaussiani, per segnali sinusoidali o multifrequenziali o transitori con valore a regime non nullo l'errore di troncamento può essere notevole. In Fig.~\ref{fig:4-5} sono riportati alcuni esempi di segnali troncati dove si è indicato con $T_w$ la durata della finestra di osservazione.


\begin{figure}[!ht]
\begin{center}
\begin{tikzpicture}
\begin{axis} [xlabel={$t$}, ylabel={$x(t)$}, xmin=0, xmax=62.8, ytick={-1,1}, xtick={}, xticklabels={}, axis lines=middle, enlargelimits]
\addplot [domain=0:10*pi,samples=40,smooth,thick,blue]
{cos(deg(x))};
\end{axis}ù
\end{tikzpicture}
\end{center}
\caption{Esempi di troncamento di segnali con una finestra rettangolare}
\label{fig:4-5}
\end{figure}

Gli spettri dei segnali finestrati sono in genere differenti da quelli dei segnali analogici originari, a causa sia della fase iniziale del campionamento sia dell'interruzione più o meno brusca del segnale al termine della finestra di osservazione. Vengono infatti introdotte delle false discontinuità al segnale analogico che causano l'insorgere di frequenze spurie nello spettro.

Da un punto di vista matematico l'operazione di finestratura equivale a limitare ad un numero pari ad $N$ i campioni e a moltiplicare ogni campione del segnale per una funzione peso $w_{rett}(t)$, con $t$ compreso per esempio tra $-T_w/2$ e $T_w/2$, dove $T_w=NT_c$. La finestra è inoltre di durata limitata definita dalla relazione:
\begin{equation}
w_\text{rett}(k T_c)=\begin{array}{ll}
1 \qquad &\abs{k}\leq N/2 \\
 0 \qquad& \abs{k}>N/2
\end{array}
\end{equation}
il che equivale a dover considerare un nuovo segnale campionato e finestrato dato da:
\begin{equation}
x_{cw}(k T_c)=\sum_{k=-N/2}^{N/2}{x(t)w_{rett}(k T_c)\delta(t-k T_c)}
\end{equation}

Lo spettro del nuovo segnale è ottenuto dalla convoluzione di tre segnali:
\begin{equation}
X_{cw}(\omega)=X(\omega)\ast W_\text{rett}(\omega)\ast S(\omega)
\end{equation}
che è la convoluzione tra lo spettro del segnale, quello della funzione finestra campionata $W(\omega)$ e quelli della finestra rettangolare e del treno d'impulsi. Tale convoluzione può essere eseguita sequenzialmente in quanto la convoluzione nel dominio della frequenza è un'operazione lineare. Si può verificare che quest'ultimo spettro risulta continuo e periodico. In particolare nel caso si tratti di finestra rettangolare si ha:
\begin{equation}
W_\text{rett}(\omega)=N T_c \frac{\sen(\omega N T_c/2)}{\omega N T_c/2}
\end{equation}
che è la nota funzione $\sinc x=\sen x/x$. In definitiva risulta che lo spettro del segnale originario è alterato dalla presenza della $W_\text{rett}(\omega)$, ovvero è impossibile determinarlo esattamente dallo spettro del segnale finestrato, ma attraverso questo si può semplicemente fornire una stima dello spettro del segnale originario. La stima sarà tanto più attendibile quanto meno peserà l'influenza di $W\text{rett}(\omega)$ sulla $X(\omega)$. La $W_\text{rett}(\omega)$ causa una \textsc{dispersione spettrale} (o \emph{leakage}) delle righe dello spettro originario. La dispersione spettrale interessa tutte le componenti armoniche del segnale e può dar luogo all'interferenza armonica, ovvero alla sovrapposizione delle righe spettrali relative a diverse componenti, il che può causare il mascheramento di quelle più deboli. Un'altra conseguenza del troncamento è che si può presentare l'errore di aliasing anche se la frequenza di campionamento è stata scelta nel rispetto del teorema di Shannon. Infatti può capitare che la componente di più elevata frequenza nello spettro del segnale originario si venga a trovare oltre la frequenza di folding, $f_c/2$.

Vi sono diverse tecniche per ridurre gli effetti della dispersione. Quella più utilizzata consiste nel cercare di attenuare le discontinuità che vengono introdotte nel segnale originario, sostituendo la finestra rettangolare con una funzione peso che presenti derivate nulle agli estremi dell'intervallo di osservazione, con equazione nel tempo e con la sua trasformata del tipo:
\begin{equation}
w(t)=\sum_{m=0}^{M-1}{(-1)^m A_m\cos\frac{2\pi}{T_w}m t}
\end{equation}
\begin{equation}
W(\omega)=\sum_{m=0}^{M-1} {(-1)^m A_m W_\text{rett}\left(\frac{\omega}{2\pi}-\frac{m}{T_w}\right)}
\end{equation}

Nella tabella che segue sono riportate le funzioni finestra più note con i rispettivi coefficienti $A_k$ si ricordano quelle di \textsc{Hanning}, di \textsc{Hamming}, di \textsc{Harris}, di \textsc{Blackman}, di \textsc{Kaiser}. Esse presentano rispetto alla finestra rettangolare uno spettro con dei lobi laterali la cui ampiezza decade più rapidamente, il che consente di limitare gli effetti sia della dispersione spettrale sia dell'interferenza armonica. Esiste anche la possibilità di ottimizzare le finestre al particolare segnale da analizzare. Tra le finestre ottime si annovera una particolare classe di finestre dette \emph{flat-top}, caratterizzate da un lobo principale praticamente piatto, che permette di non avere alcuna attenuazione di ampiezza nelle righe spettrali interne al lobo.

\begin{table}
\begin{center}
\begin{tabular}{p{0.15\textwidth}p{0.25\textwidth}p{0.15\textwidth}p{0.13\textwidth}p{0.12\textwidth}}
\hline
FINESTRA & COEFFICIENTI & AMPIEZZA DEL  LOBO PRINCIPALE dB & AMPIEZZA BANDA DI RUMORE & ERRORE IN AMPIEZZA \\
\hline
Rettangolare & $A_0=1$ & -13,3 & 1 & -36,3 \\
Hanning & $A_0=A_1=0,5$ & -31,5 & 1,5 & -15,1 \\
Hamming & $A_0=0,54$ $A_1=0,46$ & -43,1 & 1,37 & -18,1 \\
Blackman & $A_0=0,42$ $A1=0,5$ $A2=0,08$ & -71,5 & 1,7 & -12,2 \\
Blackman-Harris & $A_0=0,42323$ $A1=0,49755$ $A2=0,07922$ & -98,1 & 1,98 & -9,32\\
\hline
\end{tabular}
\end{center}
\label{tab:4-1}
\end{table}

È interessante sottolineare che per segnali sinusoidali il fenomeno della dispersione spettrale dovuta al troncamento è evitato nel caso in cui si riesca a campionare un numero intero di periodi, ovvero sia verificata la relazione: $T_w=NT_c=m T_s$, dove si è indicato con m il numero di periodi campionati e con $T_s$ il periodo del segnale sinusoidale. In base al tipo di segnale troncato è necessario studiare particolari tecniche di compensazione per ridurre l'errore di troncamento ovvero per stimare nel miglior modo possibile lo spettro del segnale originario.

Come indicazione conclusiva si può affermare che prima di eseguire un campionamento è necessario conoscere, almeno in modo indicativo, il tipo di segnale da analizzare e il suo spettro. Quindi in base a queste informazioni si deve operare per la migliore scelta sia della frequenza di campionamento sia della finestra di osservazione.

\section{Quantizzazione e conversione analogico-digitale}
La \textsc{quantizzazione}\index{segnale!quantizzazione} è il processo di trasformazione di un segnale analogico in un insieme di stati discreti. Essa rappresenta una delle due fasi della \textsc{conversione} di un segnale da \textsc{analogico a digitale}. L'altra fase è costituita dalla codifica, che è il processo di assegnazione di un codice numerico a ciascuno degli stati discreti di una parola. La quantizzazione quindi è il tramite tra il mondo dei segnali analogici e quello delle quantità numeriche o digitali.

La quantizzazione di un segnale analogico campionato è basata sull'assegnazione a ciascun campione analogico di un numero finito di livelli o di canali di uguale ampiezza, $q$, detti anche quanti (da cui la parola quantizzazione). Il risultato di una misura ottenuta  con strumentazione digitale può essere considerato teoricamente come un multiplo intero di questa quantità elementare q, che costituisce anche la risoluzione del dispositivo di misura. Il multiplo più grande della quantità q rappresenta anche la portata dello strumento.

La quantizzazione e la codifica sono eseguite da appositi convertitori analogicodigitali (ADC). Ogni campione analogico deve essere quantizzato a uno dei livelli permessi. Infatti ogni convertitore ha un numero massimo di quanti, in cui può suddividere il segnale analogico in ingresso, in dipendenza del suo numero di bit. Nonostante vi siano diverse strategie sviluppate per il processo di quantizzazione, l'approccio più comune è quello di assegnare a ogni campione analogico l'insieme di quanti che meglio lo approssimi. Il confronto tra il campione analogico e l'insieme dei quanti permette di definire lo scostamento tra le due grandezze. Quando questo scostamento risulti nullo o inferiore a un minimo, dipendente dalla risoluzione dell'ADC, si avrà che il processo di quantizzazione è terminato. Se si indica con X l'ampiezza del campione analogico, la portata o valore di fondo scala, $X_\text{FS}$, del convertitore e la risoluzione o valore minimo, $X_\text{min}$, sono dati da:
\begin{equation}
X_\text{FS}= q M=q 2^n \qquad X_text{min}=q=\frac{X_\text{FS}}{2^n}
\end{equation}
dove $M$ è il modulo del convertitore. per esempio convertitori da 3, 8 o 12 bit hanno rispettivamente risoluzioni pari a $0,125 X_\text{FS}$, $0,0039 X_\text{FS}$, $0,000244 X_\text{FS}$. Inoltre si ha:
\begin{equation}
X=X_\text{FS}\sum_{i=0}^{n-1}\frac{A_i}{2^{n-i}}
\end{equation}
dove le cifre A possono assumere valori 0 e 1; nella codificazione alla risoluzione corrisponderà l'LSB, ovvero il bit meno significativo del dato digitale.

Nel rappresentare in un diagramma cartesiano una grandezza quantizzata si pongono sull'asse delle ascisse i valori del segnale analogico in ingresso e sull'asse delle ordinate il segnale digitale in codice. Con riferimento a un ADC a 3 bit, in Fig.~\ref{fig:4-6} è riportata la funzione a scalinata che meglio approssima la caratteristica di trasferimento ideale di un convertitore, rappresentata dalla linea retta che congiunge l'origine con il punto che ha come ascissa la massima tensione applicabile in ingresso all'ADC e in ordinata il più elevato stato di uscita digitale. In figura agli otto stati possibili in uscita sono assegnate le sequenze di numeri binari da 000 a 111. Sono inoltre mostrati due tipi di convertitori, uno unipolare, in Fig.~\ref{fig:4-6}(a), in cui il valor minimo raggiungibile è zero, l'altro bipolare, in Fig.~\ref{fig:4-6}(b), con un campo di valori simmetrico rispetto allo zero, utile quando la grandezza analogica possa assumere anche valori negativi. Nel caso di convertitore unipolare l'escursione del segnale analogico è compresa tra 0 e $X_\text{FS}$, nel caso di convertitore bipolare tra $-X_\text{FS}/2$ e $X_\text{FS}/2$.

È interessante notare che a fronte di $2^n$ possibili stati di uscita vi siano solo $2^{n-1}$ livelli di decisione analogica o livelli di soglia nella funzione di trasferimento, per cui il valor massimo che può assumere la funzione analogica risulta:
\begin{equation}
X_\text{max}=X_{FS}-q
\end{equation}

Inoltre la particolare caratteristica tracciata in Fig.~\ref{fig:4-6}, dove si è avuta una traslazione di $q/2$, allo scopo di ridurre l'errore di quantizzazione, comporta che le  equazioni precedenti devono essere corrette come segue:
\begin{equation}
X=X_\text{FS}\sum_{i=1}^{n-1}\frac{A_i}{2^{n-1}}-\frac{q}{2}= X_\text{FS}\left(\sum_{i=1}^{n-1}\frac{A_i}{2^{n-1}}-\frac{1}{2^{n+1}}\right)
\qquad
X_\text{max}= X_\text{FS}-q -\frac{q}{2}= X_\text{FS}-\frac{3q}{2}
\end{equation}
Questa differenza tra valor massimo e valore di fondo scala non crea particolari problemi, in quanto di essa si tiene conto nel corso della taratura del convertitore.

In Fig.~\ref{fig:4-6} si è indicato con FS il valore di fondo scala, per semplicità di scrittura, inoltre si è scelto come primo livello di soglia analogica FS/16, mentre i successivi risultano: 3FS/16; 5FS/16; 7FS/16; 9FS/16;11FS/16; 13FS/16. La funzione di trasferimento ideale è quella che passa per i punti di ascisse FS/8, FS/4, 3FS/8, FS/2, 5FS/8, 3FS/4, 7FS/8, ai quali corrispondono i 7 stati digitali tra gli otto possibili, in quanto il primo è assegnato al livello nullo di tensione in ingresso.

\begin{figure}[!ht]
\begin{center}
\begin{tikzpicture}
\begin{axis}[
axis x line=bottom, axis y line=left, 
xmin=0, xmax=9, ymin=0, ymax=9, 
xtick={0,1,2,3,4,5,6,7,8}, xticklabels={0,$\frac{FS}{8}$,$\frac{FS}{4}$,$\frac{3FS}{8}$,$\frac{FS}{2}$,$\frac{5FS}{8}$,$\frac{3FS}{4}$,$\frac{7FS}{8}$,$FS$},
ytick={0,1,2,3,4,5,6,7}, yticklabels={000,001,010,011,100,101,110,111},
ylabel={codice di uscita}]
\addplot [domain=0:7.5, smooth] {x};
\foreach \k in {0,1,2,3,4,5,6}
	\addplot [black] coordinates { (\k+.5,\k)(\k+.5,\k+1)(\k+1.5,\k+1) };
\addplot [black] coordinates {(7.5,7) (8.5,7)};
\foreach \k in {0,1,2,3,4,5,6,7}
	\addplot [dashed,black] coordinates { (\k,0) (\k,\k) };
\addplot [dashed,black] coordinates {(8,0) (8,7)};	
\end{axis}



\begin{axis}[axis x line=bottom, axis y line=left, 
xmin=0, xmax=9, ymin=0, ymax=9, xshift=-2cm, hide x axis, height=7.3cm,
ytick={0,1,2,3,4,5,6,7}, yticklabels={1,2,3,4,5,6,7,8},
ylabel={stati in uscita}]
\end{axis}


\begin{axis}[
clip=false, grid,
xmin=0.0, xmax=9, ymin=-.5, ymax=.5, 
axis x line=middle, axis y line=left,
yshift=-3cm, height=3cm, width=8.48cm,
xtick={0,1,2,3,4,5,6,7},xticklabels={},
ytick={-.5,0,.5},
yticklabels={$-\frac{\text{LSB}}{2}$,0,$\frac{\text{LSB}}{2}$}, xlabel={ingresso analogico (V)}
]
\addplot [domain=0:7.5,samples=200] {round(x)-x};
\foreach \k in {0,1,2,3,4,5,6,7,8}
	\addplot [dashed,black] coordinates { (\k,0) (\k,1) };
\end{axis}


\begin{axis}[xshift=7cm,
axis x line=bottom, axis y line=middle, 
xmin=-5, xmax=5, ymin=0, ymax=9, 
xtick={-4,-3,-2,-1,0,1,2,3,4}, xticklabels={$-\frac{FS}{2}$,$-\frac{3FS}{8}$,$-\frac{FS}{4}$,$-\frac{FS}{8}$,0,$\frac{FS}{8}$,$\frac{FS}{4}$,$\frac{3FS}{8}$,$\frac{FS}{2}$},
ytick={0,1,2,4,5,6,7}, yticklabels={000,001,010,100,101,110,111}]
\addplot [domain=-4.5:5.5, smooth] {x+4};
\foreach \k in {0,1,2,3,4,5,6}
	\addplot [black] coordinates { (\k-3.5,\k)(\k-3.5,\k+1)(\k-2.5,\k+1) };
\addplot [black] coordinates {(3.5,7) (4.5,7)};
\foreach \k in {0,1,2,3,4,5,6,7}
	\addplot [dashed,black] coordinates { (\k-4,0) (\k-4,\k) };
\addplot [dashed,black] coordinates {(4,0) (4,7)};	
\end{axis}

\begin{axis}[ xshift=7.5cm,
clip=false, grid,
xmin=0.0, xmax=9, ymin=-.5, ymax=.5, 
axis x line=middle, axis y line=left,
yshift=-3cm, height=3cm, width=8cm,
xtick={0,1,2,3,4,5,6,7},xticklabels={},
ytick={-.5,0,.5},
yticklabels={$-\frac{\text{LSB}}{2}$,0,$\frac{\text{LSB}}{2}$},xlabel={ingresso analogico (V)}
]
\addplot [domain=0:7.5,samples=200] {round(x)-x};
\foreach \k in {0,1,2,3,4,5,6,7,8}
	\addplot [dashed,black] coordinates { (\k,0) (\k,1) };
\end{axis}
\end{tikzpicture}
\end{center}
\caption{Caratteristiche di trasferimento e errore di quantizzazione in ADC a 3 bit con codifica BCD relative a convertitori unipolari (a) e bipolari (b)}
\label{fig:4-6}
\end{figure}

Dall'esame della Fig.~\ref{fig:4-6} si evince che la conversione analogico digitale comporta sempre una perdita d'informazione tra i livelli di soglia analogici e quindi una distorsione in uscita del segnale analogico d'ingresso. L'errore di quantizzazione è intrinseco alla natura del processo di conversione e non è eliminabile in alcun modo. Esso può considerarsi un rumore dinamico o di quantizzazione che si somma al segnale utile.
Il rumore di quantizzazione ha un andamento tipico a dente di sega con ampiezza
variabile tra 0 e $\Delta q/2$ per la particolare scelta del primo livello di soglia analogica, operata in Fig.~\ref{fig:4-6}. Poichè l'ampiezza dell'errore di quantizzazione è inversamente proporzionale alla potenza $2^n$, l'unico modo per ridurre il rumore di quantizzazione è quello di aumentare il numero di bit, ovvero di migliorare la sua risoluzione. Il valor medio del rumore di quantizzazione è nullo, mentre la sua deviazione
standard e la varianza risultano, come è facile verificare in base all'andamento di tale rumore riportato in Fig.~\ref{fig:4-6} rispettivamente:

\clearpage{\pagestyle{empty}\cleardoublepage}
\part{Esercizi}
\section{Esempi esercizi 1\textordfeminine prova}

\begin{esercizio}
Misura di una resistenza elettrica con media aritmetica di più misure pari a $x$,$y \si{\ohm}$. Alla media si può attribuire un'incertezza dello $z\%$ inoltre si è valutato un bias di $t,d \si{\ohm}$, con un'incertezza del $r\%$. Dopo aver effettuato la correzione e valutato l'incertezza complessiva si esprima il risultato della misura.
\end{esercizio}
\begin{esercizio}
Misura di resistenza con metodo voltamperometrico. La tensione misurata risulta di $y,c \si{\volt}$, con un errore dello $x,g\%$, la corrente è pari a $k,s \si{\ampere}$, misurata con lo stesso errore. Si calcoli l'errore sulla resistenza impiegando i metodi del caso peggiore e del caso più probabile.
\end{esercizio}
\begin{esercizio}
Misura di tre grandezze $a=s\pm y\%$; $b=z\pm t\%$; $c=u\pm v\%$, si calcoli l'errore relativo sulla quantità $x=f(a,b,c)$
\end{esercizio}
\begin{esercizio}
Nel calcolo del prodotto $a\times b$, il calcolatore sommi $b$ volte $a$. Se l'errore di troncamento per ogni iterazione è dello $t,z\%$, si calcoli l'errore finale sul prodotto.
\end{esercizio}
\begin{esercizio}
Misurare con una termocoppia una temperatura di $x,y \si{\celsius}$. Lo strumento misuri una tensione di $t,z \si{\volt}$. Il candidato calcoli sia la costante di taratura dello strumento, sapendo che esso è un numero intero, sia l'incertezza percentuale da cui è affetta la misura e fornisca il risultato finale.
\end{esercizio}
\begin{esercizio}
Dal foglio illustrativo dello strumento si evince che il costruttore assicura un'incertezza dello $x\%$ per tre anni. Da una serie di misure ripetute di resistenza elettrica risulta un valor medio pari a $y,z \si{\ohm}$, con $t$ scarti dello $w,f \%$. Si dia un'indicazione della imprecisione delle misure e si dica cosa occorre fare dopo tre anni.
\end{esercizio}
\begin{esercizio}
La misura di tre resistenze elettriche in serie abbia fornito i seguenti risultati, con accanto gli errori di misura: $x\pm y \si{\ohm}$; $\tau\pm \sigma\si{\ohm}$; $\nu\pm\ni\si{\ohm}$. Il candidato calcoli il valore della resistenza equivalente e l'errore relativo.
\end{esercizio}
\begin{esercizio}
Misura di una resistenza elettrica con media aritmetica di più misure pari a $y,x \si{\ohm}$, se alla media si può attribuire un'incertezza dello $u,v \%$ ed inoltre si è valutato un bias di $h \si{\ohm}$, con un'incertezza del $m\%$, il candidato calcoli l'aspettazione sia della media sia del misurando, ipotizzando le incertezze positive.
\end{esercizio}
\begin{esercizio}
Ipotizzando di aver effettuato $v$ misure, che la media aritmetica risulti $y,x \si{\milli\volt}$, che gli scarti per quattro misure siano $b \si{\milli\volt}$, per tre $c \si{\milli\volt}$ e per le altre tre $d \si{\milli\volt}$, calcoli i momenti centrali di ordine $0, 1, 2 e 3$.
\end{esercizio}
\begin{esercizio}
Si ipotizzi di aver effettuato $x$ lanci di due dadi e di aver ottenuto $y$ volte il risultato $a$, $z$ volte il risultato $b$, $t$ volte il risultato $c$, $p$ volte il risultato $d$, $s$ volte i risultati $e, f e g$, e $k$ volte i risultati $h, i, l e m$. Si calcolino le frequenze relative dei dodici risultati e se ne faccia il confronto con le probabilità teoriche.
\end{esercizio}
\begin{esercizio}
Si ipotizzi di avere una $p(x)=f(x,q)$ nell'intervallo $(a,b)$ e $0$ altrove. Si calcolino $q$, in modo che sia rispettato il principio di normalizzazione, e l'aspettazione $\mu$.
\end{esercizio}
\begin{esercizio}
Valore atteso e varianza di misure di tensione elettrica con i seguenti risultati: $a,b,c,d,e,f,g,h \si{\milli\volt}$ (si ipotizzi una probabilità uguale per tutti i dati). Si valuti quindi l'incertezza con valutazione di tipo A e si esprima il risultato di misura con un fattore di copertura $k=t$.
\end{esercizio}
\begin{esercizio}
Si valuti il valore del fattore di copertura che assicuri una probabilità di occorrenza della misura pari al $d\%$ per una distribuzione uniforme.
Ricordando che ad una probabilità del $g\%$ in
\end{esercizio}

\section{Esempi esercizi 2\textordfeminine prova}
\begin{esercizio}
Un voltmetro digitale $x 1/2$ digit con portata massima di $y \si{\volt}$ ha un errore relativo di lettura di $z\%$, mentre quello assoluto di portata è di t digit. Con il voltmetro si deve misurare una tensione su un resistore di $d \si{\ohm}$ percorso da una corrente di $f \si{\ampere}$. Si illustri il circuito di misura e si dia il risultato finale, considerando l'incertezza coincidente con l'errore.
\end{esercizio}
\begin{esercizio}
Si ipotizzi che un segnale con quattro componenti armoniche a $x \si{\kilo\hertz}$, $y \si{\kilo\hertz}$, $z \si{\kilo\hertz}$, $t \si{\kilo\hertz}$, sia campionato a $s \si{\kilo\hertz}$ e commenti ciò che accade, illustrando le misure da adottare nel caso d'insorgenza di errori. 
\end{esercizio}
\begin{esercizio}
Si ipotizzi di dover elaborare un segnale con frequenza massima pari a $x \si{\kilo\hertz}$ e di disporre di un campionatore con una frequenza massima di campionamento di $y \si{\mega\hertz}$. Si illustrino le scelte da adottare per evitare errori con particolare riguardo a quello di troncamento. Una volta stabilita la migliore frequenza di campionamento, si indichi il numero di periodi da campionare se è richiesta una risoluzione in frequenza di $t \si{\kilo\hertz}$.
\end{esercizio}
\begin{esercizio}
Si ipotizzi di avere a disposizione un ADC a $x \si{\bit}$ con codifica BCD e con valore di fondo scala pari a $k \si{\volt}$ e ne calcoli risoluzione ed errore massimo di quantizzazione. Si indichi poi come è rappresentato in forma digitale con codifica BCD un segnale di ampiezza pari a $z \si{\volt}$ e quanto vale l'errore di quantizzazione.
\end{esercizio}
\begin{esercizio}
Si ipotizzi di avere a disposizione un ADC unipolare a $x \si{\bit}$ con codifica BCD e con valore di fondo scala pari a $y \si{\volt}$ e velocità di conversione equivalente a $h \si{\mega\hertz}$, ne illustri graficamente le caratteristiche di trasferimento e dell'errore di quantizzazione, giustificando le scelte operate. Si calcoli, dopo averli definiti: risoluzione; errore massimo di quantizzazione; campo dinamico, massima frequenza del segnale in ingresso che non richieda l'uso di un campionatore.
\end{esercizio}
\begin{esercizio}
Si ipotizzi di avere a disposizione un ADC con portata massima di $x \si{\volt}$. Si progetti un partitore di tensione resistivo che consenta misure di $y \si{\volt}$, $z \si{\volt}$, $t \si{\volt}$, $r \si{\volt}$, $s \si{\volt}$. Si disegni il circuito di misura con visualizzatore finale, si indichino i fattori di partizione in corrispondenza delle diverse portate e si chiariscano le caratteristiche dei circuiti a valle dell'ADC per la loro validità. Si indichi poi la soluzione da adottare quando si vogliano misurare tensioni inferiori a $x \si{\volt}$.
\end{esercizio}
\begin{esercizio}
Si ipotizzi di voler misurare con un multimetro correnti  variabili tra $x \si{\ampere}$, $y \si{\milli\ampere}$, $z \si{\milli\ampere}$, con un ADC che ha una tensione di fondo scala pari a $t \si{\volt}$. Si progetti il convertitore corrente-tensione e si indichino le soluzioni circuitali atte a permettere la validità dei coefficienti di ripartizione. Si ipotizzi poi che una tensione $v= x \sen(w t) \si{\volt}$ con $z \si{\radian\per\second}$, attraversi un resistore di $t \si{\ohm}$. Si disegni il circuito di misura e si forniscano i valori misurati dal multimetro in funzione sia di voltmetro sia di amperometro.
\end{esercizio}
\begin{esercizio}
Si ipotizzi di voler visualizzare con un oscilloscopio un segnale di equazione $v= x \sen(wt) \si{\volt}$ con $w \si{\radian\per\second}$. Si dispone di un display $r\times t \si{\centi\metre}$, di una base tempi da $y \si{\milli\second}$ a $z \si{second}$ (con variazioni di un ordine di grandezza) e una base di tensione da $c \si{\milli\volt}$ a $d \si{\volt}$ (con variazioni di un ordine di grandezza). Il candidato operi le scelte di tempo e tensione, indicandole, in modo che si visualizzino $j$ periodi del segnale e l'escursione in ampiezza sia la massima possibile, fornisca inoltre sia le misure dello spazio occupato dal segnale in ascisse e in ordinate sia il valore efficace del segnale. Ipotizzi poi di voler misurare il "\emph{duty cycle}" pari a $k\%$.
\end{esercizio}
\begin{esercizio}
Si ipotizzi di disporre di un condensatore in aria ad armature piane e parallele, con superficie pari a $v \si{\centi\metre\squared}$, e distanza fra le armature pari a $j \si{\centi\metre}$ inserito in un ponte in alternata alimentato a $x \si{\kilo\hertz}$ con rapporto unitario di due impedenze contigue. Ricordando che la costante dielettrica del vuoto è pari all'incirca a $\SI{8,85e-12}{\farad\per\metre}$, si disegni il circuito di misura e si calcoli lo spostamento delle armature, se il valore dell'impedenza che equilibra il ponte vale $n \si{\mega\ohm}$. 
\end{esercizio}
\begin{esercizio}
Si ipotizzi di avere un encoder con misuratore ottico di angoli di rotazione a codifica digitale diretta BNC a $x \si{\byte}$ il quale fornisca i risultati in radianti, si calcolino gli angoli di rotazione in radianti nel caso di rotazione massima a $z \si{\degree}$ e quando lo strumento dia le seguenti indicazioni: $k$; $h$; $b$; $j$. Si illustri poi il circuito di misura.
\end{esercizio}
\begin{esercizio}
Si ipotizzi di avere una termocoppia con sensibilità di $x \si{\milli\volt\per\celsius}$, che misura ai morsetti freddi una tensione di $y \si{\milli\volt}$ per una temperatura del giunto caldo pari a $k \si{\celsius}$. La resistenza interna del voltmetro è di $m \si{\kilo\ohm}$, il candidato calcoli l'errore percentuale, la resistenza equivalente della termocoppia e la costante di taratura del sensore.
\end{esercizio}
\begin{esercizio}
Si consideri un sensore con in uscita energia elettromagnetica radiante a $v \si{\nano\metre}$, basato sull'effetto Doppler. Si ipotizzi una variazione della frequenza di $k\%$ dell'onda riflessa da un mezzo mobile che si avvicina alla sorgente in senso longitudinale. Assumendo per la velocità della luce nel vuoto il valore di $3\times10^8 \si{\metre\per\second}$ si calcoli la variazione di frequenza e la velocità di avvicinamento longitudinale del mezzo mobile alla sorgente.
\end{esercizio}
\begin{esercizio}
Si consideri un sensore basato sull'effetto fotoconduttivo che abbia una costante di taratura di y eV/mA e una tensione di alimentazione di z V. La portata massima del sensore è di t eV. Si calcoli la resistenza del sensore quando è investito da una radiazione di p eV e quando si trova alla massima portata.
\end{esercizio}
\begin{esercizio}
Si supponga di avere un fotomoltiplicatore che incrementi di $x$ volte la sensibilità del sensore fotoemissivo pari a $b \si{\milli\watt\per\centi\metre\squared}$ nel vicino infrarosso. Se il sensore ha dimensioni pari a $A \si{centimetresquared}$ si calcoli la corrente massima che circola in un resistore da $m \si{\ohm}$ quando una radiazione nel vicino infrarosso colpisca l'intera superficie del sensore. Si disegni il circuito di misura.
\end{esercizio}
\begin{esercizio}
Si consideri una radiazione con una lunghezza d'onda pari a $y \si{\micro\metre}$ e contenuto energetico pari a $z \si{\joule}$. Assumendo per la carica dell'elettrone $1,6 10^{-19} \si{\coulomb}$, la costante di Plank il valore di $6,6 10^{-34} \si{\joule\second}$ e la velocità della luce nel vuoto il valore di $3 10^8 \si{\metre\per\second}$ ipotizzando un fattore di efficienza del materiale impiegato pari a $t$, si fornisca la corrente misurata dalla cella fotovoltaica e la sua costante di taratura.
\end{esercizio}
\begin{esercizio}
Si supponga di avere un sensore al quarzo misuratore di forze con costante di taratura pari a $b \si{\newton\per\volt}$. La superficie del sensore è di $A \si{\centi\metre\squared}$. Ricordando che la sensibilità del quarzo è di $\SI{5e-2}{\volt\metre\per\newton}$, il candidato calcoli lo spessore della piastrina e spieghi cosa fare per triplicare la sensibilità di misura.
\end{esercizio}
\begin{esercizio}
Si consideri un bolometro di dimensioni $a\times b\times c$ con un fattore $k$ di efficienza di assorbimento del materiale impiegato pari a $y$ rispetto al corpo nero $(k=1)$ e coefficiente piroelettrico pari a $m \si{\volt\per\kelvin}$. Ricordando che nella legge di Stefan Boltzmann $\sigma$ è all'incirca uguale a $\SI{5.67e-8}{\watt\per\meter\squared\kelvin^4}$, si calcoli la costante di taratura del bolometro e la quantità di calore irradiata da un corpo caldo che porta la temperatura del bolometro a $n \si{\kelvin}$.
\end{esercizio}
\begin{esercizio}
Si dispone di quattro estensimetri con costante estensimetrica pari a $x$ e di resistenza pari a $n \si{\kilo\ohm}$ ai quali può essere applicato un allungamento unitario pari a $t$ con sforzi di segno opposto. Per la misura della variazione di resistenza si dispone di un ponte con alimentazione a $m \si{\volt}$. Si scelgano le resistenze per la configurazione a ponte intero, fornendo la tensione di squilibrio misurata ed evidenziando come sia possibile eliminare l'effetto della temperatura.
\end{esercizio}
\begin{esercizio}
Si abbia un sensore ad effetto Hall che in presenza di un campo d'induzione magnetica di $x \si{\weber\per\metre\squared} $ dà luogo con la circolazione di una corrente di $k \si{\milli\ampere}$, a una tensione di Hall pari a $p \si{\volt}$. La piastrina di arseniuro di indio ha dimensioni $a\times b\times c \si{\micro\metre}$. Si determinino la costante di taratura del sensore impiegato come misuratore di induzione magnetica, la densità di corrente nella piastrina, il campo di Hall e l'induzione magnetica quando il voltmetro segna $n \si{\volt}$.
\end{esercizio}
\begin{esercizio}
Si abbia un sensore ad effetto Hall che in presenza di un campo d'induzione magnetica di $x \si{\weber\per\metre\square}$ dà luogo con la circolazione di una corrente di $k \si{\milli\ampere}$, a una tensione di Hall pari a $p \si{\volt}$. La piastrina di arseniuro di indio ha dimensioni $a\times b\times c \si{\micro\metre}$. Si ipotizzi che il sensore sia impiegato come misuratore del numero di giri di una ruota che ha un magnete mobile che eccita la piastrina di arseniuro con un campo d'induzione magnetica di $t \si{\weber\per\metre\square} $ ogni giro. Si calcolino la frequenza e l’ampiezza degli impulsi quando la ruota compie duecento giri in un minuto e il tragitto percorso se la ruota ha un raggio di $b \si{\centi\metre}$.
\end{esercizio}
\begin{esercizio}
Un sensore con coefficiente di temperatura pari a $x \si{\celsius}^{-1}$ e di resistenza a $0 \si{\celsius}$ pari a n $k \si{\ohm}$ è applicato su una superficie a $t \si{\celsius}$. Per la misura della variazione di resistenza si dispone di un ponte con alimentazione a $b \si{\volt}$. Si scelgano le resistenze per l'equilibrio iniziale del ponte con valore della resistenza a $0 \si{\celsius}$, fornendo la tensione di squilibrio misurata quando il sensore è applicato al corpo caldo e si evidenzi come sia possibile eliminare l'effetto di variazione della temperatura ambiente.
\end{esercizio}
\begin{esercizio}
Si consideri un resistore lineare di cermet lungo $x \si{\centi\metre}$ e di resistenza pari a $y \si{\ohm}$. Il resistore potenziometrico è alimentato da una batteria di $z \si{\volt}$. Il candidato indichi le posizioni del cursore quando il voltmetro segna $a \si{\volt}$; $b \si{\volt}$; $c \si{\volt}$; $d \si{\volt}$. Illustri poi il circuito di misura chiarendo le caratteristiche dei componenti impiegati e fornisca la costante di taratura del misuratore di spostamenti.
\end{esercizio}
\begin{esercizio}
Si sono provati $x$ dispositivi uguali per $y$ mesi e si sono verificati $t$ guasti si calcolino l’affidabilità del dispositivo, il tasso di guasto durante la sua vita utile, stimata a $l$ mesi, e la disponibilità, sapendo che l’MTTR è di $p$ giorni. 
\end{esercizio}


\part{Appendici}
\appendix
\chapter{Testi di riferimento}


\clearpage

\phantomsection
\addcontentsline{toc}{section}{\indexname}

\printindex
\end{document}