Gli errori nella misura sperimentale

Le misure sono effettuate al fine di aumentare la nostra conoscenza della realtà e fornire le basi per le decisioni. Una misura dovrebbe contenere le informazioni circa l'incertezza necessaria per una corretta interpretazione (e giudizio) nel prendere una decisione. La qualità di un risultato di misura è determinata dalla struttura degli errori nell'ambito della tecnica utilizzata. Al fine di migliorare la qualità dei valori di misura, i possibili errori coinvolti devono essere ridotti e, per poter migliorare la qualità della stima dell'incertezza di misura, deve essere migliorata di conseguenza la conoscenza di essi.  Un componente importante della formazione tecnica è quello di imparare come gestire e interpretare i dati e i risultati sperimentali. Ciò comprende lo sviluppo di metodologie necessarie per stimare gli errori insiti in vari tipi di misure e tecniche per testare i dati sperimentali. Imparare a gestire gli errori è molto utile, se non indispensabile, in molti campi delle Scienze e Ingegneria. In questo articolo faremo una panoramica sulla teoria di misura, analizzando alcune distribuzioni statistiche e tecniche di calcolo.

Introduzione

Il problema per ogni tecnico sperimentale (fisico, ingegnere etc) è quello di operare una serie di misure per individuare la corretta grandezza fisica ed esprimerla con un valore numerico. I risultati, però, saranno inevitabilmente affetti da errori che dovranno essere indicati nella misura. Nella statistica è spesso utilizzata la seguente teminologia per esprimere 3 parametri principali in relazione all'incertezza di misura:

  • Accuratezza: l'errore tra il valore reale e misurato.
  • Precisione: la diffusione casuale di valori misurati intorno a quello medio.
  • Risoluzione: il più piccolo valore che un sistema può distinguere.

La risoluzione rappresenta quindi la capacità di rilevare piccole variazioni relativamente ad una grandezza fisica che si sta misurando. Una risoluzione di 0,2 V significa che il relativo strumento riesce ad apprezzare valori di tensione superiori o uguali a quel valore. L’accuratezza è lo scostamento del valore misurato da quello reale: in pratica la differenza tra il valore misurato e il valor medio, può dipendere sia da effetti di natura aleatoria sia di tipo sistematico. La precisione, invece, è il grado di diffusione o dispersione dei dati misurati rispetto al valor medio, in pratica è lo scostamento (deviazione standard) dal valor di maggior probabilità (media campionaria).  L’obiettivo di ogni tecnico è quello di ridurre gli errori che si manifestano durante una misura, questo lo si realizza attraverso opportuni accorgimenti, sia da parte dell’operatore sia nell’uso di strumenti sofisticati. Gli strumenti sono distinti in base a vari parametri, quali la portata e la sensibilità. Quest’ultimo parametro è riconducibile alla risoluzione a differenza della portata che esprime il massimo valore misurabile.  Nel caso di strumenti di misura analogici (quasi del tutto obsoleti), in cui il valore misurato è visualizzato in modo meccanico, è difficile dare un numero esatto per la risoluzione. In primo luogo, la risoluzione è limitata dall'isteresi meccanica per attrito dei cuscinetti dell'ago. D'altra parte, la risoluzione è determinata dall'osservatore, rendendo questa valutazione soggettiva. Un tecnico (o meglio, uno sperimentatore sia esso tecnico, scienziato, ingegnere) deve sempre farsi le seguenti domande: Quale grandezza si sta misurando? Quante volte ha bisogno di essere misurata? Qual è il livello di precisione ? Quali sono le condizioni di misura ? Conoscere la risposta a queste domande può aiutare il tecnico a scegliere lo strumento appropriato per la situazione.

Sorgenti di errori

Quasi tutte le misure dirette riguardano la lettura di una scala (righello, pinza, cronometro, voltmetro analogico, ecc) o un display digitale (ad esempio, multimetro digitale o orologio digitale). Le fonti di incertezza dipendono dalle apparecchiature che utilizziamo. Una delle fonti di inevitabile errore è quella di lettura che si riferisce alle incertezze della nostra apparecchiatura e / o dei nostri limiti al momento della misura (per esempio, il nostro tempo di reazione durante l'avvio o l'arresto di un cronometro).  Un errore di lettura influisce sulla precisione dell'esperimento. Consideriamo il millimetro (mm) su una scala a righello. Per una persona con una vista normale è ragionevole affermare che la lunghezza può essere letta al millimetro. Pertanto, una stima ragionevole dell'incertezza in questo caso sarebbe di L = ± 0,5 mm che è la metà della più piccola divisione. Una semplice regola approssimativa per [...]

ATTENZIONE: quello che hai appena letto è solo un estratto, l'Articolo Tecnico completo è composto da ben 2191 parole ed è riservato agli abbonati PLATINUM. Con l'Abbonamento avrai anche accesso a tutti gli altri Articoli Tecnici PREMIUM e PLATINUM e potrai fare il download (PDF) di tutti gli EOS-Book, Firmware e degli speciali MONOTEMATICI. ABBONATI ORA con PAYPAL è semplice e sicuro.

Abbonati alle riviste di elettronica

3 Commenti

  1. Maurizio Di Paolo Emilio Maurizio 7 giugno 2016
  2. emil 10 ottobre 2016

Scrivi un commento

ESPertino è la nuova scheda per IoT compatibile ARDUINO.
Scopri come averla GRATIS!