Erreur

Le calcul d'erreur, ou calcul d'incertitudes est un ensemble de techniques permettant d'estimer l'erreur faite sur un résultat numérique, à partir des incertitudes ou des erreurs faites sur les mesures qui ont conduit à ce résultat.


Catégories :

Métrologie

Recherche sur Google Images :


Source image : genealogie-rouergue.org
Cette image est un résultat de recherche de Google Image. Elle est peut-être réduite par rapport à l'originale et/ou protégée par des droits d'auteur.

Page(s) en rapport avec ce sujet :

  • ... Une partie de la dispersion totale des mesures est par conséquent due à ... Logiquement, la part de cette variance d'erreur est d'autant plus faible... (source : w3.uohpsy.univ-tlse2)
  • Inscription Erreur est sur FacebookInscrivez-vous sur Facebook pour communiquer... de mesure : a) la dispersion statistique et l'erreur systématique sont ... (source : fr-fr.facebook)
  • mise en évidence de la dispersion naturelle des mesures. Sans pour tout autant.... L'erreur est estimée à une graduation. L'incertitude absolue... (source : ww2.ac-poitiers)

Le calcul d'erreur, ou calcul d'incertitudes est un ensemble de techniques permettant d'estimer l'erreur faite sur un résultat numérique, à partir des incertitudes ou des erreurs faites sur les mesures qui ont conduit à ce résultat. Ceci permet par conséquent d'estimer la propagation des erreurs.

L'erreur de mesure détermine la sensibilité (capacité à sélectionner les bons «candidats») et la sélectivité (capacité à éliminer les mauvais «candidats») d'une méthode.



Erreur de mesure

Il faut considérer trois sources d'erreur (uncertainty en anglais)  :

l'erreur totale étant

Δ = Δ1 + Δ2 + Δ3

Si on fait la comparaison avec des flèches qu'on tire sur une cible :

Métaphore de l'incertitude de mesure : a) la dispersion statistique et l'erreur systématique sont faibles ; b) la dispersion statistique est forte mais l'erreur systématique est faible ; c) la dispersion statistique est faible mais l'erreur systématique est forte.
Métaphore de l'incertitude de mesure : a) la dispersion statistique et l'erreur systématique sont faibles ; b) la dispersion statistique est forte mais l'erreur systématique est faible ; c) la dispersion statistique est faible mais l'erreur systématique est forte.

Précision de mesure

Sur un appareil analogique, la première limitation est la distance séparant les graduations ; on peut perfectionner ceci avec un vernier, comme sur un pied à coulisse ou certains goniomètres, ou bien avec une vis micrométrique comme sur un Palmer. Sur un appareil numérique, cette précision est donnée par le nombre de chiffres de l'affichage.

Δ1 est l'espacement entre les graduations, ou bien la valeur d'une unité du dernier chiffre de l'affichage

Mais il se peut que le phénomène soit instable ou bien perturbé par un phénomène extérieur aléatoire. Alors, on verra l'aiguille osciller ou bien les derniers chiffres de l'affichage numérique changer. Ceci diminué la précision de mesure, on ne peut considérer que la partie stable du nombre obtenu. Voir l'article Rapport signal sur bruit.

Quand on utilise des publications particulièrement anciennes pour évaluer un événement non reproductible (l'objet a disparu ou s'est altéré, ou bien c'est un événement unique), on doit quelquefois avoir recours à une échelle empirique, comme par exemple l'échelle de Mercalli ou de Rossi-Forel pour les séismes ou l'échelle de Mohs pour la dureté d'un matériau, l'évaluation de Δ1 devient alors complexe ; cela n'est envisageable que si on peut établir une correspondance avec une échelle «moderne» basée sur une mesure physique. A titre d'exemple, on essaie d'établir une correspondance entre les dégâts d'un séisme décrits dans des écrits antiques et l'énergie des ondes sismiques.

De même, quand la mesure consiste à classifier un phénomène dans une catégorie (cas par exemple d'un sondage d'opinion ou du recensement des pathologies), il n'est pas envisageable de définir Δ1.

Dispersion statistique

Si on mesure plusieurs fois le même phénomène avec un appareil suffisamment précis, on obtiendra chaque fois un résultat différent xi. Ceci est dû à des phénomènes perturbateurs ou, pour les mesures extrêmement précises, à la nature aléatoire du phénomène (chaos, incertitude quantique).

Parmi les phénomènes perturbateurs, on peut dénombrer :

Sur la plupart de mesures, on considère généralement qu'on a une probabilité dont la distribution est gaussienne. Le résultat de la mesure sera alors la moyenne empirique Ê des résultats

\hat{E} = \bar{X} = \frac{1}{n} \cdot \sum_{i = 1}ˆn x_i

le carré de l'écart type σ² de la gaussienne peut s'évaluer avec la variance empirique corrigée \hat{\sigma}ˆ2 :

\hat{\sigma}ˆ2 = \frac{1}{n-1} \cdot \sum_{i = 1}ˆn (x_i - \bar{X})ˆ2

L'erreur due à la dispersion statistique est alors estimée par

\Delta_2 = k\cdot \hat{\sigma}

k étant une constante dépendant du niveau de confiance, c'est-à-dire de l'erreur acceptable.

En physique, on prend fréquemment k = 3, ce qui correspond à un intervalle de confiance de 99, 73 %, c'est-à-dire que 99, 73 % des valeurs xi sont comprises entre Ê - Δx et Ê + Δx et 0, 27 % seront hors de cet intervalle ; sur 1 000 mesures, seules trois seront en dehors de l'intervalle. Dans de nombreux cas, on se contente de prendre k = 2, soit un niveau de confiance de 95 % (5 mesures hors intervalle pour cent mesures). Pour une entreprise ayant une production énorme, 0, 27 %, et a fortiori 5 %, peuvent être toujours trop

par exemple, imaginons qu'une entreprise produise des pièces dont la longueur ℓ doit avoir une précision Δℓ donnée ; l'outil de production, après réglage, produit des pièces avec une dispersion σ sur ℓ ;
si Δℓ = 2·σ, alors pour un milliard de pièces produites, 50 million iront au rebut, ce qui est énorme ;
si Δℓ = 3·σ (grâce à une optimisation de l'outil de production, l'entreprise a divisé la dispersion σ par un facteur 1, 5), alors pour un milliard de pièces produites, 2, 7 millions iront au rebut, ce qui est toujours important ;
si elle réussit à diminuer σ toujours de moitié, on aura alors Δℓ = 6·σ, soit un taux de rebut de 2·10-9 (0, 000 000 2 %), deux pièces iront au rebut par milliard produit. Ce niveau de confiance particulièrement strict a donné son nom à une méthode de gestion nommée Six Sigma.

Voir aussi les articles Critères de dispersion et Loi normale.

Si on a peu d'échantillons, il faut utiliser un cœfficient plus grand pour prendre en compte l'erreur faite sur la détermination de Ê et de \hat{\sigma} (voir la loi statistique de Student). On peut aussi volontairement choisir un intervalle de confiance plus grand ou plus petit, et par conséquent prendre un cœfficient plus grand ou plus petit. À titre d'exemple :

Loi de Student : écart type et niveau de confiance
Niveau de confiance 5 mesures 10 mesures 20 mesures > 100 mesures
(loi normale)
50 % 0, 73·σ 0, 70·σ 0, 69·σ 0, 67·σ
68 % 1·σ
70 % 1, 16·σ 1, 09·σ 1, 06·σ 1, 04·σ
87 % 1, 5·σ
90 % 2, 02·σ 1, 81·σ 1, 73·σ 1, 65·σ
95 % 2, 57·σ 2, 23·σ 2, 09·σ 1, 96·σ
99 % 4, 03·σ 3, 17·σ 2, 85·σ 2, 56·σ
99, 7 % 3·σ
99, 9 % 6, 87·σ 4, 59·σ 3, 85·σ 3, 28·σ
99, 999 999 8 % 6·σ


Note : les valeurs sont arrondies

Sur une gaussienne, la largeur à mi-hauteur (full width at half maximum, FWHM) représente un intervalle de confiance d'environ 76 % (soit 3/4) pour la plupart de mesures.

Dans le cas de mesures physiques ou chimiques, l'évaluation de la dispersion statistique se fait par des mesures de répétabilité et de reproductibilité, et peut-être par des mesures croisées inter-laboratoires :

Si la précision de mesure est inférieure à la dispersion statistique, on mesure alors toujours le même résultat (aux erreurs de lecture ou d'utilisation près), cf. infra.


Note
Dans le cas d'un phénomène aléatoire (processus stochastique, cas par exemple du sondage d'opinion), on ne cherche pas à connaître une valeur et une erreur, mais à connaître la répartition statistique des valeurs. Voir aussi Loi des grands nombres.

Erreur systématique

Article détaillé : Erreur systématique.

L'erreur systématique comprend des phénomènes comme l'erreur d'échantillonnage, l'erreur de préparation, l'erreur de lecture sur les appareils analogiques (erreur de parallaxe). Ces problèmes peuvent introduire une dispersion statistique (cf. ci-dessus) ou bien un décalage des résultats si l'erreur commise est toujours la même.

Les appareils dérivent avec le temps, ce qui rend indispensable leur ré-étalonnage régulier. On peut avoir une très faible dispersion statistique, et avoir cependant un résultat faux...

On peut aussi tout simplement… mesurer un paramètre qui ne représente pas de manière pertinente ce qu'on veut évaluer. A titre d'exemple, en économie, le produit intérieur brut par habitant est un mauvais estimateur du développement d'un peuple. Dans un sondage d'opinion, la question peut orienter la réponse.

Propagation de l'erreur

Le résultat d'une mesure est souvent utilisé pour faire des calculs. A titre d'exemple, dans le cas d'un radar routier (cinémomètre) on mesure un décalage de fréquence et ce décalage est utilisé pour calculer la vitesse du véhicule, avec la loi de Doppler-Fizeau. Il faut par conséquent, à partir de l'erreur commise sur la mesure du décalage de fréquence, estimer l'erreur sur la vitesse.

En général, on mesure une valeur x, et on calcule une valeur y = ƒ (x)  ; on veut estimer Δy à partir de Δx.

Article détaillé : Propagation des erreurs.

Erreur et test d'acceptation

La mesure sert souvent dans les tests d'acceptation, c'est-à-dire que la valeur mesurée détermine si l'objet répond bien aux critères imposés. Cette notion est assez large :

On estime généralement qu'une méthode ne est parfois utilisée que si la dispersion statistique est au moins 5 ou 10 fois inférieure à la valeur limite.

A titre d'exemple, si pour un métier on n'accepte que les personnes mesurant au moins 1, 60 m, il faut une méthode de mesure ayant une dispersion statistique inférieure à 16 cm.
A titre d'exemple, si la teneur en soufre dans une essence doit être inférieure à 150 ppm en masse, il faut une méthode de mesure ayant une dispersion statistique inférieure à 15 ppm.

Généralement, la fourchette de valeurs d'admissibilité doit prendre en compte l'erreur globale. Le sens de la prise en compte de l'erreur globale dépend du type de risque qu'on veut éviter :

Pour tester un appareil ou une procédure, on vérifie que les tests de répétabilité et de reproductibilité sont compatibles avec la précision visée ; pour tester une méthode de mesure, on vérifie que les essais interlaboratoires (ou circulaires) sont compatibles avec la précision visée (cf. supra).

Voir aussi

Recherche sur Amazone (livres) :



Principaux mots-clés de cette page : mesures - erreur - dispersion - appareil - statistique - résultat - précision - valeur - phénomène - échantillon - méthode - systématique - confiance - ceci - sert - fois - incertitudes - titre - veut - pièce - dire - intervalle - produit - loi - niveau - prendre - toujours - compte - inférieure - calcul -

Ce texte est issu de l'encyclopédie Wikipedia. Vous pouvez consulter sa version originale dans cette encyclopédie à l'adresse http://fr.wikipedia.org/wiki/Erreur_(m%C3%A9trologie).
Voir la liste des contributeurs.
La version présentée ici à été extraite depuis cette source le 11/11/2010.
Ce texte est disponible sous les termes de la licence de documentation libre GNU (GFDL).
La liste des définitions proposées en tête de page est une sélection parmi les résultats obtenus à l'aide de la commande "define:" de Google.
Cette page fait partie du projet Wikibis.
Accueil Recherche Aller au contenuDébut page
ContactContact ImprimerImprimer liens d'évitement et raccourcis clavierAccessibilité
Aller au menu