Discussion:Intervalle de fluctuation

Autres discussions [liste]
  • Admissibilité
  • Neutralité
  • Droit d'auteur
  • Article de qualité
  • Bon article
  • Lumière sur
  • À faire
  • Archives
  • Commons

Justification de la suspicion modifier

Dans l'exemple du dé, on prétend qu'en cas d'obtention de 9 «pile» sur 10, le dé est considéré suspect. Quel est le raisonnement précis qui permet d'arriver à une telle conclusion ? Est-ce que le côté «suspect» est quantifiable d'une manière quelconque ?--86.75.254.195 (d) 27 juin 2011 à 22:46 (CEST)Répondre

Il y a une probabilité inférieure à 0,2 que le nombre d'apparition de pile sorte de l'intervalle centré [2 ; 8] pour une pièce équilibrée (et pas un dé). Est-ce cela qui vous intrigue, ou la conclusion de suspicion sur la pièce ? Ambigraphe, le 28 juin 2011 à 01:18 (CEST)Répondre

c'est la conclusion de suspicion, elle est intuitive mais je ne vois pas vraiment quel raisonnement viendrait la conforter.

L'expérience de pile ou face modélise beaucoup de situations dans lesquelles on peut considérer comme normale une équiprobabilité avec deux issues seulement : le genre sexuel, la parité d'un nombre, la position d'un interrupteur, la valeur d'un bit, l'orientation sur un axe (gauche ou droite, haut ou bas, avant ou arrière) ou le sens de parcours d'un cercle…
Lorsqu'on étudie une telle situation sur des données réelles, par exemple le respect de la parité entre hommes et femmes en sociologie, on veut savoir si la répartition suit l'équiprobabilité ou non. Et ça, on ne peut pas le savoir avec certitude, parce que n'importe quelle répartition est compatible avec une loi à deux issues, appelée loi de Bernoulli (une fois qu'on a écarté les cas où l'une des issues est en fait impossible).
En revanche, on peut se fixer un seuil de détection, classiquement à 5 %, ce qui signifie que l'on ne va soupçonner injustement une répartition qui suit pourtant l'équiprobabilité une fois sur 20 environ. (Notez que cet intervalle de fluctuation de permet pas cependant de savoir avec quelle proportion on détecte les répartitions fautives.) Ça c'est vraiment utile, parce que du coup ça va restreindre fortement le nombre de cas où l'on va faire des tests plus poussés.
Ces 5 %, on peut les enlever n'importe où dans l'ensemble des valeurs possibles, mais il est classique de les chercher dans les valeurs extrêmes. On peut alors enlever 2,5 % à chaque bout ou bien s'arranger pour que l'intervalle obtenu soit centré sur la probabilité théorique.
Bon, alors imaginons qu'on fasse un audit de toutes les entreprises de plus de 25 salariés d'une région et qu'on regarde la proportion entre hommes et femmes au sein de chacune. Si on en trouvait une sur vingt en dehors de l'intervalle de fluctuation, ce serait normal. On irait quand même regarder ces moutons noirs d'un peu plus près, mais il n'y aurait a priori rien d'inquiétant.
Or je veux bien parier un repas chez une bonne table de la région lyonnaise que la proportion d'entreprises en dehors de leur intervalle de fluctuation est bien plus grande que 1/20, signe qu'il y a probablement un bon paquet d'entre elles qui ne respecte pas la parité à l'embauche. Toutes les entreprises concernées seront donc suspectes (mais pas forcément coupables). Seule une enquête plus approfondie permettra de mieux cerner les DRH sexistes.
Voilà, pourriez-vous me dire si ces explications répondent à votre question, et le cas échéant quelle information vous manquait pour ce faire dans l'article ? Merci d'avance, Ambigraphe, le 29 juin 2011 à 18:33 (CEST)Répondre

Je comprends bien que les 5% expriment le risque de juger 'sexiste' une entreprise qui en réalité ne l'est pas, mais ce que je ne comprends pas c'est la pertinence de cette approche qui ne permet pas de savoir si elle l'est vraiment ou pas, alors qu'à priori c'est bien cela la question que l'on se pose (et ce que, maladroitement peut-être, semblent exprimer les phrases de conclusion: au risque de 5% de se tromper, on peut dire que...) Par exemple si 'non sexiste' signifie 50% de chances de choisir H ou F, alors probablement toutes les entreprises 'un peu sexistes' (p=48%) passeront haut la main le test ! Deuxièmement, comme vous dites, on peut choisir les 5% où l'on veut, alors si on les choisit centrés sur 50%, cela reviendra à douter des entreprises qui sont le plus proche de ce que la plupart des gens appellerait la parité. Le 'controleur parité' ferait là un boulot assez mal compris et pourtant tout aussi 'justifié'. Troisièmement, à moins que quelque chose ne m'échappe, j'ai l'impression que le raisonnement qui est fait consiste à dire 'puisqu'il est advenu un évènement a priori très improbable sous l'hypothèse H, cela permet de douter de l'hypothèse H'; or ce raisonnement, tel quel, me paraît complètement erroné... Enfin, il me semble que dans le cas où la fréquence EST dans l'intervalle, tout ce que l'on puisse affirmer est 'rien', non ?

D'abord, comme précisé plus haut, cette approche ne permet pas de savoir si une entreprise est sexiste, elle permet de filtrer l'ensemble des entreprises pour restreindre le nombre d'études approfondies.
Ensuite, oui, si la discrimination à l'embauche correspond à un ratio de 48 % contre 52 %, l'intervalle de fluctuation pour p=1/2 ne le verra pas souvent, mais honnêtement je ne pense pas que ce soit notable, sauf pour une très grosse boite. Or, justement, à partir de 2500 salariés, la moitié des boites « un peu sexistes » se feront détecter.
Sur le choix de la zone à exclure, oui, on peut les choisir centrés sur 50 %, si on veut par exemple détecter les entreprises qui cherchent à se rapprocher le plus possible de la parité exacte. Dans ce cas précis, ça n'a pas vraiment d'intérêt, mais dans un autre domaine ça peut être utile pour détecter des résultats expérimentaux qui se rapprocheraient trop de la valeur théorique (soupçon de résultats trafiqués ou inventés). J'ai déjà lu plusieurs fois que les valeurs obtenues par Gregor Mendel sur les petits pois étaient trop proches de la théorie pour être vraisemblables.
La troisième remarque contient une bonne idée : le résultat de l'intervalle de fluctuation ne peut pas faire baisser la probabilité de l'hypothèse H, car celle-ci n'est pas probabilisée. L'hypothèse est mise en doute, pas mise en défaut.
La remarque finale est tout à fait correcte. Si la valeur observée appartient à l'intervalle de fluctuation de la valeur théorique, on dit que l'écart éventuel entre ces deux valeurs s'expliquent par les fluctuations au seuil de 95 %. Ambigraphe, le 29 juin 2011 à 23:20 (CEST)Répondre

Bien, excusez-moi d'insister mais j'en reviens donc à ma question initiale: y a-t-il un moyen de justifier rigoureusement cette mise en doute ? Et pour commencer, puisque vous dites que l'hypothèse n'est pas 'probabilisée' (ce avec quoi je ne suis pas vraiment d'accord d'ailleurs) comment définissez-vous une hypothèse douteuse ?

Je ne sais pas ce que vous appelez « justifier rigoureusement » dans ce cadre. On peut justifier, au sens d'« expliquer », les règles de simplification d'une expression algébrique. On peut justifier rigoureusement, au sens de « démontrer », l'égalité de différentes expressions algébriques. Mais on ne démontre pas une procédure.
Je ne sais pas non plus ce que vous entendez par une « hypothèse probabilisée », ce qui rend difficile la discussion sur le fait que vous n'êtes pas vraiment d'accord.
Enfin, une hypothèse douteuse est une hypothèse que l'on met en doute, tout simplement. Ce n'est pas une définition mathématique. Ambigraphe, le 30 juin 2011 à 21:54 (CEST)Répondre

Pourriez-vous répondre à la question suivante, et comparer avec l'utilisation d'un intervalle de fluctuation ?

Pour une personne honnête qui joue au loto, la probabilité de gagner (le gros lot) est très faible. M. X vient de gagner. Doit-on mettre en doute l'honnêteté de X ?

Ça dépend du contexte. Si mon voisin me dit qu'il a joué une seule fois au loto et qu'il a gagné, oui, je mettrais facilement cette affirmation en doute.
S'il joue depuis un certain temps, comme beaucoup de gens, et qu'il me dit qu'il a gagné, je m'exclamerais probablement « C'est vrai ? » (ce qui est bien une mise en doute), mais la chose me semblerait moins extraordinaire. En effet, en admettant qu'il y a un gagnant par semaine en France, cela représente mille gagnants sur vingt ans, soit environ un Français sur cinquante mille. Or je connais bien cinq cents personnes, ce qui amène à la louche à une probabilité de 1 %. C'est rare mais pas extraordinaire.
Si je gère une entreprise de jeux et que j'ai prévu un gagnant par semaine en moyenne, je n'ai aucune raison de suspecter un gagnant donné. Il est même tout à fait probable qu'il ait existé une personne ayant gagné deux fois au loto dans sa vie. On peut faire le calcul si vous voulez.
En revanche, si une personne gagne deux fois au loto la même semaine, il y aurait lieu de se poser des questions. Ambigraphe, le 1 juillet 2011 à 13:38 (CEST)Répondre

Je constate que votre réponse est plutôt "floue"; je regrette également que vous n'ayez pas comparé avec l'utilisation de l'intervalle de fluctuation. Je tente un résumé:

  • on vous présente une pièce pour laquelle s'est produit un événement qui ne se produit que dans 5% des cas, vous mettez en doute son honnêteté.
  • on vous présente une personne pour laquelle s'est produit un événement extrêmement rare (de l'ordre de 10^-8 pour 6 bons numéros sur 49) et là pourtant vous semblez hésiter.

Les considérations qui vous amènent à 1% ne sont pas correctes dans le sens où vous changez les hypothèses: vous considérez l'événement "victoire au loto" parmi une répétition du jeu sur plusieurs années. Pour faire un parallèle avec la pièce, c'est comme si vous considériez la probabilité de "faire moins de 2 "PILE" parmi 10 lancés de suite", mais en cherchant ce résultat parmi une suite de milliers ou de millions de lancés: alors cet événement n'a plus du tout une probabilité inférieure à 5%, mais sûrement très proche de 100%. Vous dites que vous allez douter si une personne gagne au loto deux fois la même semaine: pourquoi ? uniquement parce que la probabilité est encore plus petite ? (10^-8 ce n'est pas assez petit ?) Dans tous les cas, je constate qu'avec l'exemple du loto, vous ressentez le besoin d'emmettre des hypothèses a priori sur la constatation que l'on vous présente (X a gagné au loto) tandis qu'aucune hypothèse ne vous semble nécessaire pour douter d'une entreprise qui manquerait votre test de parité.

Vos hésitations dans le cas du loto, je les comprends et elles sont aussi les miennes, et le but de cette discussion est justement de préciser ce qui rend légitime (ou différente que l'exemple du loto) la mise en doute avec l'intervalle de fluctuation. C'est ce que j'entends quand j'essaye de vous amener à "justifier" la mise en doute.

Merci d'avoir donné ces deux exemples. Non, si on me présente une pièce pour laquelle s'est produit un évènement qui ne se produit que dans 5 % des cas, je ne mets rien en doute. Car sur mes cent élèves annuels, il y a en 5 en moyenne qui vont m'exhiber un évènement rare. Ces cinq-là mettront en doute l'équilibre de leur pièce de monnaie, mais moi pas, précisément parce que je sais que l'expérience est répétée par de nombreuses personnes.
Pour répondre à votre question, faisons donc les calculs (même si on s'éloigne de la notion d'intervalle de fluctuation pour ce faire). La probabilité d'obtenir une combinaison de 6 boules sur 49 est d'environ de 1 pour quatorze millions. Si l'on compte 5 millions de grilles remplies par tirage, la probabilité d'avoir un gagnant est assez forte pour un tirage donné, de l'ordre de 1 pour 3.
À raison de quatre tirages par semaine, la probabilité d'obtenir deux fois la bonne combinaison la même semaine est d'environ 1 pour trente mille milliards. Avec 10 millions de joueurs par semaine sur cinquante ans, on arrive à… une probabilité de 60 %, tiens ! Ce ne serait donc même pas étonnant qu'il y ait quelqu'un qui gagne deux fois au loto dans la même semaine. Ambigraphe, le 5 juillet 2011 à 15:36 (CEST)Répondre

Au travers de vos arguments (et des miens) transparaît me semble-t-il la nuance suivante: si l'on veut pouvoir déduire quelque chose à propos d'un évènement rare qui est survenu, il faut que l'expérience aléatoire correspondante ait été effectuée "au hasard", et non pas comme résultat d'une répétition d'expériences similaires. Par exemple, si l'on choisit une personne au hasard et qu'on la fait jouer au loto, alors une victoire de sa part serait suspecte (en un sens qui reste toujours et encore à préciser). Tandis qu'une personne gagnante dans un lot de millions de joueurs n'a rien de suspect. Il en va de même pour la pièce: une pièce prise au hasard dans un porte monnaie et faisant 1 pile et 9 face est "suspecte". Tandis qu'une pièce faisant la même chose parmi 1000 pièces lancées 10 fois n'a rien de suspect, puisque la probabilité d'un tel évènement est assez proche de 1. Je reprends également votre exemple des entreprises sexistes: si vous appliquez le test de fluctuation à une entreprise prise au hasard, alors l'échec du test est significatif; mais vous avez considéré un audit sur des centaines d'entreprises dans une région, et donc, à mon sens, mettre en doute celles qui échouent au test n'est pas pertinent à la seule vue du résultat au test.

Cette nuance, si tant est que je l'ai bien résumée, ne devrait-elle pas faire l'objet d'une précision dans votre article ? Que penser également de ces exercices qui commencent ainsi: "dans le village TRUC, l'entreprise BIDULE échoue au test de l'intervalle de fluctuation", et demandent ensuite de se prononcer sur le fait que l'entreprise soit sexiste ou non... ?

Ensuite, même avec cette nuance prise en compte, je reste tout de même dubitatif sur ce principe consistant à mettre en doute une hypothèse au seul prétexte que s'est produit un évènement rare sous cette hypothèse.

Considérons l'exemple d'une pièce parfaitement équilibrée et lancée 100 fois et pour laquelle on note les résultats en tenant compte de l'ordre. Alors, quel que soit le résultat, il a une probabilité de 2^{-100}. Pourtant on sent bien qu'il est absurde de mettre en doute l'équilibre de cette pièce (on n'a même pas pris la peine de compter le nombre de pile/face). Mais pourquoi ? La seule réponse que j'ai trouvé est que sous une autre hypothèse (par exemple la pièce fait 1/3 de pile et 2/3 de face) alors le résultat serait (dans certains cas) ENCORE PLUS IMPROBABLE.

Mais cet argument utilise une hypothèse alternative à l'hypothèse testée. Mais le test de l'intervalle de fluctuation n'en possède aucune qui soit clairement énoncée et encore moins quantifiée.

Oui, il y a probablement des précisions à apporter à l'article, c'est bien pour cela que j'ai répondu à vos questions.
J'ai l'impression que l'expression « mise en doute » vous gêne toujours, pourtant j'ai affaibli l'expression habituelle qui est plutôt « rejet ». Or justement la mise en doute entraine des vérifications complémentaires, elle ne constitue pas un jugement définitif.
Votre dernier exemple ne convient pas pour deux raisons : d'abord vous fixez le critère a posteriori, ensuite votre critère (la non-apparition de la séquence notée) ne discrimine pas le cas d'équiprobabilité par rapport aux autres. La définition d'un intervalle de fluctuation est efficace si elle distingue les différentes hypothèses à la limite. Il ne s'agit pas d'une comparaison de probabilité comme vous semblez le sous-entendre.
Je ne comprends pas votre dernière phrase : l'intervalle de fluctuation nécessite bien une hypothèse clairement énoncée, mais je ne sais en quel sens vous voulez qu'elle soit « quantifiée ». Ambigraphe, le 6 juillet 2011 à 17:11 (CEST)Répondre

En ce qui concerne ma dernière phrase, je parlais d'une hypothèse alternative. Et par quantifiée, je voulais dire une hypothèse telle que l'on puisse en déduire quelque chose de préçis mathématiquement. Je pense que pour continuer à discuter, il faut d'abord que nous nous entendions sur certains points précis, car les arguments deviennent de plus en plus subtils.

Clarification modifier

Je vais tenter de codifier un peu la situation:

Notons n la taille de l'échantillon. L'expérience aléatoire est "obtenir un échantillon de taille n d'une loi de bernoulli". Notons H l'hypothèse "le paramètre inconnu vaut p (probabilité de succès)". Notons I(n,p) un intervalle de fluctuation au seuil 95%. Notons f la fréquence empirique de succès calculée sur l'échantillon. Notons T l'événement "f n'appartient pas à I(n,p)". La propriété fondamentale est donc que P(T|H)=5%.

Autrement dit, sous l'hypothèse H, l'évènement T est «rare». Et DONC (c'est là que je suis dubitatif), lorsque T a lieu pour un échantillon donné, H est mise en doute.

Êtes-vous d'accord jusque là ? Et notamment sur le fait qu'aucun autre argument n'entre en jeu ? et sur le fait que la forme précise de l'évènement T (à savoir l'utilisation de l'intervalle de fluctuation) n'intervienne pas dans le raisonnement ?

Effectivement, jusqu'à la phrase qui précède le mot « DONC », je suis d'accord. Au moment de la mise en doute, il faut en savoir plus sur le contexte. Je ne peux donc pas acquiescer à la phrase « aucun autre argument n'entre en jeu ».
Ensuite, « la forme précise de l'évènement T » ne vient pas nécessairement d'un intervalle de fluctuation pour obtenir le résultat numérique P(T|H)=5 %, mais elle intervient dans la mise en doute. En particulier, il faut qu'elle discrimine l'hypothèse donnée par rapport à n'importe quelle autre pour une taille d'échantillon assez grande. Ambigraphe, le 7 juillet 2011 à 14:37 (CEST)Répondre

Pouvez-vous, dans ce cas, dire précisément quel genre d'information vous semble nécessaire sur le contexte ?

D'autre part, vous dites que T doit discriminer n'importe quelle autre hypothèse (sur la valeur de p, je présume) pour n assez grand. Comment traduisez-vous concrêtement cette propriété ?

Enfin, ces informations supplémentaires et cette condition, où interviennent-elles précisément dans "le raisonnement" menant à la mise en doute ? et donc avant tout: quel est ce raisonnement ? Car, a priori, la seule condition P(T|H)=5% suffit à controler le risque de première espèce (douter pour rien).

Mettons par exemple qu'un article soit publié qui montre des capacités de clairvoyance chez un être humain (ou un poulpe). La prédiction de la victoire à dix matchs de football sur douze est un score impressionnant, certes, et fort peu probable par un simple effet du hasard. Mais si cinq cents personnes s'y sont essayé, il est tout à fait normal de trouver un score impressionnant dans le tas. Or on ne publie que le résultat impressionnant, ce qui donne l'illusion d'un phénomène paranormal. Voilà typiquement une situation où l'on a caché une information importante.
Pour qu'il y ait mise en doute, il faut d'une part que la définition de l'évènement T soit faite indépendamment du résultat de l'expérience, d'autre part que l'expérience soit isolée.
La propriété de discrimination des intervalles de fluctuation pourrait s'énoncer comme suit : étant données deux hypothèses distinctes, à partir d'un certain effectif les intervalles de fluctuation correspondants sont disjoints.
Ces informations et cette condition permettent de formaliser la notion d'approximation valable. Voilà pourquoi ce critère s'exprime à l'aide d'un intervalle autour de la valeur théorique. Ambigraphe, le 9 juillet 2011 à 22:54 (CEST)Répondre

Les deux conditions que vous énoncez sont assurées par la modélisation qui dit que l'expérience aléatoire consiste en l'échantillonnage de taille n d'une loi b(p). En effet, "extraire un échantillon particulier (pas au hasard) de taille n d'un autre échantillon de taille N>n" est une autre expérience qui est effectivement tout à fait différente. Mais se pose alors la question pratique suivante: quand un énoncé indique que "on a vu UNE ville bidule où se passe le phénomène X", alors n'est-on pas justement dans le cas où l'on sélectionne les données ? auquel cas, le test sur le phénomène X de cette ville est absurde.

Ensuite je pense que votre désir d'avoir une propriété de discrimination est purement intuitif et ne se justifie pas. Par exemple, vous étiez d'accord pour dire que les tests pouvaient porter sur des ensembles "décentrés" autour de p, du genre ]-infini;p-espilon[ U ]p+\epsilon;+infini[. Or ces ensembles ne possèdent pas du tout une propriété de discrimination. Je pense toujours que, aussi stupide que cela puisse paraître, la seule condition P(T|H)=5% suffit à faire "fonctionner le test" (je mets les guillemets car pour moi cette méthode de test me paraît hautement farfelue)

La forme particulière de l'intervalle de fluctuation adopté se justifie, à mon avis, par la démarche suivante: le controleur qualité VEUT que f soit proche de p, uniquement parce que cela représente pour lui, pour une raison ou une autre, un critère de qualité par rapport au phénomène qu'il étudie. Mais en vérité il se fiche complètement de savoir si H est vraie ou pas. Mais pour ne pas s'inquiéter outre mesure dès que f!=p, il se dit que, même dans les conditions idéales où H serait vraie, il y aurait un écart "naturel" qui se traduit par le fait que f appartient à I(n,p) seulement dans 95% des cas. En résumé, la forme du test T n'est pas déterminée par le fait de vouloir tester H mais par ce que le controleur qualité considère comme une situation souhaitable.

Au final, je pense que tout ce vocabulaire de "test d'hypothèse" est abusif dans cette situation et obscurcit la démarche plutôt qu'elle ne l'éclaire. Si le controleur s'intéresse vraiment au fait de savoir si H est vraie ou pas, ne devrait-il pas s'intéresser à la probabilité P(H|f) ou, mieux, P(H|échantillon) ?

Oui, il n'est pas étonnant de repérer une ville où se passe un phénomène rare dans un pays qui en compte des centaines de milliers. Mais pour les habitants de ladite ville, la réalisation d'un tel phénomène les pousse légitimement à rechercher des causes cachées.
Non, je n'ai pas de « désir d'avoir une propriété de discrimination ». J'expose sur Wikipédia le savoir publié.
Oui, j'ai dit qu'on pouvait effectuer un test excluant un voisinage de la proportion théorique. Mais on sort alors du cadre des intervalles de fluctuation.
Enfin, vous pouvez penser ce que vous voulez. Vous avez parfaitement le droit de créer votre propre théorie. Mais sur Wikipédia, nous allons nous contenter du savoir publié. Cordialement, Ambigraphe, le 2 août 2011 à 15:26 (CEST)Répondre

Votre dernière réponse tente de me faire passer pour un illuminé, je le trouve assez déplacée. J'estime que les arguments que j'ai donnés dans le but de comprendre et d'éclairer une démarche statistique certes répandue mais obscure pour plus d'une personne, et qui ne demandent qu'à être démolis, méritent mieux que vos réponses systématiquement incomplètes et un renvoi final "au savoir publié", qui à ma connaissance se résume à une copie plus ou moins conforme de votre article.

Cette page est destinée aux discussions concernant l'article, pas aux invectives. Mon objectif était d'écrire ce qu'était un intervalle de fluctuation et comment on l'utilise, ce que j'ai trouvé dans les divers documents consultés. Vous avez posé des questions sur la justification de cet emploi et je vous ai répondu dans la limite de mes connaissances. Mais avant d'introduire une justification sur l'article, il faudra trouver des références qui en parlent. Je ne peux aller plus loin en ce sens pour l'instant. Ambigraphe, le 8 août 2011 à 18:22 (CEST)Répondre

A propos de l'intervalle de fluctuation... et des polémiques qui s'y rapportent modifier

Écrire : si   et  , alors   n'est pas très éclairant sur les causes de ce phénomène.

En fait, l'expression   vaut:  

et on voit tout de suite la cause du problème: les nombres entiers s'obstinent à varier de façon discontinue !

Si l'on veut avoir un intervalle à 95%, il faut considérer   et pas  

En dehors du phénomène mathématique, il serait intéressant de développer une section sur la façon dont ce banal phénomène d'arrondi est (1) totalement ignoré dans les "instructions officielles" et (2) monté en épingle (sans explication sur les causes) par les détracteurs de l'enseignement des probas-stats dans le secondaire ! Cordialement. Pldx1 (discuter) 23 septembre 2017 à 19:05 (CEST)Répondre

Revenir à la page « Intervalle de fluctuation ».