A l'attaque !·Formation·Maths pour tous·Pour mes étudiants

Confiance et fluctuation

L’échantillonnage, la prise de décision et l’estimation sont entrés dans les programmes du lycée en 2010. La France n’était pas très en avance, puisque je me souviens d’avoir passé ma certification DNL sur l’échantillonnage, pan des mathématiques enseigné de façon approfondie dans plusieurs Länder allemands.

Capture d’écran 2018-03-04 à 16.07.34.png
APMEP

Mais même si cela fait huit ans que ces questions sont entrées dans nos programmes, leur abord par une partie des enseignants est toujours problématique. Les « anciens » (dont je fais partie) ont souvent été réticents parce qu’ils n’ont pas appris tout cela eux-mêmes dans leur scolarité (ni dans le secondaire, ni parfois dans le supérieur : pour ma part, je n’ai suivi aucune UE de probabilités ou de statistiques, par exemple. Et pas parce que je les ai évitées : elles ne figuraient pas au programme sous des formes proches de ce qui est enseigné aujourd’hui). Mais ce qui interroge plus encore, c’est que les jeunes enseignants que je vois passer à l’ESPE rechignent toujours à traiter ces notions. Elles échouent en fin d’année, si on a le temps, ou rapidement traitées avant que les élèves ne disparaissent des classes, et elles sont déconsidérées : « c’est pas des maths », « c’est n’importe quoi », « ça ne sert à rien »… Peut-être est-ce lié au fait que ces futurs jeunes enseignants ont appris au contact de vieux enseignants, et qu’ainsi un modèle se reproduit. En tout cas il semble qu’il faille un temps considérable pour changer le regard.

Dans un document ressource sur ce thème, on lit, au paragraphe évaluation :

Capture d’écran 2018-03-04 à 14.27.09.png

Voilà qui pour certains enseignants ne doit pas rendre fou de joie à l’idée d’évaluer, et sans doute donc d’enseigner, cette partie du programme.

Que contiennent les programmes ?

  1. En seconde :

Dans le cadre de l’échantillonnage, on vise deux objectifs :

  • Chercher à faire réfléchir les élèves à la conception et la mise en œuvre d’une simulation
  • les sensibiliser à la fluctuation d’échantillonnage, à la notion d’intervalle de fluctuation et à l’utilisation qui peut en être faite.

Le premier point est dans la continuité du collège. Au cycle 4, on amène les élèves à « faire le lien entre fréquence et probabilité, en constatant matériellement le phénomène de stabilisation des fréquences ou en utilisant un tableur pour simuler une expérience aléatoire (à une ou à deux épreuves) ». Le concept de simulation interroge beaucoup les élèves d’ailleurs, qui se demandent comment on peut « faire comme si c’était du hasard », question tout à fait fondée.

Le deuxième point demande d’introduire la notion d’échantillon (sur le modèle de Bernoulli), de justifier l’existence et de présenter l’intervalle de fluctuation d’une fréquence au seuil de 95%, pour ensuite exercer un regard critique sur telle ou telle situation, « notamment en faisant le lien entre la taille de l’échantillon et la largeur de l’intervalle de fluctuation ». Notons au passage que dans les aménagements 2016 du programme de la classe de seconde, on ne vérifie plus de conditions précises sur la taille des échantillons et la proportion : les échantillons doivent être « de taille suffisante » et les valeurs prises par les proportions « non extrêmes ».

Quelques précisions quant aux contenus :

  • Dans le langage courant, un échantillon est un sous-ensemble d’une population, obtenu par prélèvement aléatoire. Dans les programmes, un échantillon est constitué des résultats d’un nombre donné de répétitions indépendantes de la même expérience.
  • La fréquence des individus possédant le caractère étudié dans l’échantillon varie d’un échantillon à l’autre : c’est la fluctuation d’échantillonnage. Plus la taille de l’échantillon est grande, moindre est la fluctuation.
  • La proportion p dans la population est connue, et on se demande si la fréquence f observée dans un échantillon appartient à l’intervalle de fluctuation considéré. Si la fréquence f n’appartient pas à l’intervalle, on rejette, au risque d’erreur de 5 %, l’hypothèse que l’échantillon est compatible avec le modèle. Sinon, on n’a aucune raison de la rejeter, au vu des éléments dont on dispose.

Capture d’écran 2018-03-04 à 14.42.12.png

Notons que cette définition suppose implicitement que la fréquence suit une loi continue.

        2. En premières :

Capture d’écran 2018-03-04 à 15.22.25.png
Premières STI2S/STL

La loi binomiale entre en jeu. En faisant varier les paramètres n et p de la loi binomiale, on observe que le diagramme n’est pas toujours symétrique, et ni exactement centré sur p. Comme la loi binomiale est discrète, il n’est pas possible de déterminer précisément un intervalle au seuil de 95%. Du coup, on construit comme intervalle de fluctuation au seuil de 95 % l’intervalle (a ; b) où a est le plus grand entier tel que P(X < a) ≤ 0,025 et b est le plus petit entier tel que P(X > b) ≤ 0,025 (ce que l’on peut formuler de diverses manières équivalentes). En fait, a et b dépendent de n, et il serait plus pertinent d’indiquer n en indice de a et b.

L’intervalle (a ; b) est très proche de celui obtenu en seconde. Mais il a l’avantage d’être utilisable pour toutes les proportions et toutes les tailles d’échantillons, contrairement à l’intervalle de fluctuation vu en classe de seconde.

Cette fois, la proportion p dans la population est hypothétique. On se demande si la fréquence f observée dans un échantillon appartient à l’intervalle de fluctuation construit sur p. Si la fréquence f observée dans l’échantillon appartient à l’intervalle de fluctuation au seuil de 95 %, on accepte p comme proportion pour la population. Sinon, on rejette l’hypothèse selon laquelle cette proportion vaut p.

Capture d’écran 2018-03-04 à 15.17.26.png

On voit bien ici qu’entre la seconde et la première se joue un changement de perspective.

        3. En terminales :

Là, toutes les terminales générales et technologiques ne sont pas concernées de la même façon. L’intervalle de fluctuation utilisé est affiné. Je vous conseille la lecture de ce document (estimation_nouveau_programme2012), si vous voulez avoir une vue générale des principes.

Mais en terminales, on étudie aussi ce qu’on avait pu évoquer en seconde : l’intervalle de confiance. À partir d’une fréquence observée sur un échantillon, on détermine la proportion conservant la population. Comme environ 95% des fréquences observées sur des échantillons de taille n sont dans l’intervalle de fluctuation, 95% des intervalles associés centrés sur f contiennent p… Voilà l’intervalle de confiance :

Capture d_écran 2018-03-04 à 15.48.32

Les documents ressources insistent bien sur le fait que p n’a pas une « probabilité de 95% d’appartenir à l’intervalle de confiance ». Il lui appartient, ou pas, point.

Je vous avoue que pour ma part, l’intervalle de confiance me laisse perplexe. Je ne vois pas pourquoi il n’est exigible qu’en terminale, et je ne comprends pas en quoi c’est une nouveauté. Pour moi, il s’agit d’une autre façon de réfléchir sur l’intervalle de fluctuation, et même lui donner un nom me perturbe. Si quelqu’un qui me lit pense pouvoir m’éclairer, je suis volontiers preneuse, car je sens le doute titiller mes neurones sournoisement.

Capture d’écran 2018-03-04 à 15.02.17.png
Publicités

Une réflexion au sujet de « Confiance et fluctuation »

  1. Concernant les intervalles de fluctuation et de confiance j’ai de vagues restes qui datent de mon stage de M1, où l’enseignant nous avez demandé de faire la leçon statistiques.
    Cela fait un peu plus de 5ans.
    Je risque donc d’être peu précis, mais la dernier schéma m’a fais remonter quelques souvenirs, car il exprime bien à mon sens les deux notions.
    Intervalle de fluctuation va donner une information sur l’échantillon. Dans quelle « zone » est il?. Qu’elle sont ses fluctuations possibles? (Statistiques)

    L’intervalle de confiance lui va parler des probabilité. A quel point puis-je avoir confiance dans mon indicateur.
    On est dans une lecture inverse, des statistiques vers les proba.

    Pour la raison des différents niveaux d’enseignement, 2 pistes me viennent:
    1La difficulté de démonstration du deuxième, dû aux proba.
    2Les proba sont systématiquement enseignées après leur équivalent en statistiques.

    Voilà ce qui m’est venu, cependant avec le temps tout cela m’est redevenu flou.

    J'aime

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion /  Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion /  Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion /  Changer )

w

Connexion à %s