MATHADORE
    Volume 6 Numéro 213 – 16 avril 2006
L'hebdomadaire gratuit portant sur l'enseignement des mathématique

                PISA, PIRS, TEIMS.

Il ne s’agit pas d’une formule magique mais de noms de tests internationaux ou canadiens qui servent à titre d’indicateurs du rendement scolaire.

Dès que les résultats de ces tests sont disponibles ils constituent une mine d’or pour les journalistes à sensation et pour les polémistes en mal de publicité. Chaque fois, ils servent à « démontrer » les thèses pseudos scientifiques de ces gens. La passation de tels tests n’est pas à rejeter. Au contraire, ils peuvent s’avérer d’excellentes sources d’informations mais il faut faire preuve d’un minimum de jugement lors de leur interprétation.

D’une province ou d’un pays à l’autre, les programmes diffèrent et chacun de ces tests correspond de façon variable à ces programmes. En ce qui concerne le TEIMS 2003, l’Ontario a évalué le degré de corrélation entre son programme et ces tests qui s’adressaient aux élèves de 4e année et de 8e année. En mathématiques, un degré de corrélation évalué à 83% a été observé entre le programme et le test de 4e année. En 8e année, cette corrélation s’élève à 91%.

Il est possible qu’aucun programme n’ait un degré de corrélation égal à 100%, mais il est certain que, d’un pays à un autre, ce degré peut varier considérablement. Considérons un écart de seulement 10%, le programme d’un pays A obtenant un degré de corrélation de 90% et un pays B, de 80%. Sur un test de cent questions, les élèves du pays A se retrouvent en « pays connu » pour 90% des questions. Imaginons que ces élèves obtiennent 70% dans ces problèmes, donc 63 bonnes réponses en moyenne pour ces 90 questions et, hasard aidant, trois bonnes réponses pour les dix questions restantes. La note moyenne de ce pays sera donc de 66% si toutes les questions ont des valeurs égales.

Pendant ce temps, les élèves du pays B obtiennent aussi un résultat de 70% pour les sujets qu’ils ont étudiés, donc ils réussissent 56 problèmes et, en plus, réussissent à obtenir un succès proportionnel semblable aux élèves du pays A pour les questions non étudiées. Donc, la moyenne de ce pays sera de 62% (56 + 6 = 62 %). Un écart de quatre pourcent (4%), ce n’est pas énorme !

Nous ignorons le nombre maximal de points du test TEIMS 2003, mais pour obtenir le degré avancé, il fallait obtenir au moins 625 points, 550 pour le degré haut, 475 pour l’intermédiaire et 400 points pour le bas. On peut donc penser que le test comptait 700 points. Un écart de 4% représente exactement 28 points.

En 2003, les élèves de quatrième année (primaire) on obtenu 506 points et se sont classés au seizième rang. Avec vingt-huit points de plus, ils se seraient classés au huitième rang et, avec vingt-huit point de moins, au vingt-quatrième rang, sous la moyenne internationale.

Bref, un écart de seulement 10% entre le degré de corrélation entre les items du test et le contenu d’un programme d’étude peut modifier le rang de huit positions sur une possibilité de 28 positions en tout.

On a fait état aussi de la baisse de rendement des élèves du Québec entre les années 1995 et 2003 dans le TEIMS. En fait, en 1995, ceux-ci ont obtenu 550 points et seulement 506 en 2003. Une baisse de 44 points. Cependant, une note inscrite à deux reprises dans le rapport du Québec indique : « Il n’y avait pas suffisamment d’items de 1995 dans le questionnaire de 2003 pour comparer ces items d’une étude à l’autre. » (pp. 6 et 9)

De là à conclure que la Réforme du programme du Québec avait causé cette baisse, il n’y avait qu’un pas que journalistes et polémistes ont rapidement franchi. Pourtant, en avril 2003, aucun élève de quatrième année n’avait vécu la Réforme depuis le début de sa scolarité. Rappelons que le nouveau programme date de l’année 2001. Rappelons également que les premiers manuels à être approuvés selon les critères du nouveau programme l’ont été en mars 2002 pour le premier cycle du primaire et en mars 2003 pour le deuxième cycle. Le test TEIMS de 2003 a été passé en avril 2003 par les élèves de quatrième année, donc par des élèves de deuxième année du deuxième cycle qui n’avaient jamais utilisé un manuel approuvé en fonction du nouveau programme.

Ajoutons que 193 écoles primaires du Québec ont participé à ce test, soit environ 5% des élèves de 4e année. Aucune statistique n’existe qui permet de savoir si ces écoles avaient même amorcé l’implantation de la Réforme au deuxième cycle du primaire.

La Réforme est actuellement malmenée au Québec par une poignée de pseudos chercheurs. Malheureusement leur manque de discernement est évident. Nous tenterons, dans les prochaines semaines d’analyser cette Réforme, qui bien que n’étant pas parfaite, constitue, à notre avis, un pas dans la bonne direction.

 
Robert Lyons