Ouvrir le menu principal

Programme international pour le suivi des acquis des élèves

(Redirigé depuis Programme PISA)
Page d'aide sur l'homonymie Pour les articles homonymes, voir Pisa.

Le Programme international pour le suivi des acquis des élèves, souvent désigné par l'acronymie Pisa (de l'anglais Programme for International Student Assessment), est un ensemble d'études menées par l'Organisation de coopération et de développement économiques (OCDE), et visant à mesurer les performances des systèmes éducatifs des pays membres et non membres. Les enquêtes sont menées tous les trois ans auprès de jeunes de 15 ans dans les 36 pays membres de l'OCDE ainsi que dans de nombreux pays partenaires et aboutissent à un classement dit « classement Pisa ».

La première enquête a été menée en 2000, la dernière a été menée en 2015 et publiée en décembre 2016.

ObjectifsModifier

  • Comparer les performances de différents systèmes éducatifs en évaluant les compétences acquises par les élèves en fin d'obligation scolaire (quinze ans). Ces compétences sont définies comme celles dont tout citoyen européen moyen peut avoir besoin pour réussir dans sa vie quotidienne, ce que l'anglais appelle literacy (par exemple reading literacy, mathematical literacy et scientific literacy) difficilement traduisibles en français, qui parle plus vaguement de « culture mathématique » ou de « savoir lire » par exemple. Il s'agit plus d'évaluer la façon dont les jeunes sont capables d'exploiter leurs connaissances dans leur pratique quotidienne que leur niveau théorique dans tel ou tel domaine des sciences ou des lettres.
  • Identifier les facteurs de succès, facteurs exogènes, notamment le milieu social économique et culturel des familles, le cadre scolaire offert par l'établissement, et le système éducatif national, mais aussi endogènes, comme la motivation des élèves, l'estime qu'ils ont d'eux-mêmes, les stratégies d'apprentissage qu'ils mettent en œuvre.
  • Suivre l'évolution de l'enseignement dans les pays membres de l'OCDE et les pays partenaires (près d'une soixantaine de pays) en conduisant des évaluations périodiques.

MéthodologieModifier

Domaine d'évaluationModifier

Chaque évaluation met l'accent sur une compétence particulière, en 2000 sur la lecture[1], en 2003 sur les mathématiques[1] et en 2006 sur les sciences[1]. Les études suivantes portent simultanément sur ces trois axes.

Administration de l'évaluationModifier

Au cours du premier cycle d'évaluation, plus d'un million d'élèves, sélectionnés de façon aléatoire dans les établissements publics ou privés, ont été évalués[2] à l'aide de tests écrits (épreuve de deux heures). Élèves et chefs d'établissements ont également rempli des questionnaires qui ont permis d'établir des corrélations entre les performances et l'environnement des élèves, notamment leur accès aux TIC et leur maîtrise de ces derniers. Lors du second cycle d'évaluation, l'accent sera mis sur l'informatisation des épreuves et de la collecte des données. En 2005, treize pays ont été volontaires pour informatiser les épreuves de sciences.

RésultatsModifier

2000 et 2003Modifier

Le dépouillement des tests et enquêtes[3] a révélé des disparités entre les différents pays participants, mais également entre les différents établissements[4].

Il faut environ un an pour dépouiller les résultats et les analyser. Ainsi les résultats de la première campagne de tests Pisa 2000 ont-ils été publiés en 2001 (OECD, 2001a) et suivis de rapports thématiques qui étudiaient certains aspects de ces résultats. L'évaluation de Pisa 2003 est parue sous la forme de deux volumes : Apprendre aujourd'hui, réussir demain – Premiers résultats Pisa 2003[4] (OECD, 2004) et Problem Solving for Tomorrow's World – First Measures of Cross-Curricular Competencies from Pisa 2003 (OECD, 2004d).

Voici un aperçu des six pays qui ont obtenu les meilleurs scores en 2003 :

Mathématiques
Cl. Pays Score
1er Hong Kong 550
2e Finlande 544
3e Corée du Sud 542
4e Pays-Bas 538
5e Liechtenstein 536
6e Japon 534
Lecture
Cl. Pays Score
1er Finlande 543
2e Corée du Sud 534
3e Canada 528
4e Australie 525
5e Liechtenstein 525
6e Nouvelle-Zélande 522
Sciences
Cl. Pays Score
1er Finlande 548
2e Japon 548
3e Hong Kong 539
4e Corée du Sud 538
5e Liechtenstein 525
6e Australie 525
Résolution de problèmes
Cl. Pays Score
1er Corée du Sud 550
2e Finlande 548
Hong Kong
4e Japon 547
5e Nouvelle-Zélande 533
6e Macao 532

Le professeur Jouni Välijärvi, chargé de l'étude Pisa finlandaise, a conclu que les scores élevés de la Finlande étaient dus à l'excellence des enseignants finnois et au programme Luma développé en 1990 pour améliorer les performances des élèves en mathématiques et en sciences. Il a attiré l'attention sur le caractère homogène du contenu des programmes dans le système finlandais et de fait les résultats ont été très homogènes d'une école finlandaise à l'autre.

En revanche, le professeur Pauli Siljander pense que les bons résultats de la Finlande sont dus aux politiques socio-éducatives et à d'autres facteurs liés à l'histoire des idées et de l'éducation. Il est impossible pour lui de séparer l'évolution des mentalités et des idées en matière d'apprentissage et les réformes de fond qui l'ont accompagnée. Il fait remarquer que l'éducation est une priorité de l'État providence finlandais et qu'il est par conséquent impossible de parler d'éducation sans replacer la question dans son contexte sociopolitique (Siljander, 2005).

L'examen des résultats de la campagne 2003 a montré que les pays qui dépensaient plus n'obtenaient pas forcément de meilleurs résultats que ceux qui dépensaient moins pour l'éducation. L'Australie, la Belgique, le Canada, la République tchèque, la Finlande, le Japon, la Corée du Sud[5] et les Pays-Bas dépensent moins par élève et obtiennent des résultats assez satisfaisants, alors que les États-Unis dépensent plus et obtiennent des résultats sensiblement en dessous de la moyenne des pays européens. La République tchèque, par exemple, qui se trouve parmi les dix premiers pays, dépense environ un tiers de la somme que les États-Unis consacrent à chaque élève alors que ce dernier pays arrive en vingt-quatrième position sur vingt-neuf pays étudiés.

Il ressort également de l'étude que les jeunes issus de milieux plus favorisés, avec un niveau d'instruction plus élevé, obtiennent en général de meilleurs résultats. Cette différence apparaît dans tous les pays étudiés, mais elle est particulièrement criante dans certains pays comme l'Allemagne[6].

2006Modifier

Les résultats de la campagne Pisa 2006 font apparaître une détérioration de la situation du système scolaire français[7]. En mathématiques, ce mauvais résultat est dû à l'augmentation des élèves en difficulté[7].

Voici un aperçu des dix pays qui ont obtenu les meilleurs scores en 2006 :

Mathématiques
Cl. Pays Score
1er Finlande 548
2e Hong Kong 547
3e Corée du Sud 547
4e Pays-Bas 531
5e Suisse 530
6e Canada 527
7e Macao 525
Liechtenstein
8e Japon 523
9e Nouvelle-Zélande 522
10e Australie 520
Lecture
Cl. Pays Score
1er Corée du Sud 556
2e Finlande 547
3e Hong Kong 536
4e Canada 527
5e Nouvelle-Zélande 521
6e Irlande 517
7e Australie 513
8e Liechtenstein 510
9e Pologne 508
10e Pays-Bas 507
Suède

Résultats 2009Modifier

Programme international pour le suivi des acquis des élèves (2009)[8] (Les membres de l'OCDE au moment de l'étude sont en gras)

Mathématiques
Cl. Pays Score
1er   Chine Shanghai 600
2e   Singapour 562
3e   Hong Kong, Chine 555
4e   Corée du Sud 546
5e   Taïwan 543
6e   Finlande 541
7e   Liechtenstein 536
8e   Suisse 534
9e   Japon 529
10e   Canada 527
11e   Pays-Bas 526
12e   Macao, Chine 525
13e   Nouvelle-Zélande 519
14e   Belgique 515
15e   Australie 514
16e   Allemagne 513
17e   Estonie 512
18e   Islande 507
19e   Danemark 503
20e   Slovénie 501
21e   Norvège 498
22e   France 497
23e   Slovaquie 497
24e   Autriche 496
25e   Pologne 495
26e   Suède 494
27e   République tchèque 493
28e   Royaume-Uni 492
29e   Hongrie 490
30e   États-Unis 487
65e   Kirghizistan 331
Sciences
Cl. Pays Score
1er   Chine Shanghai 575
2e   Finlande 554
3e   Hong Kong, Chine 549
4e   Singapore 542
5e   Japon 539
6e   Corée du Sud 538
7e   Nouvelle-Zélande 532
8e   Canada 529
9e   Estonie 528
10e   Australie 527
11e   Pays-Bas 522
12e   Liechtenstein 520
13e   Allemagne 520
14e   Taïwan 520
15e   Suisse 517
16e   Royaume-Uni 514
17e   Slovénie 512
18e   Macao, Chine 511
19e   Pologne 508
20e   Irlande 508
21e   Belgique 507
22e   Hongrie 503
23e   États-Unis 502
24e   Norvège 500
25e   République tchèque 500
26e   Danemark 499
27e   France 498
28e   Islande 496
29e   Suède 495
30e   Lettonie 494
65e   Kirghizistan 330
Lecture
Cl. Pays Score
1er   Chine Shanghai 556
2e   Corée du Sud 539
3e   Finlande 536
4e   Hong Kong, Chine 533
5e   Singapour 526
6e   Canada 524
7e   Nouvelle-Zélande 521
8e   Japon 520
9e   Australie 515
10e   Pays-Bas 508
11e   Belgique 506
12e   Norvège 503
13e   Estonie 501
14e   Suisse 501
15e   Pologne 500
16e   Islande 500
17e   États-Unis 500
18e   Liechtenstein 499
19e   Suède 497
20e   Allemagne 497
21e   Irlande 496
22e   France 496
23e   Taïwan 495
24e   Danemark 495
25e   Royaume-Uni 494
26e   Hongrie 494
27e   Portugal 489
28e   Macao, Chine 487
29e   Italie 486
30e   Lettonie 484
65   Kirghizistan 314

Résultats 2012Modifier

Pisa 2012 a été présenté en décembre 2013, avec des résultats pour près de 510 000 participants dans 34 pays de l'OCDE, et 31 de pays non membre de l'OCDE. La moyenne en Mathématiques est de 494. Voir (en) « Pisa 2012 Results » et Programme for International Student Assessment#2012

Mathématiques
Cl. Pays Score
1er Shanghai (Chine) 613
2e Singapour 573
3e Hong Kong (Chine) 561
4e Taïwan 560
5e Corée du sud 554
6e Macao (Chine) 538
7e Japon 536
8e Liechtenstein 535
9e Suisse 531
10e Hollande 523
11e Estonie 521
12e Finlande 519
13e Canada 518
Pologne
15e Belgique 515
16e Allemagne 514
17e Vietnam 511
18e Autriche 506
19e Australie 504
20e Irlande 501
Slovénie
22e Danemark 500
Nouvelle-Zélande
24e République tchèque 499
25e France 495
26e Royaume-Uni 494
27e Islande 493
28e Lettonie 491
29e Luxembourg 490
30e Norvège 489
31e Portugal 487
32e Italie 485
33e Espagne 484
34e Russie 482
Slovaquie
36e États-Unis 481
37e Lituanie 479
38e Suède 478
39e Hongrie 477
40e Croatie 471
41e Israël 466
42e Grèce 453
43e Serbie 449
44e Turquie 448
45e Roumanie 445
46e Chypre 440
47e Bulgarie 439
48e Émirats arabes unis 434
49e Kazakhstan 432
50e Thaïlande 427
51e Chili 423
52e Malaisie 421
53e Mexique 413
54e Monténégro 410
55e Uruguay 409
56e Costa Rica 407
57e Albanie 394
58e Brésil 391
59e Argentine 388
Tunisie
61e Jordanie 386
62e Colombie 376
Qatar
64e Indonésie 375
65e Pérou 368
Sciences
Cl. Pays Score
1er Shanghai (Chine) 580
2e Hong Kong (Chine) 555
3e Singapour 551
4e Japon 547
5e Finlande 545
6e Estonie 541
7e Corée du sud 538
8e Vietnam 528
9e Pologne 526
10e Liechtenstein 525
Canada
12e Allemagne 524
13e Taïwan 523
14e Hollande 522
Irlande
16e Macao (Chine) 521
Australie
18e Nouvelle-Zélande 516
19e Suisse 515
20e Slovénie 514
Royaume-Uni
22e République tchèque 508
23e Autriche 506
24e Belgique 505
25e Lettonie 502
26e France 499
27e Danemark 498
28e États-Unis 497
29e Espagne 496
Lituanie
31e Norvège 495
32e Italie 494
Hongrie
34e Luxembourg 491
Croatie
36e Portugal 489
37e Russie 486
38e Suède 485
39e Islande 478
40e Slovaquie 471
41e Israël 470
42e Grèce 467
43e Turquie 463
44e Émirats arabes unis 448
45e Bulgarie 446
46e Serbie 445
Chili
48e Thaïlande 444
49e Roumanie 439
50e Chypre 438
51e Costa Rica 429
52e Kazakhstan 425
53e Malaisie 420
54e Uruguay 416
55e Mexique 415
56e Monténégro 410
57e Jordanie 409
58e Argentine 406
59e Brésil 405
60e Colombie 399
61e Tunisie 398
62e Albanie 397
63e Qatar 384
64e Indonésie 382
65e Pérou 373
Lecture
Cl. Pays Score
1er Shanghai (Chine) 570
2e Hong Kong (Chine) 545
3e Singapour 542
4e Japon 538
5e Corée du sud 536
6e Finlande 524
7e Taïwan 523
Canada
Irlande
10e Pologne 518
11e Liechtenstein 516
Estonie
13e Australie 512
Nouvelle-Zélande
15e Hollande 511
16e Macao (Chine) 509
Suisse
Belgique
19e Allemagne 508
Vietnam
21e France 505
22e Norvège 504
23e Royaume-Uni 499
24e États-Unis 498
25e Danemark 496
26e République tchèque 493
27e Autriche 490
Italie
29e Lettonie 489
30e Luxembourg 488
Portugal
Espagne
Hongrie
34e Israël 486
35e Croatie 485
36e Islande 483
Suède
38e Slovénie 481
39e Lituanie 477
Grèce
41e Russie 475
Turquie
43e Slovaquie 463
44e Chypre 449
45e Serbie 446
46e Émirats arabes unis 442
47e Thaïlande 441
Chili
Costa Rica
50e Roumanie 438
51e Bulgarie 436
52e Mexique 424
53e Monténégro 422
54e Uruguay 411
55e Brésil 410
56e Tunisie 404
57e Colombie 403
58e Jordanie 399
59e Malaisie 398
60e Argentine 396
Indonésie
62e Albanie 394
63e Kazakhstan 393
64e Qatar 388
65e Pérou 384

Résultats 2015Modifier

Les résultats du classement Pisa 2015 ont été publiés le 6 décembre 2016[9].

Mathématiques
Cl. Pays Score
1er Singapour 564
2e Hong-Kong (Chine) 548
3e Macao (Chine) 544
4e Taipei chinois 542
5e Japon 532
6e P-S-J-G* (Chine) 531
7e Corée du Sud 524
8e Suisse 521
9e Estonie 520
10e Canada 516
11e Pays-Bas 512
12e Finlande 511
Danemark
14e Slovénie 510
15e Belgique 507
16e Allemagne 506
17e Irlande 504
Pologne
19e Norvège 502
20e Autriche 497
21e Viet Nam 495
Nouvelle-Zélande
23e Australie 494
Suède
Russie
26e France 493
27e Royaume-Uni 492
Portugal
République tchèque
30e Italie 490
31e Islande 488
32e Espagne 486
Luxembourg
34e Lettonie 486
35e Malte 479
36e Lituanie 478
37e Hongrie 477
38e Slovaquie 475
39e États-Unis 470
Israël
41e Croatie 464
42e CABA** (Argentine) 456
43e Grèce 454
44e Roumanie 444
45e Bulgarie 441
46e Chypre 437
47e Émirats arabes unis 427
48e Chili 423
49e Moldavie 420
Turquie
51e Uruguay 418
Monténégro
53e Trinité-et-Tobago 417
54e Thaïlande 415
55e Albanie 413
56e Mexique 408
57e Géorgie 404
58e Qatar 402
59e Costa Rica 400
60e Liban 396
61e Colombie 390
62e Pérou 387
63e Indonésie 386
64e Jordanie 380
65e Brésil 377
66e Macédoine 371
67e Tunisie 367
68e Kosovo 362
69e Algérie 360
70e République Dominicaine 328
Sciences
Cl. Pays Score
1er Singapour 556
2e Japon 538
3e Estonie 534
4e Taipei chinois 532
5e Finlande 531
6e Macao (Chine) 529
7e Canada 528
8e Viet Nam 525
9e Hong Kong (Chine) 523
10e P-S-J-G* (Chine) 518
11e Corée du Sud 516
12e Nouvelle-Zélande 513
Slovénie
14e Australie 510
15e Royaume-Uni 509
Allemagne
Pays-Bas
18e Suisse 506
19e Irlande 503
20e Belgique 502
Danemark
22e Pologne 501
Portugal
24e Norvège 498
25e États-Unis 496
26e Autriche 495
France
28e Suède 493
République tchèque
Espagne
31e Lettonie 490
32e Russie 487
33e Luxembourg 483
34e Italie 481
35e Hongrie 477
36e Lituanie 475
Croatie
CABA** (Argentine)
39e Islande 473
40e Israël 467
41e Malte 465
42e Slovaquie 461
43e Grèce 455
44e Chili 447
45e Bulgarie 446
46e Émirats arabes unis 437
47e Uruguay 435
Roumanie
49e Chypre 433
50e Moldavie 428
51e Albanie 427
52e Turquie 425
Trinité-et-Tobago
54e Thaïlande 421
55e Costa Rica 420
56e Qatar 418
57e Colombie 416
Mexique
59e Monténégro 411
Géorgie
61e Jordanie 409
62e Indonésie 403
63e Brésil 401
64e Pérou 397
65e Liban 386
Tunisie
67e Macédoine 384
68e Kosovo 378
69e Algérie 376
70e République dominicaine 332
Lecture
Cl. Pays Score
1er Singapour 535
2e Hong-Kong (Chine) 527
Canada
4e Finlande 526
5e Irlande 521
6e Estonie 519
7e Corée du Sud 517
8e Japon 516
9e Norvège 513
10e Macao (Chine) 509
Allemagne
Nouvelle-Zélande
13e Pologne 506
14e Slovénie 505
15e Pays-Bas 503
Australie
17e Danemark 500
Suède
19e Belgique 499
France
21e Royaume-Uni 498
Portugal
23e Taipei chinois 497
États-Unis
25e Espagne 496
26e Russie 495
27e P-S-J-G* (Chine) 494
28e Suisse 492
29e Lettonie 488
30e Viet Nam 487
République tchèque
Croatie
33e Autriche 485
Italie
35e Islande 482
36e Luxembourg 481
37e Israël 479
38e CABA** (Argentine) 475
39e Lituanie 472
40e Hongrie 470
41e Grèce 467
42e Chili 459
43e Slovaquie 453
44e Malte 447
45e Chypre 443
46e Uruguay 437
47e Roumanie 434
Émirats arabes unis
49e Bulgarie 432
50e Turquie 428
51e Monténégro 427
Trinité-et-Tobago
Costa Rica
54e Colombie 425
55e Mexique 423
56e Moldavie 416
57e Thaïlande 409
58e Jordanie 408
59e Brésil 407
60e Albanie 405
61e Qatar 402
62e Géorgie 401
63e Pérou 398
64e Indonésie 397
65e Tunisie 361
66e République dominicaine 358
67e Macédoine 352
68e Algérie 350
69e Liban 347
Kosovo
  • P-S-J-G : Pékin-Shanghai-Jiangsu-Guangdong
  • CABA : Ciudad Autonoma de Buenos Aires

RéactionsModifier

Les réactions aux enquêtes sont nombreuses. Elles proviennent tout d'abord de la presse nationale, surtout intéressée par le classement des pays participants : « Les élèves allemands sont-ils des imbéciles ? », demande le magazine d'actualité Der Spiegel du 10 décembre 2001[10]. « L'école suisse a reçu la fessée, la Suisse est-elle le cancre de l'Europe ? » s'inquiète La Tribune de Genève[11]. D'autres commentaires viennent d'enseignants ou de spécialistes de l'éducation qui en soulignent soit l'intérêt, soit les limites, voire pour certains les risques.

ShanghaïModifier

Le classement donne généralement de bons résultats à Shanghaï, Chine populaire, où les parents shanghaïens dépensent annuellement 6000 yuans (720 euros) en cours particuliers, et 9600 yuans (1 150 euros) en activités de loisirs éducatifs comme le tennis ou le piano, avant d'atteindre pour le lycée des sommes de 30000 yuans (3 600 euros), et de 19200 yuans (2 300 euros)[12].

IntérêtModifier

Certains commentateurs notent que l'enquête a eu un effet salutaire en attirant l'attention des pouvoirs et de l'opinion publique sur la nécessité de réformer les différents systèmes éducatifs[13]. Les questionnaires, notamment, ouvrent des pistes de réforme possible en identifiant certains facteurs de réussite[14].

La loi d'orientation et de programme pour l'avenir de l'École du 23 avril 2005 a finalement créé un socle commun de connaissances et de compétences qui a été progressivement introduit dans les écoles primaires et au collège et qui, dixit sa définition, « constitue l'ensemble des connaissances, compétences, valeurs et attitudes nécessaires pour réussir sa scolarité, sa vie d'individu et de futur citoyen. » Ainsi, en Mathématiques, l'enseignement vise dans la direction suivante : « en s'appuyant sur la maîtrise du calcul et des éléments de géométrie, l'élève apprend à mobiliser des raisonnements qui permettent de résoudre des problèmes ». Les savoirs de la discipline en elle-même sont là, mais il en est tout autant de sa dimension utile en ce qui concerne les capacités de raisonnement de l'élève.

Enfin, l'étude pose la question de la culture éducative en France : la France est parmi les pays comparables un pays qui consacre un montant moyen à l'éducation par élève, mais c'est aussi le pays où les élèves sont « les plus stressés », et se sentent peu soutenus par leurs enseignants (corpus « Attitudes par rapport à l'école » de l'enquête). De plus, le système éducatif français est le champion en termes d'inégalités, dans le sens où la relation entre la performance et le milieu social d'origine des élèves fait partie des plus fortes de l'OCDE avec la Belgique[15]. Les chances de réussite s'amenuisent même pour celui qui ne serait pas issu d'un milieu favorisé, quand on les compare aux précédents rapports Pisa.

En guise d'ouverture, le rapport Pisa confirme la nécessité d'élever le niveau culturel de l'ensemble de la population française, car cet effet de masse a un impact positif en termes de compétitivité[16].

CritiquesModifier

Ce qu’est réellement le test PISA, ce qu’il construit, ce qu’il cherche à produire comme mesure, la valeur de ses résultats, voilà qui est présenté comme une évidence et qu’il faut interroger ! L’image générale présentée au public est celle d’un simple outil, un "thermomètre" censé rendre compte du niveau des systèmes scolaires, permettant de classer les pays, comme le fait une agence de notation. On ne se demande pas pourquoi, comment, avec quelle grille conceptuelle, à partir de quels principes, selon quels intérêts, sont construit les dispositifs producteurs de notes. On les reçoit comme des données. Certains chercheurs vont même à les qualifier "d’objectives" , comme Bruno Suchaut (1) ou Stanislas Dehaene  (2)! Ce "thermomètre" qui est devenu une référence pour les décideurs, observateurs, analyseurs, chercheurs, contrôleurs, inspecteurs des systèmes éducatifs, serait plutôt un théâtre de persuasion ! La preuve que PISA est un dispositif fictionnel complètement trompeur c’est tout d’abord qu’il met en tête de palmarès le pays qui a le plus mauvais système scolaire : la Corée du sud. Ensuite, cette grosse machinerie, dopée par la Banque mondiale et concoctée par les experts de l’OCDE, cherche à produire des mesures, et pour cela est amenée à supposer un champ d’homogénéité sur lequel puisse s’appliquer la mesure comparative, et cela au moyen d’une notion de compétence totalement fictive, abstraite, décontextualisée, déterritorialisée. Ce en quoi PISA n’est pas un "révélateur" d’acquis, mais un producteur de normalisation. Il ne mesure rien, il impose une mesure sur une multiplicité hétérogène.

La Corée, un modèle ? Voici ce que l’on peut lire sur le site de l’UNESCO : "Grâce à son développement économique rapide et au processus de démocratisation, la République de Corée (ROK) est passée d’un pays pauvre à un pays industrialisé reconnu pour son savoir-faire. Son système éducatif est aujourd’hui l’un des plus avancés des pays de l’OCDE (voir les résultats du PISA, le Programme international pour le suivi des acquis des élèves de l’OCDE).Pour la deuxième année consécutive, le gouvernement coréen a invité les participants du Programme de formation approfondie de l’IIPE (PFA) pour qu’ils découvrent le système d’éducation sud-coréen et les politiques qui ont contribué à son développement." (3) Et pour tous les commentateurs ignorants de ce qui se passe dans ce pays mais admirateurs de ce "meilleur élève" de la compétition , seule compte la performance et son résultat. Un ministre écrivait dans son livre "Refondons l’école. Pour l’avenir de nos enfants" : "les systèmes scolaires les plus performants, de la Finlande à la Corée du Sud, aussi différents soient-ils, partagent un certain nombre de traits communs. Ils prêtent, au début de la scolarité, une attention particulière aux premiers apprentissages. Ils offrent une véritable formation initiale et continue à leurs enseignants, fortement professionnalisante, permettant une entrée progressive dans le métier […]. Ils réduisent les inégalités par une certaine forme de mixité scolaire et sociale, et offrent à tous leurs élèves un enseignement commun, jusque tard dans la scolarité." Pourtant, derrière ce cliché de "premier de la classe", il y a un système éducatif profondément pathologique, et pathogène, stressant et "infernal", et au bout du compte, peu performant, éducatif, formateur. Toute la vie du jeune coréen est réduite au travail scolaire et à la préparation aux examens, 6 jours par semaine de 8h à 23h, cumulant sa journée à l’école publique, sa soirée à l’institut privé (55 000 hagwons en Corée), et les cours privés. Et en quoi consiste ce "travail scolaire" ? Essentiellement en la préparation aux tests, en la capacité à répondre à des QCM, où le programme se réduit à quelques matières, et où l’apprentissage consiste en mémorisation, discipline, répétition. L’unique moteur de cette instruction est la compétition à outrance pour être toujours le meilleur. C’est pourquoi on ne peut comparer un élève coréen et un élève français, c’est un peu comme si on comparait un pilote de formule 1 qui s’entraine tous les jours sur son circuit et le conducteur lambda qui y vient pour la première fois. Les effets de ce système peuvent être ainsi décris : "Ces orientations favorisent la compétition la plus débridée entre les élèves avec la réapparition des examens préparatoires aux concours d’entrée, le bachotage, les cours privés. Les enseignants sont gagnés par le même esprit de compétition favorisé par le « bonus system » hérité de l’industrie et que le ministère de l’éducation tend à instaurer comme système de promotion. Mais surtout règne l’indifférence aux problèmes humains que génère une société scolaire partagée entre gagnants et perdants. Cette évolution a entraîné une chute de l’enseignement public et sa désaffection par les classes moyennes. Le nombre d’élèves quittant le secondaire en cours de cursus a atteint 600 000 en 1997. Certes quelques groupes tentent de réagir contre la propagation, le « fléau social majeur », véritable psychose sociale. En fait l’inégalité est prônée comme le moteur de l’évolution de l’éducation, selon une sorte de darwinisme scolaire. Elle correspond à ce monde des marchés dans lequel l’éducation n’est plus considérée que comme une marchandise. ( In “effect, education is seen as simply one more product like bread, cars, and television”. Le principe de cette marchandisation de l’éducation est que l’école doit être rentable. "(4) Le contre-coup de cette compétition à outrance (5), de la pression des familles qui surinvestissent financièrement jusqu’au sacrifice, de la honte de l’échec, du respect aveugle de l’autorité, c’est que la Corée du sud est aussi le n°1 pour un autre palmarès : celui du nombre de suicides de jeunes qui n’arrivent pas à supporter les exigences que l’on fait porter sur eux. En 2009, 202 élèves du secondaires se sont suicidés selon les chiffres du ministère. Selon un universitaire très critique de ce système, les élèves coréens sont préparés pour les tests, mais quand ils entrent dans le monde de la culture universitaire, ils n’ont pas les compétences pour réussir, et 44% abandonnent avant d’obtenir un diplôme. Autrement dit, l’école fabrique énormément de jeunes dociles, mais privés de ce qui fait une éducation culturelle complète et riche. "L’école est morte, l’éducation reste morte, les élèves agonisent", dit un jeune coréen (6). Ce système est somme toute conforme au totalitarisme qui a régné et règne encore sous d’autres formes dans ce pays, la dictature militaire ayant été remplacée par la dictature patronale (7) ; les libertés démocratiques et les droits de l’homme y sont encore un rêve lointain. Que les politiques rivés sur leurs indicateurs, leurs standards, leurs indices de "croissance" et autres fétiches, sans évoquer la réalité qu’ils recouvrent, soient admiratifs d’un système mortifère, est-ce normal ou inquiétant ?

PISA , c’est quoi ? "Avec le Programme international de l’OCDE pour le suivi des acquis des élèves (PISA), les gouvernements des pays de l’OCDE s’engagent à suivre, au sein d’un cadre international commun, l’évolution des résultats des systèmes éducatifs en se fondant sur les connaissances des élèves. " (Mesurer les connaissances et compétences des élèves, un nouveau cadre d’évaluation, OCDE, 1999). Tant la présentation de l’enquête par les experts de l’OCDE, par les porte-parole des différents ministères de l’éducation des 67 pays participants, que les commentaires publiés par la presse et les analyses faites par bien des "experts" de l’éducation, tous à différents degrés nous présentent PISA comme l’indicateur objectif qui rendrait compte de l’état, de la valeur des systèmes scolaires. Tous véhiculent la certitude que PISA constitue un dispositif qui évalue vraiment ce que savent les élèves. L’image générale proposée est celle du révélateur, PISA est un thermomètre. Et les sociologues -Duru-Bellat, Suchaut, Mons - fondent leurs théorisations sur les données offertes par PISA ; ainsi C.Baudelot : "Les chercheurs du Pisa ont intériorisé ces difficultés [de la mesure]. Ils ont fixé à leur enquête des objectifs réalistes : décrire le spectre des compétences, depuis les plus modestes jusqu’aux plus virtuoses, dans trois domaines qui ont une importance vitale, quel que soit le pays concerné (la culture mathématique, la compréhension de l’écrit, la connaissance du monde extérieur). Cela ne fait pas le tour de toutes les compétences utiles (pensons au dessin, à la musique instrumentale, au chant choral, au travail manuel, aux langues étrangères, aux arts ménagers...). Mais les trois domaines soumis à investigation sont partout suffisamment importants pour inaugurer une comparaison."(8) On s’interroge assez peu sur la manière dont est construit le test, ses postulats, les instruments utilisés, le choix des épreuves. Et on s’interroge encore moins sur les implicites- catégories, normes, standards, définitions, représentations - supposés, mis en œuvre, induits par le test. On s’interroge assez peu sur la manière dont est construite cette machinerie à mesurer, prise en fait comme une sorte de "boite noire" fiable dont on aurait juste à attendre les chiffres fatidiques. Il importe au contraire d’aller voir dans cette "boite" ce qui s’y fabrique, car ses "produits" sont entièrement liés à son processus de fonctionnement. Les "données" fabriquées par cette boite ne sont justement pas des données, l’image de quelque chose qui pré-existe mais des construits. Au delà des grandes déclarations de principe sur "l’évaluation des acquis", il faut aller voir la manière très singulière dont sont évalués les jeunes et comment les procédures utilisées sont l’application d’un certain nombre de présupposés sur ce que serait une connaissance, une compétence, la culture, sur ce qui est "utile", sur ce qu’est "une vie réussie", etc. La construction des instruments d’évaluation privilégiée par PISA et les argumentations psychométriques qui soutiennent le choix des procédures impliquent et appliquent des définitions très partiales de ce que sont la lecture, la compréhension, l’information, l’interprétation,....

Dans la boite noire! L’OCDE a publié un gros document explicatif de 280 pages à propos de PISA 2012 "Cadre d’évaluation et d’analyse du cycle PISA 2012 , COMPÉTENCES EN MATHÉMATIQUES, EN COMPRÉHENSION DE L’ÉCRIT, EN SCIENCES, EN RÉSOLUTION DE PROBLÈMES ET EN MATIÈRES FINANCIÈRES ". La construction du test y est amplement justifiée et commentée et des exemples d’épreuves y sont fournis. Les élèves passent une épreuve "papier-crayon" de deux heures, composée de plusieurs "blocs" de domaines et pour environ une cinquantaine d’items : "Dans les épreuves papier-crayon, certains items PISA appellent soit des réponses courtes, soit des réponses d’une ou deux phrases, alors que d’autres demandent simplement aux élèves d’entourer une réponse ou de cocher une case. Les décisions à propos des formats de réponse se basent sur ce qui est jugé approprié compte tenu du type d’informations à recueillir, ainsi que sur des considérations techniques et pragmatiques. "(p.169) Les QCM représentent environ 1/3 du total, et le reste, des questions fermées et des questions ouvertes "à réponse construite". Conformément à son objectif de ne pas évaluer les programmes scolaires mais plutôt les compétences des jeunes de 15 ans pour " relever les défis que l’avenir leur réserve" : "L’enquête PISA se fonde sur une conception de l’évaluation des connaissances, des compétences et des attitudes qui reflète l’évolution des programmes d’enseignement : elle va au-delà des acquis purement scolaires et se concentre sur la mise en œuvre des savoirs et savoir-faire dans des tâches et des défis quotidiens, que ce soit en famille ou dans le monde du travail. Elle repose sur un modèle dynamique d’apprentissage qui veut que les individus acquièrent, de façon continue au cours de leur vie, de nouvelles connaissances et compétences dont ils ont besoin pour s’adapter dans un monde en constante évolution. L’enquête PISA cible des activités que les élèves âgés de 15 ans auront à accomplir dans l’avenir et cherche à identifier ce qu’ils sont capables de faire avec ce qu’ils ont appris "(p.13 ) Cherchant donc à évaluer " leur faculté de réflexion et leur capacité à appliquer leurs connaissances et leurs expériences dans des situations qui s’inspirent du monde réel. ", les épreuves vont proposer toute une suite de blocs d’items faisant référence à la vie quotidienne. Pour la "litéracie" en 2009, les types d’items contenaient ainsi : se repérer dans une bibliothèque, lecture d’un avis au supermarché, comment se brosser les dents, la sûreté des téléphones portables, êtes-vous pour la recherche spatiale ?, texte de Thucydide sur la démocratie, article de presse sur les plus hautes tours du monde, un extrait de pièce de théatre, un plan de métro...- on peut lire une liste plus complète des items de maths passés publiés par la DEPP-(9) Le premier problème posé par l’enquête PISA se situe sur cet énorme paradoxe : faire passer pour équivalents son épreuve papier-crayon minutée et une situation de la vie réelle, assimiler une course de questions en passant d’un sujet à l’autre dans un ordre prédéfini à ce que serait une pratique d’usage. Naïveté qui ferait sourire n’importe quel enseignant un tant soit peu soucieux de la difficulté à réinsérer les savoirs scolaires dans des pratiques sociales. On pourrait même suggérer que le format de l’épreuve constitue exactement l’inverse d’une situation de la vie réelle. Cette "faille" n’est pas passée complètement inaperçue aux yeux des concepteurs, puisqu’ils ont senti la nécessité d’une certaine "contextualisation" des items, mais la solution adoptée est significative du "behaviorisme"(10) auquel se réduit cette question complexe : "Que ce soit dans les épreuves papier-crayon ou dans les épreuves informatisées, les connaissances et les compétences sont évaluées au moyen d’unités constituées d’un stimulus (par exemple, un texte, un tableau, un graphique, un schéma, etc.) et d’une série d’items se rapportant à ce stimulus. C’est une caractéristique importante des épreuves dans la mesure où des questions plus approfondies peuvent être posées, ce qui ne pourrait être envisagé si chaque question s’inscrivait dans un contexte totalement nouveau. Cette approche donne aux élèves le temps d’assimiler le stimulus, qui peut être utilisé pour évaluer de nombreux aspects de la performance. " (p.20) Question essentielle sur laquelle un analyseur attentif du dispositif PISA n’avait pas manqué de nous avertir il y a 10 ans déjà : "Pour mesurer de façon valide les compétences en lecture, et pour apprécier de façon fiable et crédible le niveau des élèves (notamment la proportion de médiocres lecteurs ; cf. niveaux 1 et 0), il faut que « les compétences testées correspondent à des situations les plus proches possible de la vie réelle » (Lafontaine, Baye & Matoul, 2001 p. 1). Ce n’est que très partiellement le cas, si nous nous en référons au matériel publié. En tout premier lieu, les lectures demandées ne sont pas mises en contexte ; elles ne sont pas situées en tant qu’activités langagières effectives par rapport à une utilisation particulière dans un espace social défini, permettant de savoir plus précisément quel est l’enjeu, quelle est la tâche du lecteur et quelle signification elle peut prendre pour lui. Sur ce point, nous ne trouvons pas de traces très convaincantes des intentions des responsables de l’enquête selon lesquels : « En général, les questions et les consignes font référence à un but dont le lecteur est censé tenir compte au cours de sa lecture et de son interaction avec le texte » (OCDE, 1999, p. 27). En fait, dans le test, « la notion de situation se réfère davantage à l’usage auquel l’auteur destine son texte qu’aux circonstances dans lesquelles le texte est effectivement lu » (OCDE, 1999, p. 27). Par ailleurs, la situation de test en général et plus particulièrement la succession de textes différents dans un même cahier de test rendent difficile toute mise en situation crédible ou efficace. "(11) Le test semble ignorer la fameuse maxime d’Alfred Korzybski "la carte n’est pas le territoire" ! Interpréter le plan d’une bibliothèque, pour reprendre un des items proposés, n’est pas la même chose que d’y flâner et discuter avec la bibliothécaire à propos d’un roman conseillé. Dans la vie réelle, la personne est engagée par des modes d’affectation, de perception, de connaissance, elle est insérée dans un complexe d’interactions, d’interprétations, d’intentions, de projections, territorialisée dans un milieu, et son action ne se limite pas à des programmations linéaires définies sur un seul paramètre. Mais ça n’empêche les concepteurs du test de poser l’identité entre situation du test et situation "réelle". Alors que le test propose même une démarche qui serait plutôt le contraire de ce qui se produit dans la vie réelle, ainsi en lecture : un document est donné, ensuite il s’agit de répondre à une série de questions, et à la fin de conclure par une "ouverture" du sujet abordé. C’est une conception particulièrement limitée et réduite de la lecture (12), qui en fait serait plutôt du genre "réponse à des consignes". Dans la vie réelle, il y a d’abord la situation, le problème, un besoin, un questionnement et ensuite mise en œuvre de stratégies de recherche, relativement à des pratiques d’usage singulières. On mesure mais on ne sait pas ce qu’on mesure. Les cahiers d’épreuves PISA posent en outre de sérieux problèmes soulevés par plusieurs analystes, quand au lien entre item et compétence qui recèle tout un tas d’a priori, de postulats, d’implicites réducteurs, que l’on peut résumer ainsi : Est-ce que le fait de réussir à un item signifie que l’on peut généraliser cette réussite à tout le champ de la compétence dont il prétend rendre compte ? La réussite à un item permet-elle d’inférer l’existence d’une compétence déterminée et laquelle en l’absence de prise en compte des processus qui ont conduit à produire tel résultat ? Qu’est-ce qui prouve que la compétence mise en œuvre dans la réponse soit celle que le test prétend évaluer et pas une autre ? Est-ce que les différences de difficulté - PISA construit 5 niveaux- entre les items sont réductibles à de pures différences quantitatives ainsi que le construisent les scores ? Et du coup, est-ce que les différences entre les compétences des élèves sont réductibles à des différences de niveaux ? Autre problème de cette course d’obstacles, que signifie le fait de lier le score au nombre d’items réussis ? L’important est-il la quantité de bonnes réponses ou le contenu des taches à effectuer et les démarches réalisées par les élèves ? Doit-on accepter l’idée que seul le niveau important, les élèves mettraient en oeuvre des processus et des stratégies similaires ? Dans un travail d’enquête sur les "postures" des élèves face au test, J.Y. Rochex a montré que les items supposés équivalents pour les élèves ne le sont pas du tout : "L’examen de ces cinq questions, composantes d’une question plus générale de l’épreuve PISA, montre ainsi, d’une part, combien le choix de la réponse attendue peut masquer, d’un élève à l’autre mais aussi d’une question à l’autre pour un même élève, des modes de travail très différents et intellectuellement forts inégaux, d’autre part combien le format de la question (de type vrai/faux) et la sommation des réponses portent à occulter la diversité des difficultés posées par cinq questions apparemment semblables, mais en réalité fort différentes, quoique considérées sans doute un peu trop rapidement comme équivalentes." (13) Peut-on évaluer quelque chose qui n’existe pas ? L’écueil de l’équivalence postulée entre compétence formée dans un système scolaire particulier, compétence saisie par le test et compétence en situation réelle, comme si la compétence était une réalité autonome se baladant de contexte en contexte, devient encore plus caricatural lorsqu’il s’agit d’évaluer le domaine appelé "culture scientifique" des jeunes. Les objectifs pour ce domaine sont définis ainsi : " Il s’agit de déterminer dans quelle mesure les élèves sont capables de mettre en œuvre les compétences suivantes : • identifier des questions d’ordre scientifique ; • expliquer des phénomènes de manière scientifique ; et • utiliser des faits scientifiques. "(14) Quand on regarde les items (15) proposés pour cette épreuve, ils consistent essentiellement en questions de lecture : tableaux, courbes, graphes, articles de presse, et de restitution de connaissances du programme ou acquises hors l’école, et principalement de savoir choisir entre quatre réponses proposées. Il ne s’agit en aucun cas d’évaluer la connaissance des programmes disciplinaires de sciences, ni non plus des démarches d’expérimentation, de recherche, d’observation, d’invention, de controverse, d’imagination, ce que développe par exemple le projet "les petits débrouillards" ! ou le Laboratoire de didactique et épistémologie des sciences (LDES à Genève) avec A.Giordan :"« Faire des sciences » devrait conduire à développer d’abord des attitudes : curiosité, envie de chercher, esprit critique, créativité,…" Tous les processus multidimensionnels de constructions de solutions sont réduits encore une fois à la simple exécution de consignes. Outre le fait que n’est même pas problématisé la question de ce que peut bien être une "culture scientifique". Car comme le remarquait J.M. Lévy-Leblond : "Peut-on vraiment parler de culture scientifique ? Pour le dire d’emblée, je n’en suis par certain ! "(16) "L’idée de culture scientifique me semble donc désigner au mieux une sorte d’horizon, vide pour l’instant. C’est pour cela que j’avais proposé, il y a un certain temps, une formule alternative en disant que le problème était moins de « diffuser la culture scientifique » que de « mettre la science en culture ». Le modèle de la transmission suppose qu’il existe une culture scientifique, et qu’elle serait dans les mains des scientifiques. D’un côté il y a ceux qui savent, les émetteurs, et de l’autre le public qui ignore et qui réceptionne un savoir sans lequel, comme l’écrivaient les scientifiques qui ont rédigé l’Appel de Heidelberg (dont Bourdieu) "ils sombrent dans une idéologie irrationnelle qui s’oppose au progrès scientifique et industriel". Ce que les apologètes du modèle scientiste ne peuvent pas voir, c’est que l’enjeu s’est déplacé sur la critique du mode de régulation des sciences, de l’expertise, de la construction du savoir. Jean-Marc Lévy-Leblond l’affirme, ce sont plutôt les scientifiques qui manquent de culture : en s’adressant au public comme ceux de Heidelberg, en se proclamant "tête pensante de l’humanité" (Stengers). Implicitement, l’épreuve PISA cautionne un certain nombre d’a priori forts discutables et disputés, contestés, sur l’idée qu’on peut postuler des définitions univoques, évidentes, consensuelles, universelles, sur ce qui serait une "question d’ordre scientifique", sur ce qu’est "un fait scientifique", sur "la démarche scientifique"," l’explication scientifique" (sous entendu, les scientifiques expliquent la "réalité", le public dispose, et non pas rajoute des dimensions indispensables à la proposition du scientifique). Comme le résume la brochure de présentation : "Les faits sont souvent d’ordre scientifique, certes, mais la science a un rôle plus général à jouer, dans la mesure où son propos est d’établir un principe de rationalité dans des démarches permettant de mettre des idées et des théories à l’épreuve des faits. " p.105 Les partis-pris adoptés par les concepteurs de PISA sont ceux d’une certaine représentation des sciences, une certaine image fabriquée pour le public, une véritable mythologie qui dit tout le contraire de ce que construisent réellement les sciences, et qui infuse les institutions des sociétés modernes. Le signifiant "La Science" est une "représentation publique" qui unifie un ensemble disparate de pratiques, qui justifie des principes de séparation, pur/appliqué, fait/valeur, sujet/objet, nature/culture, vérité/opinion, savant/profane, etc. Elle justifie une hiérarchie dans les savoirs en instaurant en modèle de la connaissance objective la pratique expérimentale, elle développe un discours sur l’autonomie quand la réalité des sciences se construit dans des réseaux de dépendance et des rapports de pouvoir. Et l’école est son premier propagandiste : il faut "faire aimer la science", comme l’a exprimé un doyen des inspections, inquiet du "relativisme" qui érode la "conception classique des sciences" qu’il conviendrait de défendre. "Il y a donc là un enjeu de l’enseignement des sciences qui n’est pas seulement un enjeu de formation, de compétences, de professionnalité, mais qui devient un enjeu culturel et un enjeu politique fort. C’est dans la capacité que nous avons ou non d’instruire les jeunes, de les faire accéder au raisonnement scientifique et de les éduquer à consentir aux faits tels que la science les établit que la solution de ce problème politique réside." (17) La réthorique de ceux qui font autorité à l’éducation nationale, liant la science à la rigueur, la rationalité, la nécessité, la méthode, le consentement aux faits objectifs, cherche à diffuser une vision morale et politique des sciences, au nom de "La Science". La science, opposée à l’opinion, à l’idéologie, à la croyance, l’obscurantisme, l’irrationnel, invoquée domaine privilégié du savoir vrai, est le lieu commun, la fiction, qui sert avant tout à occulter la politique des sciences ; un "amalgame", comme le qualifie Stengers, qui unifie et occulte la singularité de composantes différentes, leurs styles, leurs valeurs, leurs approches, leurs perspectives. Car "La Science" comme idée d’un domaine à part, pur, neutre, universel, indépendant, est un moyen d’occulter la symbiose qui s’est effectuée avec les dynamiques capitalistes d’appropriation-redéfinition. Dans le test PISA, l’unité d’items intitulée "cultures génétiquement modifiées" est significative de la manière dont est interprétée la notion de "fait scientifique", du rôle attribué au chercheur et de l’assignation collée au public. Les items ne demandent que de choisir parmi les raisons proposées de l’expérimentation en plein champ : l’OGM fait-il disparaitre les insectes comme l’herbicide ? pourquoi planter 200 champs plutôt qu’un seul ? Laissant supposer que c’est à ce niveau que se situe l’expertise scientifique. Une fois le fait accompli ! Un élève qui proposerait l’arrachage comme seule réponse sensée, seule solution scientifique pour décontaminer la biodiversité et l’agriculture, aurait comme score zéro ! Comme en témoigne I.Stengers au procès de Termonde (18), parlant des "arracheurs d’OGM" : "je dirais même que certains sont de véritables chercheurs parce qu’ils ont participé à l’apprentissage des raisons nombreuses pour lesquelles les stratégies industrielles de redéfinition de l’agriculture sont un danger pour l’avenir de l’humanité et une menace de désastre écologique. Ils analysent les effets de la mise sous brevet des semences, les dangers de la monoculture du fait de sa vulnérabilité aux épidémies, l’impossibilité d’empêcher des transferts génétiques disséminant les gènes intégrés à une plante à d’autres plantes ou d’éviter l’apparition de champignons ou d’insectes qui résistent aux pesticides que produisent par exemple les pommes de terre expérimentées ..." Bref, PISA confond tout simplement bricolage biotechnologique à but lucratif (19) et "fait scientifique".

Enseigner les valeurs, oui, mais boursières ! La brochure PISA 2012 s’auto-congratule fièrement d’avoir introduit un nouveau domaine dans son test. On pourrait penser aux valeurs justement, celles proclamées (appliquées est un autre sujet !) par bien des systèmes éducatifs, ...ou les droits et la défense des libertés individuelles et collectives.(20) "Depuis quelques années, les pays et économies développés ou émergents se préoccupent de plus en plus du niveau de culture financière de leurs citoyens, en raison de la contraction des systèmes publics et privés de soutien, de l’évolution démographique, dont le vieillissement de la population, et des développements importants intervenus sur les marchés financiers. Ils s’en préoccupent d’autant plus que la conjoncture économique et financière est difficile et qu’il est établi que le manque de culture financière compte parmi les facteurs qui amènent les citoyens à prendre des décisions financières en mauvaise connaissance de cause, ce qui est extrêmement lourd de conséquences" (p.148) Il faut lire toute l’intro car c’est un merveilleux condensé d’une certaine idéologie néolibérale que l’on prend pour une analyse économique. En conséquence : "Il est important que les individus possèdent une certaine culture financière avant qu’ils ne s’engagent dans des contrats et des transactions financières de grande ampleur. Dispenser dès le plus jeune âge des programmes d’éducation financière de qualité est essentiel pour inculquer aux individus de bonnes connaissances financières et leur apprendre à adopter un bon comportement en la matière, ce qui leur sera utile par la suite ."(p.151) Mais on s’étrangle à la lecture des items censés évaluer ce qui devrait être une préoccupation d’ado de 15 ans : identifier des informations financières indiquées sur un bulletin de salaire, évaluer les risques dans une assurance moto, évaluer le cours des actions, réfléchir aux conditions d’un prêt, déterminer les conditions de sécurité de la carte bleue. Il ne manque plus que l’étude de la courbe du chômage qui les attend !

Mais qui a conçu un tel test ? Pour la réalisation des cahiers de tests, l’OCDE a passé contrat avec deux sociétés : Le cadre d’évaluation de la culture mathématique a été élaboré conjointement par l’Australian Council for Educational Research (ACER) et une organisation de recherche pédagogique basée aux États-Unis, Achieve Inc. ACER est marchand en gros de tests pour le monde anglophone ! Qui est "Achieve Inc." ? "At the 1996 National Education Summit a bipartisan group of governors and corporate leaders decided to create and lead an organization dedicated to supporting standards-based education reform efforts across the states. To do so, they formed Achieve as an independent, bi-partisan, non-profit education reform organization. To this day, Achieve remains the only education reform organization led by a Board of Directors of governors and business leaders. This unique perspective has enabled Achieve to set a bold and visionary agenda over the past 15 years, leading Education Week in 2006 to rank Achieve as one of the most influential education policy organizations in the nation. "(21) Ces deux "visionnaires" ont reçu commande de l’OCDE après qu’a été fixé le cadre de ce qu’il fallait évaluer. Pour ce faire, un panel d’experts en diverses disciplines a été invité à remettre un avis sur les problématiques posées au sein du groupe de travail DESECO (Définir et Sélectionner les Compétences-clés), groupe constitué dans le but de produire les définitions de ce que PISA allait chercher à évaluer, dans le cadre d’un symposium en 99 à Neuchâtel. "The international symposium will be an opportunity to reflect on the first three activities of the DeSeCo Program. The first was an analysis of past indicator development in the domain of competencies within the OECD context. The second was an examination of existing notions from different perspectives such as philosophy, sociology, economics, anthropology and psychology as well as an analysis of existing theoretical approaches to concepts of competence. The third and largest activity is the identification and definition of theoretically-based sets of relevant competencies. "(22) En 1997, les ministres de l’éducation des pays de l’OCDE avaient décidé de lancer un nouveau cycle d’évaluation des systèmes scolaires, et le programme DESECO a pour but de créer le cadre conceptuel de l’enquête et de définir un cadre de discussion intergouvernemental de référence pour les politiques scolaires. DESECO cherchant à accorder exigences gouvernementales et avis des experts doit apporter une réponse aux questions que pose le test PISA, qu’est-ce qu’il évalue et qu’est-ce qu’il doit évaluer ? Parmi les contributions préparatoires à ce symposium de 99, figure celle du célèbre anthropologue Jack Goody - Education and Competences, An Anthropological Perspective, St John’s College, Cambridge- nettement plus intéressante que celle de Canto-Sperber (23), la néolibérale qui a sévi à la direction de l’ENS. Son avis est particulièrement intéressant dans la mesure où il s’agit d’une fin de non-recevoir catégorique à l’idée même qui préside à la conception de PISA. Les questions posées au panel d’experts étaient les suivantes : 1.Qu’entend t-on par compétence, compétence clé, et "skills" ? Bien que ces termes soient devenus très courants dans les domaines scientifiques et politiques, des significations différentes et des usages flous ont conduit à beaucoup de confusion. Une terminologie commune est donc requise pour communiquer dans un contexte interdisciplinaire et international. 2. Quelle conception sur la nature de l’homme et de la société peut servir de point de départ à l’identification des compétences importantes dont ont besoin les individus pour conduire une vie réussie et responsable dans une société démocratique moderne, et pour la société pour faire face aux défis d’un monde changeant souvent en conflit ? Quels sont les critères normatifs sous-jacents pour définir les compétences ? Y a t’il un dénominateur commun parmi les différents points de vue sur le sujet ? 3. Dans quelle mesure est-il possible d’arriver à une identification des compétences clés indépendament de la culture, de l’âge, du genre, du statut, de l’activité proffessionnelle ? Comment ces facteurs affectent-ils la conceptualisation des compétences clés ? 4.Quelles compétences sont nécessaires pour agir dans les différents domaines de la vie - économique, politique, sociale et familiale ; les relations interpersonnelles publiques et privées ; le développement de la personnalité individuelle ? Comment ces compétences peuvent-elles être décrites et justifiées théoriquement ? 5. Est-ce que les compétences opèrent indépendament ou en interdépendance ? Comment se relient-elles ? 6. Quelle est l’importance de ces notions pour les décideurs politiques...? Quel est le rôle des institutions sociales pour le transfert des compétences à la population ? Quelles sont les démarches potentielles pour rendre les compétences opérationnelles ?"(24) Il n’est pas nécessaire d’être anthropologue pour comprendre que l’idée de compétence que DESECO cherche à promouvoir et définir, abstraite de son milieu socioculturel est une absurdité, mais il fut le seul à refuser d’emblée les questions du projet DESECO : selon lui, il ne pouvait être question de s’engager dans une discussion sur des "compétences clés" décontextualisées, parce qu’on ne peut pas identifier des compétences de manière isolée, indépendamment d’un contexte particulier et de pratiques spécifiques. Pour un anthropologue confronté à la diversité des modes de construction de l’humain, c’est une évidence qu’il ne saurait être question de définir des compétences dans un cadre général qui dépasse les cultures, les contextes sociaux et les réseaux territorialisés dans lesquels se construisent et œuvrent les personnes. Il estime impossible de définir des compétences à un niveau de généralité réclamé par la construction de mesures. En effet, c’est le principe même qui guide la construction de la catégorie de compétence que DESECO cherche à rendre "acceptable" par les systèmes éducatifs, celui d’une mise en équivalence, qui est absurde. Absurde pour nous, peut-être mais pas pour tout le monde ! DESECO ne fait que révéler les conditions de fonctionnement de la société de l’économie de la connaissance que les élites capitalistes appellent de leurs voeux. Avant même que les experts invités apportent leurs problématisations sur ce que l’on peut entendre par compétence, une définition, celle qui apparait dans les questions de DESECO, est déjà retenue dans les pays de l’OCDE pour servir de nouveau paradigme aux systèmes de formation, c’est : Une capacité générique et transférable de mobilisation de ressources pour agir efficacement. Mais d’où vient cette définition ? Comment a-t-elle été négociée ? Pourquoi devient-elle centrale ? Qu’est-ce qu’elle implique ? Quel genre d’individus cherche t-elle à façonner, à promouvoir ? L’objectif était de mettre en cohérence, d’harmoniser, tracer des perspectives pour les systèmes éducatifs en vue de leur ajustement aux nouvelles contraintes économiques, et d’apporter une justification et un fondement théorique notament pour PISA. le rôle de l’expertise et la place des scientifiques sont définis dans un cadre très précis. Ils ne sont pas convoqués pour contribuer à l’élucidation d’un problème, mais pour proposer des réponses plausibles à des questions déjà formulées. La définition de la compétence est supposée acquise, les compétences existent, l’entreprise les exige, il faut désormais un travail d’explicitation et de justification, une opération de négociation pour en faire une transposition en propositions générales acceptables par le public. "Définir et sélectionner une liste valable et légitime de compétences clés est en fin de compte le résultat d’un processus d’analyse, de discussion et – éventuellement - de consensus qui peut se présenter dans le domaine politique où les chercheurs travaillent en partenariat étroit avec d’autres groupes d’intérêt."(25) Sachant que "l’impulsion majeure dans les pays de l’OCDE pour le modèle compétence vient des secteurs patronaux."(26) il doit être clair que pour les experts "définir les compétences n’est pas seulement le résultat d’une analyse scientifique mais aussi d’un processus de négociation politique". Il n’a pas échappé aux participants que l’usage de plus en plus fréquent de la notion de compétence dans de multiples situations, emploi, conseil, recrutement, formation, recherche, s’accompagne des définitions les plus diverses. Principalement en formation, on rencontre des caractérisations différentes de la notion, attachées nécessairement à des contextes de mise en visibilité différents. Pour les décideurs politiques, il s’agit de prendre acte d’un usage majoritaire effectif : "il faut reconnaître qu’en sciences sociales il n’y a pas d’usage unitaire du concept de compétence, pas de définition commune et pas de théorie unifiée". "En fait, la signification du terme varie largement selon la perspective scientifique et selon le point de vue idéologique et selon les objectifs sous-jacents à son usage. Et cela, aussi bien sur le plan scientifique que sur le plan politique." "c’est pourquoi DESECO adopte une position pragmatique, limitant l’usage du concept à des critères plus ou moins explicites, plausibles et scientifiquement acceptables" (27).

Tout ça pour quoi ? Le rôle du test n’est pas d’évaluer une chose qui existe, mais de donner un semblant de consistance à quelque chose qui n’existe pas. Il n’est pas de vérifier des compétences mais de les faire exister. Les objections soulevées par Goody, que la compétence ne saurait constituer une réalité indépendante, ni générique, ni transférable, s’attaquent à ce qui est justement à ce qui est le coeur de PISA : le modèle qui opère un recadrage des activités sous contrôle capitaliste pour les définir comme simples ressources mobilisables dans différents contextes productifs. Ce qui implique une redéfinition de ce qu’il s’agit de capturer : la compétence doit être une capacité interne à l’individu, sa réalisation doit renvoyer à une causalité interne. Dans le test d’évaluation, à partir d’un résultat, c’est-à-dire d’une réponse relative à la spécificité d’une interrogation, supposition est faite d’une cause interne qui serait seule à expliquer ce résultat. Ce rabattement sur une causalité interne, une capacité qui ne devrait qu’à elle-même, a pour but de penser son instrumentalisation, de la mettre en relation avec toutes sortes de milieux auxquels elle s’appliquerait indifféremment. Quelles que soient les données qu’on lui fournit, elle va opérer le même type de traitement. Elle doit être une réalité générique, relativement semblable chez tous ceux qui la manifestent, sorte de structure commune standard, ce qui permet d’effacer la question de la variété des apprentissages, et ne plus prendre en considération que la variation au sein de procédures qui ne diffèrent que statistiquement. Les outils de la catastrophe Peut-être faut-il ranger PISA au nombre de tous ces instruments de la guerre économique que le capitalisme livre sur le champ de bataille de la planète ? La mesure et le classement prolifèrent dans des dispositifs d’évaluation, de la Banque Mondiale, l’ONU, le forum de Davos, les agences de notation, avec les mêmes critères fiables qui félicitent la "bonne santé économique" de pays qui quelques temps plus tard subissent le contre-coup catastrophique des "bons traitements" imposés par ces dispositifs d’évaluation, comme en Irlande, en Islande. Comme dans toute évaluation, le rôle du test n’est pas de mesurer mais de normaliser. Le but n’est pas de vérifier des acquis, PISA se moque totalement de ce dont les jeunes sont capables, dans tel milieu, avec tels moyens, telles potentialités. PISA n’a pas pour but de mesurer mais d’inciter, d’envahir, de conformer, de monopoliser, de modéliser. Son rôle prescriptif très fort concerne la reformulation des programmes scolaires sur une logique de compétence, vise à favoriser une harmonisation (c’est le nom que l’on a donné en Suisse à l’uniformisation des cursus : Harmos), une standardisation par le référencement en listes de compétences qui prolifèrent dans des outils qui envahissent les cursus de la maternelle à l’université. PISA est un instrument d’objectivation de l’homogénéisation que la comparaison cherche à imposer. PISA cherche à produire quelque chose qui n’existe pas ! L’équivalence. Le sacro-saint moteur de la dynamique capitaliste. L’idée même d’instaurer une commensurabilité sur la multiplicité hétérogène des différences culturelles, sociales, éthiques, éducatives est une contradiction insoluble, mais la maitrise, le contrôle, la capture sont à ce prix. Si PISA n’a aucune "valeur scientifique", c’est bien parce qu’il s’agit d’un dispositif de pouvoir, non pas réglé sur une logique épistémique de vérité mais sur une contrainte normative de productivité ; non pas d’efficacité mais de performativité, à tout prix, quelles qu’en soient les conséquences.

Notes : 1. .http://www.brunosuchaut.fr/IMG/pdf/Pisa_notes.pdf 2.« l’évaluation est un thermomètre » , Introduction du Congrès International « Les sciences cognitives dans la salle de classe ». 3.http://www.iiep.unesco.org/fr/news/actualites-fiche.html?tx_ttnews[tt_news]=839 4. Pierre-Louis Gauthier, « L’éducation en Corée du Sud, laboratoire du néo-libéralisme », Revue internationale d’éducation de Sèvres , septembre 2002. 5. Sur les dégâts de cette omniprésente "compétition", voir : http://www.youtube.com/watch?v=Kn4HRDBSuTw 6.http://www.courrierinternational.com/article/2012/04/04/la-reussite-scolaire-a-tout-prix-non-merci 7. voir par ex. Martine Bulard : Samsung ou l’empire de la peur, Monde Diplomatique, juillet 2013. 8. Entretien sur le site des "cahiers pédagogiques", http://www.cahiers-pedagogiques.com/L-elitisme-republicain-L-ecole-francaise-a-l-epreuve-des-comparaisons-internationales 9. "Les Items libérés de mathématique", OCDE, DEPP. 10.Daniel Bain le faisait déjà remarquer "les comparaisons internationales restent proches d’un modèle behavioriste". 11. Daniel Bain : Pisa et la lecture : un point de vue de didacticien . Analyse critique de la validité didactique d’une enquête internationale sur la compréhension de l’écrit , Revue suisse des sciences de l’éducation, 25 (1) 2003 , p.62-63. Tout son article mérite une lecture attentive car il décortique avec grande pertinence les paradoxes, fausses pistes, dangers, du test PISA. Comme il le dit avec humour : "On peut donc souhaiter qu’avant d’administrer des remèdes de cheval ou à large bande au système de formation, qu’avant d’essayer d’importer des recettes de Finlande ou d’ailleurs, on fasse dans nos écoles une étude plus clinique de la situation, de l’enseignement-apprentissage initial et continué de la lecture. Pour cela, il sera notamment nécessaire de solliciter la collaboration active des enseignants et des formateurs, d’analyser avec eux ce qui se fait – ou ne se fait pas – dans les classes en matière de lecture. " 12. voir les travaux de l’AFL. 13."Performances en littéracie, modes de faire et univers mobilisés par les élèves. analyses secondaires de l’enquête PISA 2000 ",Élisabeth Bautier, Jacques Crinon, Patrick Rayou, Jean-Yves Rochex . Revue française de pédagogie, n° 157, octobre-novembre-décembre 2006 . 14. Cadre d’évaluation et d’analyse du cycle PISA 2012 , 15. http://nces.ed.gov/surveys/pisa/pdf/items2_science.pdf 16. "La culture scientifique, pourquoi faire ?" , Jean-Marc Lévy-Leblond , Professeur émérite à l’Université de Nice-Sophia Antipolis , intervention au colloque du 24/11/2011 à Lille1 " « Peut-on parler de culture scientifique ? » 17. (http://www.crdp-montpellier.fr/espace_sciences/seminairesciences.pdf) 18. le tribunal correctionnel de Termonde a condamné la chercheuse Barbara Van Dyck à six mois de prison ferme et à une amende de 550 euros. Motif : "destructions, coups et blessures et formation de bande", tout ça pour 20 patates déterrées ! la controverse disparaissant du terrain scientifique réapparait sur le terrain politique, sauf que la sanction récompense l’objection ! Mais enfin, Jean Valjean écopa du bagne pour un pain, Barbara, six mois pour des patates, la justice se ramollit ! 19. « Gènes, pouvoirs et profits : Recherche publique et régimes de production des savoirs de Mendel aux OGM », Christophe Bonneuil et Frédéric Thomas, éd. QUAE / FPH, octobre 2009, 620 p. 20. Recommandation de l’assemblée parlementaire du Conseil de l’Europe : "la participation des enfants aux décisions qui les concernent". http://assembly.coe.int/Mainf.asp?link=/Documents/AdoptedText/ta09/FREC1864.htm 21.voir le site "achieve.org" 22.http://www.deseco.admin.ch/bfs/deseco/en/index/04.parsys.21201.downloadList.54559.DownloadFile.tmp/1999.backgroundnote.pdf 23. Monique Canto-Sperber, Jean-Pierre Dupuy , Competencies for the Good Life and the Good Society, A Philosophical Perspective, GRISE, Ecole Polytechnique, Paris 24. Definition and Selection of Competencies, DeSeCo symposium, Neufchâtel, october 13-15 1999, Background Notes, p.2 25.INES GENERAL ASSEMBLY 2000 , A Contribution of the OECD Program Definition and Selection of Competencies : Theoretical and Conceptual Foundations , p 5. 26. idem, p.5 27. INES, Assemblée générale, 2000, p.8


Certaines critiques visent à relativiser la primauté du système finlandais.

En France, l'APMEP (association des professeurs de mathématiques de l'enseignement public), notant les meilleures performances des élèves finlandais aux tests de mathématiques, souligne la différence entre l'enseignement français, soucieux de développer l'« accès à l'abstraction, à la symbolisation, à la rigueur », et l'enseignement des mathématiques appliquées au réel et aux situations concrètes tel qu'il se pratique dans d'autres pays : « rien ne prouve que l'accent mis sur les mathématiques du « réel » soit corrélatif d'avancement dans le développement de compétences spécifiques dans le domaine mathématique[17] ». L'APMEP voit également un risque possible induit par les enquêtes Pisa : « Déjà, dans plusieurs pays, on observe une incitation des responsables des systèmes éducatifs à modifier l'enseignement, la formation des enseignants et même les programmes, pour s'adapter aux conceptions et aux tests de Pisa[17]. »

Certains ont avancé que la langue finnoise joue un rôle important dans le succès de la Finlande[18].

Pays participantsModifier

Notes et référencesModifier

  1. a b et c p. 4[PDF].
  2. p. 6[PDF].
  3. Consulter de statistiques
  4. a et b Apprendre aujourd'hui, réussir demain. Premiers résultats de Pisa 2003.
  5. Ces résultats ne tiennent pas compte de la réalité : cours supplémentaires" avant et après l'école (3 heures, environ), les cours dispensés par les différentes instituts après les cours officieux (certains ne ferment pas de la nuit, surtout à Séoul), et les cours durant les vacances d'hiver et d'été. Ce phénomène est tel que le "syndrome de "l'oie sauvage" (["기러기 아빠"[1]) est apparu : le père reste en Corée et les enfants, avec leur mère, vont à l'étranger pour étudier dans des conditions moins stressantes et moins sur-chargées.
  6. selon l'article anglais Pisa.
  7. a et b « La France paralysée devant ses mauvais résultats scolaires », Le Monde du 4 décembre 2007, Catherine Rollot et Marie de Vergès.
  8. 9eacer.edu.au/multidim.php Site officiel PISA. Voir aussi 6epdf le résumé[PDF].
  9. http://www.oecd.org/pisa/pisa-2015-results-in-focus-FR.pdf
  10. « Sind Deutsche Schüler doof ? », Der Spiegel, décembre 2001, ou « Dumm gelaufen: Die neue deutsche Bildungskatastrophe », der Spiegel, 13 mai 2002.
  11. Édition du 10 décembre 2001.
  12. http://www.slate.fr/monde/80825/chine-pisa-triche
  13. (en) Timothy A. Brooks, Piecing Together the Puzzle – A Lifetime of Growth in Understanding Germany, p. 9 lire en ligne[PDF].
  14. Service de la recherche en éducation, Genève.
  15. « La France, toujours championne des inégalités scolaires » (consulté le 24 août 2015)
  16. Investissement d'avenir : le choix de l'excellence, RUE 2011 avec la participation de René Ricol.
  17. a et b Antoine Bodin, 2005.
  18. Pourquoi le finnois donne-t-il de meilleurs résultats au Pisa ?

Voir égalementModifier

Articles connexesModifier

Liens externesModifier

Sites officielsModifier

DébatModifier

  • (de) (en) Joachim Wuttke: Critical bibliography
  • National IQ means transformed from Pisa Scores
  • Bain, D (2003) Pisa et la lecture : un point de vue de didacticien. Revue suisse des sciences de l'éducation 25 (1) 59–78. sommaire
  • Direction générale de l'Enseignement scolaire Ministère de l'Éducation nationale (2003) Évaluation des connaissances et des compétences des élèves de 15 ans : questions et hypothèses formulées à partir de l'étude de l'OCDE. Rencontres de la DESCO, 31 mai 2002. en ligne
  • (de) (en) Stefan T. Hopmann, Gertrude Brinek, Martin Retzl (Hrsg.): Pisa zufolge Pisa. Pisa According to Pisa. LIT-Verlag, Wien (2007). (ISBN 978-3-8258-0946-1) Recueil de critiques
  • (de) Jahnke, Thomas et Meyerhöfer, Wolfram (Hrsg.): Pisa & Co – Kritik eines Programms. Franzbecker, Hildesheim, 2e  éd., 2007, (ISBN 978-3-88120-464-4). Recueil de critiques
  • Rocher, Thierry (2003) La méthodologie des évaluations internationales de compétences. Psychologie et Psychométrie 24 (2–3) [Numéro spécial : Mesure et Éducation], p. 117–146.
  • Terrail, Jean-Pierre (2009), « Pisa. Commentaires et enseignements d'une comparaison internationale », sur le site du Groupe de Recherches sur la Démocratisation Scolaire, 21 mai 2009
  • Bulle, Nathalie (2010), « L'imaginaire réformateur - Pisa et les politiques de l'école », sur le site de la revue numérique skhole.fr, 18 janvier 2010