Un regard praxéologique sur les « situations » fondamentales
Vous aurez
remarqué les guillemets autour du mot situation dans mon titre. C’est une
manière de rappeler que, pour moi comme pour Bosch et
Chevallard (1999), les
situations fondamentales sont
des modèles des savoirs
mathématiques : il s’agit avant tout de caractériser un savoir par les
questions ou les projets auxquels il répond. Et c’est pourquoi je préfère
parler de caractère fondamental d’une question, d’un problème ou d’une tâche
lesquels peuvent être exploités ou non dans une situation didactique à
caractère éventuellement adidactique.
C’est cette position qui m’engage à accepter
ce fameux postulat d’existence d’une situation fondamentale pour tout savoir
mathématique, postulat qui ne fait pas l’unanimité des chercheurs (Legrand,
1997). Et ceci conformément à l’épistémologie socio-constructiviste selon
laquelle les savoirs et théories sont d’office des réponses à des projets
humains. Nonobostant bien sûr la relativité institutionnelle propre à la TAD
qui nous montre que les « raisons d’être » des savoirs peuvent
fluctuer d’une institution à l’autre ou de leur construction originelle dans
l’histoire des mathématiques à leur usage contemporain.
Mais, dans cette optique, les projets
à l’origine des savoirs enseignés se doivent d’être rendus intelligibles pour
les élèves et ce, le plus tôt possible dans l’apprentissage concerné. Il me
semble alors qu’un regard praxéologique en facilite une formulation adaptée,
contrairement à un regard plus conceptuel. C’est ce que je développe dans la
section suivante à propos du concept de limite.
. L’exemple éclairant du concept de limite
Il n’est pas
facile de se mettre d’accord sur ce qu’est une situation fondamentale du
concept de limite. Ce dernier fait partie du même champ conceptuel que le
concept de fonction et, comme ce dernier, joue un rôle unificateur dans
l’analyse mathématique, ainsi que l’exprime Artigue (1998) à son propos :
« [...] ce qui est en jeu, épistémologiquement, à travers la définition et
la formalisation, c’est la réponse à des besoins d’unification, de
généralisation, de structuration du savoir dont la dévolution est beaucoup plus
délicate ». Une autre raison, invoquée par Bloch (2000), tient à la
« non-nécessité du système de validation de l’analyse classique.
Cependant, cette chercheuse mise sur la situation du Flocon de Von Koch dont il
s’agit de déterminer le périmètre et l’aire en supposant préalablement qu’une
situation fondamentale du concept de limite doit faire intervenir le système de
validation propre à l’analyse et en se réfèrant à LA situation fondamentale
(c’est moi qui souligne le singulier) du concept de limite telle que formulée
par C. et R. Berthelot, en référence à la métaphore de la théorie des
jeux :
· « il faut
maîtriser la fonction de base f ;
· il faut être
capable de faire une hypothèse sur l’existence et la valeur d’une limite L en x0 :
· il faut valider
ou infirmer cette hypothèse en construisant […] deux applications : une
fonction H,
définie de l’ensemble des voisinages de L dans l’ensemble des voisinages de
l’un des antécédents de x0, dont l’image par f est incluse dans un
voisinage de L ; une fonction G,
définie dans l’ensemble des voisinages de x0, vers l’ensemble des
parties de F ».
Sans devoir entrer dans les détails
d’une telle formulation d’une situation fondamentale associée au concept de
limite et au risque de la sortir de son contexte, il me semble évident qu’elle
porte l’empreinte d’un regard essentiellement conceptuel. Je lui préférerai une
approche praxéologique, considérant que la modélisation de l’activité
mathématique doit rendre visibles, conformément à une épistémologie socio-constructiviste,
les projets humains à l’origine des savoirs visés, quitte à prendre quelque
distance vis-à-vis de ces projets lorsqu’il s’agira de concevoir des
ingénieries didactiques. Dans cette perspective et en me basant sur mes travaux
de thèse d’abord et sur ceux du groupe AHA ensuite, je défendrais l’idée qu’il
convient de formuler ce qu’est une situation fondamentale du concept de limite
à deux niveaux praxéologiques au moins, ceux-ci se différenciant tant par le
bloc « logos » que par le bloc « praxis » pour que l’un
soit adapté à l’autre.
A un premier
niveau, la limite se présente surtout comme outil de résolution de problèmes
(ou de tâches) liés entre autres à la détermination de grandeurs ou d’objets
géométriques : vitesses variables, aires et volumes, calcul d’asymptotes
et de tangentes, optimisation de grandeurs. Les techniques elles-mêmes :
le calcul de limites, remplacé ensuite par celui des dérivées et des primitives
mobilise une forme embryonnaire du concept de limite : c’est le résultat
obtenu en supprimant des termes dans une expression algébrique, sans jeu de
compensations. Et les grandeurs physiques ou géométriques impliquées ne sont
pas définies a priori mais le seront, au bout du processus, par les techniques
mises en œuvre pour réaliser les tâches. Le caractère fondamental est ici
essentiellement pluriel, l’unité se créant à partir de formes langagières
communes à tous les phénomènes étudiés : « f(x) dépasse n’importe
quel nombre » ou « devient aussi proche que l’on veut de tel nombre»,
« pourvu que x soit suffisamment grand » ou « suffisamment
proche de tel nombre ».
S’enchevêtrent, à ce niveau, deux
praxéologies. La praxéologie « grandeurs » décrite plus haut et une
praxéologie que je nommerais « modélisation fonctionnelle » à laquelle
j’ai déjà fait allusion à la section 1.2. dont la tâche majeure consiste à
catégoriser des phénomènes divers, mathématiques ou non, à l’aide de modèles
fonctionnels paramétrés, ce qui suppose bien sûr de savoir relier allures
graphiques et, entre autres, comportements asymptotiques précisés par des
calculs de limites. Les situations fondamentales relatives au concept de limite
peuvent alors être liées aux comportements asymptotiques de certains de ces
modèles fonctionnels.
A un second
niveau praxéologique, le concept de limite est construit comme un outil de
preuve permettant un système de validation logiquement cohérent et une
organisation déductive globale de l’analyse. Mais on gère là des théorèmes
généraux, tels que ceux relatifs à l’algèbre des limites et non plus un calcul
de grandeur particulier. Ce projet correspond à la constitution de l’analyse
proprement dite, comme discipline autonome, épurée donc de toute intuition
géométrique ou cinématique. C’est la praxéologie « analyse moderne »
dont les historiens s’accordent à attribuer la paternité à Cauchy parce qu’il a
construit le concept de limite, ou du moins une version discursive, comme outil
permettant un nouveau mode de validation, en lui donnant donc le rôle de
« proof-generated concept » au sens de Lakatos (1984). A ce niveau,
une situation fondamentale peut alors avoir pour fonction de changer le rapport
personnel des élèves aux « objets » construits lors du premier
niveau, dépassant ainsi l’obstacle empiriste dont j’ai parlé plus haut, pour concevoir
les définitions, non comme des descriptions mais comme des référents qui
donnent prise au raisonnement déductif. C’est là le travail de thèse en cours
de P. Job. Je parlerai alors de situation fondamentale au sens large, me
référant à l’exemple de la situation des médiatrices chez Brousseau. Celle-ci
m’apparaît en effet paradigmatique du point de vue traité ici, en ce sens que
son enjeu majeur serait l’évolution du rapport des élèves à de mêmes objets
qui, ayant le statut de simples dessins dans l’institution
« collège », deviennent de véritables figures géométriques dont les
propriétés donnent prise au raisonnement déductif dans l’institution
« lycée ».
La perspective décrite ici rend
évidemment périlleuse la formulation en termes de jeux d’une situation
fondamentale. Et surtout, elle fait apparaître que beaucoup de chercheurs se
situent malaisément entre deux niveaux praxéologiques - tels que je les
formalise à la section suivante - au moment de formuler la question d’une
situation fondamentale du concept de limite qui est surtout envisagée, je
pense, au second niveau essentiellement. C’est aussi souvent le cas pour le
concept de fonction, ainsi que suggéré plus haut.
Deux niveaux praxéologiques : « modélisation » et
« déduction »
J’en arrive à
un aspect central dans ce cours et qui me paraît devoir structurer toute
réflexion sur les ingénieries didactiques. Il s’agit de distinguer deux types
de praxéologies, ce mot étant à comprendre à la fois en tant que processus et
comme résultat de ce processus : d’une part, je cherche à traduire deux
facettes de l’activité mathématique et, d’autre part, je décris les différents
types d’organisations mathématiques auxquels conduisent respectivement ces deux
facettes lesquelles peuvent être situées dans des institutions
différentes : le premier type de praxéologie étant plus propre aux
institutions d’enseignement, le second typique de l’activité mathématique
professionnelle telle qu’elle se donne à voir dans les articles de recherche.
Le premier type de praxéologies
concerne la modélisation mathématique de systèmes intra ou extra-mathématiques
constitués d’objets que l’on peut considérer comme des objets préconstruits au
sens de Chevallard (1991), c’est-à-dire d’objets dont l’existence résulte, aux
yeux de personnes assujetties à une même institution, d’un « croisement
d’énoncés du langage et de situations surdéterminées ». Un tel objet
« n’est pas construit mais présenté,
par une deixis qui est un appel à la complicité dans la
reconnaissance ontologique ; l’existence de l’objet apparaît alors comme évidente, non douteuse, plus justement non susceptible de doute ; l’objet
est installé, par la monstration qui le désigne dans son existence entêtée,
dans un état qui échappe au questionnement, parce que tout questionnement le
suppose : il est un point d’appui inattaquable de la réflexion »
(Ib.). Dans ma représentation de l’apprentissage, j’accorde un rôle indéniable
à de tels objets préconstruits, lesquels peuvent constituer des objets mentaux
au sens de Freudenthal (1973). J’ai retravaillé personnellement ceux-ci
(Schneider, 1988) comme « substituts de concepts » auxquels sont
associées des convictions, des « images » qui peuvent soit faciliter,
soit entraver l’apprentissage des concepts mathématiques correspondants,
rejoignant ainsi un thème cher à Wittgenstein sur l’impossibilité d’expliciter
complètement les règles. De fait, et mes travaux en analyse l’ont largement
montré, il ne faut pas négliger une phase d’apprentissage au cours de laquelle,
les objets préconstruits, existant d’abord par le truchement d’une désignation,
se mettent à exister par le truchement d’une définition, celle-ci devant donner
prise ultérieurement à une organisation véritablement déductive. Et ce serait
là le rôle des praxéologies « modélisation ». Précisons les
ingrédients de telles praxéologies au moyen de quelques exemples. Comme on l’a
vu plus haut, en analyse, il s’agira de déterminer des objets préconstruits
tels que des aires, des volumes, des vitesses variables, des tangentes en un
point d’une courbe. En géométrie analytique à 3 dimensions, ces objets seront
des points, des droites, des plans qui sont, à un certain stade du cursus, des
objets tantôt préconstruits, tantôt définis par des axiomes au sein de la
géométrie synthétique déjà constituée comme théorie déductive. Les techniques
sont les modes de détermination ou de modélisation « standard » de
tels objets : dans le cas de l’analyse, le calcul des limites dans une
phase embryonnaire décrite plus haut, ou encore, le calcul plus performant des
dérivées et des primitives. En ce qui concerne la géométrie analytique, je
pense aux caractérisations paramétriques, cartésiennes et vectorielles des
droites et des plans. Comme ces objets n’existent pas encore comme objets d’une
théorie et que le but est précisément de les constituer comme tels, le discours
qui justifie ces techniques et les rend intelligibles eu égard à la tâche visée
ne peut être théorique, au sens où l’entendraient des mathématiciens. Et, c’est
ce qui rend nécessaire, me semble-t-il, l’existence d’un niveau de discours que
Chevallard appelle discours technologique. Dans nos exemples, il s’agira de
justifier qu’un calcul de limite fournit bien la valeur exacte d’une aire
curviligne ou d’une vitesse instantanée, contrairement à l’intuition
« commune » qui se constitue en obstacle épistémologique ainsi que je
l’ai montré plus haut. Il s’agira aussi de « justifier » telle ou
telle caractéristique algébrique de la droite ou du plan dans l’espace à partir
de caractéristiques proprement géométriques, comme, par exemple, le fait qu’un
plan est déterminé par deux droites sécantes, et/ou de savoirs propres à la
géométrie analytique du plan. Au terme de telles praxéologies, les
préconstruits se constituent en concepts mathématiques par le truchement d’une
définition pour se prêter à une théorie déductive : les aires sont
définies comme intégrales définies, les vitesses comme des dérivées et les
plans comme lieu de points dont les coordonnées vérifient une équation
cartésienne ou un système particulier d’équations paramétriques.
Entrent en jeu alors les praxéologies
de type « déduction » dont les tâches diffèrent considérablement de
celles des praxéologies « modélisation ». Elles sont en effet propres
à la constitution d’une organisation déductive. Il s’agit de reformuler
certains concepts pour en faire des proof-generated concepts au sens de
Lakatos, l’exemple typique étant celui du concept de limite, formulé en termes
de quantificateurs et d’inégalités et inspirant un modèle de preuve faisant
officiellement abstraction de toute considération géométrique ou cinématique
(ce qui n’empêche pas la pensée intime de recourir à des formes diverses
d’intuitions). Il peut s’agir aussi de déduire tel résultat théorique d’axiomes
et/ou de théorèmes antérieurement démontrés, d’établir un système d’axiomes
« simple » et non redondant, de conjecturer un ordre d’agencement des
théorèmes, etc. Les techniques sont à la fois des règles d’inférence du calcul
propositionnel et de celui des prédicats telles que le modus ponens et le modus
tollens mais aussi des techniques de réfutation comme celle qui consiste à
chercher le « lemme coupable », au sens de Lakatos, dans une
inférence invalide. Quant à la théorie, il s’agit en quelque sorte d’une
théorie des théories ou ce que Popper appelle « la logique de la
connaissance scientifique » qui soulève des questions épistémologiques
concernant la nature des concepts scientifiques, la falsifiabilité des
théories, le problème méthodologique de la simplicité, la hiérarchie des
disciplines scientifiques, le refus du mélange des genres dans l’établissement
de la causalité, … On peut aussi y trouver la théorie des preuves et
réfutations de Lakatos.
Ces
deux types de praxéologies
conduisent à des développements mathématiques presque étrangers les uns aux
autres. Si une praxéologie de type « déduction » peut conduire à une
théorie mathématique standardisée, plus ou moins globale, il n’en va pas de
même des praxéologies « modélisation » qui débouchent sur des
argumentations non assimilables à des théories canoniques plus ou moins
locales. En effet, s’il peut y avoir interpénétration entre les deux, c’est au
niveau des tâches ou des techniques mais pas à celui des discours qui valident
les secondes en regard des premières. En général, les tâches des praxéologies
« modélisation » deviennent des applications des théories résultant
des praxéologies « déduction », ce que Chevallard nomme « une
déconnexion franche du cœur théorico-technologique de l’œuvre d’avec ses
applications ». Et ce sont les techniques des premières praxéologies qui
définissent les objets premiers de ces mêmes théories. Par contre, les
praxéologies « modélisation » autorisent des modes de validation plus
pragmatiques qui seront récusés dans les secondes, tel celui qui consiste à
tester la pertinence d’une technique nouvelle pour résoudre un problème dont la
solution est déjà connue par ailleurs. C’est bien une telle démarche que fait
Fermat (trad. 1896) lorsqu’il exploite sa méthode d’adégalité, dans laquelle on
peut voir une forme embryonnaire du calcul des dérivées, pour retrouver des
résultats connus depuis l’Antiquité, comme la détermination de la tangente en
un point quelconque de la parabole ou l’optimisation de l’aire de rectangles
iso-périmétriques. Dans leur TD associé à ce cours, Krysinska et Rouy ont
illustré un tel mode de « validation » pragmatique dans une
ingénierie portant sur l’introduction des dérivées. Elles ont montré également
que, à un tel niveau praxéologique, un discours technologique peut être « hybride »,
c’est-à-dire à cheval sur plusieurs cadres, au sens de Douady. Ainsi, on peut
argumenter la forme des ostensifs cartésiens et paramétriques qui modélisent
les droites et plans par une argumentation qui, globalement, s’appuie à la fois
sur des résultats de géométrie analytique 2D et sur d’autres relevant de la
géométrie synthétique 3D.
Un premier niveau praxéologique négligé à tort
Habituellement, le travail propre aux praxéologies
« modélisation » ne se donne guère à voir. Même si, préalablement à
toute démarche qui s’inscrit dans une perspective de praxéologie
« déduction », un mathématicien se sera souvent convaincu de la
pertinence des modèles en recourant, en toute intimité, à des intuitions liées
à des objets préconstruits, ainsi qu’à des procédures de validation
pragmatique. Personnellement, je ne vois pas pour quelle raison on refuserait
aux élèves un tel travail en amont d’une organisation déductive, travail au
cours duquel des objets préconstruits que la pensée essaie de décrire deviennent
peu à peu des objets existant par le truchement d’une définition pour finir
comme éléments d’un ensemble structuré. Surtout lorsque les élèves questionnent
ces modèles en ce qu’ils heurtent leur expérience première fût-elle d’ordre
plus empirique ou de nature plus contractuelle, comme c’est le cas pour les
exemples traités dans ce cours. Je plaiderais donc pour l’existence, au niveau
de l’enseignement secondaire, de praxéologies « modélisation »
construites à la lumière des obstacles d’apprentissage identifiés et dont on a
des raisons de penser qu’ils sont résistants à la variabilité
transpositionnelle.
Or, comme le suggèrent les travaux de Rouy (2007), le niveau
praxéologique « modélisation » ne semble guère identifié et a
fortiori non ménagé par les professeurs du secondaire (ni d’ailleurs par les
professeurs d’université), ce qui priverait les élèves du secondaire d’un
niveau de rationalité qui leur serait adapté les poussant ainsi à privilégier
une approche des mathématiques exclusivement procédurale. Evidemment, les
praxéologies « modélisation » ont un prix : l’acceptation d’un
mode de validation pragmatique, de même que celle d’un discours technologique
qui ne s’apparente guère à une théorie standardisée. Et il n’est pas évident ni
d’accepter un tel discours, ni de lui octroyer un statut « d’objet
institutionnalisable ». Pour évaluer les praxéologies mathématiques,
Chevallard (1999) ne pointe-t-il pas le critère suivant : « Les
formes de justification utilisées sont-elles proches des formes canoniques en
mathématiques ? » J’avais moi-même adopté un tel critère pour
juger assez sévèrement (Schneider, 2001) une approche dite heuristique de
l’analyse à l’écriture de laquelle j’avais participé. Mais, aujourd’hui, je
questionne les malentendus possibles qu’un tel critère peut susciter en
occultant certaines possibilités d’appréhension rationnelle des mathématiques
qu’il me plaît de voir dans une expression souvent citée par Rouche : « Ne
théoriser que si nécessaire ».
En lieu et place de praxéologies
« modélisation », on observe souvent un discours du professeur qui
emprunte à des théories standardisées certains éléments emblématiques tout en
négligeant d’autres aspects en raison de leur difficulté à les enseigner. C’est
le cas dans la transposition standard de la géométrie analytique 3D telle que
pratiquée dans l’enseignement secondaire en Belgique. Pour les mathématiciens
d’aujourd’hui, cette discipline est subordonnée à l’algèbre linéaire. Les
droites et plans y sont définis d’emblée comme variétés linéaires ou affines.
Les vecteurs sont des éléments d’un espace vectoriel et des vecteurs multiples
sont définis à partir de la notion de partie liée. Dans cette théorie
proprement mathématique correspondant à un projet praxéologique « déductif »,
un théorème important va gérer le passage entre les écritures vectorielles,
d’une part, et leur traduction en termes de coordonnées, d’autre part :
« Tout espace vectoriel E de
dimension finie sur un champ K est
isomorphe à l’espace Kn
des coordonnées (par rapport à une base donnée de E, n un naturel) ».
Mais si la transposition en vigueur dans le secondaire s’inspire de cette
organisation mathématique, elle est fortement « édulcorée ». Ainsi,
comme déjà annoncé plus haut, le théorème qui vient d’être mentionné n’y est
pas présent ce qui a pour effet de rabaisser au statut de « recette »
le passage d’une écriture vectorielle de deux vecteurs multiples aux égalités
correspondantes sur les composantes : « on barre les flèches et on déploie
les égalités sur les composantes » comme le présente un élève. Il manque
donc un maillon important de l’édifice théorique, celui-là même qui permet de
traduire des propriétés de vecteurs en termes de techniques propres à la
géométrie analytique. La transposition didactique habituelle au niveau
secondaire en Belgique est donc une praxéologie « à trous » au sens
où l’entend Rouy (2007) : cette transposition imite le discours théorique dont
elle emprunte des éléments emblématiques, en l’occurrence des définitions du
plan et de la droite en termes vectoriels, mais n’en prend que les aspects
jugés accessibles pour les élèves concernés en gommant tous les autres. Ce qui
fait qu’on est, dans ce cas, ni vraiment dans une praxéologie de type
« modélisation », ni dans une praxéologie de type « déduction ».
إرسال تعليق