Un regard praxéologique sur les « situations » fondamentales
Vous aurez remarqué les guillemets autour du mot situation dans mon titre. C’est une manière de rappeler que, pour moi comme pour Bosch et Chevallard (1999), les situations fondamentales sont des modèles des savoirs mathématiques : il s’agit avant tout de caractériser un savoir par les questions ou les projets auxquels il répond. Et c’est pourquoi je préfère parler de caractère fondamental d’une question, d’un problème ou d’une tâche lesquels peuvent être exploités ou non dans une situation didactique à caractère éventuellement adidactique.
C’est cette position qui m’engage à accepter ce fameux postulat d’existence d’une situation fondamentale pour tout savoir mathématique, postulat qui ne fait pas l’unanimité des chercheurs (Legrand, 1997). Et ceci conformément à l’épistémologie socio-constructiviste selon laquelle les savoirs et théories sont d’office des réponses à des projets humains. Nonobostant bien sûr la relativité institutionnelle propre à la TAD qui nous montre que les « raisons d’être » des savoirs peuvent fluctuer d’une institution à l’autre ou de leur construction originelle dans l’histoire des mathématiques à leur usage contemporain.
Mais, dans cette optique, les projets à l’origine des savoirs enseignés se doivent d’être rendus intelligibles pour les élèves et ce, le plus tôt possible dans l’apprentissage concerné. Il me semble alors qu’un regard praxéologique en facilite une formulation adaptée, contrairement à un regard plus conceptuel. C’est ce que je développe dans la section suivante à propos du concept de limite.

. L’exemple éclairant du concept de limite

Il n’est pas facile de se mettre d’accord sur ce qu’est une situation fondamentale du concept de limite. Ce dernier fait partie du même champ conceptuel que le concept de fonction et, comme ce dernier, joue un rôle unificateur dans l’analyse mathématique, ainsi que l’exprime Artigue (1998) à son propos : « [...] ce qui est en jeu, épistémologiquement, à travers la définition et la formalisation, c’est la réponse à des besoins d’unification, de généralisation, de structuration du savoir dont la dévolution est beaucoup plus délicate ». Une autre raison, invoquée par Bloch (2000), tient à la « non-nécessité du système de validation de l’analyse classique. Cependant, cette chercheuse mise sur la situation du Flocon de Von Koch dont il s’agit de déterminer le périmètre et l’aire en supposant préalablement qu’une situation fondamentale du concept de limite doit faire intervenir le système de validation propre à l’analyse et en se réfèrant à LA situation fondamentale (c’est moi qui souligne le singulier) du concept de limite telle que formulée par C. et R. Berthelot, en référence à la métaphore de la théorie des jeux :
·       « il faut maîtriser la fonction de base f ;
·       il faut être capable de faire une hypothèse sur l’existence et la valeur d’une limite L en x0 :
·       il faut valider ou infirmer cette hypothèse en construisant […] deux applications : une fonction H, définie de l’ensemble des voisinages de L dans l’ensemble des voisinages de l’un des antécédents de x0, dont l’image par f est incluse dans un voisinage de L ; une fonction G, définie dans l’ensemble des voisinages de x0, vers l’ensemble des parties de F ».
Sans devoir entrer dans les détails d’une telle formulation d’une situation fondamentale associée au concept de limite et au risque de la sortir de son contexte, il me semble évident qu’elle porte l’empreinte d’un regard essentiellement conceptuel. Je lui préférerai une approche praxéologique, considérant que la modélisation de l’activité mathématique doit rendre visibles, conformément à une épistémologie socio-constructiviste, les projets humains à l’origine des savoirs visés, quitte à prendre quelque distance vis-à-vis de ces projets lorsqu’il s’agira de concevoir des ingénieries didactiques. Dans cette perspective et en me basant sur mes travaux de thèse d’abord et sur ceux du groupe AHA ensuite, je défendrais l’idée qu’il convient de formuler ce qu’est une situation fondamentale du concept de limite à deux niveaux praxéologiques au moins, ceux-ci se différenciant tant par le bloc « logos » que par le bloc « praxis » pour que l’un soit adapté à l’autre.
A un premier niveau, la limite se présente surtout comme outil de résolution de problèmes (ou de tâches) liés entre autres à la détermination de grandeurs ou d’objets géométriques : vitesses variables, aires et volumes, calcul d’asymptotes et de tangentes, optimisation de grandeurs. Les techniques elles-mêmes : le calcul de limites, remplacé ensuite par celui des dérivées et des primitives mobilise une forme embryonnaire du concept de limite : c’est le résultat obtenu en supprimant des termes dans une expression algébrique, sans jeu de compensations. Et les grandeurs physiques ou géométriques impliquées ne sont pas définies a priori mais le seront, au bout du processus, par les techniques mises en œuvre pour réaliser les tâches. Le caractère fondamental est ici essentiellement pluriel, l’unité se créant à partir de formes langagières communes à tous les phénomènes étudiés : « f(x) dépasse n’importe quel nombre » ou « devient aussi proche que l’on veut de tel nombre», « pourvu que x soit suffisamment grand » ou « suffisamment proche de tel nombre ».
S’enchevêtrent, à ce niveau, deux praxéologies. La praxéologie « grandeurs » décrite plus haut et une praxéologie que je nommerais « modélisation fonctionnelle » à laquelle j’ai déjà fait allusion à la section 1.2. dont la tâche majeure consiste à catégoriser des phénomènes divers, mathématiques ou non, à l’aide de modèles fonctionnels paramétrés, ce qui suppose bien sûr de savoir relier allures graphiques et, entre autres, comportements asymptotiques précisés par des calculs de limites. Les situations fondamentales relatives au concept de limite peuvent alors être liées aux comportements asymptotiques de certains de ces modèles fonctionnels.
A un second niveau praxéologique, le concept de limite est construit comme un outil de preuve permettant un système de validation logiquement cohérent et une organisation déductive globale de l’analyse. Mais on gère là des théorèmes généraux, tels que ceux relatifs à l’algèbre des limites et non plus un calcul de grandeur particulier. Ce projet correspond à la constitution de l’analyse proprement dite, comme discipline autonome, épurée donc de toute intuition géométrique ou cinématique. C’est la praxéologie « analyse moderne » dont les historiens s’accordent à attribuer la paternité à Cauchy parce qu’il a construit le concept de limite, ou du moins une version discursive, comme outil permettant un nouveau mode de validation, en lui donnant donc le rôle de « proof-generated concept » au sens de Lakatos (1984). A ce niveau, une situation fondamentale peut alors avoir pour fonction de changer le rapport personnel des élèves aux « objets » construits lors du premier niveau, dépassant ainsi l’obstacle empiriste dont j’ai parlé plus haut, pour concevoir les définitions, non comme des descriptions mais comme des référents qui donnent prise au raisonnement déductif. C’est là le travail de thèse en cours de P. Job. Je parlerai alors de situation fondamentale au sens large, me référant à l’exemple de la situation des médiatrices chez Brousseau. Celle-ci m’apparaît en effet paradigmatique du point de vue traité ici, en ce sens que son enjeu majeur serait l’évolution du rapport des élèves à de mêmes objets qui, ayant le statut de simples dessins dans l’institution « collège », deviennent de véritables figures géométriques dont les propriétés donnent prise au raisonnement déductif dans l’institution « lycée ».
La perspective décrite ici rend évidemment périlleuse la formulation en termes de jeux d’une situation fondamentale. Et surtout, elle fait apparaître que beaucoup de chercheurs se situent malaisément entre deux niveaux praxéologiques - tels que je les formalise à la section suivante - au moment de formuler la question d’une situation fondamentale du concept de limite qui est surtout envisagée, je pense, au second niveau essentiellement. C’est aussi souvent le cas pour le concept de fonction, ainsi que suggéré plus haut.

Deux niveaux praxéologiques : « modélisation » et « déduction »

J’en arrive à un aspect central dans ce cours et qui me paraît devoir structurer toute réflexion sur les ingénieries didactiques. Il s’agit de distinguer deux types de praxéologies, ce mot étant à comprendre à la fois en tant que processus et comme résultat de ce processus : d’une part, je cherche à traduire deux facettes de l’activité mathématique et, d’autre part, je décris les différents types d’organisations mathématiques auxquels conduisent respectivement ces deux facettes lesquelles peuvent être situées dans des institutions différentes : le premier type de praxéologie étant plus propre aux institutions d’enseignement, le second typique de l’activité mathématique professionnelle telle qu’elle se donne à voir dans les articles de recherche.
Le premier type de praxéologies concerne la modélisation mathématique de systèmes intra ou extra-mathématiques constitués d’objets que l’on peut considérer comme des objets préconstruits au sens de Chevallard (1991), c’est-à-dire d’objets dont l’existence résulte, aux yeux de personnes assujetties à une même institution, d’un « croisement d’énoncés du langage et de situations surdéterminées ». Un tel objet « n’est pas construit mais présenté, par une deixis qui est un appel à la complicité dans la reconnaissance ontologique ; l’existence de l’objet apparaît alors comme évidente, non douteuse, plus justement non susceptible de doute ; l’objet est installé, par la monstration qui le désigne dans son existence entêtée, dans un état qui échappe au questionnement, parce que tout questionnement le suppose : il est un point d’appui inattaquable de la réflexion » (Ib.). Dans ma représentation de l’apprentissage, j’accorde un rôle indéniable à de tels objets préconstruits, lesquels peuvent constituer des objets mentaux au sens de Freudenthal (1973). J’ai retravaillé personnellement ceux-ci (Schneider, 1988) comme « substituts de concepts » auxquels sont associées des convictions, des « images » qui peuvent soit faciliter, soit entraver l’apprentissage des concepts mathématiques correspondants, rejoignant ainsi un thème cher à Wittgenstein sur l’impossibilité d’expliciter complètement les règles. De fait, et mes travaux en analyse l’ont largement montré, il ne faut pas négliger une phase d’apprentissage au cours de laquelle, les objets préconstruits, existant d’abord par le truchement d’une désignation, se mettent à exister par le truchement d’une définition, celle-ci devant donner prise ultérieurement à une organisation véritablement déductive. Et ce serait là le rôle des praxéologies « modélisation ». Précisons les ingrédients de telles praxéologies au moyen de quelques exemples. Comme on l’a vu plus haut, en analyse, il s’agira de déterminer des objets préconstruits tels que des aires, des volumes, des vitesses variables, des tangentes en un point d’une courbe. En géométrie analytique à 3 dimensions, ces objets seront des points, des droites, des plans qui sont, à un certain stade du cursus, des objets tantôt préconstruits, tantôt définis par des axiomes au sein de la géométrie synthétique déjà constituée comme théorie déductive. Les techniques sont les modes de détermination ou de modélisation « standard » de tels objets : dans le cas de l’analyse, le calcul des limites dans une phase embryonnaire décrite plus haut, ou encore, le calcul plus performant des dérivées et des primitives. En ce qui concerne la géométrie analytique, je pense aux caractérisations paramétriques, cartésiennes et vectorielles des droites et des plans. Comme ces objets n’existent pas encore comme objets d’une théorie et que le but est précisément de les constituer comme tels, le discours qui justifie ces techniques et les rend intelligibles eu égard à la tâche visée ne peut être théorique, au sens où l’entendraient des mathématiciens. Et, c’est ce qui rend nécessaire, me semble-t-il, l’existence d’un niveau de discours que Chevallard appelle discours technologique. Dans nos exemples, il s’agira de justifier qu’un calcul de limite fournit bien la valeur exacte d’une aire curviligne ou d’une vitesse instantanée, contrairement à l’intuition « commune » qui se constitue en obstacle épistémologique ainsi que je l’ai montré plus haut. Il s’agira aussi de « justifier » telle ou telle caractéristique algébrique de la droite ou du plan dans l’espace à partir de caractéristiques proprement géométriques, comme, par exemple, le fait qu’un plan est déterminé par deux droites sécantes, et/ou de savoirs propres à la géométrie analytique du plan. Au terme de telles praxéologies, les préconstruits se constituent en concepts mathématiques par le truchement d’une définition pour se prêter à une théorie déductive : les aires sont définies comme intégrales définies, les vitesses comme des dérivées et les plans comme lieu de points dont les coordonnées vérifient une équation cartésienne ou un système particulier d’équations paramétriques.
Entrent en jeu alors les praxéologies de type « déduction » dont les tâches diffèrent considérablement de celles des praxéologies « modélisation ». Elles sont en effet propres à la constitution d’une organisation déductive. Il s’agit de reformuler certains concepts pour en faire des proof-generated concepts au sens de Lakatos, l’exemple typique étant celui du concept de limite, formulé en termes de quantificateurs et d’inégalités et inspirant un modèle de preuve faisant officiellement abstraction de toute considération géométrique ou cinématique (ce qui n’empêche pas la pensée intime de recourir à des formes diverses d’intuitions). Il peut s’agir aussi de déduire tel résultat théorique d’axiomes et/ou de théorèmes antérieurement démontrés, d’établir un système d’axiomes « simple » et non redondant, de conjecturer un ordre d’agencement des théorèmes, etc. Les techniques sont à la fois des règles d’inférence du calcul propositionnel et de celui des prédicats telles que le modus ponens et le modus tollens mais aussi des techniques de réfutation comme celle qui consiste à chercher le « lemme coupable », au sens de Lakatos, dans une inférence invalide. Quant à la théorie, il s’agit en quelque sorte d’une théorie des théories ou ce que Popper appelle « la logique de la connaissance scientifique » qui soulève des questions épistémologiques concernant la nature des concepts scientifiques, la falsifiabilité des théories, le problème méthodologique de la simplicité, la hiérarchie des disciplines scientifiques, le refus du mélange des genres dans l’établissement de la causalité, … On peut aussi y trouver la théorie des preuves et réfutations de Lakatos.
Ces deux types de praxéologies conduisent à des développements mathématiques presque étrangers les uns aux autres. Si une praxéologie de type « déduction » peut conduire à une théorie mathématique standardisée, plus ou moins globale, il n’en va pas de même des praxéologies « modélisation » qui débouchent sur des argumentations non assimilables à des théories canoniques plus ou moins locales. En effet, s’il peut y avoir interpénétration entre les deux, c’est au niveau des tâches ou des techniques mais pas à celui des discours qui valident les secondes en regard des premières. En général, les tâches des praxéologies « modélisation » deviennent des applications des théories résultant des praxéologies « déduction », ce que Chevallard nomme « une déconnexion franche du cœur théorico-technologique de l’œuvre d’avec ses applications ». Et ce sont les techniques des premières praxéologies qui définissent les objets premiers de ces mêmes théories. Par contre, les praxéologies « modélisation » autorisent des modes de validation plus pragmatiques qui seront récusés dans les secondes, tel celui qui consiste à tester la pertinence d’une technique nouvelle pour résoudre un problème dont la solution est déjà connue par ailleurs. C’est bien une telle démarche que fait Fermat (trad. 1896) lorsqu’il exploite sa méthode d’adégalité, dans laquelle on peut voir une forme embryonnaire du calcul des dérivées, pour retrouver des résultats connus depuis l’Antiquité, comme la détermination de la tangente en un point quelconque de la parabole ou l’optimisation de l’aire de rectangles iso-périmétriques. Dans leur TD associé à ce cours, Krysinska et Rouy ont illustré un tel mode de « validation » pragmatique dans une ingénierie portant sur l’introduction des dérivées. Elles ont montré également que, à un tel niveau praxéologique, un discours technologique peut être « hybride », c’est-à-dire à cheval sur plusieurs cadres, au sens de Douady. Ainsi, on peut argumenter la forme des ostensifs cartésiens et paramétriques qui modélisent les droites et plans par une argumentation qui, globalement, s’appuie à la fois sur des résultats de géométrie analytique 2D et sur d’autres relevant de la géométrie synthétique 3D.

Un premier niveau praxéologique négligé à tort

Habituellement, le travail propre aux praxéologies « modélisation » ne se donne guère à voir. Même si, préalablement à toute démarche qui s’inscrit dans une perspective de praxéologie « déduction », un mathématicien se sera souvent convaincu de la pertinence des modèles en recourant, en toute intimité, à des intuitions liées à des objets préconstruits, ainsi qu’à des procédures de validation pragmatique. Personnellement, je ne vois pas pour quelle raison on refuserait aux élèves un tel travail en amont d’une organisation déductive, travail au cours duquel des objets préconstruits que la pensée essaie de décrire deviennent peu à peu des objets existant par le truchement d’une définition pour finir comme éléments d’un ensemble structuré. Surtout lorsque les élèves questionnent ces modèles en ce qu’ils heurtent leur expérience première fût-elle d’ordre plus empirique ou de nature plus contractuelle, comme c’est le cas pour les exemples traités dans ce cours. Je plaiderais donc pour l’existence, au niveau de l’enseignement secondaire, de praxéologies « modélisation » construites à la lumière des obstacles d’apprentissage identifiés et dont on a des raisons de penser qu’ils sont résistants à la variabilité transpositionnelle.

Or, comme le suggèrent les travaux de Rouy (2007), le niveau praxéologique « modélisation » ne semble guère identifié et a fortiori non ménagé par les professeurs du secondaire (ni d’ailleurs par les professeurs d’université), ce qui priverait les élèves du secondaire d’un niveau de rationalité qui leur serait adapté les poussant ainsi à privilégier une approche des mathématiques exclusivement procédurale. Evidemment, les praxéologies « modélisation » ont un prix : l’acceptation d’un mode de validation pragmatique, de même que celle d’un discours technologique qui ne s’apparente guère à une théorie standardisée. Et il n’est pas évident ni d’accepter un tel discours, ni de lui octroyer un statut « d’objet institutionnalisable ». Pour évaluer les praxéologies mathématiques, Chevallard (1999) ne pointe-t-il pas le critère suivant : « Les formes de justification utilisées sont-elles proches des formes canoniques en mathématiques ? »  J’avais moi-même adopté un tel critère pour juger assez sévèrement (Schneider, 2001) une approche dite heuristique de l’analyse à l’écriture de laquelle j’avais participé. Mais, aujourd’hui, je questionne les malentendus possibles qu’un tel critère peut susciter en occultant certaines possibilités d’appréhension rationnelle des mathématiques qu’il me plaît de voir dans une expression souvent citée par Rouche : « Ne théoriser que si nécessaire ».
En lieu et place de praxéologies « modélisation », on observe souvent un discours du professeur qui emprunte à des théories standardisées certains éléments emblématiques tout en négligeant d’autres aspects en raison de leur difficulté à les enseigner. C’est le cas dans la transposition standard de la géométrie analytique 3D telle que pratiquée dans l’enseignement secondaire en Belgique. Pour les mathématiciens d’aujourd’hui, cette discipline est subordonnée à l’algèbre linéaire. Les droites et plans y sont définis d’emblée comme variétés linéaires ou affines. Les vecteurs sont des éléments d’un espace vectoriel et des vecteurs multiples sont définis à partir de la notion de partie liée. Dans cette théorie proprement mathématique correspondant à un projet praxéologique « déductif », un théorème important va gérer le passage entre les écritures vectorielles, d’une part, et leur traduction en termes de coordonnées, d’autre part : « Tout espace vectoriel E de dimension finie sur un champ K est isomorphe à l’espace Kn des coordonnées (par rapport à une base donnée de E, n un naturel) ». Mais si la transposition en vigueur dans le secondaire s’inspire de cette organisation mathématique, elle est fortement « édulcorée ». Ainsi, comme déjà annoncé plus haut, le théorème qui vient d’être mentionné n’y est pas présent ce qui a pour effet de rabaisser au statut de « recette » le passage d’une écriture vectorielle de deux vecteurs multiples aux égalités correspondantes sur les composantes : « on barre les flèches et on déploie les égalités sur les composantes » comme le présente un élève. Il manque donc un maillon important de l’édifice théorique, celui-là même qui permet de traduire des propriétés de vecteurs en termes de techniques propres à la géométrie analytique. La transposition didactique habituelle au niveau secondaire en Belgique est donc une praxéologie « à trous » au sens où l’entend Rouy (2007) : cette transposition imite le discours théorique dont elle emprunte des éléments emblématiques, en l’occurrence des définitions du plan et de la droite en termes vectoriels, mais n’en prend que les aspects jugés accessibles pour les élèves concernés en gommant tous les autres. Ce qui fait qu’on est, dans ce cas, ni vraiment dans une praxéologie de type « modélisation », ni dans une praxéologie de type « déduction ».

Post a Comment

أحدث أقدم