« La lecture nuit grandement à l’ignorance.
(Auteur inconnu)
La liberté d’opinion est une farce si l’information sur les faits n’est pas garantie et si ce ne sont pas les faits eux-mêmes qui font l’objet du débat.
– Hannah Arendt (1972). La Crise de la culture
L’ignorance et l’opinion, un couple heureux
- Admettre son ignorance, c’est reconnaître qu’on en sait moins qu’on le pense.
- À cet égard, le savoir scientifique a émergé parce que l’homme s’est rendu compte qu’il ne savait pas ou pas assez.
Selon Harari (2015),
« la Révolution scientifique a été non pas une révolution du savoir mais avant tout une révolution de l’ignorance » (p. 296) en vue de trouver une réponse à des questions jusque-là sans réponse.
- Les scientifiques ont rapidement compris que même partielles, voire provisoires, ces réponses allaient néanmoins permettre d’améliorer leurs conditions de vie et de déboucher éventuellement sur des avancées technologiques importantes.
On le voit,
constater l’étendue de nos ignorances est un préalable à la production de connaissances.
Ce texte comprend deux parties dont les objets sont interreliés : l’une consacrée à l’ignorance et l’autre, au règne de l’opinion. En conclusion, nous insisterons sur l’importance de l’acquisition de connaissances et de l’éducation au doute raisonnable comme moyens de se prémunir contre l’ignorance et le recours abusif à l’opinion.
1 – L’ignorance
La partie sur l’ignorance comprend quatre sections. La première porte sur l’impact sociétal de l’agnotologie, c’est-à-dire l’étude des pratiques culturelles de l’ignorance. Dans les deux suivantes, nous évoquerons d’abord une variante de l’agnotologie, le tittytainment, qui permet de maintenir une partie des citoyens dans l’ignorance, puis le concept du populisme contemporain, dont le représentant le plus connu est Donald Trump. Enfin, nous présentons brièvement les implications de l’effet Dunning-Kruger dans le maintien de l’ignorance.
1.1 – L’agnatologie
Le monde est devenu trop compliqué pour nos cerveaux de chasseurs cueilleurs.
- Face à la complexité grandissante de l’environnement social post-industriel, un grand nombre d’individus ont décidé plus ou moins consciemment de se tenir en retrait du flot de connaissances.
- Ils ont donc rarement l’occasion de prendre la mesure de leur ignorance.
Depuis plusieurs années, la Fondation Rosling dont le mandat est de combattre l’ignorance et de promouvoir la diffusion de données vérifiables a colligé des données sur l’ignorance. En 2017, Rosling (2018) a ainsi demandé à 12 000 individus provenant de 14 pays de répondre à des questions d’ordre général dont le compte-rendu a paru dans Factfulness (S’en tenir au fait). À chacune des questions, on proposait trois réponses.
Par exemple :
« Les hommes de 30 ans cumulent en moyenne une scolarité de dix ans. Combien en cumule les femmes ? Neuf ans, six ans ou trois ans ? ».
- Seuls 18% des Français ont obtenu la bonne réponse, soit neuf ans.
Pire, dans ce test, quel que soit le degré d’instruction de la population sondée, le taux de bonnes réponses était toujours « inférieur à celui d’un chimpanzé tirant au hasard sur les trois cibles » (Postel-Vinay, 2018, p. 98).
Pour expliquer de tels résultats,
- on peut invoquer un ensemble de biais cognitifs qui se confortent mutuellement (autoconfirmation).
Enfermés dans une « chambre d’écho » constituée d’amis qui partagent leurs points de vue, leurs opinions et leurs croyances, les gens sont constamment renforcés et donc rarement remis en question (Harari, 2018).
L’étude des pratiques culturelles de l’ignorance ou agnotologie, semble avoir acquis ses lettres de noblesse dans le milieu universitaire si on se fie au nombre d’ouvrages publiés sur le sujet au cours de la présente décennie (par exemple : De Nicola, 2017 ; Firestein, 2012 ; Gross et McGoey, 2015 ; Henry, 2017 ; Michéa, 1999 ; Oreskes et Conway, 2012 ; Proctor, 2011 ; Rosling, 2018 ; Schiebinger et Proctor, 2008).
L’historien des sciences R.N. Proctor (2011 ; Schiebinger et Proctor, 2008) a fait de l’agnotologie sa spécialité (Foucart, 2011,2013). Ce faisant, on peut dès lors considérer l’ignorance comme un moteur de la science. Alors que des connaissances fiables attestées par la recherche sont disponibles, on peut se demander pourquoi les climato-sceptiques, les anti-vaccins et les créationnistes ne savent pas qu’ils ne savent pas.
De toute évidence, avoir un accès plus rapide à une quantité plus importante d’informations grâce, notamment, à Internet n’est pas une garantie d’un rehaussement des connaissances pour tous.
Selon Proctor (2011),
- l’exploitation de l’ignorance jouerait aussi un rôle important dans le succès de nombreuses industries.
- Il est en effet facile de créer de l’ignorance grâce à des stratégies de désinformation et de décrédibilisation de la science.
Bref,
l’ignorance confère à ceux savent en profiter – dont les politiciens qui comptent certainement parmi les bénéficiaires les plus immédiats -, un pouvoir sur la population (Firestein, 2012 ; Girel, 2013).
Deux procédés sont particulièrement prisés par les promoteurs de fausses croyances.
- Le premier consiste à emprunter le vocabulaire des scientifiques pour vendre leur approche et à truffer leurs discours de termes spécialisés souvent cités hors contexte qui donnent du brio à leurs propos tout en n’ayant rien à voir avec la démarche scientifique (Hill, 2012).
- Le second procédé semble encore plus pernicieux : le recours au scepticisme comme stratégie de communication. Les exploiteurs de l’ignorance ont vite compris que le doute constituait entre leurs mains une excellente arme de communication (Torcello, 2011, 2012).
Il s’agit alors,
- de rappeler à ses interlocuteurs que le doute est une partie intrinsèque de la science et que, dans ce domaine, les certitudes absolues sont rares.
- Si la science est incertaine, alors tout ce qu’elle affirme est incertain.
- Une fois le doute installé, il ne reste plus qu’à organiser l’affrontement entre deux camps (Oreskes et Conway, 2012).
Pour ne pas avoir à trancher,
- les indécis risquent alors de se rabattre sur des lieux communs tels « rien n’est tout blanc ni tout noir » ou
- la vérité se situe probablement à mi-chemin entre les deux options.
Ils trouveront alors plus raisonnable de tenir compte des deux points de vue comme s’il s’agissait des deux côtés de la médaille.
- Bien des journalistes férus d’équité sont victimes de ce sophisme et se font un devoir d’accorder le même espace au camp du « pour » et du « contre » dans les dossiers controversés.
- Or, dans la plupart des cas, il ne s’agit pas des deux côtés d’une même médaille, mais bien de deux médailles distinctes.
Par exemple, prétendre que l’astronomie et l’astrologie sont deux points de vue légitimes sur un même sujet ne tient pas la route :
- l’une s’appuie sur des faits dûment démontrés et
- l’autre, un système de croyances jamais validées (Larivée, 2014).
Noyer les citoyens sous un torrent d’informations contradictoires de valeurs inégales et obtenues de manière contraire à la méthode scientifique, c’est faire la promotion de l’ignorance.
- « Pourquoi discréditer la science et les experts est-il un discours aussi porteur ? », se demande Borde (2016).
- Sans doute en partie parce que cela permet de valoriser la parole du « monde ordinaire » qui écoute la radio, regarde la télévision ou surfe sur Internet.
- Miser sur l’opinion des auditeurs, c’est s’assurer de leur fidélité.
- Le manque de culture scientifique d’une frange importante de la population, y compris certains journalistes, est aussi certainement en cause.
À cet égard, le sort réservé à la science aux États-Unis avec l’élection de Donald Trump n’augure rien de bon et le rejet ou l’ignorance des connaissances scientifiques dans les décisions politiques risquent de s’amplifier.
Espérons toutefois que des questions comme celles que Dan Goldin, l’administrateur de la NASA du temps de George Bush, s’est fait poser lors d’une discussion relative au budget de l’agence spatiale ne surviennent pas à nouveau :
« Pourquoi construire des satellites météorologiques alors que nous avons le canal Météo ? » (Augustine, 1998, p.1640).
La nomination de Ben Carson, un neurochirurgien diplômé de l’Université Yale, à titre de Secrétaire au logement et au développement urbain par Trump, ne laisse présager rien de bon.
Rappelons ici ses propos rapportés par Boucar Diouf (2016) à l’effet que « les pyramides d’Égypte sont en vérité de gigantesques silos à grain construit par saint Joseph pour le stockage du blé [et qu’elles] ne peuvent en aucun cas être des tombeaux royaux comme le pensent les archéologues, car cela équivaudrait à dire que les pharaons étaient des géants » (p. A21).
Citons également Myron Ebell, chef de l’équipe de transition de Trump à l’Agence de protection environnementale (EPA), qui le 27 janvier 2017 promettait de couper un grand nombre de postes scientifiques au sein de l’Agence. Niant la menace des changements climatiques, il a déclaré :
« La chaleur, c’est bon, tant qu’on a l’air climatisé » (Côté, 2017).
La nomination de Scott Pruitt, un climatonégationniste, à la tête de l’EPA a confirmé qu’une nouvelle ère débutait pour l’EPA.
Les remarques précédentes n’excluent pas certaines formes d’ignorance librement choisies par des chercheurs (Girel, 2013) souhaitant éviter d’entreprendre des recherches qui leur apparaissent trop risquées ou dangereuses pour la poursuite de leur carrière.
- En sciences humaines et sociales, les travaux sur les différences de QI entre les groupes ethniques en est un exemple patent.
Plusieurs chercheurs hésitent en effet à publier leurs résultats par peur de les voir instrumentalisés par des idéologues ou mal compris par une partie de la population.
Cela dit,
- voici deux résultats favorables aux Afro-Américains (A-A) qui n’auraient alors pas été connus.
Premièrement,
- jusqu’au début des années 2000, les écarts de QI entre les Afro-Américains (A-A) et les Euro-Américains (E-A) étaient de 15 points.
- Hors, les versions successives du WISC en 1972, 1989, 2002 et 2016 montrent que l’écart entre les A-A et les E-A étaient respectivement de 15.9, de 14.9, de 11.5 et de 8.7 points (Kaufman, Enji Raiford & Coalson, 2016).
- La même baisse a été obtenue aux WAIS chez les adultes de 16 ans et plus entre 1978 et 1995, l’écart passant de 14.2 points à 11.7 points ainsi qu’au Stanford Binet entre 1985 et 2001, période au cours de laquelle l’écart est passé de 13.9 à 10.8 points (Dickens et Flynn, 2006).
Deuxièmement,
- l’ouvrage de Herrnstein et Murray (1994), The Bell Curve, avait soulevé à l’époque un tollé (Gottfredson, 1997 ; Larivée et Gagné, 2006) en raison principalement du rappel des écarts de QI entre les A-A et les E-A.
- Peut-être avait-on oublié de lire ou de souligner des résultats concernant précisément les différences entre les groupes ethniques favorables aux A-A présents dans cet ouvrage (voir Tableau 1, page suivante).
Si, au cours des années 1990 aux États-Unis, sans contrôle du QI, la probabilité d’obtenir un diplôme collégial favorise les Blancs (84 %), par rapport aux Noirs (73 %) et aux Hispaniques (65 %), lorsque le QI est au moins de 103, les Noirs (93 %) sortent gagnants par rapport aux Blancs (89 %) et aux Hispaniques (91 %).
- Le même raisonnement s’applique quant à la probabilité d’obtenir un baccalauréat.
Sans contrôle du QI, les pourcentages d’obtention pour les Blancs, les Noirs et les Hispaniques, sont respectivement de 27 %, 11 % et 10 % ; lorsque le QI est au moins de 114, les pourcentages sont respectivement de 50 %, 68 % et 49 %. Qui plus est, la probabilité d’occuper un emploi requérant un QI élevé d’au moins 117 est de 10 % pour les Blancs, de 26 % pour les Noirs, et de 16 % pour les Hispaniques.
Ces résultats mettent en évidence au moins deux éléments :
- non seulement les A-A performent bien dans le cadre des études supérieures et au plan professionnel lorsqu’ils ont de bonnes habiletés intellectuelles, mais
- ils réussissent mieux que les E-A et les hispaniques (Larivée, 2008).
Un tel résultat n’est-il pas un incitatif à poursuivre les recherches sur l’étiologie des différences de QI (Daley & Onwuegbuzie, 2011) ?
D’ici là, peut-être est-il utile, devant ce type de résultats, de rappeler l’importance de ne pas confondre une moyenne de groupe et un résultat individuel et que tenir des propos racistes n’est en aucun temps justifié et justifiable.
[…]
1.2 – Le tittytainment
En 1995, à l’occasion d’une rencontre entre les « grands » de ce monde, Zbigniew Brzezinski, alors conseiller à la sécurité nationale du président américain Jimmy Carter, a proposé le concept de tittytainment, comme stratégie pour répondre au défi du nouveau siècle.
Le néologisme tittytainment est emprunté aux termes anglais tits (les seins en argot) et entertainment (divertissement) et fait non pas référence au sexe, mais bien à l’effet soporifique de l’allaitement maternel sur le bébé.
- L’idée était de contrer la critique politique qui allait inévitablement émaner des victimes du libéralisme et du mondialisme.
En effet,
- il semble alors clair pour une majorité de participants à cette rencontre de 1995 que seulement 20% de la population mondiale serait éventuellement suffisante pour produire les biens et services.
Qu’allait-on faire des 80% de la population restante et comment empêcher la révolte populaire ?
Visiblement, les « grands » de ce monde ce sont légèrement trompés si on se base sur la pénurie actuelle de main d’œuvre dans certains pays occidentaux. Mais, pourraient-ils objecter, le siècle n’est pas fini.
Pour contrer les rébellions, il faut garder le peuple occupé, de préférence par le travail. Si jamais le travail venait à manquer, la solution est déjà toute trouvée. Dans l’esprit de Brzezinski, le tittytainment se traduit alors un cocktail de divertissements abrutissants suffisamment distrayants pour maintenir la bonne humeur des populations frustrées (Martin et Schumann, 1997).
- Cette stratégie « du pain et des jeux » permettrait de maintenir le peuple dans l’ignorance et l’aliénation – une fois les besoins primaires comblés.
C’est ainsi que les romans-savons, les jeux de fortune (les casinos, les paris sportifs ou La poule aux œufs d’or), les émissions sportives en continu et les émissions de télé-réalité (Occupation Double, XOXO) – lesquelles au demeurant n’ont précisément rien à voir avec la réalité – ont fleuri à la radio, à la télévision et sur internet.
- Certains pourraient même penser que la légalisation du cannabis au Canada et dans certains états américains s’inscrit dans cette logique.
Chomsky (2011) a également relevé Dix Stratégies de manipulation à travers les médias dont au moins trois s’inscrivent bien dans la perspective du tittytainment.
- La première, La stratégie de la distraction, consiste précisément à gaver le public de distractions pour l’empêcher de s’intéresser aux diverses questions qui se posent dans divers domaines de la science (par exemple : cybernétique, économie, neurobiologie, nutrition, etc…).
- La deuxième stratégie est particulièrement efficace, Faire appel à l’émotionnel plutôt qu’à la réflexion.
- La troisième stratégie est précisément ce que nous dénonçons dans ce texte, Maintenir le public dans l’ignorance et la bêtise.
Pour les dirigeants populistes, le tittytainment est un cadeau du ciel, il leur permet de maintenir le peuple dans l’ignorance et donc d’arriver à lui faire croire ce qu’ils veulent nonobstant la réalité et la vérité. Pour donner de la force au tittytainment, porter au pouvoir des dirigeants fondamentalement populistes en assure le fonctionnement. À cet égard, l’élection de Donald Trump n’est ni une première, ni une erreur de parcours au plan politique (Judis, 2016), mais probablement davantage un signe de ce qui attend plusieurs pays.
1.3 – Le populisme ou le nouveau visage de la démagogie
Le populisme désigne généralement une vision politico-sociale, opposant le peuple aux élites traditionnelles, comme ce fut le cas en Russie vers 1860 quand les paysans se sont opposés au pouvoir tsariste.
Les écrits modernes sur le populisme ne manquent pas. Par exemple, au cours de la présente décennie, on peut noter les ouvrages d’Albertazzi et McDonnell (2008) de Coussedière (2012), de Couvrat et Thériault (2014), de Laugier et Ogien (2017), de Michéa (2010), de Mouffe (2018), de Mounk (2018) et de Müller (2016).
- Certes, le populisme ne date pas d’hier, mais la crise financière et immobilière de 2008 a suscité l’émergence de mouvements populistes, tant à droite qu’à gauche de l’échiquier politique.
Dans les deux cas, les politiciens prétendent alors incarner le peuple et son hostilité à l’égard des élites politiques, financières ou médiatiques (Latchoumaya, 2017).
Dorna (2005) a dégagé sept caractéristiques du populisme moderne :
- un leader charismatique,
- un appel au peuple,
- une attitude antiélitiste,
- un discours antagoniste,
- un mouvement de masse,
- une position de rupture et
- la glorification du peuple.
Lors de la dernière élection à la présidence des États-Unis, deux populismes se sont opposés.
- Un populisme de droite, incarné par Donald Trump, se manifeste, entres autres éléments, par des mesures anti-migratoires et par des attaques contre les médias, accusant en outre les journalistes de ne publier que de fausses informations et en considérant ses adversaires comme des ennemis au lieu d’opposants légitimes.
Pour sa part,
- le populisme de gauche, incarné par Bernie Sanders, s’est surtout attaqué aux banques et aux multinationales qui pratiquent l’évasion fiscale. Il s’est également fait le champion de la gratuité scolaire.
En définitive, la recette est plutôt simple :
il s’agit de préconiser des solutions simples à des problèmes politiques, économiques et sociaux complexes.
De plus,
il s’agit de maintenir le peuple dans l’ignorance et d’attirer des votes en utilisant la peur, en ciblant un ensemble de promesses insignifiantes et surtout en tenant un discours qu’une grande partie de la population veut entendre.
- On pourrait objecter que tenir un discours complexe et impopulaire revient à un suicide politique.
D’ailleurs,
que peut comprendre le citoyen ordinaire à la situation mondiale actuelle (Désilets, 2018).
Malheureusement,
- il n’y a aucune raison de penser que de l’amalgame des ignorances individuelles puisse émerger une force directrice, susceptible de prendre en main les affaires publiques (Lipman, 1993).
Autre allié du populisme, le rejet de la rectitude politique par une forte partie de la population.
De plus, l’ignorance institutionnalisée aidant, le dirigeant populiste proclame ce que le peuple veut entendre :
- baisser les taxes et les impôts, limiter le nombre d’immigrants,
- réduire la criminalité ou fixer le prix de la bière en canette à 1,00$ comme l’a proposé l’actuel premier ministre de l’Ontario, Doug Ford, lors de la campagne électorale.
Une bonne partie de la population se dit alors : ce politicien est l’un des nôtres.
Voilà pourquoi les populistes peuvent prétendre à être les seuls à représenter le peuple (Müller, 2018) même si cela semble souvent une imposture comme dans le cas de Trump, un multimillionnaire notoire.
- En fait, Trump a dirigé sa campagne électorale en imposant les règles de la télé-réalité, « où la personne qui dit les pires bêtises est récompensée avec le plus de temps d’antenne » (Pelletier, 2016, p. A7).
Les populistes, Trump en tête, ont également compris que leur succès reposait sur le contact direct avec le peuple ou plutôt avec les partisans. À l’heure ou la démocratie représentative est en crise en Occident, tweeter sans aucun filtre, avec impulsivité et arrogance semble un gage d’authenticité par rapport à ce qui est perçu comme la langue de bois de la classe politique traditionnelle. Face aux réseaux sociaux utilisés par les populistes, ce contre-pouvoir qui peut se permettre de diffuser des informations dont la véracité n’est jamais vérifiée, les médias traditionnels ne font pas le poids. De plus, la surexposition de Trump dans les réseaux sociaux valorise son pouvoir populiste en donnant un poids exagéré à ses mensonges et à ses fake news, comme si la bêtise était en train de devenir une référence (Deglise, 2016). Qui plus est, cela lui permet de décider ce qu’est le réel, indépendamment de la réalité. Pour le leader populiste, l’objectivité n’a rien à voir avec la réalité. Pour atteindre ses buts, tous les moyens sont bons, y compris le mensonge. De toute façon, ceux qui l’appuient ne sont pas le moins du monde troublés par les contradictions du message (León, 2017).
1.4 – L’effet Dunning-Kruger ou l’ignorance au quotidien
L’ignorance de sa propre ignorance débouche souvent sur un excès de confiance en ses compétences : c’est l’effet Dunning-Kruger, du nom des auteurs qui ont documenté le phénomène, appelé également effet de surconfiance.
Par définition,
un individu inconscient de ses lacunes n’est pas en mesure d’identifier les connaissances dont il aurait besoin pour les corriger (Dunning, 2011).
Autrement dit, dans certaines circonstances,
- l’incompétence peut conduire à de mauvaises performances et à une surestimation de la qualité des réalisations.
Kruger et Dunning (1999) ont en effet montré que
- moins nous sommes compétents dans un domaine, plus nous avons tendance à surestimer notre compétence comme si cela nous rendait inapte à imaginer ce que précisément nous ignorons.
À contrario,
- les individus très compétents ont tendance à se sous-estimer, pensant alors que si une tâche est facile pour eux, cela doit être aussi le cas pour les autres.
Dès 1981, Svenson avait montré que 93% des Américains se considéraient de meilleurs conducteurs de voiture que la moyenne des gens, ce qu’il avait appelé
- l’effet « mieux que la moyenne », une variante intéressante de l’effet Dunning-Kruger.
Depuis, cet effet a été reproduit à moult reprises.
Par exemple,
« la plupart des gens pensent être plus intelligents, plus beaux ou encore moins égoïstes que la moyenne ce qui, par définition, est évidemment impossible » (Chevalier et Baumard, 2018, p. 73).
De telles données devraient plaider en faveur du doute raisonnable envers nos représentations du réel, mais nous sommes peu enclins à ce genre d’exercice mental.
Le biais de confirmation, c’est-à-dire notre inclination naturelle à voir et à interpréter les faits de manière à confirmer nos croyances, nos attentes et nos opinions et, du coup, à rejeter ce qui les contredit, est en général notre mode de fonctionnement par défaut (Nickerson, 1998 ; St-Onge et Larivée, sous presse).
- Le biais de confirmation procure en effet un certain avantage puisqu’il agit comme un raccourci mental, qui permet une économie d’énergie et une prise de décision plus rapide.
Kahneman (2011) a d’ailleurs bien montré que
- la pensée fonctionne à deux vitesses, qu’il a appelé Système 1 et Système 2.
- Dans le premier cas, la pensée est en mode automatique, rapide, intuitif, émotionnel, ce qui favorise le biais de confirmation et, du coup, limite l’effort à faire.
- Dans le second cas, le Système 2 est plus lent et sollicite des activités mentales qui nécessitent réflexion et concentration, ce qui peut déboucher sur des doutes ou des solutions variées.
Bien sûr, on peut ignorer un grand nombre de choses sans que cela affecte notre quotidien.
Il est quand même indéniable qu’une faible littératie diminue la compréhension de notre environnement surtout si elle est couplée à une méta-ignorance (ignorance de son ignorance) (Dunning, 2011 ; Fine, 2017 ; Vu et Dunning, 2017).
Ce biais de surconfiance peut cependant avoir des conséquences dans l’exercice de certaines professions, comme la médecine (Berner et Graber, 2008).
- Ainsi, Beam, Layde et Sullivan (1996) ont évalué l’impact des mammographies sur la détection du cancer du sein. Cent-huit radiologistes ont participé à l’expérience. Les résultats font état d’une grande variabilité dans l’exactitude de l’interprétation de la mammographie, dont 21% d’erreur de détection du cancer du sein.
2 – L’opinion
2.1 – L’opinion règne en maître
- Privilégier l’opinion au détriment des faits a ouvert la porte à une époque parfois appelée post-factuelle où les faits dûment vérifiés ne semblent plus avoir d’importance.
Il suffirait alors de répéter ad nauseam une affirmation pour que celle-ci acquière le statut de « vérité » suivant le principe énoncé par Klatzman (1985) :
- dites n’importe quoi, mais avec assurance, et on vous croira.
- La charge émotive habituellement reliée aux opinions relègue au second rang la prise en compte des faits.
La saga de la dernière campagne présidentielle des États-Unis en 2016 en constitue un exemple éloquent.
Le recours systématique au couple émotion-opinion alimente alors cette ère post-factuelle, que le Dictionnaire britannique Oxford a, en quelque sorte, officialisée en choisissant le mot « post-vérité » (post-truth) comme mot de l’année 2016 en raison de son usage en augmentation de 2000 % par rapport à l’année précédente.
En témoignent les propos du financier Arran Banks sur le Brexit, tel que rapporté par Vinogradoff (2016) :
« Une campagne politique se gagne par l’émotion et non plus par la démonstration […]. Les faits, ça ne fonctionne tout simplement pas. Vous devez vous connecter émotionnellement avec les électeurs. C’est le succès de Trump ».
La post-vérité a d’ailleurs pris un tournant majeur lorsque Kellyanne Conway, porte-parole de Trump, a tenté de justifier ses mensonges par l’existence de « faits de remplacement » (alternatives facts).
Quoi de mieux pour évacuer les faits que de brancher les gens sur leurs émotions plutôt que de faire appel leur capacité de raisonnement (Thibodeau, 2016a, 2016b) ?
Et cette stratégie ne date pas d’hier ! Les assemblées animées par les preachers sont à cet égard exemplaires.
- Pour s’assurer que les émotions priment sur la raison, on survalorise les témoignages, une méthode particulièrement efficace.
Dès qu’un témoignage touche une corde sensible, l’auditoire tend à donner son adhésion aux dires ou aux phénomènes qui font l’objet du témoignage, comme si mettre en doute son témoignage revenait à rejeter moralement cette personne.
- Que chacun accorde de l’importance à sa propre opinion est compréhensible, mais l’opinion recèle cependant quelques pièges. En voici quatre.
Mon opinion sur le sujet est… Toute phrase qui débute par « Mon opinion sur le sujet est… » ou « Moi je pense que… » laisse entendre que la connaissance du sujet se situe quelque part entre l’ignorance et une connaissance réelle du sujet en question (Joly, 1981).
Plus encore, sur quoi celui qui écoute fondera-t-il son adhésion à l’opinion énoncée ? Au premier chef, l’autorité prêtée à la personne qui s’exprime :
- l’opinion d’un expert sur un aspect qui relève de sa compétence a certes plus de poids que celle d’un profane.
Par contre, en quoi l’opinion de ce même expert dans un domaine hors de sa compétence aurait-elle plus de crédibilité ?
On assiste au même phénomène de halo lorsqu’on accorde foi à l’avis des vedettes dans des domaines étrangers à leur expertise. On n’y échappe pas, le biais de confirmation aidant, l’adhésion à une opinion exprimée sera d’autant plus forte qu’elle rejoint celle de l’interlocuteur.
- L’opinion, proche parente du sens commun.
Le sens commun ou « gros bon sens », qu’on pourrait définir comme l’ensemble des théories implicites ou des croyances que partagent les membres d’une société donnée, constitue un atout indispensable pour la vie en société et on aurait tort de croire que le sens commun n’est qu’un fouillis de croyances, car il se construit à l’aide de mécanismes cognitifs – probablement acquis au gré de l’évolution et fondamentalement valides.
Malgré ces avantages,
- on voit bien comment survaloriser l’opinion peut entraîner la perpétuation de faussetés et bloquer l’accès à des connaissances valides.
En effet,
- le sens commun se limite souvent à ce qui lui est familier.
- Comme les humains font régulièrement des inférences sans fondement dans bien des domaines, les opinions issues du sens commun ne constituent pas une base solide pour le développement de connaissances valides.
Au total, avoir des opinions n’est pas mauvais en soi.
- Les individus qui ont le courage de leurs opinions sont habituellement respectés.
- On aime ceux qui pensent par eux-mêmes (Bessaude-Vincent, 2000).
Mais il y a abus lorsque le sens commun transforme l’opinion en fait avéré, ou que celle-ci débouche sur un conservatisme sclérosant ou qu’on s’accroche à des opinions abondamment réfutées ou inaptes à toute mise à l’épreuve comme c’est le cas, très souvent, des croyances dites paranormales (Bunge, 2003).
En bout de ligne,
- « le sens commun est comme l’alcool : à consommer avec modération » (Engel, 2002, p. 13).
Une opinion n’est pas un fait.
Dans La formation de l’esprit scientifique, Bachelard (1938/1972) est formel :
- l’opinion est un obstacle épistémologique majeur à la formation de l’esprit scientifique.
Pour lui, le débat est clos :
« […] l’opinion a en droit toujours tort. L’opinion pense mal ; elle ne pense pas […] On ne peut rien fonder sur l’opinion : il faut d’abord la détruire » (p. 14).
Dans cette perspective,
- l’opinion ne peut même pas tenir lieu d’intermédiaire entre l’ignorance et le savoir, car si d’aventure une opinion s’avérait, son bien-fondé découlerait d’un simple quoique heureux hasard.
À l’opposé,
Bensaude-Vincent (2000) est d’avis que si l’ignorance désigne le degré zéro de la connaissance, l’opinion constitue un mode de savoir. La science et l’opinion constitueraient deux formes de savoir qui produisent chacune une vision propre du monde.
D’ailleurs,
- comme les opinions sont là pour rester dans les états de droit, il vaut mieux s’en accommoder et tenter de les domestiquer, surtout dans une perspective de l’expansion de la culture scientifique.
S’efforcer de distinguer les faits de l’opinion est un pas dans la bonne direction.
Par exemple, certains faits incontestables sont à situer en dehors du champ de l’opinion. Que Donald Trump soit président des États-Unis est un fait, mais sa façon de gouverner donne lieu à des opinions divergentes.
Toutefois, la distinction entre un fait et une opinion n’est pas toujours aussi évidente.
- C’est le cas notamment lorsque des témoignages et des opinions s’amalgament et se renforcent mutuellement.
La méthode du témoignage a démontré son efficacité : dans la mesure où le témoignage touche des cordes émotives, on tend à adhérer à l’opinion alors défendue.
Toutes les opinions se valent. Sans remettre en question le droit fondamental de tout individu de s’exprimer dans la mesure où il ne porte préjudice à personne, affirmer que « toutes les opinions se valent » ou que « chacun a droit à son opinion » sous-entend le plus souvent que « tout est relatif » (voir Larivée, 2006, 2014, 2017 pour une discussion plus approfondie).
Dans notre monde libre et pluraliste où, par exemple, les sectes, les groupes de croissance personnelle et les associations diverses ont un droit de cité – un droit reconnu légalement –, la dérive du relativisme (toutes les opinions ont une valeur intellectuelle égale) est bien vivante.
Le relativisme cognitif pourrait paraître mieux convenir aux objets d’étude des sciences humaines et sociales compte-tenu de leur complexité et de la diversité des modèles et des théories qu’elles génèrent.
S’il est souvent difficile de trancher et s’il est possible d’invoquer plusieurs théories pour expliquer les mêmes faits, les sciences humaines et sociales ne doivent pas pour autant être réduites à un corpus d’opinions.
Chacun d’entre nous évolue dans une double réalité :
- la réalité objective indépendante de soi et
- la réalité perçue et interprétée à travers le prisme de nos opinions, de nos convictions, de notre culture, de notre personnalité et de nos croyances.
Que les individus construisent la réalité à même la représentation qu’ils s’en font ne change toutefois rien à la réalité objective.
- La quantité de vin dans un verre ne diminue ni n’augmente du fait que l’amateur pessimiste perçoive le verre à moitié vide et l’amateur optimiste, à moitié plein.
Respecter les représentations de chacun ne devrait pas pour autant conduire aller valoriser au détriment de la réalité objective. En effet, les chartes des droits nous accordent la liberté de choisir nos opinions, mais pas celle de choisir les faits.
- Si personne n’était tenu de justifier son point de vue sous prétexte que toutes les opinions se valent, on risquerait de valoriser un relativisme à tout crin qui, poussé à l’extrême, porterait à croire tout et son contraire.
- Nous ne serions pas loin alors de l’obscurantisme qui brouille les frontières entre le savoir et les croyances, ou entre la science et les superstitions.
Dans cette optique, il apparaît irresponsable de vouloir réduire les conclusions que la démarche scientifique tire d’une vérification à une simple opinion parmi d’autres. Parce qu’elle valorise l’objectivité et la vérification, la science offre précisément l’une des plus sûres protections contre les idéologies totalitaires, l’obscurantisme et la stupidité.
- Les thèses des constructivistes et autres relativistes, alimentées par certaines conceptions de l’anthropologie culturelle, mises de l’avant dès le début des années 1980 par Bloor et Barnes (Barnes et Bloor, 1981 ; Bloor, 1991) et dont des échos ont retenti au début du XXIe siècle (Dufour, 2010 ; Schinckus, 2008) s’inscrivent bien dans le règne de l’opinion.
Ces auteurs sont d’avis que toutes les connaissances se valent et que la science n’est qu’un mode de connaissance parmi d’autres, au même titre que la magie, l’astrologie ou la religion.
- Concéder qu’une théorie puisse être mise de l’avant pour des raisons qui n’ont rien à voir avec l’objectivité ne revient pas à affirmer que rien n’est objectivement vrai.
- Mais en mettant la science sur le même pied que les mythes, la superstition, l’astrologie ou les « faits de remplacement », on nie ipso facto que la quête objective de la vérité puisse constituer le but de la recherche scientifique (Bogohsian, 1997).
Autrement dit, si tout est relatif, il n’y aurait pas de vérité, mais seulement des opinions, ce qui a permis, par exemple, à Donald Trump de proférer les pires stupidités en matière de science dont Valérie Borde (2016) a dressé une liste :
« Le changement climatique est un coup monté des Chinois pour tuer l’industrie américaine, les vaccins causent l’autisme et rendent les enfants malades, les Centres for Disease Control […] vont répandre l’Ebola et l’anthrax chez les Américains, les éoliennes sont dangereuses pour la santé, les ampoules fluorescentes donnent le cancer et, bien entendu, la théorie de l’évolution est une fumisterie des athées… […] Bref, Donald Trump n’a manqué aucune occasion de surfer sur la vague de l’antiscience et de renforcer les mythes les plus tenaces, décriant le travail des National Institutes of Health […] ou de la NASA […], auxquels il dit vouloir donner un sérieux coup de barre, et en remettant en question l’accord de Paris sur le climat […] ».
Lorsque les opinions et l’irrationnel ont prise sur une partie importante de la population, la démocratie en souffre.
Plusieurs facteurs favorisent le règne de l’opinion et, du coup, le succès de l’ère post-factuelle. Que toutes les opinions se valent semble elle-même une opinion partagée au premier chef par les médias. Il n’est donc guère surprenant qu’à la radio et à la télévision on incite les citoyens à donner leur opinion : « contactez-nous, votre opinion nous intéresse ». À cet égard, les réseaux sociaux leurs ménagent un terreau fertile.
Que les gens aient le droit d’exprimer leurs opinions, soit ! Bachelard (1938/1972) rappelle toutefois, dans La formation de l’esprit scientifique, que non seulement une opinion non fondée n’est pas un fait, mais qu’elle est un obstacle épistémologique majeur à la formation de l’esprit scientifique.
L’accès à la connaissance passe par le deuil des opinions, car si toutes les opinions se valent, c’est en fonction de leur plus petit dénominateur commun : elles ne valent rien.
Enfin, bien sûr, les gens ont le droit d’exprimer leurs opinions, mais il est faux de prétendre que toutes les opinions se valent. La question est plutôt : qui doit-on écouter ?
3 – Conclusion
Dans une société férue de science et de technologie,
- la manifestation la plus spectaculaire de la stupidité est probablement d’opter pour l’ignorance.
En fait, n’est pas stupide celui qui ignore, mais celui qui croupit volontairement dans l’ignorance. Est encore plus stupide celui qui n’ignore pas, mais qui décide d’ignorer pour mieux consolider ses croyances (Harari, 2015).
À cet égard, Rosling (2018) distingue dix péchés mignons qui viennent renforcer les croyances et, du coup, fausser le jugement :
« Le goût des schémas binaires ; un intérêt disproportionné pour le négatif ; la propension à se faire peur ; la fixation sur des chiffres et des nombres frappants ; la tendance aux préjugés ; la croyance à l’immutabilité des mœurs, surtout chez les autres ; la préférence pour les explications simples ; la recherche de boucs émissaires et la fausse hiérarchie des urgences. Tous ces péchés mignons sont fortement entretenus et amplifiés par les médias et autres réseaux sociaux » (Postel-Vinay, 2018, p. 98).
- Lutter contre la répugnance naturelle de l’esprit humain à faire preuve de scepticisme devant le flot quotidien d’assertions plus ou moins farfelue dont on nous bombarde quotidiennement passe d’abord par l’éducation des enfants.
Par exemple, même si les pseudosciences ont réussi à infiltrer le monde de l’éducation, il n’en demeure pas moins que la scolarisation constitue un moyen essentiel pour acquérir des connaissances valides et développer un esprit critique. Cela dit, les cours des sciences devraient être un lieu privilégié pour développer la culture scientifique.
Au final, le sceptique modéré est toujours prêt à mettre de l’avant des hypothèses, si contre-intuitives soient-elles, et à abandonner celles qui sont infirmées (Bunge, 2000).
À la limite, avoir des opinions, même fantaisistes, n’est pas dommageable en soi ; du moment qu’on ne s’y cramponne pas une fois qu’elles ont été réfutées. Prétendre alors qu’il s’agit de connaissances, voilà qui est contraire à un sain scepticisme, mais surtout au gros bon sens.
- À cet égard, la suprématie de l’opinion sur les faits favorise à merveille l’ignorance.
En fait, avoir des opinions sur tout augmente sensiblement la probabilité de tenir des propos stupides sur beaucoup de choses… »
– Larivée, S. & Sénéchal, C. (2019). L’ignorance et l’opinion, un couple heureux. Les Cahiers Internationaux de Psychologie Sociale, numéro 121-122(1), 63-79.
« […]
1.1 – La dialectique
La logique dialectique s’est développée à partir des conceptions de Hegel, d’abord, de Marx ensuite. En première approche, elle repose sur un raisonnement en trois étapes :
- la thèse pose une affirmation à caractère universel ;
- l’antithèse est la négation de la thèse, d’où naît une contradiction ;
- la synthèse est un essai de dépassement de cette contradiction qui reprend des éléments de la thèse et de l’antithèse.
Pour Hegel, la dialectique est « le mouvement du discours qui s’empare progressivement de la réalité (…) par une suite de crises ou de conflits surmontés ». Mais, « chaque position de vérité est en soi insuffisante et appelle une médiation par contrariété ou par négation de ce qui est ». (Noiray, 1969)
- Elle appelle donc à un dépassement qui conduira à une nouvelle position (ou proposition) de vérité, laquelle n’en restera pas moins toujours provisoire.
Hegel fait ainsi « de la contradiction le moteur à la fois de la pensée et du réel ». Mais, si ce dernier considérait que
« toute position de vérité (…) ne peut être qu’une délimitation (…) de la prise de possession du réel par l’esprit » (idem),
- Marx, tout en souscrivant également au rôle central de la contradiction, estime, quant à lui, que la dialectique n’est pas uniquement la logique de l’esprit, mais aussi celle du réel.
Ce n’est plus uniquement le savoir, la connaissance qui doit être comprise comme contradictoire. Le réel, lui-même, est d’essence contradictoire.
En effet,
- le savoir n’est que la vérité d’un moment, construite à partir d’une situation concrète et donc contredite par l’évolution et la modification du réel. »
– Bodart, Y. (2019). L’analyse institutionnelle. Les Cahiers Internationaux de Psychologie Sociale, numéro 121-122(1), 85-103.
« Deux questions fondamentales sont à l’origine de l’oeuvre de Jean Piaget :
- l’une a trait à l’évolution des formes de la vie et de la pensée ;
- l’autre, liée très tôt à la première, a pour objet l’explication et la justification de l’universalité des connaissances scientifiques et des normes morales.
Nous verrons dans la suite combien ces questions, sous la forme où Piaget les pose, s’enracinent dans l’état d’évolution des idées de la seconde moitié du xixe siècle. Nous verrons en particulier comment le premier livre important de notre auteur : Recherche, malgré ses défauts de jeunesse, présente une explication unitaire des « faits » généraux biologiques, psychologiques et sociaux, qui s’apparente par l’ampleur du projet, sinon par sa précision, aux tentatives que H. Spencer et, à un degré moindre, A. Lalande avaient menées avant lui. Et de même verrons-nous comment ces deux auteurs, comme leur digne émule, ont lié à leur effort d’élaboration d’une philosophie scientifique, c’est-à-dire en l’occurrence d’
- une synthèse unificatrice des sciences, la constitution d’une morale prolongeant les lois bio-psychosociologiques, ou, pour Lalande, les lois psycho-sociologiques.
On sait que la conception exposée dans Recherche repose principalement sur les notions de totalité, de partie, et sur leurs diverses formes de rapports, ainsi que sur la notion des équilibres idéal et réel.
- Cette conception, encore certes trop intimement mêlée à des données intuitivement appréhendées dont elle est censée rendre compte, ne peut être alors au plus qu’une « rêverie philosophico-scientifique », ce dont son auteur était d’ailleurs tout à fait conscient.
Les idées exposées dans cet ouvrage de jeunesse ne prendront un statut plus véritablement scientifique que plus tard, lorsque leur auteur sera parvenu à trouver un domaine et une méthode d’étude adéquats à la réalisation du projet ébauché à vingt ans dans Recherche — écrit en automne et hiver 1916-1917 —, et même certainement avant puisque la conception spéculative exposée dans ce roman philosophique semble avoir été élaborée dès 1915 environ, si l’on en croit 1’« Autobiographie » de Piaget lui-même.
C’est à des recherches devant justifier et développer sur le terrain de l’expérience scientifique certaines des intuitions de Recherche (surtout celles relatives au rôle des totalités dans l’intelligence humaine) que Piaget va alors consacrer quelque deux à trois décennies de travaux qui, après des résultats très importants pour la connaissance de la naissance de l’intelligence humaine, de la construction du réel et de la formation de la fonction sémiotique chez l’enfant, déboucheront sur la grande période de description génétique et d’explication structurale des équilibres propres aux opérations logico-mathématiques et spatio-temporelles.
Inutile de rappeler en outre dans le détail la prodigieuse récolte de faits de l’auteur et de ses collaborateurs, dont principalement B. Inhelder et A. Szeminska, pendant cet « âge d’or » de la psychologie génétique genevoise qui va approximativement jusqu’aux années 1950. Disons seulement que cette récolte — digne de la grande’chasse’aux mollusques des années 1910 chez le jeune Piaget, et, au-delà, digne des grandes oeuvres naturalistes des XVIIIe et XIXe siècles — permet de donner une assise et une justification empiriques tout à fait novatrices, exception faite de quelques figures maîtresses de l’épistémologie historico-critique, à une élaboration théorique radicalement nouvelle concernant les problèmes généraux de la connaissance humaine.
Rappelons au contraire un certain nombre de travaux élaborés parallèlement ou ultérieurement au grand oeuvre sur les structures de l’intelligence humaine. La découverte des structures opératoires est généralisée, mais sur un plan qui reste peut-être trop théorique, à des questions socio-psychologiques et d’échelles de valeurs (voir sur ce point les Etudes sociologiques, recueil d’écrits rédigés entre 1941 et 1950, pour ce qui est des deux premières éditions, l’une de 1965, l’autre de 1967). D’un autre côté, Piaget et ses collaborateurs, dont M. Lambercier et Vinh-Bang, découvrent des équilibres spécifiques aux structures de la perception qui se distinguent des équilibres parfaits propres aux structures de l’intelligence, de la morale, et de quelques échanges micro-sociaux, par leur instabilité ; ces équilibres instables se voient alors expliqués à l’aide de modèles statistiques. — Une autre direction de recherches, qui se prolonge au-delà des années 1950 jusqu’aux années 1960, cherche à dégager les rapports entre l’intelligence d’un côté, la perception, l’image et la mémoire de l’autre. Et c’est pendant ces mêmes années 1960 que Piaget et ses équipes successives du Centre international d’Epistémo-logie génétique se penchent également, mais avec une optique à dominante épistémologique, sur les rapports entre les structures de l’intelligence et la causalité physique. Il en sortira une importante série d’écrits, dont certains non encore publiés.
- Ces derniers travaux sur les rapports entre les opérations intellectuelles et la causalité physique démontrent, s’il le fallait, que tout en effectuant sa longue série de recherches en psychologie génétique sur le développement du nombre, des quantités physiques, etc.,
- Piaget ne se désintéressait pas de la grande question de la signification et de la valeur des diverses formes de connaissances.
D’ailleurs, outre que l’ensemble des recherches de psychologie de l’auteur et de ses collaborateurs ne cessent d’être liées à des préoccupations épistémologiques — de sorte que cette psychologie pourrait être tout à fait adéquatement qualifiée, dans un certain sens, de critique —, on ne saurait trop insister sur l’importance pour les sciences gnoséologiques des trois tomes de l’Introduction à l’épistémologie génétique (1950), ainsi que de la création en 1955 du Centre international d’Epistémo-logie génétique. Aussi rappelons quelques résultats principaux de l’aventure épistémologique de notre auteur. Outre sa contribution peut-être la plus importante, réalisation de son rêve de jeunesse :
- être parvenu à donner un statut scientifique au moins partiel à l’épistémologie, Piaget parvient à expliquer, et à justifier ainsi, la grande distinction entre les sciences logico-mathématiques et les sciences empiriques (physique, biologique, psychologique, etc.),
- les premières trouvant leur fécondité et leur objectivité au travers de l’abstraction interne à partir des coordinations générales de l’action et de leurs formes,
- les secondes les trouvant au travers de l’abstraction externe à partir des propriétés des objets extérieurs à l’organisme.
Une autre contribution majeure au problème de la signification des connaissances est celle qui conduit Piaget à mettre en évidence, à partir de l’appui mutuel des sciences de faits et des sciences logico-mathématiques, le fameux cercle des sciences, dont l’idée se trouve d’ailleurs déjà dans Recherche, et qui a entre autres pour conséquence, en psychologie, de fournir une justification rationnelle au postulat méthodologique du parallélisme psycho-physiologique.
- D’autres contributions d’importance, dont celles éclairant le statut épistémologique de diverses notions telles le nombre, le temps, le hasard, etc., pourraient être encore signalées qui viendraient confirmer l’intérêt constant de notre auteur pour les questions épistémo-logiques.
Toutefois, pour ce qui est au moins du soubassement empirique, nous devons remarquer que toute cette période de l’oeuvre qui va des années 1920 aux années 1960, offre principalement une vision « génético-structurale » de l’évolution des notions et opérations cognitives.
- On y décrit différents niveaux ou stades de conduites et de notions mathématiques, physiques, etc.
- On y montre que les opérations logico-mathématiques sont l’aboutissement de régulations caractéristiques de stades intermédiaires.
Mais on n’y étudie que peu ou même pas du tout, sauf l’exception géniale des études sur La naissance de l’intelligence, comment s’effectue concrètement le passage d’une conduite à une autre, ce qui n’est pas sans diminuer la valeur des affirmations à portée épistémologique.
- Cette fascination génético-structurale est d’ailleurs historiquement tout à fait justifiée en raison des importantes découvertes relatives aux modèles structuraux aptes à capter l’essence de la pensée logico-mathématique.
Mais on peut noter que dès Recherche
- la notion d’équilibre a une valeur essentielle dans l’économie générale de la pensée de notre auteur,
celui-ci étant alors déjà assez peu préoccupé par le problème même des processus de l’évolution, au contraire des toutes premières et naïves élaborations théoriques des années d’adolescence.
Ce qui l’intéresse en effet déjà à l’époque de l’écriture de son roman philosophique, c’est surtout l’explication naturelle, biologique, des valeurs rationnelles à l’aide de la notion d’équilibre idéal.
Nous verrons au cours de notre travail comment se reflète ici l’influence d’Arnold Reymond, qui fit prendre un certain virage à la pensée de celui qui fut son élève au gymnase de Neuchâtel pendant les années 1913-1915 ; et
- peut-être la situation de guerre que l’Europe connaissait alors ne fut-elle pas non plus sans influencer le jeune Piaget en lui faisant souhaiter le retour à une « paix universelle » fondée sur les lois de la vie ?
En tout cas il est très probable qu’un tel désir d’équilibre entre pour une bonne part dans la détermination de la dite fascination.
Aussi faudra-t-il attendre quelques décennies, soit les années 1960-1970, pour que l’on voie Piaget commencer à retrouver un intérêt direct croissant pour le problème des processus de l’évolution.
- C’est ainsi par exemple — et surtout pour notre propos — que va se poser dans toute son ampleur véritable la question de l’équilibration des structures cognitives.
En effet, si dès Logique et équilibre (1957) a bien été montrée la raison statistique des équilibres croissant en stabilité et en extension observés dans la psychogenèse cognitive, il n’empêche qu’une telle explication ne saurait nous satisfaire, dans la mesure où elle ne nous fournit pas une explicitation approfondie des conduites et des processus concrets de cette construction — et non pas seulement filiation — des structures. En revanche, un retour d’intérêt direct, dans les années 1960, pour les problèmes généraux de la biologie va provoquer le déplacement de la préoccupation dominante, en psychologie, du problème de l’équilibre vers celui de l’équilibration.
En 1965, Piaget écrit un article sur la Limnaea stagnalis qui « adapte » la solution donnée en 1929 au problème fondamental de l’évolution biologique, aux progrès de la biologie théorique (et notamment à la conception de C.H. Waddington).
En 1967, il publie l’important ouvrage : Biologie et connaissance, qui, comme l’étude de 1936 sur La naissance de l’intelligence chez l’enfant, met l’accent tout autant, sinon plus, sur le processus fonctionnel de l’adaptation que sur ses produits structuraux.
A nouveau l’intuition biologique semble alors l’emporter sur l’intuition logique, sans pour autant, bien sûr, que l’auteur abandonne rien des thèses sur les structures opératoires de la pensée humaine.
La solution au problème de la connaissance est toujours, chez Piaget, biologico-logique ; mais la recherche peut porter tantôt plus sur un pôle, tantôt plus sur l’autre.
Ainsi, si dans la période 1920-1965 environ les recherches sont avant tout centrées sur le problème de la justification et de l’explication, à l’aide d’une notion généralisée de l’équilibre biologique, des vérités normatives, celles débutant approximativement en 1970 sont au contraire centrées surtout sur les processus de construction.
Un livre, L’équilibration des structures cognitives, problème central du développement est notamment publié en 1975, dont la fonction concernant l’étude de ces processus n’est pas sans rappeler, certes à un niveau d’élaboration notionnelle beaucoup plus poussé, le rôle joué par Recherche dans les travaux sur les totalités cognitives et dans la découverte des structures opératoires de l’intelligence.
- Cet ouvrage apparaît en effet comme le foyer d’idées à partir et en fonction duquel toute une série de recherches expérimentales et théoriques pourront être conduites qui auront pour but de mieux cerner les processus constructifs à l’oeuvre dans les différentes sortes de genèse cognitive.
C’est dans ce dernier grand cycle de problèmes, si l’on omet les travaux esquissés en vue de l’élaboration d’une nouvelle logique génétique des significations incluant la question des raisons, que s’inscrit le point de départ de la présente recherche sur les processus en jeu dans la formation, dans les années 1907-1924 environ, des cadres généraux de la pensée scientifique et philosophique de Jean Piaget ; raison pour laquelle nous allons dans ce qui suit essayer de dégager certains aspects importants de ce cycle en vue de mettre en perspective notre étude.
[…]
L’étude sur L’équilibration des structures cognitives, problème central du développement, encore qu’elle s’appuie non plus tant sur des intuitions subjectives comme la première conception de l’équilibre exposée dans Recherche, mais sur l’ensemble impressionnant des travaux effectués sur la genèse des différentes formes de connaissance et sur leur structure, fait figure à bien des égards, comme son titre l’indique d’ailleurs, plus d’introduction que de conclusion à des recherches sur les processus de constructions cognitives.
- C’est donc un livre où les suggestions théoriques dépassent assez largement la portée des enquêtes empiriques alors réalisées.
Dans cet ouvrage, Piaget présente des processus d’équilibration supposés rendre compte de trois sortes d’équilibre :
1. entre le sujet et les objets, ou entre une totalité organisée et son milieu ;
2. entre les parties ou sous-systèmes de cette totalité ; enfin entre la totalité elle-même, caractérisée par ses propres lois, et ses parties.
Ces processus se résument principalement par les conduites de régulations et d’abstractions réfléchissantes. Nous aurons l’occasion dans notre travail d’apercevoir comment ces deux dernières notions, d’usage systématique et bien défini assez tardif chez Piaget (début des années 1940 pour la première, fin des mêmes années pour la seconde) sont préparées par les travaux de jeunesse, et comment elles s’enracinent,
- la première dans les conceptions psychologiques de P. Janet,
- la seconde dans les mêmes conceptions, ainsi que dans la philosophie réflexive cartésienne de L. Brunschvicg.
Pour ce qui est des régulations cognitives, dont Biologie et connaissance avait montré la continuité fonctionnelle possible avec les régulations biologiques,
- elles peuvent être caractérisées tout d’abord et en général comme des réactions à des perturbations exogènes ou endogènes de la conduite.
- Elles présentent en outre un certain nombre de traits dichotomiques :
- renforcement ou correction de l’action ;
- homéostase ou homéorhésie ;
- régulations portant sur les actions du sujet sur les objets, ou portant sur l’interdépendance des systèmes d’actions ou de notions du sujet ;
- régulations quasi-automatiques ou au contraire actives, ces dernières étant susceptibles de conduire à des prises de conscience de telle sorte qu’il s’établit des régulations supérieures, réfléchies, subordonnant les régulations de niveau inférieur à un contrôle ou à un guidage qui les domine.
Cet étagement des régulations conduit finalement, lorsque le système de régulations se ferme sur lui-même, aux auto-régulations parfaites caractéristiques de la pensée opératoire.
- C’est dire que, par exemple, les conséquences d’un acte sont parfaitement prévues et intégrées à l’organisation initiale même de la conduite.
- A un tel niveau il y a donc auto-organisation complète des activités cognitives.
— D’autre part, un étagement différent des régulations est celui permettant de les distinguer par les types de réactions opposées aux perturbations :
1. les régulations par annulation de l’obstacle ;
2. les régulations par début de modification du système cognitif interne au sujet ;
3. les précorrections de l’erreur anticipant, dans l’idéal, toutes les perturbations possibles d’un ensemble d’activités cognitives.
- Un problème important soulevé par Piaget à propos des régulations est celui de leur réglage.
Qu’est-ce qui fait qu’il y a renforcement ou correction de la conduite dans tel ou tel sens ? Sont-ce les propriétés des objets extérieurs, les régulations n’étant alors rien d’autre que le reflet dans le sujet des régularités de l’objet ?
Notre auteur affirme que
- même en ce qui concerne la première forme d’équilibration, celle portant sur les rapports entre le sujet et l’objet, et donc celle rendant compte en dernière instance de la progression des connaissances physiques, ce n’est pas le cas ;
- ou du moins que même dans ce cas la part du sujet est grande puisque déjà la simple lecture de l’expérience, l’abstraction empirique, est dépendante des cadres généraux construits par l’intelligence logico-mathématique par abstraction à partir des coordinations générales de l’action, et que,
- d’autre part, l’apport du sujet est encore plus considérable dans l’explication causale, but théorique ultime de la connaissance physique.
Quant à la connaissance mathématique et aux activités de régulation la constituant, vu qu’elle dépasse largement le domaine de l’univers extérieur pour construire des êtres qui lui sont propres — les idéalités mathématiques, pour reprendre une expression de J.T. Desanti —, l’explication empiriste, qui rendrait compte du guidage de ces régulations par les lois de ce domaine saisies de l’extérieur, ne saurait valoir.
Mais si ce n’est pas l’objet qui règle les régulations du sujet,
- ne faut-il pas alors se tourner vers l’organisme lui-même ;
- de telle sorte que, puisque l’organisme « est un objet physique parmi les autres, mais plus actif qu’eux » (Equil. struc. cog., 1975, p. 28), le problème de l’adaptation fondamentale des instruments cognitifs au milieu extérieur ne se poserait pas, ou plutôt serait résolu par là même.
Si l’on admet en outre que les régulations cognitives ne sont pas réglées par un programme héréditaire,
- il ne reste plus qu’à les attribuer à l’activité fonctionnelle générale de l’organisme et à ses prolongements cognitifs, à son exigence de conservation et à celle de ses sous-systèmes.
L’essentiel de 1’« équation de la matière vivante », comme l’a bien montré F. le Dantec — auteur sur lequel nous aurons longuement l’occasion de revenir en raison de son importance dans la formation de la pensée du jeune Piaget —, est le pouvoir qu’a la vie, la « substance vivante », de se conserver en assimilant des aliments qui lui sont étrangers.
Et
- c’est, en définitive, dans l’exigence d’auto-conservation de la vie que Piaget va situer le « seul régulateur » assignable aux « régulations cognitives » (id., p. 28), cela en précisant qu’:
Il n’y a […] aucun cercle (ou plus exactement il existe mais il n’a rien de vicieux) à admettre que la totalité d’un système joue le rôle d’un régulateur à l’égard des régulations partielles, car il leur impose une norme extrêmement contraignante : se soumettre à la conservation du tout, donc à la fermeture du cycle des interactions, ou être entraînées à une dislocation générale, comparable à la mort d’un organisme (id., p. 29)
Affirmation qui implique encore une fois cette autre thèse centrale de l’épistémologie piagetienne, dont Piaget a eu très tôt l’intuition, il est vrai sous des formes plus pauvres :
les mathématiques et la logique, qui prolongent par dépassements successifs les lois les plus générales de la vie, sont en accord avec l’univers physique extérieur parce que la vie elle-même contient les lois de l’univers, tout en les dépassant.
- Ce qui est donc remarquable dans cette solution, c’est que les régulations cognitives elles-mêmes sont conçues comme soumises aux lois les plus générales de la vie, qui les canalisent dans le sens de l’exigence d’auto-conservation du vivant.
La solution de Piaget pose pourtant deux problèmes liés tous deux à la continuité fonctionnelle postulée entre le biologique et le psychologique :
1. le problème de la réalité ou non d’une telle exigence d’auto-conservation de la vie ;
2. le besoin de la cohérence cognitive étant un fait, reste le problème de son rattachement à l’auto-conservation biologique supposée, car on pourrait — et cela a été fait — donner d’autres raisons naturelles à la recherche de l’Un.
Nous ne discuterons pas ici de ces problèmes qui supposent et soulèvent, comme nous aurons l’occasion de nous en apercevoir, tout un ensemble de présupposés et de questions philosophiques ou scientifiques hérités de l’état même d’évolution des idées générales à la fin du xixe et au début du xxe siècle.
- Nous pouvons accepter, provisoirement au moins, la solution de la continuité biologico-psychologique.
- cela d’autant que la portée heuristique en paraît indéniable.
Aussi examinons plutôt la façon dont est conçu le réglage des régulations par le tout.
Comment la totalité d’un système peut-elle régler les régulations de ses parties ? Piaget le précise en opposant l’équilibration biologique à l’équilibre physique.
- Dans un système physique en équilibre tel celui d’une balance, le fléau ne joue que le rôle de médiateur transmettant les actions opposées des poids.
- Au contraire, dans un système cognitif composé de schèmes et de leurs aliments extérieurs, soit A et A’, B et B’, etc., les liaisons entre chaque couple et les autres constituent elles-mêmes des « sources d’action » tendant à conserver le système dans son ensemble :
[…] les actions et réactions entre A et A’si l’on modifie A’ en A », n’intéressent donc pas que ces deux éléments à eux seuls […] mais sont solidaires de l’ensemble du cycle, la résistance de A à la modification de A’en A » ne dépendant donc pas de A seulement, mais de l’ensemble des autres éléments B, C, etc. [et de leurs liaisons], (id., p. 38)
En définitive,
ce sont donc ces activités d’équilibration interne ayant pour fin la stabilisation conservatrice du tout qui jouent le rôle principal dans le développement cognitif, cela même dans le cas d’accommodations nouvelles imposées par des variations extérieures.
Le deuxième processus important qui intervient en collaboration avec les régulations de diverses sortes dans le développement des connaissances est l’abstraction réfléchissante. On sait qu’elle porte au départ de la psychogenèse sur les coordinations générales des actions de l’organisme dans ses échanges avec le milieu.
- Elle consiste en outre en une succession de réfléchissements et de réflexions conduisant à des réorganisations majorantes, sur des paliers supérieurs, de connaissances ou de systèmes de conduites antérieurement acquis.
- Cette réorganisation a pour conséquence une amélioration de l’équilibre cognitif, c’est-à-dire une auto-organisation plus parfaite, plus stable des savoirs théoriques et pratiques.
D’autre part,
- les deux processus constitutifs de l’abstraction réfléchissante, le réfléchissement et la réflexion, fonctionnent en interdépendance étroite avec les régulations cognitives.
En effet,
les régulations, en étendant et en coordonnant le champ des indices ou des signes sur lesquels se guident les conduites du sujet, permettent la formation de « paliers représentatifs » et ont donc un rôle important dans le premier moment, relatif, de l’abstraction réfléchissante, le réfléchissement.
Au contraire
les régulations elles-mêmes sont l’objet de conduites de réflexion qui, dégageant leur structure, permettra de les réorganiser en systèmes de plus en plus stables et fermés. La réflexion, thématisante ou non, conduit ainsi à une activité supérieure de réglage des régulations de niveau relativement inférieur.
Après avoir présenté les aspects les plus généraux des processus constitutifs de l’équilibration cognitive, l’auteur, s’appuyant sur des résultats de récentes recherches sur La prise de conscience (1974 et sur Réussir et comprendre (1974),
- décrit la façon dont l’équilibration s’effectue dans le cas des observations sur l’action propre ou sur l’objet, ou entre ces observations et les coordinations du sujet ou celles attribuées (ou encore appliquées) par le sujet aux objets.
Nous n’avons pas besoin d’entrer ici dans le détail de ses fines suggestions, sauf à retenir une affirmation qui va un peu à rencontre de l’attribution à la seule équilibration interne du rôle de régulateur des régulations et qui nous conduit à une nouvelle caractéristique générale de l’épistémologie et de la psychologie piagetiennes.
- Piaget nous dit en effet que, dans certains cas, l’action du sujet est « réglée sur l’objet » (id., p. 56).
Encore que cet ouvrage soit essentiellement consacré à préciser les processus constructifs internes au sujet, on trouve ici ou là quelques affirmations qui laissent une place au rôle du milieu dans la structuration des connaissances du sujet et tendent par là même à modérer ce que l’on pourrait appeler la tendance hyperconstructive de l’auteur.
Ainsi trouve-t-on une autre indication dans un passage consacré à la comparaison de l’ancien modèle de l’équilibre exposé dans Logique et équilibre (1957) avec celui présenté en 1975. Piaget nous dit en effet que dans sa dernière conception :
- […] il y a dès le départ interaction entre les observables et les coordinations, donc collaboration à tous les niveaux entre les abstractions empiriques et réfléchissantes, celles-ci jouant par conséquent de façon continue un rôle moteur nécessaire, (id. p. 63)
Bien entendu Piaget, fidèle à une position polémique constamment maintenue de lutte contre l’empirisme,
- déduit surtout de cette affirmation d’une interaction incessante entre les deux abstractions la confirmation de la thèse de l’importance de l’apport du sujet dans le développement cognitif.
Mais il nous paraît que, dans le passage cité, aussi bien les constructions du sujet que les interactions avec le milieu sont mises en évidence et apparaissent en étroite interdépendance,
- cette interdépendance pouvant être évidemment plus ou moins lâche selon le niveau de développement et selon le type de connaissances en jeu.
Pour la pensée mathématique, on peut ainsi admettre que son autonomie par rapport à l’univers transhumain s’accroît au fur et à mesure de son évolution, ce qui, si cela était, se traduirait par le caractère de plus en plus formel et abstrait de cette pensée.
Mais même alors, à supposer que cela soit, cela n’impliquerait nullement qu’aux premières étapes de cette évolution il ne faille, pour rendre compte de la genèse réelle de la pensée mathématique, s’interroger sur le rôle de l’abstraction non seulement pseudo-empirique, mais même simplement empirique, et donc également sur le rôle de l’univers extérieur à l’homme, comme régulateur, peut-être certes secondaire, à côté de, ou en interaction avec le régulateur essentiel qu’est l’équilibration majorante.
Et nous verrons plus loin que si l’on s’intéresse à la psychogenèse d’un individu concret, l’affaire se complique davantage encore.
Mais déjà, notons-le, à s’en tenir au seul niveau d’abstraction adopté par Piaget dans son étude programmatique sur L’équilibration des structures cognitives, problème central du développement,
- la simple reconnaissance d’une collaboration entre abstractions empirique et réfléchissante, et surtout de la possibilité pour l’action du sujet d’être « réglée sur l’objet » ouvre, en conséquence, la voie à quatre solutions possibles quant à l’identification du ou des régulateurs venant guider le jeu adaptatif des régulations cognitives.
Ces solutions épistémologiques qui — notons-le également — peuvent toutes quatre réserver un rôle psychologique important à l’activité exploratoire du sujet dans le développement cognitif, sont les suivantes :
1. ou le régulateur de l’organisation des connaissances est interne à l’organisme et se confond avec les lois les plus générales du fonctionnement vivant, qui prolongent elles-mêmes les lois les plus générales de la réalité physique (on reconnaît là la solution épistémologique chère à Piaget et par laquelle il rend compte de l’adéquation des connaissances humaines à l’univers physique) ;
2. ou ce régulateur, et c’est là la solution de Spencer et, peut-être, celle de Gon-seth, est formé des invariants les plus invariables, pour ainsi dire, de l’univers extérieur (et donc a fortiori, mais alors secondairement, de l’organisme vivant) ;
3. ou le régulateur ultime est intérieur à l’organisme, sans pour autant que les invariants extérieurs, s’ils existent, ou même les simples régularités extérieures ne jouent aucun rôle de guidage partiel ;
4. ou, enfin, le régulateur ultime est le milieu, sans pour autant qu’il n’y ait nulle régulation intérieure un tant soit peu autonome (c’est là une solution possible analogue à celle admise par la biologie génétique moderne pour l’évolution des espèces : les régulations observées au niveau du système génétique d’une espèce tombant elles-mêmes, en dernière instance, sous le coup de la sélection réglée par les contraintes du milieu).
- Remarquons que ces alternatives ne sont pas forcément toutes exclusives l’une de l’autre pour l’explication des formes cognitives venant jalonner le développement des connaissances humaines.
Ainsi, même pour le développement de la seule pensée mathématique, est concevable l’existence, à côté d’une mathématique pure possible redevable de son progrès à une solution de type (1) ou (3), d’une mathématique physique qui serait réglée en son progrès par un processus du quatrième type.
- Ce sont là à vrai dire des questions de fait qui ne peuvent être résolues, d’ailleurs jamais définitivement, que par des études psychologiques, sociologiques et historiques de l’évolution des connaissances de différentes espèces.
Aussi,
alors même que par un coup de génie Piaget a enrichi le champ des explications possibles, renouvelant la révolution kantienne non plus à propos de la critique de Hume, mais, comme nous le verrons dans les chapitres suivants, à propos de l’explication positive et empiriste de Spencer, nous devons prendre garde de laisser toujours ouvert le champ des réponses concernant l’interprétation de l’accord entre les divers types de connaissances et les éventuelles réalités extérieures auxquelles elles peuvent correspondre plus ou moins ;
- cela quand bien même — et c’est tout naturel si l’on a en vue les circonstances de l’époque et le constant combat anti-empiriste de Piaget — ce dernier a lui-même été porté en général à privilégier les tenants et les aboutissants d’une solution de type constructiviste, plutôt que ceux d’une solution de type constructiviste et interactionniste.
En définitive, pour conclure notre examen critique du difficile ouvrage de 1975 sur L’équilibration des structures cognitives, retenons que deux traits principaux, certes inégalement développés, s’en dégagent pour venir compléter le double aspect génétique et structural de la psychologie et de l’épistémologie de Piaget dans les années 1920 à 1960 :
- le constructivisme et
- l’interactionnisme.
Ces deux traits, comme d’ailleurs les perspectives génétique et structurale de l’école piagetienne, orienteront constamment l’esprit de notre étude. En retour, nous espérons que notre travail contribuera à éclaircir la signification de ces idées directrices en montrant leur enracinement dans le champ ouvert par l’état d’évolution des problématiques et des idées en sciences de la vie et en philosophie à la fin du xixe et au début du xxe siècle.
Reste maintenant à examiner dans quelle mesure le constructivisme et l’interactionnisme ont, comme les idées de genèse et de structure, été étudiés et validés sur le terrain des faits, des recherches empiriques.
- Une étude critique poussée des travaux réalisés dans le cadre de l’école de Genève nous a permis de nous assurer que l’un des quatre piliers de la conception piagetienne, à savoir l’interactionnisme, n’a pas reçu le même traitement que les trois autres,
- cela en raison principalement de ce que nous pouvons appeler un « biais idéaliste » traversant l’ensemble de ces travaux.
En effet il n’y a pas de doute que l’idée constructiviste a reçu au moins un début de démonstration expérimentale grâce, par exemple et surtout, aux travaux d’Inhelder, Sinclair et Bovet sur l’apprentissage des structures cognitives.
D’autre part, malgré les problèmes qui peuvent se poser, il est clair que l’ensemble des recherches de l’école pendant les années 1920-1960 fournit une masse considérable de faits venant lester sur le terrain de l’expérience les idées de structure et de genèse.
En outre, on relèvera qu’à ces trois idées empiriquement enracinées — genèse, structure, construction — correspondent trois perspectives ou points de vue de recherches qui ont, depuis longtemps pour les deux premières, plus récemment pour la dernière, présidé à la mise en évidence des données permettant un tel ancrage des théories dans l’expérience.
- Or notre enquête critique nous a permis de révéler combien au contraire l’idée interactionniste a peu reçu de concomitant dans le développement d’un point de vue de recherche manifestant complètement ses implications.
- Et combien, par là, ont été systématiquement laissés à l’écart de l’enquête empirique des faits susceptibles de justifier l’apport structurant du milieu dans la formation des connaissances, aussi minime soit-il.
Il ne paraît pas erroné à cet égard de trouver les raisons principales d’une telle lacune et du biais idéaliste correspondant dans la lutte anti-empiriste très tôt engagée par Piaget dans ses recherches de psychologie génétique, comme dans l’appui qu’il a trouvé pour ce combat dans la philosophie critique de L. Brunschvicg et dans la psychologie constructiviste de la conduite élaborée par P. Janet.
Précisons cependant. C’est très vraisemblablement cette lacune même — le développement incomplet de l’interactionnisme sur le terrain psychologique — qui a permis à Piaget la riche moisson en psychologie génétique et constructiviste, ce dans la mesure où le rôle du milieu dans la formation des connaissances étant ignoré ou, simplement, laissé de côté, l’action formatrice du sujet connaissant s’en voyait d’autant valorisée.
- Aussi faut-il bien voir l’apport éminemment positif, pour la genèse de l’oeuvre piage-tienne, de cette lacune que nous essayerons de combler un peu ici en essayant de nous placer d’un point de vue véritablement interactionniste — et non pas seulement génétique (sens large), structuraliste (sens large), et constructiviste — pour étudier la genèse même de cette oeuvre.
Pour justifier nos affirmations sur l’existence de la lacune signalée dans les travaux de l’école de Genève, comme du biais idéaliste dont elle est le corrélat, nous nous contenterons ici, vu la longueur de notre étude, d’examiner quelques ensembles de recherches directement dirigées par Piaget.
- Mais il eût été facile — nous l’avons d’ailleurs fait dans une étude préliminaire — de montrer comment cette lacune et ce biais sont tout autant et même plus apparents (en raison probablement de l’absence d’une formation biologique chez la majorité des psychologues élèves et collaborateurs de Piaget), dans les autres courants de recherches non directement dirigés par le maître.
Et cela vaut même pour des travaux de psychologie sociale (cf. par exemple la thèse de A. N. Perret-Clermont), dont on aurait pu attendre que leurs auteurs fussent plus sensibilisés à ce que le milieu culturel d’un individu peut contenir de formateur pour le développement des connaissances de celui-ci.
- Il est vrai que l’on rencontre chez ces auteurs, comme chez Piaget d’ailleurs, un autre biais qui leur fait par trop privilégier une notion — un peu mystifiante et toujours insuffisamment développée dans ses implications méthodologiques — d’interaction sociale, au détriment de la notion de transmission.
- La première y est en effet seule considérée — à tort, car il est des transmissions enrichissantes — comme ayant une efficacité formatrice sur le développement cognitif du sujet, et la seconde seule considérée — tout aussi à tort, car il est des interactions sociales fâcheuses — comme ayant une efficacité inhibitrice sur le même développement.
Toutefois, avant de commencer l’examen de quelques travaux dirigés par Piaget, il faut nuancer notre jugement sur le caractère peu développé du point de vue interactionniste dans l’école de Genève.
- Certaines recherches récentes de cette école manifestent une sensibilité croissante à ce point de vue, et aux problèmes psychologiques et épistémologiques qui lui correspondent. On pourrait renvoyer ici aux recherches interculturelles de P. Dasen, encore que cet auteur, trop fidèle en cela au paradigme méthodologique de la psychologie expérimentale, s’il a bien montré combien les divers milieux extérieurs propres aux sujets connaissants de différentes cultures pouvaient favoriser, selon leurs caractéristiques, le développement de tel ou tel aspect de l’intelligence humaine, n’a pas, à notre goût, suffisamment éclairé comment ces milieux peuvent agir sur le développement cognitif des sujets, ni suffisamment éclairé le statut épistémologique de la notion de milieu.
Mais c’est surtout dans les recherches récentes sur les stratégies, dirigées par B. Inhelder et G. Cellérier, qu’une telle sensibilité à l’étude du rôle du milieu et à la façon dont celui-ci peut agir sur le développement des connaissances du sujet se fait jour.
Cependant il reste qu’une telle sensibilité est encore fort marginale par rapport à la problématique générale de ces travaux, ce qui explique le peu d’efforts théoriques faits pour cerner le quoi et le comment de l’apport de l’environnement dans les échanges avec le sujet, et le peu d’efforts réalisés pour tenter de donner une définition épistémologique et heuristiquement féconde à la notion de milieu.
Comme indiqué, et sans entrer, donc, dans l’analyse des recherches précitées ou d’autres également dirigées par des collaborateurs plus ou moins proches de Piaget, examinons rapidement quelques travaux du maître afin d’y montrer combien la perspective interactionniste, contrairement à la perspective constructiviste, n’a pas été lestée sur le terrain des faits psychogénétiques, ce qui n’est peut-être pas sans jeter quelque ombre sur les conclusions épistémologiques issues de la seconde.
Concernant tout d’abord le problème de la construction des connaissances, ou de la justification dans l’expérience de la valeur heuristique de la perspective constructiviste, on peut faire une distinction entre
- des recherches centrées sur la raison des déséquilibres, sources des rééquilibrations, et
- d’autres centrées surtout sur le comment de l’équilibration.
Pour les premières, on peut rappeler les études sur La contradiction (Piaget, 1974) ou celles sur Le possible réalisées au Centre international d’Epistémologie génétique en 1975-1976. Pour ce qui touche à l’étude empirique des processus de l’équilibration cons-tructive, on se référera surtout aux travaux sur L’abstraction réfléchissante (Piaget, 1977) ; sur La généralisation (Piaget, 1978) ; sur Les formes élémentaires de la dialectique (1980) ; ainsi qu’aux deux ouvrages déjà signalés : La prise de conscience (1974) et Réussir et comprendre (1974), tous deux centrés sur le rôle de la prise de conscience ou de la conceptualisation dans le réglage des conduites.
- On voit donc que l’ensemble des recherches empiriques consacrées à certains aspects importants de l’équilibration des structures de la connaissance est imposant, encore qu’y fassent défaut des études spécifiques systématiquement conduites sur la question des régulations cognitives.
Elles ont eu pour résultat majeur de mieux cerner la nature de sous-processus importants de l’équilibration, par exemple ceux du réfléchissement et de la réflexion, ou encore celui des réglages entre la prise de conscience et l’action.
A vrai dire, l’ensemble de ces recherches, les nombreuses conduites qu’elles ont permis d’observer chez les enfants, font davantage figure de sondages que de travaux achevés, c’est-à-dire de travaux dans lesquels les rapports entre les concepts théoriques et les faits soient articulés avec une précision suffisante. C’est ici surtout que la jonction de la méthode psychogénétique avec les méthodes récentes de simulation des conduites paraît prometteuse, apte à ouvrir un bel avenir à des recherches futures. Mais peu importe cette restriction. Il suffit de signaler ici la richesse des matériaux déjà récoltés venant corroborer la thèse constructi-viste.
- En ce qui concerne l’aspect interactionniste de la psychologie et de l’épistémologie de l’école de Genève, l’affaire est plus délicate, étant entendu que par cet aspect nous désignons le problème des rapports entre le sujet et son environnement, et non pas l’étude des interactions intérieures à un système biologique ou cognitif.
La question est la suivante :
est-ce que l’école de Genève s’est jusqu’ici donné les moyens méthodologiques d’étudier cette interaction ? ou même, plus fondamentalement, s’est-elle jamais donné pour but d’analyser véritablement le rôle de l’environnement dans la structuration des conduites et des connaissances du sujet ?
- ce qui est après tout l’une des deux exigences et conditions d’une psychologie et d’une épistémologie interactionnistes,
- l’autre étant évidemment l’étude de l’apport du sujet dans ses échanges avec le milieu.
Il ne nous semble pas, et c’est ce que nous allons chercher rapidement à montrer, non sans noter le lien entre les problèmes de l’interactionnisme et ceux des rapports entre assimilation et accommodation, ou entre abstraction réfléchissante et abstraction empirique dans la formation des connaissances.
A considérer tout d’abord l’ensemble des recherches de psychologie réalisées sous la direction de Piaget, nous pouvons en effet les diviser en deux classes, relativement au problème soulevé par les interactions entre le sujet et son milieu :
- celles dans lesquelles le problème n’est tout simplement pas posé, et
- celles dans lesquelles il est aperçu sans être vraiment étudié pour autant.
En fait, la plupart de ces recherches l’ignorent totalement, dans leur but comme dans leur méthode.
La psychologie génétique, avons-nous vu, découvre dans les années 1920, et cela grâce avant tout à Piaget, un programme d’études extrêmement fécond. C’est alors l’ensemble des travaux sur la genèse des notions scientifiques, des opérations logico-mathématiques ; les travaux sur la construction du réel, sur la construction de l’objet permanent, etc.
- La psychologie génétique renouvelle également les études sur la perception, pour laquelle elle démontre l’importance d’activités perceptives jusque-là passées inaperçues ou presque. Elle renouvelle aussi et dans la même veine les études sur la mémoire et l’image, fonctions dont, comme pour la perception, elle étudie la genèse en rapport avec celle de l’intelligence humaine.
Or il faut remarquer que dans aucune de ces recherches le problème empirique de l’interaction, des apports respectifs du sujet et du milieu, n’est posé, du moins pour ce qui concerne l’apport du dernier, dont l’importance est d’ailleurs fortement minimisée sur le plan théorique.
Certes on peut trouver çà et là des indications sur le rôle du milieu en tant que frein ou accélérateur de la construction des connaissances du sujet ; notamment dans l’explication des décalages horizontaux dans l’acquisition d’opérations et de notions de mêmes structures sous-jacentes ; ou encore l’intervention de l’objet est-elle suggérée par la notion de « rencontre » dans les mécanismes perceptifs.
- Mais nulle part on ne voit de véritables interrogations sur l’apport du milieu dans la formation des connaissances.
Pour prendre un exemple frappant, cette absence d’intérêt pour le problème de l’interaction est évidente dans les recherches sur la stéréognosie (Représentation de l’espace chez l’enfant, 1948, chap. I).
Ce que démontre magnifiquement cette recherche, c’est la part énorme des activités que l’enfant doit effectuer avant de pouvoir reconnaître des formes géométriques, ainsi que l’importance de son savoir dans le guidage de la reconnaissance.
Mais ce sur quoi ne s’interroge pas une telle étude, c’est la manière dont la forme de l’objet, aspect de la « géométrie du monde », peut elle aussi guider, régler les activités de coordinations de cet enfant, à supposer que l’on puisse parler d’un réglage extérieur de l’activité du sujet à côté du régulateur interne que constitue l’exigence de cohésion intrinsèque au système cognitif.
Nous pourrions dire la même chose des recherches sur l’imitation (voir La formation du symbole chez l’enfant, 1945).
- Quelle est la fonction de l’imitation dans la formation des connaissances pratiques ou théoriques, et dans quelle mesure le milieu structure-t-il le sujet par la médiation de cette fonction ?
- De telles questions ne sont pas soulevées.
Rappelons maintenant ce qu’affirme Piaget dans L’équilibration des structures cognitives :
[…] Quant aux structures logico-mathématiques en général, il serait inconcevable de leur attribuer comme régulateur la nature physique des objets, puisqu’elles les dépassent de toutes parts, (op. cit., p. 28)
Nous ne mettons pas en doute que la pensée mathématique génère des objets idéaux n’ayant nul correspondant extérieur à cette pensée, ce qui implique en effet — sauf à reconnaître une nature arbitraire à ces objets — la présence d’un régulateur intérieur qui assure l’objectivité de celle-là et en rend compte.
Seulement cet argument ne paraît pas suffisant pour éliminer toute activité régulatrice de la nature « physique » extérieure.
- Un tertium est possible qui, à côté du régulateur interne constitué par l’exigence d’auto-conservation du vivant ou tout simplement par l’exigence de cohérence cognitive, ou plutôt en interaction avec ce régulateur, laisserait sa place à un régulateur extérieur :
s’il n’y avait pas d’objets d’une solidité relative dans le monde physique, l’organisme vivant aurait eu beau construire des mains, cela eût été vain…
D’ailleurs l’exemple des coordinations d’actions nécessitées par l’activité stéréognosique nous montre qu’il n’est pas dit que certaines propriétés formelles des objets ne jouent aucun rôle structurant dans le réglage même des coordinations du sujet ; étant alors entendu que c’est l’existence même d’un sujet ou d’un organisme qui fait qu’il y a coordination, et que, de plus, il est fort vraisemblable, vu l’emboîtement des structures opératoires les unes dans les autres, que ce soit la « forme formante » de l’organisme qui soit le régulateur ultime.
En admettant l’action d’un réglage externe à côté de l’auto-réglage intérieur, il faudrait alors que la théorie constructiviste de l’acquisition des connaissances, et même des connaissances logico-mathématiques, intègre en son sein ce qu’il peut y avoir de juste dans une épistémologie empiriste débarrassée de ses naïvetés dues à l’ignorance plus ou moins totale — selon la psychologie impliquée — de l’activité du sujet, tout en ramenant à une place secondaire la thèse centrale à cette épistémologie sur les origines des formes rationnelles.
- Une telle intégration, outre qu’elle conduirait à développer pleinement la perspective interactionniste à l’intérieur du constructivisme, permettrait peut-être aussi de contourner un problème que risque de soulever la solution de Piaget quant à la raison de l’adéquation de la pensée mathématique à la réalité extérieure.
Si l’on admet que la mathématique n’a été, ne peut et ne pourra être construite que par la seule abstraction à partir des coordinations générales des actions, puis par abstraction constructive à partir des résultats des abstractions réfléchissantes antérieures, etc., il reste à savoir si la mathématique ne butera pas un jour définitivement sur la nature profonde de l’être physique, dans la mesure où, si l’organisme appartient effectivement au réel physique, il n’empêche qu’il lui appartient comme un objet d’un certain niveau que l’on peut qualifier de macroscopique.
Si l’on revient maintenant aux recherches de psychologie génétique, on peut cerner une caractéristique concernant la méthode.
- On peut se demander si la question posée par Piaget et ses collaborateurs dans cette classe de recherches sur la genèse de différentes notions et opérations de l’intelligence humaine n’induit pas une méthode de sélection des faits peu apte à cerner la nature de l’interaction entre le sujet et le milieu.
Une forte présomption de cette relative incapacité de la méthode psychogénétique classique apparaît dans le fait que, hormis le problème des décalages, la question de l’interaction semble s’être surtout imposée de façon extérieure à la psychologie génétique, soit à partir de considérations provenant du domaine de l’histoire des sciences. On y reviendra tout de suite.
- Mais notons déjà que s’il en va bien ainsi, alors peut-être faudra-t-il apprendre à forger un point de vue méthodique nouveau, bi-polaire en quelque sorte, relativement à l’objet de la psychologie cognitive, point de vue destiné à compléter les anciennes perspectives auxquelles l’école de Genève est déjà accoutumée ; et c’est à cette tâche que nous voulons apporter une contribution par le présent travail.
Dans quelles conditions et quand s’est donc imposé peu à peu le problème de l’interaction dans le contexte des recherches de psychologie et d’épistémologie génétiques effectuées à Genève, sans que pour autant l’on se préoccupe vraiment de le résoudre en prenant appui sur le terrain de l’expérience, ni pour ce faire d’adopter un point de vue interactionniste complet, c’est ce que nous voulons examiner maintenant.
C’est à travers les études sur le développement et la nature de la fonction — au sens mathématique ou physico-mathématique du terme — et de la causalité, réalisées dans les années 1960 au Centre international d’Epistémologie génétique, que le problème de l’interaction sujet-milieu en vient à être posé, prenant alors la forme d’une interrogation sur la nature des rapports entre la genèse des structures opératoires du sujet et celle de la causalité physique.
[…]
En résumé, la leçon à tirer du trop bref survol précédent de l’oeuvre de Piaget paraît bien être la place de plus en plus grande accordée aux influences extérieures dans la construction des connaissances, cela en raison de l’action conjointe des suggestions de L. Apostel, de la résistance des faits dans les recherches nouvelles sur la causalité physique chez l’enfant, et du réveil de l’intérêt biologique chez notre auteur, et sans pourtant, bien sûr, que ce dernier cesse d’insister sur le rôle central des activités du sujet et des conduites d’équilibration interne dans la genèse des formes de la connaissance.
Mais d’un autre côté, il reste que l’étude de la place accordée aux influences extérieures — place qui ne se réduit plus seulement, on l’a vu, à jouer le rôle de stimulation dans la mesure où ces influences peuvent informer, jusqu’à un certain point, les connaissances du sujet — reste par trop limitée aussi bien du point de vue théorique que du point de vue empirique.
En effet il est trop clair qu’aucune des recherches réalisées au Centre depuis le moment où le problème de l’interaction s’est imposé complètement à Piaget n’a eu pour visée de trouver un moyen d’accrochage empirique pour étudier le processus d’« adaptation phénotypique » propre à la formation des connaissances, et que, par ailleurs, Piaget et ses collaborateurs ne se sont pas du tout préoccupés de cerner théoriquement la notion du milieu, ni de chercher à préciser la nature du processus de « phénocopie cognitive » rendant possibles les éventuelles actions formatrices des divers environnements extérieurs au sujet connaissant.
Si les recherches de psychologie et d’épistémologie génétiques dirigées par Piaget ont surtout été centrées sur l’apport du sujet dans la construction des connaissances, et si, plus profondément, le point de vue méthodique et problématique qui les a guidées tendait à inhiber toute mise en évidence de la part du milieu dans cette construction, d’autres travaux conduits au Centre, tels ceux sur l’apprentissage cognitif, n’ont-ils pas eux au moins cherché à résoudre cette question ? Il n’en est rien, quand bien même, semble-t-il, le thème de telles études paraît en principe impliquer assez directement, pour le psychologue épistémologue, le problème de la part à faire au milieu dans la formation du savoir. Les premiers travaux du Centre d’épistémologie ont certes été consacrés à des recherches expérimentales et à des discussions théoriques devant tester la valeur respective des théories constructiviste et empiriste (ou empirico-logique) pour l’explication du développement de la pensée naturelle.
Dans un premier temps, les différents collaborateurs du Centre se sont penchés sur l’existence de formes logiques, sinon d’une logique, dans les conduites cognitives les plus élémentaires.
Il a été ainsi montré que dès les activités les plus rudimentaires de lecture de l’expérience, le sujet apporte une structuration de forme parente de celle constatée dans les conduites proprement logiques. Mais à aucun moment on ne s’est posé la question de savoir si l’organisation des schèmes du sujet — le principe de cette structuration — n’est pas elle-même, à quelque degré que ce soit, un « décalque » de propriétés formelles du milieu.
- Il est vrai que cet ensemble de travaux ayant été presque tout entier orienté par le dessein de mettre en évidence les lacunes de l’empirisme épistémologique et surtout psychologique, soit son ignorance du rôle actif du sujet dans ses interactions avec le milieu, ceci explique peut-être cela.
Néanmoins le fait que l’on ait négligé de poser cette interrogation, et que l’on n’ait à fortiori pas cherché à y répondre, permet de mettre en doute la valeur épistémologique, mais non pas psychologique, des affirmations anti-empiristes résultant de ces études.
- Assurément, dans ces premières recherches du Centre Piaget lui-même ne nie pas, sur un plan purement théorique, l’intervention du milieu dans l’interaction avec le sujet connaissant.
Dans son article sur « Assimilation et connaissance » (in La lecture de l’expérience), il considère, mais sans approfondir, les « modifications imposées du dehors par les objets et qui contraignent le sujet à différencier ou même à transformer ses schèmes plus ou moins profondément » (op. cit., p. 65), étant entendu que toute accommodation est relative à une activité assimilatrice, par laquelle le sujet tend à assimiler une réalité donnée.
Et dans une parenthèse tout à fait instructive, l’auteur rappelle que son intérêt pour la psychologie génétique est parti du « problème des relations entre les génotypes et les phénotypes (ou accommodats), dans l’adaptation des espèces animales à leur milieu » (op. cit., p. 66) ; et il ajoute quelques lignes plus loin :
[…] toute adaptation d’un organisme donné à un milieu donné constitue une interaction strictement indissociable entre l’assimilation (au sens large) de ce milieu à la structure antérieure de cet organisme et l’accommodation de cette structure à ce milieu, (id., p. 66-67)
- Il est intéressant de constater que c’est là un des rares passages où le problème de l’interaction est posé dans cette période.
Et c’est vraisemblablement la proximité de l’analyse biologique qui conduit Piaget à en parler, ce qui montre à nouveau l’importance de la suggestion biologique dans la constitution d’une problématique interactionniste complète en psychologie cognitive.
On remarquera toutefois qu’aucune conséquence de méthode n’est tirée de cette affirmation isolée sur le caractère indissociable de l’assimilation et de l’accommodation. Pourtant il apparaît immédiatement que deux questions en découlent quant à l’étude de l’interaction sujet-milieu, ou plus généralement organisme-milieu. Tout d’abord : qu’est-ce que fait l’organisme du milieu ? Comment est-ce qu’il se l’assimile ? Et ensuite : qu’est-ce que le milieu (toujours relatif à l’organisme) impose à ce dernier ?
- Or, et ici nous anticipons un peu sur la suite de notre introduction, répondre à ce dernier problème nécessite une étude relativement indépendante des caractéristiques du milieu. On peut donc regretter que, du point de vue de l’interactionnisme, quatrième trait de la psychologie et de l’épistémologie piagetiennes, l’ensemble des recherches sur La lecture de l’expérience n’ait pas porté également sur le deuxième volet des échanges entre le sujet et l’objet.
A ces recherches sur la lecture de l’expérience vont succéder, dans un second temps, des études sur les rapports entre l’activité logique et l’activité d’apprentissage. Là encore, l’essentiel des discussions théoriques et des travaux empiriques a pour but de démontrer que l’apprentissage n’est pas une simple copie, au sens où l’entendent les psychologues empiristes ; que, dans l’interaction entre le sujet et ce qu’il a à apprendre, il y a une activité organisée et organisatrice du sujet.
Les recherches sur la lecture de l’expérience avaient démontré que l’enregistrement synchronique du donné extérieur n’est pas une pure et simple copie, passivement enregistrée par le sujet. Les recherches sur l’apprentissage vont montrer qu’il en est de même pour l’enregistrement diachronique.
Deux problèmes sont posés en rapport avec ce dessein :
1. dans quelle mesure l’apprentissage comporte-t-il une logique ?
2. existe-t-il un apprentissage des structures logico-mathématiques, et si oui, se laisse-t-il expliquer par la conception empiriste de l’apprentissage ?
Au cours des discussions lors du symposium de 1958 du Centre international d’Epistémologie génétique — symposium clôturant ces recherches — quelques points ont été soulevés touchant directement la question de l’interaction. Tout d’abord P. Gréco, remarquant que tous les participants acceptent le point de vue interactionniste à propos du problème épistémologique classique des rapports entre le sujet et l’objet, n’en conclut pas moins que :
[…] ce n’est encore rien dire que de parler d’interaction tant que l’on n’a pas trouvé la méthode pour délimiter avec quelque rigueur la part de l’objet et celle du sujet dans cette interdépendance évidente, (résumé par Piaget, in Apprentissage et connaissance, Etudes d’épistémologie génétique, volume 7, 1959, p. 12)
- Là est bien la question, et le problème se dédouble peut-être en ce qu’il n’est pas dit que la méthode et surtout le point de vue choisis dans ces travaux pour mettre en évidence la part possible ou réelle du sujet dans la structuration de ses connaissances ait été les meilleurs pour la mise en évidence de l’apport inverse.
- Or, que cela ne soit pas, c’est en tout cas ce que suggère l’examen de leurs résultats.
Les résultats de ces recherches ont en effet été les suivants.
1. Les apprentissages comportent une certaine logique qui manifeste un apport formel du sujet.
2. Réciproquement, il existe un certain apprentissage possible des structures logiques : on peut accélérer la vitesse spontanée d’acquisition de ces structures.
3. L’apprentissage est très limité s’il ne consiste qu’en de simples lectures sur l’objet ; bien meilleur au contraire lorsqu’il consiste en « exercice opératoire ».
Cela signifie donc que l’apprentissage n’est vraiment fécond que si le sujet active des coordinations d’actions antérieurement acquises et structure avec leur aide son apprentissage actuel, alors que l’enregistrement par trop passif des régularités extérieures conduit à des connaissances empiriques, ni généralisables ni stables.
- Les études sur l’apprentissage conduites au Centre international d’Epistémologie génétique mettent donc elles aussi en évidence l’importance de l’activité du sujet et de son organisation dans la structuration des connaissances.
Mais en résulte-t-il que l’apport du milieu soit nul dans toute connaissance autre qu’empirique, peu stable, oubliée aussitôt que non exercée ? Il ne nous semble pas qu’une telle affirmation soit déductible des résultats obtenus.
En effet, rien n’a été entrepris dans ces travaux — sinon à travers une approche empiriste classique vraiment trop naïve de l’apprentissage — pour essayer de préciser le rôle du milieu dans l’interaction avec le sujet.
- L’environnement n’a-t-il qu’une action perturbatrice, ou au contraire règle-t-il en partie, par d’éventuelles propriétés formelles, les coordinations du sujet ?
Comme toutes les activités de coordination du sujet, nécessaires, on vient de le voir, à une structuration durable des connaissances, se font à l’aide d’un support matériel, du moins dans les premières étapes du développement cognitif, la question de l’apport du milieu reste entière.
Comme l’affirme Gréco dans les conclusions de son article sur « L’apprentissage dans une situation à structure opératoire concrète » (in Etudes d’épistémologie, volume sept) :
Il va de soi pourtant que ces structurations ne sont pas l’élaboration ex nihilo de schèmes, miraculeusement ou fortuitement adéquats à la réalité extérieure. Elles prennent incontestablement appui sur l’objet, dont la fonction ne se limite pas à marquer l’insuffisance ou l’échec des schèmes préalablement employés. Nous avons longuement montré jusqu’ici que la structuration n’était pas le décalque plus ou moins laborieux de régularités objectives. Mais l’objet, s’il n’est pas la réalisation de la structure, est le support d’actions dont la coordination n’est ni arbitraire, ni quelconque, (op. cit., p. 179)
Quelle est la fonction de ce support ? N’est-elle pas non seulement de perturber le développement cognitif de façon à l’accélérer ou à le freiner, mais de le guider un tant soit peu ?
- Encore une fois les recherches considérées nous laissent sur notre faim, alors même que l’on est fortement tenté d’admettre la conclusion de Piaget concernant la vraisemblance de l’intervention d’un processus d’équilibration interne dans lequel les mécanismes de compensation présentent « une parenté évidente » avec la réversibilité des opérations logiques (cf. les Etudes d’épistémologie génétique, volume dix, page 183).
Et en effet si les coordinations d’actions du sujet sont si importantes pour l’apprentissage des structures opératoires, il serait étonnant qu’aucun principe d’équilibre ou de cohérence n’intervienne pour les diriger, ce « régulateur » interne ne se confondant pas, mais interagissant avec d’éventuelles régularités ou règles impératives intériorisées, et prolongeant au contraire les lois d’auto-conservation et d’auto-organisation mêmes de la vie, cela à supposer justifiée l’attribution de telles lois à l’ordre biologique.
- Reste qu’à cette étape du développement de la conception piagetienne, aucun travail cherchant à étudier les conduites d’équilibration n’est encore entrepris pour démontrer le bien-fondé de la thèse de l’équilibration interne, et que surtout, pour notre propos, rien dans les faits récoltés ne permet de fonder empiriquement la thèse ultérieurement affirmée du primat du réglage interne sur tout réglage extérieur dans la formation des structures cognitives du sujet.
Sur le premier point — la mise en place de recherches ayant pour objet l’étude empirique des activités d’équilibration du sujet — il faudra attendre les travaux sur l’apprentissage d’Inhelder, Sinclair et Bovet pour qu’une première tentative soit faite dans ce sens, ces travaux permettant effectivement de montrer l’importance et la nature des activités de compensation, etc., dans le développement des connaissances.
- Quant au deuxième point, il faut encore une fois remarquer que le fait que l’on ne se soit pratiquement pas préoccupé d’entreprendre une étude systématique de l’apport du milieu dans la formation des connaissances, n’est pas sans entacher la valeur épistémologique de la thèse constructiviste, la démonstration de l’inanité empirique de la psychologie empiriste ne suffisant pas à infirmer le fondement même de l’épistémologie empiriste, à savoir, traduit dans le langage de Piaget, le primat du réglage extérieur des conduites cognitives sur les régulations intérieures.
4. Conclusion
Nous sommes parvenu au terme de la mise en perspective de notre étude par rapport à un certain nombre de travaux effectués à partir du cadre théorique piagetien, travaux ayant pour but l’élaboration d’une théorie du développement cognitif. Cet examen a permis de mettre en évidence, à côté des apports positifs, génétiques, structuralistes et constructivistes de l’école de Genève à la science psychologique, l’existence d’une certaine insuffisance de méthode et surtout d’un point de vue inadéquat à cerner l’apport du milieu dans la structuration cognitive des sujets de la connaissance ; défaut dont les origines relèvent peut-être pour une part de la volonté de lutter contre la dominance de l’empirisme dans la psychologie du XIXe et du début du XXe siècle.
- Or, si une telle insuffisance est de peu d’importance pour le traitement des problèmes cognitifs considérés des points de vue génétique et structuraliste (soit de la mise en évidence de la hiérarchie des conduites et de leur structure plus ou moins manifeste), il n’en va plus de même pour le problème des processus effectifs de construction des connaissances, autrement dit pour les points de vue constructiviste et interactionniste.
A notre avis, une des questions principales qui se posent aujourd’hui en vue de l’élaboration d’une théorie complète du développement cognitif est alors d’intégrer effectivement l’étude des échanges entre le sujet et le milieu dans la problématique générale dirigeant la recherche empirique.
- Mais ne suffirait-il pas pour assurer cette intégration d’effectuer une synthèse dialectique entre la thèse trop idéaliste, au niveau de l’enquête empirique tout au moins, de la psychologie constructiviste et le point de vue trop réaliste de la psychologie empiriste, synthèse souhaitée par D. Kuhn dans un article de 1978 sur « Mechanism of cognition and social development : One psychology or two » ?
Nous ne le croyons pas, cela d’une part parce que — outre que ses conceptions fondamentales sur la nature de la connaissance sont en contradiction avec la conception constructiviste complète, de sorte que l’un des deux termes sera forcément sacrifié dans la synthèse —— la psychologie empiriste a une notion beaucoup trop naïve de la nature des milieux dans lesquels et en interaction avec lesquels les sujets se développent ; et d’autre part parce que, ignorant presque totalement l’activité cognitive du sujet, elle néglige ce point de méthode essentiel : la nécessité pour le chercheur de partir des sujets pour la délimitation des milieux pertinents à l’explication visée des transformations cognitives.
- En fait, et c’est là la raison principale de la vanité d’une synthèse entre les résultats des psychologies constructiviste et empiriste,
- la conception constructiviste comporte à notre avis une notion théorique beaucoup plus avancée du statut des milieux et des processus d’échanges sujet-objet.
- Son insuffisance n’est donc pas tant au niveau du cadre théorique général, qu’au niveau de la méthode de recherche, trop centrée sur l’étude du seul sujet.
En définitive il résulte de la discussion précédente que ce n’est pas d’une synthèse de la psychologie constructiviste avec la psychologie empiriste du XXe siècle qu’il faut attendre la réponse à des questions se posant à l’intérieur même de la problématique propre à l’école de Genève, mais d’un effort d’inventions méthodologiques et conceptuelles aptes à renouveler le champ des enquêtes empiriques et à apporter une vision nouvelle de l’objet de la psychologie, comme peut-être des faits pertinents à l’éclaircissement de ces questions. »
– Ducret, J. (1984). Les quatre piliers de l’oeuvre piagétienne. Mise en perspective et justification du point de vue interactionniste adopté. Dans : , J. Ducret, Jean Piaget, savant et philosophe – Volume 1: Les années de formation (1907-1924) : étude sur la formation des connaissances et du sujet de la connaissance (pp. 3-31). Librairie Droz.
« Cet article se veut une contribution au débat autour de la notion de fiction et de son rôle cognitif ou épistémologique ; un débat qui, depuis une quarantaine d’années, resurgit régulièrement dans le domaine littéraire et dans les sciences humaines.
L’enjeu précis de cette contribution est double :
- premièrement, il s’agira de resituer historiquement l’intérêt de la notion de fiction pour les débats épistémologiques en sciences humaines, en soulignant, en même temps, une certaine banalisation récente de son emploi, qui tend à la réduire à un simple synonyme de « construction ».
- Deuxièmement, cette contribution cherchera à relever, au-delà de cette banalisation, certains aspects qui découlent d’une confrontation entre pratiques d’écriture fictionnelles et pratiques d’écriture scientifiques que les réflexions épistémologiques ont encore intérêt à approfondir pour préciser, en particulier, les modalités de construction des connaissances en sciences humaines.
Au lieu d’aborder de front les questions traditionnelles soulevées par ce débat (la fiction présente-t-elle une portée cognitive ou épistémologique ? Les textes en sciences humaines sont-ils des « fictions » ? etc.), nous privilégierons un regard en surplomb qui nous permettra de relever le rôle que ce débat a joué dans le renouvellement de la conception de la connaissance dans les sciences humaines et dans le domaine littéraire.
- La notion de fiction a revêtu en effet une fonction de grande importance en tant que catalyseur du changement de conception épistémologique que les sciences humaines ont vécu ces quarante dernières années et qui les a vu passer d’une conception fortement marquée par le paradigme positiviste à une conception d’orientation constructiviste.
De l’intérêt de la notion de fiction pour les sciences humaines
La notion de fiction se retrouve en effet au centre des réflexions épistémologiques à partir des années 70, au moment où le paradigme positiviste – qui avait jusque-là dominé les positions en sciences humaines – commence à être mis en doute sous la pression du nouveau paradigme constructiviste.
Ce changement d’orientation entraîne, parmi d’autres transformations, un changement sensible au niveau de la conception du langage et de son fonctionnement épistémologique :
- d’une conception qui voyait dans le langage scientifique un instrument neutre et transparent à travers lequel transmettre des représentations adéquates de la réalité, les sciences humaines s’orientent vers une conception du langage, et plus spécifiquement du texte, comme lieu complexe de construction des connaissances.
Dans ce contexte révolutionnaire (au sens kuhnien), les frontières entre différents genres textuels et différentes pratiques d’écriture ont été revisitées et parfois remises en doute afin de trouver de nouveaux équilibres.
Ce travail de révision a été marqué notamment, selon les mots de Vincent Debaene, par la volonté de ne pas rester « dupe des ‹ Grands Partages › (entre science et littérature, entre ethnographie et fiction, entre réel et imaginaire, entre objectif et subjectif, etc.) » et par « le constat enthousiaste d’un ‹ brouillage ›, d’une ‹ hybridation ›, d’une ‹ porosité › des pratiques discursives (ethnographie, récit de soi, fiction, science, littérature, toutes formes dont on s’émerveille qu’elles ‹ communiquent › entre elles après avoir décrété que les frontières qui les séparaient n’étaient pas pertinentes) ».
C’est dans un tel cadre historique qu’il faut resituer les débats qui, à partir des années 70, ont amené de nombreux historiens et anthropologues à évoquer
- la dimension fictionnelle ou littéraire du texte historique ou du texte anthropologique et qui, parallèlement,
- ont porté les critiques littéraires à parler des vérités de la fiction et de son rôle cognitivo-épistémologique.
Dans ce contexte théorique, le recours à la notion de « fiction » ou de « littérature » a permis aux réflexions épistémologiques de mettre l’accent, d’une part, sur la nature construite du savoir dans les sciences humaines, en opposition notamment avec la conception représentative ou reproductive de la connaissance qui découlait des positions positivistes et, d’autre part, sur l’importance du travail d’écriture du chercheur en tant que mise en forme, ou mieux in-formation et trans-formation, des connaissances.
C’est dans cette optique que des historiens tels que Hayden White peuvent affirmer que le texte historique est un « literary artefact » ou que des anthropologues comme Clifford Geertz peuvent suggérer que
- les textes ethnographiques sont des « fictions au sens où ils sont ‹ fabriqués › ou ‹ façonnés ».
Il faut toutefois relever que, de manière générale, le recours à la notion de fiction ou d’artifice littéraire ne vise pas à discréditer le savoir dans ces disciplines.
À bien considérer les différentes prises de positions sur le sujet, on s’aperçoit que le terme de fiction – dans ses deux acceptions bien connues, celle qui relève de la feintise et du mensonge et celle qui relève de la construction ou du façonnage – a été utilisé dans un but double :
- l’acception de feintise a été exploitée de façon polémique pour se démarquer de la conception épistémologique précédente, alors que son acception de construction a permis de décrire les fondements de la conception nouvelle.
Autrement dit, en opposition à une conception épistémologique qui défendait l’idée d’une relation directe et représentationnelle entre le texte et la réalité, l’acception de feintise a permis de souligner l’inadéquation d’une telle conception, l’impossibilité d’établir une telle relation et, par conséquent, dans l’optique critiquée, la nature feinte et illusoire des textes produits.
Par contre, l’acception de construction intervient pour décrire une nouvelle forme de relation à la réalité,
- une relation « constructive » qui ne véhicule pas de connotations négatives, mais décrit simplement le fonctionnement de la nouvelle conception de la connaissance.
Dans cette optique, le rapprochement avec la fiction a permis de mettre en évidence au moins quatre dimensions qui caractérisent le fonctionnement des textes scientifiques dans le cadre d’une épistémologie constructiviste :
- Premièrement, la dimension proprement constructive des textes scientifiques : l’écriture d’un texte n’est pas une activité passive de récolte de données discrètes présentant une forme préétablie, mais elle se présente comme un travail de construction et de façonnement des données fournies par l’expérience.
- Deuxièmement, leur dimension interprétative : ce travail de construction correspond à une activité essentiellement interprétative. Il est le résultat d’une négociation entre ce que la réalité offre et ce que le chercheur amène lui-même dans son bagage de connaissances et de préjugés.
- Troisièmement, leur dimension de partialité aléthique : une telle construction n’aspire pas à proposer une représentation directe, adéquate et unique de l’objet visé, mais plus simplement une image possible et surtout compréhensible de celle-ci. La vérité impliquée dans une telle pratique est une vérité partielle, ouverte à la correction et à la réécriture.
- Enfin, quatrièmement, leur dimension imaginative. Comme il sera approfondi par la suite, l’activité de construction de connaissance, confrontée avec des données disparates de l’expérience, doit recourir à un travail imaginatif pour pouvoir donner une forme compréhensible à ces données.
À partir de ces dernières considérations,
- nous pouvons mesurer l’intérêt de recourir à la notion d’« artefact littéraire » ou à la notion de « fiction » pour se démarquer de la conception positiviste du savoir et pour repenser le fonctionnement du texte scientifique à la lumière du nouveau paradigme épistémologique constructiviste.
Il paraît en outre intéressant de relever le changement de statut de la notion de fiction, qui devient en quelque sorte une notion englobant les pratiques de construction de représentations, non seulement fictionnelles mais aussi scientifiques.
Comme le relève pertinemment Debaene :
« La fiction entendue comme construction est une catégorie qui englobe toute production discursive cohérente ; elle ne s’oppose à rien sinon à la (supposée) ‹ naïveté › de l’optique réaliste traditionnelle qui aurait pour défaut de s’ignorer elle-même en postulant un langage transparent. »
Cependant, aujourd’hui, compte tenu de l’adoption presque généralisée d’une épistémologie d’orientation constructiviste, l’intérêt et la pertinence de convoquer la notion de fiction dans une réflexion épistémologique en sciences humaines semblent s’affaiblir.
La force polémique de l’acception de feintise ne paraît plus justifiée et le terme de fiction semble être devenu un simple synonyme de construction.
Une telle banalisation du terme avait déjà été relevée en 1986 par l’anthropologue James Clifford :
« Appeler les textes ethnographiques ‹ fictions › peut susciter les fureurs des empiristes. Mais le mot, tel qu’il est utilisé communément dans la théorie textuelle récente, a perdu beaucoup de sa connotation de fausseté, de quelque chose de radicalement opposé à la vérité. […] Les écrits ethnographiques peuvent être appelés à proprement parler ‹ fictions › dans le sens de ‹ quelque chose de construit, de façonné › […]. Les chercheurs en sciences sociales sont arrivés récemment à considérer de bons textes ethnographiques comme des ‹ fictions vraies ›, mais, de façon générale, au prix d’affaiblir l’oxymore, en le réduisant à l’affirmation banale que toutes les vérités sont construites. »
- Cette banalisation ne peut que remettre en question la pertinence de l’emploi de la notion de fiction dans les débats épistémologiques contemporains en sciences humaines.
N’ayant plus besoin d’adopter une position polémique vis-à-vis d’une conception « ennemie », elle perd en grande partie son intérêt, au point que l’on ne peut éviter de se demander s’il est encore utile de s’y référer :
- en quoi aujourd’hui la notion de fiction apporte-t-elle quelque chose au débat épistémologique que la notion de construction ne véhicule pas ?
- Et encore, est-ce que les risques de confusion entre les différents emplois et les différentes valorisations de la notion de fiction ne compromettent pas son apport ?
Compte tenu de ces considérations,
- nous sommes de l’avis qu’il serait préférable de revenir à un emploi restreint du terme en rétablissant, si l’on veut, un nouveau « grand partage » entre fiction et science, qui se fonderait évidemment sur des bases épistémologiques nouvelles.
Cela nous porterait à éviter de parler de « fiction » pour décrire les productions issues de pratiques scientifiques, en privilégiant par contre le terme de « construction », et à
utiliser « fiction » uniquement pour désigner, comme le suggère Jean-Paul Colleyn, son référent « à la fois plus courant, plus restrictif et plus précis » : « un récit d’un événement ou d’une série d’événements inventés, qui n’ont jamais eu lieu dans la réalité » et qui n’ont pas de prétention scientifique ; ou encore, suivant Jean-Marie Schaeffer, de limiter l’emploi du terme à la fiction « artistique » définie à partir de son cadre pragmatique en tant que « feintise ludique partagée ».
Fiction et dimension imaginative
Ceci dit, cette limitation dictée par un « souci de clarté » et « afin de limiter les malentendus » n’empêche pas de continuer les réflexions sur les analogies et les différences entre les pratiques d’écriture fictionnelles et les pratiques d’écriture scientifiques. Elle nous invite au contraire à effectuer une simple confrontation entre des pratiques distinctes dans le but de dégager, par une démarche contrastive, leurs spécificités, sans l’intention de recatégoriser une pratique sous l’étiquette de l’autre.
Dans cette optique, il nous semble important de poursuivre la confrontation entre ces deux pratiques pour approfondir un aspect qui a été laissé au second plan par rapport au thème de la construction.
- Cet aspect renvoie au travail imaginatif qui caractérise aussi bien l’écriture fictionnelle que l’écriture scientifique ;
- un aspect qui demande encore d’être approfondi pour pouvoir compléter le changement de paradigme évoqué vers une épistémologie pleinement constructiviste.
Déjà James Clifford, en constatant la banalisation de la notion de fiction, avait relevé l’importance de « préserver la signification non uniquement liée au construire mais aussi à l’invention de choses qui ne sont pas proprement réelles », cela pour souligner l’effort imaginatif constitutif de l’écriture ethnographique, qui est appelée à rendre dans des mots et des concepts familiers les caractéristiques de cultures parfois sensiblement éloignées de la nôtre.
En ce sens,
- le rapprochement avec la fiction doit également nous amener à prendre conscience de l’importance – poursuit Clifford Geertz – de l’« acte imaginatif », de la « puissance qu’a l’imagination scientifique de nous mettre en contact avec les vies d’étrangers ».
- Il s’agit d’insister sur l’habileté de l’auteur qui doit pouvoir « nous éclairer sur ce qui se passe dans ces lieux, et résoudre l’énigme – quel genre d’hommes sont-ils ? – énigme que suscitent inévitablement des actes non familiers prenant forme dans un contexte inconnu ».
Parler ici de travail imaginatif ne porte pas tant sur la référentialité du texte – sur laquelle nous reviendrons – que sur la façon de l’écrire, sur les modalités de production des représentations qu’il véhicule.
- Le texte ethnographique apparaît ainsi comme le résultat d’un effort imaginatif qui construit une forme médiatrice, à partir de notre langage, qui nous permet de voir l’autre comme ce qui est présenté dans le texte.
Une réflexion analogue est proposée par Hayden White concernant le discours historiographique.
White souligne la nécessité pour l’historien de recourir à un langage figuratif – qui rapproche la pratique d’écriture historique des pratiques littéraires – pour tenter de fournir des représentations intelligibles d’un passé devenu désormais non familier : « Les seuls instruments que l’historien possède pour conférer à ses données une signification, pour rendre familier l’étrange et pour rendre compréhensible le passé mystérieux, sont des techniques de langage figuratif. »
À ce niveau,
- le rapprochement entre texte de fiction et texte scientifique peut encore nous apprendre quelque chose en soulignant l’enjeu commun des deux textes qui est bien celui de créer une image, de donner une forme compréhensible et dicible à quelque chose – objet du monde réel ou objet de fantaisie – qui, jusque-là, n’en avait pas.
Par conséquent,
ce qui rapproche profondément le faire fictionnel du faire scientifique, c’est leur tentative commune de porter au langage quelque chose qui n’a jamais été dit auparavant.
Dans un tel exercice, la « suspension de notre créance dans une description antérieure » qui, selon Paul Ricœur, caractérise la liberté de la fiction et, finalement, son pouvoir d’« ouvrir et de déployer de nouvelles dimensions de la réalité » apparaît également comme un élément central de la pratique scientifique, dans la mesure où celle-ci se retrouve régulièrement confrontée à l’absence de descriptions antérieures et à la nécessité d’en imaginer de nouvelles.
Le travail de l’historien et de l’ethnographe offre des exemples symptomatiques à cet égard.
- Le premier est constamment aux prises avec un passé dont l’histoire (dans le sens de la narration qui le rend sensé) a été perdue.
- L’historien est confronté à des restes du passé, des traces, qu’il doit recomposer dans une nouvelle histoire, censée reproduire aujourd’hui ce qui s’est déroulé hier.
- De son côté, l’ethnographe est aussi mis en présence, pendant sa recherche de terrain, d’une altérité culturelle qui n’a jamais été dite et qui peut être transposée dans un texte qui aspire à la décrire, dans sa langue et pour sa culture, seulement grâce à un travail complexe de traduction et d’interprétation.
Le rapprochement entre science-fiction et ethnographie, proposé par David Oldman et repris par la suite par les anthropologues Fabio Dei et Pietro Clemente, nous permet de faire un pas de plus dans la compréhension de ce travail de création de formes intelligibles.
En comparant les pratiques d’écriture ethnographique et de science-fiction, Oldman relève comment les auteurs respectifs sont concernés par le même problème :
- arriver à fournir dans leurs textes une représentation d’une « altérité » dans une sorte de « transcendance apparente de leur ethnocentricité ».
Fabio Dei et Pietro Clemente précisent l’ambition commune qui rapproche ces pratiques d’écriture et qui consiste en la tentative de « créer des différences ›, de produire une représentation de l’autre (alieno) qui, d’un côté, rend visible et souligne sa diversité et, de l’autre, le rend intelligible à l’intérieur d’un système de références familières » .
Il est évident que la « différence » créée par l’auteur de science-fiction ne répond pas aux mêmes exigences et ne présente pas la même ambition épistémologique que celle recherchée par l’anthropologue ; cependant, d’un point de vue linguistique, l’effort exigé est similaire.
Comme le relèvent Dei et Clemente :
« Le problème de la description peut alors être formulé dans des termes strictement discursifs : il s’agit de construire une altérité à travers les ressources d’un langage familier. »
Or
- cet exercice de « construction de l’altérité » est essentiellement, aussi bien pour l’anthropologue que pour l’auteur de science-fiction, un travail d’exploration et de réaménagement imaginatif de son propre système linguistique.
Oldman précise à ce propos :
« En effet, quand nous examinons la qualité d’étrangeté (the alien quality) de certains textes de science-fiction, il apparaît qu’une telle qualité n’est atteinte que là où l’écrivain est un poète, en mesure de revitaliser le langage tout en l’utilisant. De cette façon, la réponse conventionnelle du lecteur aux mots et aux phrases est détruite et reconstruite. Prenons par exemple la première phrase du livre de Samuel Delany (1978) qui débute ainsi : ‹ Dispose l’ordonnée et l’abscisse sur le siècle… › (Lay ordinate and abscissa on the century…). Notons de quelle façon les langages du temps et des coordonnées géométriques sont fondus dans une nouvelle combinaison. Ce qui est vraiment autre (alien) est une création poétique. Et cela vaut également pour la description anthropologique. Le problème de l’ethnocentrisme n’est pas tant dans la façon de décrire une autre culture en ayant uniquement accès aux ressources de sa propre culture, que dans la façon dont l’autre culture peut susciter pour l’écrivain des ‹ entorses › (rule-bending) imaginatives et créatives dans l’emploi du langage. »
Ce qui mérite d’être retenu de cette réflexion, c’est l’idée que la possibilité même de porter au langage une forme d’altérité passe par un travail de création langagière :
- un travail qui se fonde sur des « entorses imaginatives et créatives dans l’emploi du langage ».
- Ces entorses jouent également un rôle important dans les pratiques d’écriture scientifiques pour porter au langage quelque chose qui, jusque-là, n’avait jamais été dit et pour faire apparaître l’altérité – culturelle ou historique – à partir d’un langage familier.
Ces dernières considérations nous permettent de comprendre dans toutes ses implications la célèbre affirmation de Ricœur :
« La première manière dont l’homme tente de comprendre et de maîtriser le ‹ divers › du champ pratique est de s’en donner une représentation fictive. »
À bien relire cette affirmation,
- on s’aperçoit qu’elle ne se limite pas à résumer la nature construite et imaginative de tout savoir confronté au « divers du champ pratique ».
- Elle met également en lumière le statut épistémologiquement ambigu des représentations qui aspirent à porter au langage quelque chose pour la première fois.
Par le travail imaginatif qui est à leur origine, de telles représentations portent au langage quelque chose qui n’existait pas jusque-là en tant qu’objet possible d’un savoir, mais qui, justement, acquiert ce statut grâce à un tel travail.
On retrouve à ce stade un geste « créateur » qui justifie le parallélisme avec la création fictionnelle, même si, dans le cas du texte scientifique, il ne porte pas tant sur les choses dans leur existence que sur des objets dans leur possibilité de donner lieu à une connaissance.
En ce sens, le rapprochement avec la fiction permet de souligner le geste de création ou de colonisation de « terres nouvelles » :
- d’un côté, on construit des mondes fictionnels, de l’autre, on aménage et on rend intelligibles des mondes réels.
« Tout est fiction » et dérive idéaliste
Cependant, en mettant l’accent, comme nous l’avons fait jusqu’ici, sur les analogies entre pratiques d’écriture fictionnelles et scientifiques,
- on court le risque de négliger les spécificités de ces deux genres d’activité et de tomber dans un brouillage des frontières où « tout est fiction » ou – ce qui revient au même – « tout est connaissance » ;
- ou encore, on risque d’aboutir à une position idéaliste dans laquelle on affirmerait que le chercheur (anthropologue, historien, sociologue, politologue ou autre) crée la réalité qu’il décrit dans son texte de la même manière que l’auteur d’un roman crée son monde fictionnel.
Une telle indistinction ne serait pas souhaitable :
- non seulement elle serait peu intéressante d’un point de vue théorique,
- mais elle refléterait mal la perception que nous avons et les emplois que nous faisons, dans nos pratiques quotidiennes, des représentations qui découlent de l’une ou de l’autre de ces pratiques d’écriture.
C’est à de tels risques que Jean-Marie Schaeffer nous rend attentif dans sa critique de la conception de la « fiction » proposée par l’épistémologue italienne Silvana Borutti.
Le petit débat suscité par cette critique mérite d’être approfondi parce qu’il permet de préciser,
- d’une part, les difficultés intrinsèques à l’optique constructiviste et à une généralisation de la notion de fiction et,
- d’autre part, il nous montrera aussi la voie pour contourner ces problèmes.
Dans sa conception épistémologique constructiviste – développée dans l’article en question en relation avec la discipline de l’anthropologie –
Silvana Borutti voit dans la notion de « fiction » la « catégorie clé de la production de la connaissance dans les sciences humaines » .
Dans son emploi du terme,
- Borutti laisse de côté « le champ sémantique de ‹ feindre-simuler ›, et donc du mensonge et de l’illusion de vérité »,
- pour privilégier le « champ sémantique de ‹ modeler-façonner-construire › (…), et donc de la projection symbolique et formelle (poïétique) d’une réalité » .
La notion de fiction permet ainsi à Borutti de préciser sa conception constructiviste en soulignant que :
« L’approche épistémologique que nous adoptons refuse une conception de la connaissance comme représentation des objets donnés et envisage plutôt la connaissance comme objectivation, à savoir comme construction imaginative et formelle du contenu – comme une mise en forme (configuration) qui transforme les phénomènes en objets de connaissance. »
De ce point de vue,
la fiction est « le mode fondamental de la connaissance ».
- Elle n’est pas le lieu d’une copie d’une réalité préétablie,
- mais celui « de l’efficacité sémantique de la connaissance » qui s’inscrit dans la « capacité typiquement humaine de construire et de façonner le monde perceptif, de lui donner une forme » à travers un travail de « transformation, déplacement analogique, mélange, condensation, synthèse, renversement, contradiction, rapprochement, sélection et oubli » ;
- en dernier ressort, il s’agit d’un « travail d’invention et de réinvention catégorielle – que les mots de notre langue, en tant que symboles des choses absentes, opèrent sur les choses mêmes ».
Cela signifie que les représentations auxquelles nous aboutissons dans nos activités scientifiques sont moins « la copie de ce que nous voyons que la forme qui rend possible le voir ».
Ainsi conçue,
- la notion de fiction permet à Borutti d’explorer en profondeur les implications épistémologiques d’une position constructiviste et
- elle parvient à souligner, comme nous l’avons fait auparavant, la nature imaginative qui caractérise le travail de production de représentations dans le cadre des pratiques scientifiques.
Cependant, cette position constructiviste – probablement en raison de sa radicalité – s’expose à des lectures qui en font une théorie du « tout est fiction », où il ne serait plus possible de distinguer entre pratique scientifique et pratique fictionnelle.
- C’est en ce sens, nous semble-t-il, que vont justement les reproches formulés par Schaeffer.
Si l’on comprend bien les propos de Schaeffer,
- la conception de Borutti mettrait trop l’accent sur la dimension constructive et inventive de la production des connaissances en confondant les conditions de réussite des pratiques fictionnelles et des pratiques scientifiques.
Schaeffer le dit explicitement :
« Il me semble qu’elle projette (à tort) les conditions de réussite de la fiction artistique sur le discours anthropologique » et, parallèlement, elle semble dissocier le discours anthropologique « du discours factuel et, plus fondamentalement, du souci de vérité référentielle » :
« Car, comme Silvana Borutti le note elle-même, ‹ ce qui est important dans la fiction de l’intrigue n’est pas tant le degré de proximité par rapport à la vérité, que le pouvoir ontologique de la configuration ›. Si le discours anthropologique s’inscrit dans cette logique-là, on voit mal comment il pourrait être autre chose qu’un pourvoyeur de récits vraisemblables qu’il s’agit de classer selon leur pouvoir de ‹ configuration ontologique › plutôt que selon leur adéquation aux situations sociales effectives dont celles-ci nous livrent une représentation. »
Schaeffer souligne dès lors que
- cette thèse ne permettrait pas de « comprendre la dynamique discursive de la discipline scientifique de l’anthropologie »,
- l’importance de la récolte d’informations sur le terrain, de la confrontation directe avec des populations étrangères, et des nombreuses polémiques concernant la validité de tel ou tel texte, qui ont animé et animent toujours la discipline.
Avec cette critique,
- Schaeffer met le doigt sur un problème capital qui affecte toute conception constructiviste de la connaissance.
Le problème peut se résumer à deux questions :
- comment éviter de rejoindre une position idéaliste tout en gardant l’idée que les connaissances sont foncièrement construites ?
- Et jusqu’où peut aller le constructivisme sans en arriver à l’idée d’un sujet connaissant qui crée le monde qu’il étudie et, parallèlement, sans renoncer à l’idée de pouvoir distinguer les pratiques fictionnelles des pratiques scientifiques ?
En fait, ce problème hante aussi la conception épistémologique de Borutti. En cela, la critique de Schaeffer présente une certaine pertinence.
Toutefois, Schaeffer omet d’analyser et de commenter la voie de sortie que Borutti, elle-même consciente du problème, propose.
Elle montre bien que le constructivisme, pour éviter de se dissoudre dans un banal idéalisme, doit constamment penser son activité de construction de représentation en relation avec une expérience de quelque chose qui ne relève pas de son pouvoir de construction.
En empruntant une terminologie psychanalytique,
- Borutti conçoit alors le travail de construction réalisé par les formes symboliques comme
« le travail du deuil pour l’absence de l’objet concret : c’est le renoncement à sa présence effective et l’élaboration de son absence à travers la fiction de la forme », ou encore « le traitement formel d’une distance irrémédiable ».
Dans cette optique, poursuit Borutti,
« envisager la fiction qu’est la connaissance du sens comme la suppléance d’un manque radical d’objet, c’est en même temps évacuer l’idéalisme, comme toute-puissance du sujet et de son langage, qui peut être sous-entendu par la conception de la fiction en tant que construction du monde ».
Le thème du « deuil » introduit en effet dans la conception constructiviste de Borutti
- une dimension non symbolique qui joue un rôle de garde-fou contre les risques d’une dérive idéaliste.
En sortant de sa terminologie, ce thème permet de souligner l’importance de concevoir le travail de construction de représentations dans les sciences humaines comme une réponse à une sollicitation qui nous vient de quelque chose d’extérieur à notre langage, quelque chose dont on fait l’expérience dans notre fréquentation pratique du monde.
Plus concrètement,
- le deuil renvoie aux expériences vécues quotidiennement par un historien ou un anthropologue dans la pratique de leurs recherches respectives, lorsqu’ils sont confrontés à des situations ou à des objets surprenants, qui ne se laissent pas comprendre aisément, qui dénoncent l’inadéquation des hypothèses interprétatives qu’ils avaient formulées jusque-là et les obligent à en élaborer de nouvelles.
- Dans ces situations, le chercheur fait l’expérience – à travers l’échec de ses catégories familières – de l’altérité de l’objet en question, c’est-à-dire de son indépendance vis-à-vis de son langage et vis-à-vis de tout ce qu’il connaissait jusque-là.
Une telle expérience offre ainsi une sorte d’« assise empirique » au travail de construction des représentations en sciences humaines, une assise empirique conçue comme quelque chose qui ne dépend pas de l’activité symbolique du chercheur, mais qui, suppose-t-on, relève du monde et, de ce fait, permet d’éviter de sombrer corps et biens dans un idéalisme radical.
Une telle assise est avant tout une expérience négative :
- elle ne nous dit rien de la chose à l’origine de l’expérience, sinon qu’elle ne se laisse pas réduire aux catégories familières.
- C’est au fond à une expérience de ce genre que l’on peut ramener le « non familier » évoqué précédemment par Clifford Geertz et par Hayden White.
Cette expression renvoie à
- l’expérience d’une inadéquation des catégories familières vécue, respectivement, dans un séjour prolongé au sein d’une culture étrangère ou dans la fréquentation de documents anciens.
- Mais une telle expérience ne se limite pas à une pure négativité ; elle sollicite aussi un travail de production de nouvelles représentations en mesure de surmonter les difficultés rencontrées.
- C’est ici qu’interviennent la « puissance de l’imagination scientifique » (Geertz) ou les « techniques du langage figuratif » pour produire un texte qui puisse rendre compte, dans un langage familier et cohérent, de l’altérité culturelle ou historique rencontrée par le chercheur.
D’un point de vue épistémologique,
- cette relation de « réponse à l’expérience d’une négativité » assure la référentialité des représentations produites par le travail imaginatif et permet de concevoir leur valeur scientifique en fonction de leur capacité à surmonter une telle expérience.
- C’est à ce niveau que le rapprochement entre pratiques fictionnelles et pratiques scientifiques atteint sa limite.
En effet, si l’analogie peut porter sur les modalités de construction des représentations, l’ancrage de celles-ci dans une expérience de l’inadéquation des catégories familières détermine une différence irréductible entre représentations fictionnelles et représentations scientifiques.
Autrement dit,
ce serait une erreur de prolonger jusqu’à la question de leur référence et de leur valeur scientifique l’analogie entre science et fiction que nous avons développée jusqu’ici, en la situant au niveau des modalités de construction des représentations.
Du point de vue d’une épistémologie constructiviste,
- il est extrêmement important de ne pas confondre ces trois différences de niveau.
Si les conceptions positivistes du langage et de la connaissance nous avaient habitués à penser dans un seul mouvement sens, référence et connaissance, en concevant une relation directe et descriptive entre le langage scientifique et la réalité, le constructivisme nous invite par contre à les séparer. Plus précisément, le constructivisme distingue le travail de construction des représentations de l’établissement de leur référence et de l’évaluation de leur validité épistémologique.
- Si le travail de construction de connaissances se déroule à un niveau essentiellement symbolique et présente de fortes analogies avec le travail de construction d’une fiction (c’est surtout à ce niveau que se situe la pertinence de la conception de la « fiction » en tant que mode de construction des objets de savoir),
- la portée référentielle et la valeur épistémologique de ces représentations se joue par contre à un niveau non plus simplement symbolique mais également « pratique ».
C’est à ce niveau que la référentialité doit être mise en relation avec l’idée d’une réponse ou d’une réaction à l’expérience que l’on peut faire de l’indépendance de la chose réelle, expérience qui a lieu dans la surprise et l’échec de nos catégories familières.
C’est également à ce niveau que la validité épistémologique des représentations peut être évaluée en fonction de la possibilité de surmonter la surprise initiale grâce à de nouvelles représentations construites par un travail imaginatif.
En d’autres termes,
la référentialité de la construction imaginative ne se fonde plus sur une relation directe entre le symbole et la réalité – pas plus que sur une relation directe entre une forme symbolique construite et la réalité – mais sur une relation indirecte, qui conçoit la représentation comme une réponse symbolique à une sollicitation issue d’une fréquentation pratique d’une culture étrangère ou d’une série de monuments ou documents anciens ; fréquentation dans laquelle on peut faire l’expérience de l’inadéquation de nos catégories familières.
D’autre part,
- l’évaluation de la valeur épistémologique d’une telle représentation sera conçue en termes d’efficacité pratique – c’est-à-dire en fonction de la possibilité d’interagir sans problème majeur avec les membres d’une culture étrangère ou de dégager une signification cohérente d’une série de documents anciens.
- Cette efficacité pratique permettra également de distinguer les représentations qui réagissent de façon satisfaisante aux sollicitations reçues du monde réel des représentations qui n’y parviennent pas.
L’exemple célèbre du lapin-gavagai proposé par Willard Van Orman Quine nous permet de mieux comprendre les implications de cette position.
Quine imagine un ethnolinguiste aux prises avec une langue indigène qu’il ne connaît pas. Un jour, un indigène s’écrie : « gavagai ». L’ethnolinguiste, surpris par l’énonciation d’un mot qu’il ne connaît pas, regarde autour de lui. Il voit un lapin qui détale dans la garenne. Après une brève réflexion, il note dans son carnet la traduction provisoire « lapin ».
Cependant, comme l’analyse de Quine le montre bien, nous n’avons aucune certitude concernant la signification du mot « gavagai » et son éventuelle correspondance avec notre mot « lapin ».
La désignation « gavagai » pourrait désigner bien d’autres choses – « parties non détachées de lapin », ou « phases temporelles de lapin » ou encore une « mouche-de-lapin » qui suit toujours cette espèce de lapin… – sans que nous ayons la possibilité de le vérifier.
- Mais l’ethnolinguiste peut, par contre, identifier les situations dans lesquelles il est possible d’utiliser l’expression « gavagai » sans susciter des réactions de dissentiment de la part des indigènes.
- Ce faisant, il peut développer un savoir pratique de la langue étrangère, un savoir où les significations des mots étrangers sont construites en fonction de sa perception de la réalité et à l’intérieur de son propre système symbolique.
- Ceci signifie que ce savoir pratique se fonde sur une construction imaginative – analogue aux constructions de la fiction – mais dont la validité épistémologique peut être évaluée en fonction de la réussite des actions qu’elle permet d’entreprendre.
Conclusion
Cette orientation « pragmatique » se présente comme un appendice obligatoire du constructivisme si l’on veut éviter les pièges de l’idéalisme. Elle nous amène ainsi à prendre en considération l’emploi que nous pouvons faire des représentations que le travail imaginatif nous offre ou, plus précisément, à prendre en considération le genre d’actions que nous pouvons accomplir sur la base de telle ou telle représentation.
- Une approche de ce type nous permet ainsi d’évaluer la validité épistémologique des représentations et nous fournit par là même une voie pour distinguer une représentation à portée scientifique d’une représentation fictionnelle.
On ne peut alors que tomber d’accord avec ce que Schaeffer affirme à la fin de son article, lorsqu’il souligne, tout en y arrivant par un chemin différent, que :
« Toutes ces considérations mènent à la conclusion que la spécificité de la fiction (artistique) relève sans doute de la dimension pragmatique et non pas, comme le présupposent les approches qui l’étudient en relation avec la vérité, de sa nature sémantique. Ce qui distingue le champ du véridictionnel du champ du fictionnel, c’est qu’on n’y fait pas le même usage des représentations. »
- Cette orientation ouvre alors un nouveau champ de recherche qui peut intéresser aussi bien les sciences humaines que les réflexions sur la fiction.
- Un champ de recherche qui nous conduirait à nous interroger sur les genres d’actions que telle ou telle représentation rend possibles.
Un texte ethnographique, un livre d’histoire, mais aussi un guide de voyage ou une recette de cuisine ouvrent des possibilités d’actions dans le monde (et d’interactions avec d’autres lecteurs) qu’un conte merveilleux, un roman, un texte de science-fiction ne permettent pas.
Cela nous amènerait à prolonger les réflexions sur les différentes modalités de réception des textes de fiction et des textes scientifiques jusqu’à une anthropologie des lectures, qui porterait son attention sur les comportements, les interactions et les rituels réels suscités et rendus possibles par la lecture de tel ou tel genre de texte.
Cette optique nous permettrait de relever une différence importante entre les lectures de textes scientifiques et les lectures de textes de fiction dans la possibilité des premières de se confronter à quelque chose d’extra-textuel qui est censé motiver et valider le texte et qui, par là même, peut déterminer la nécessité d’une correction ou d’une réécriture.
Mais parallèlement,
- cette optique ne pourra pas éviter de prendre aussi en considération les cas limites où des comportements réels de confrontation avec un objet extra-textuel sont motivés par la lecture de texte de fiction.
C’est le cas, par exemple, des visites « au cachot de Monte-Cristo » dans le Château d’If ou au « tombeau de Roméo et Juliette à Vérone » que Jean Jamin se propose d’étudier dans son anthropologie de la fiction. Ces cas limites montrent bien la complexité de l’exercice et relèvent l’impossibilité, même au niveau des pratiques, de dresser un nouveau « grand partage » trop rigide. »
– Bonoli, L. (2007). Fiction, épistémologie et sciences humaines. A contrario, vol. 5(1), 51-66.
« En 1946, près de trente-cinq ans après avoir réalisé des expérimentations en psychologie de la musique, Wittgenstein débutait un travail en philosophie de la psychologie.
Par « philosophie de la psychologie », il faut entendre une réflexion sur la psychologie comme discipline (quel est son objet ? quelles sont ses méthodes ?), une réflexion sur la nature des concepts et des verbes psychologiques relevant de ce que l’on appelle souvent aujourd’hui « psychologie populaire », et une réflexion sur l’origine de la différence entre les jugements à la première personne et les jugements à la troisième personne.
À côté d’un projet consistant à proposer une vision synoptique des verbes psychologiques, ce travail était avant tout un travail critique :
- la critique wittgensteinienne de la psychologie n’était cependant pas, nous le rappellerons plus loin, une critique d’ordre épistémologique (c’est-à-dire portant sur les méthodes d’observation et d’étude qu’il conviendrait d’adopter ou d’abandonner) ou de ressort empirique.
Pour Wittgenstein, la psychologie pouvait avant tout reposer sur des confusions conceptuelles.
Ce travail de Wittgenstein s’est déployé avant l’émergence historique des sciences cognitives :
- lorsque Wittgenstein cite et discute des auteurs, il s’agit de psychologues comme Wolfgang Köhler, William James ou encore, dans d’autres circonstances, Freud.
Historiquement, ce travail a pu ensuite être appliqué par des lecteurs de Wittgenstein aux sciences cognitives et à la philosophie de l’esprit.
Il convient toutefois de distinguer plusieurs plans parmi les travaux qui ont exploité ou qui exploitent encore la philosophie wittgensteinienne de la psychologie, et en particulier sa dimension critique.
Après avoir analysé les dimensions multiples de la philosophie de la psychologie de Wittgenstein,
- plusieurs auteurs l’ont utilisée pour critiquer la théorie computo-représentationnelle (ou cognitivisme), premier paradigme historique des sciences cognitives :
- le représentationnalisme,
- le formalisme et
- l’internalisme individualiste sont quelques uns des piliers de ce paradigme.
- Les travaux de Norman Malcolm, de Paul Johnston, de Meredith Williams, de Malcolm Budd ou, en France, le travail précurseur de Jacques Bouveresse, ont constitué des exemples remarquables de cet usage critique de Wittgenstein, discutant par exemple les travaux d’éminents cognitivistes comme Jerry Fodor ou Noam Chomsky.
Plus récemment, Peter M.S. Hacker et Maxwell Bennett ont exploité les ressources de Wittgenstein pour critiquer les sciences cognitives ayant emprunté, dans les années 1990, un tournant neurocognitif :
- le formalisme et le fonctionnalisme du cognitivisme sont refusés par ces sciences cognitives, au profit d’une identification assumée des phénomènes cognitifs (perception, conscience, raisonnement, mémoire, langage…) à des processus neuronaux non-symboliques.
- La dimension représentationnelle de la cognition ne relève plus de symboles ou d’un langage formel de la pensée ; elle est désormais associée aux propriétés émergentes d’assemblées de neurones.
Ces travaux et critiques d’inspiration wittgensteinienne n’ont pourtant pas été les seuls ni même les premiers à être dirigés contre la théorie computo-représentationnelle de la pensée.
- Depuis les travaux séminaux d’Hubert Dreyfus au début des années soixante-dix, une critique d’inspiration phénoménologique des présupposés et des limites de cette théorie avait été proposée.
- La radicalité de cette critique, le fait qu’on ait pu la réduire à une critique de l’intelligence artificielle, et le débat, au milieu des années quatre-vingt entre le programme de recherche cognitiviste et le programme de recherche computo-représentationnel sub-symbolique (connexionnisme) peuvent expliquer l’occultation, pendant toutes ces années, de la voie critique ouverte par Dreyfus.
Il faudra attendre le début des années quatre-vingt-dix pour assister au développement spectaculaire de nouvelles approches critiques de la théorie computo-représentationnelle, parfois philosophiquement proches de Dreyfus, mais prenant aussi la forme d’alternatives constructives à cette théorie, souvent inspirées par la redécouverte de travaux et d’auteurs oubliés ou critiqués par la tradition cognitiviste, comme Merleau-Ponty, Gibson, Piaget et Vygotsky.
Il est ainsi maintenant possible et même fréquent de trouver, au sein des sciences cognitives, des alternatives auto-proclamées aux sciences cognitives cognitivistes et neurocentrées, et qui insistent sur les dimensions incarnées, situées, énactives et étendues des processus cognitifs :
- se basant sur des travaux empiriques en robotique, linguistique, psychologie du développement ou en neurosciences de l’action, une nouvelle image de la cognition apparaît.
En tant qu’ensemble d’opérations produisant, conservant, exploitant ou transformant de la connaissance, la cognition n’est pas seulement (ni d’abord) dans la tête ; elle n’est pas (centralement) représentationnelle ; elle advient dans les interactions prenant place entre les organismes incarnés et leurs environnements, sociaux, culturels, biologiques et techniques.
- Cette image de la cognition semble échapper aux critiques précédentes des sciences cognitives qui pouvaient être faites à partir de Wittgenstein (ou de la phénoménologie), étant donné qu’elle n’est pas construite à partir de thèses internalistes, représentationnalistes ou formalistes.
Et il n’est d’ailleurs pas rare de trouver au sein de la littérature produite par ces sciences cognitives contemporaines des références à la deuxième philosophie de Wittgenstein :
- ce dernier deviendrait un allié, ou du moins une inspiration importante pour ces sciences cognitives.
1) Énactivisme et sciences cognitives
C’est le cas par exemple de l’énactivisme, l’un des courants les plus importants et les plus radicaux de la nébuleuse théorique que l’on appelle aujourd’hui « cognition 4E » (pour Embodied, Embedded, Enactive, Extended). Il existe différents types d’énactivisme :
l’énactivisme autopoïétique est un programme de recherche apparu à partir de 1991 ; l’énactivisme sensori-moteur proposé par le philosophe Alva Noë est une théorie de l’expérience perceptive ; l’énactivisme radical est un ensemble de thèses philosophiques sur la cognition et la représentation.
- Ces énactivismes partagent un rejet plus ou moins marqué et argumenté du représentationnalisme, et
- un externalisme cognitif accordant un rôle fondamental à l’action engagée de l’organisme dans un environnement pour définir les différentes formes de cognition.
S’inspirant d’une théorie scientifique du vivant – l’autopoïèse –, l’énactivisme autopoïétique fut la première théorie à définir la cognition comme énaction, c’est-à-dire comme « l’avènement conjoint d’un monde et d’un esprit à partir de l’histoire des diverses actions qu’accomplit un être dans le monde ».
- La cognition est ainsi une « action incarnée ».
L’énactivisme radical de Dan Hutto et d’Erik Myin partage avec l’énactivisme autopoïétique un souci de dépassement des approches internalistes et représentationnalistes de la cognition, en défendant l’idée que la cognition est constitutivement active, incarnée et étendue au-delà des frontières de l’organisme.
- Mais là où l’énactivisme autopoïétique s’élabore à partir d’une théorie du vivant et de liens étroits avec la phénoménologie (Husserl, Heidegger, Merleau-Ponty),
- l’énactivisme radical se déploie à partir d’une critique serrée et poussée du représentationnalisme analytique, aboutissant à un rejet argumenté et consistant du concept de « contenu mental » tel qu’il est classiquement défini et utilisé dans un cadre d’étude naturaliste.
- Renonçant complètement à l’idée qu’il existerait des représentations de l’environnement dans le cerveau, l’énactivisme radical identifie la cognition de base avec des patterns temporellement étendus d’interaction dynamique entre les organismes et leurs environnements.
Les partisans et les sympathisants de cet énactivisme radical peuvent suggérer des proximités voire des convergences entre leur image de la cognition et les réflexions de Wittgenstein sur la pensée, la compréhension, ou la signification.
Par exemple, Dan Hutto soutient que
les énactivistes d’aujourd’hui caractérisent la nature des esprits et la manière dont ils sont fondamentalement en relation avec le monde d’une manière qui ne fait pas seulement que résonner avec de nombreuses remarques notables du dernier Wittgenstein sur ces questions, mais qui s’accorde avec elles.
Différents points de rencontre sont souvent mentionnés, en plus du rejet du représentationnalisme :
1) Le rejet de l’intellectualisme, c’est-à-dire de l’idée que la relation première entre les organismes et leur environnement est une relation de connaissance, et que la forme première de connaissance est une connaissance propositionnelle ;
2) L’acceptation d’un pragmatisme global pour lequel l’action, la pratique, les pratiques et les formes de vie sont les phénomènes premiers à partir desquels des phénomènes cognitifs comme le raisonnement, la perception, le raisonnement ou la mémoire doivent être définis et étudiés ;
3) Une conception non-intentionnaliste de l’action, c’est-à-dire qui refuse de subordonner cette dernière à une intention ou à un acte mental antérieur ou concomitant ;
4) La nature sociale des règles et de la signification, de telle sorte qu’il ne peut pas y avoir de règles subpersonnelles (comme des programmes) qui seraient suivies par des cerveaux, ou de significations qui seraient produites ou comprises par des processus cérébraux. De même, le fait de participer à des pratiques sociales transforme les capacités cognitives des créatures, dans le sens d’un enrichissement et d’une complexification ;
5) La critique de l’idée selon laquelle l’esprit est un objet interne et privé, défini à partir d’une dichotomie métaphysique entre l’intérieur et l’extérieur.
On n’évaluera pas ici la pertinence et la portée de ces relations de confluence alléguées entre Wittgenstein et l’énactivisme.
Il s’agit plutôt de partir d’elles en tant qu’opportunité pour développer l’interrogation suivante :
- ne peut-on pas aussi recourir à Wittgenstein pour faire apparaître ce qui rapproche l’énactivisme radical des sciences cognitives orthodoxes, en dépit des déclarations d’intention de cet énactivisme ?
- N’y a-t-il pas des présupposés communs à ces deux démarches en apparence antagonistes, présupposés qui constitueraient peut-être les thèses les plus élémentaires du projet des sciences cognitives dans sa globalité, en deçà de ses variations théoriques et doctrinales ?
- L’énactivisme est l’objet d’un nombre croissant de discussions et de débats se focalisant sur sa radicalité putative : quelles ressources explicatives s’agit-il de substituer aux notions classiques de représentation et de contenu mental ?
- L’énactivisme est-il en mesure de rendre compte de la cognition dite de « haut niveau », telle qu’elle s’exerce dans des activités comme l’imagination, le raisonnement symbolique, ou la communication verbale ?
- Ne constitue-t-il pas une forme de retour au béhaviourisme ?
À rebours de ces questions, l’enjeu sera ici de penser – avec Wittgenstein – ce qui unit l’énactivisme et les sciences cognitives classiques. Dans la section II, il s’agira ainsi d’exploiter quelques ressources de la philosophie de la psychologie de Wittgenstein pour faire ressortir certains des présupposés communs à l’énactivisme et aux sciences cognitives classiques, dont en premier lieu l’idée que la cognition – qu’elle soit représentation ou action – constitue un processus, et l’idée que les concepts psychologiques dénotent des états de choses, comme des processus, intérieurs ou extérieurs.
S’il y a une action à partir de laquelle ce que l’on appelle aujourd’hui « cognition » pourrait se comprendre, c’est – chez Wittgenstein – une action qui exprime la pensée, et non qui la réalise.
- L’idée que les phénomènes mentaux relèvent d’une forme d’expressivité située et pragmatique (car liée au comportement) est fondamentale, et
- constitue une alternative aux modèles de la réalisation et du processus qui sont présupposés par l’ensemble des acteurs des principaux débats paradigmatiques actuels en sciences cognitives (section III), y compris ceux qui se réclament de Wittgenstein.
Pour autant (section IV), il n’y a rien dans cette lecture de Wittgenstein qui rendrait impossible une étude scientifique de certaines conditions de cette expressivité.
2) Les concepts psychologiques, le référentialisme et le mythe du processus
On retient généralement que Wittgenstein dénoncerait le projet scientifique de la psychologie de la manière suivante :
la pensée, la compréhension, etc. ne sont pas des processus ou des phénomènes cachés, intérieurs ou expérientiels, qui consisteraient par exemple en l’occurrence ou en la succession de signes, d’images ou encore de sensations, constituant dès lors un « queer kind of medium », pour reprendre une expression du Cahier bleu.
Il existe de nombreux passages du corpus wittgensteinien qui vont dans ce sens.
- Et c’est d’ailleurs à partir de cette dénonciation de ce que Bouveresse avait appelé dès 1976 le « mythe de l’intériorité »
- que les défenseurs de l’énactivisme se plaisent souvent à citer ou à exploiter Wittgenstein dans leurs critiques de l’internalisme et du représentationnalisme.
Cependant,
la cible fondamentale des remarques sur la psychologie de Wittgenstein n’est pas le modèle de l’esprit comme domaine intérieur. Il s’agit plutôt d’expliciter et de critiquer deux présupposés qui sont encore partagées aujourd’hui par les programmes de recherche cognitivistes et post-cognitivistes.
- Ces présupposés sont des confusions, qui trouvent leur origine dans la conviction des psychologues (et des philosophes) que leur discipline, pour être une science respectable, doit imiter les modes d’explication qui sont de mise dans les sciences de la nature.
La première confusion est celle qui consiste à penser que les concepts psychologiques (pensée, perception, intention, croyance…) sont des concepts théoriques, et qu’ils ont pour fonction de désigner ou de dénoter quelque chose (objets, états, états de choses, événements, processus…).
Or
pour Wittgenstein les concepts psychologiques ne sont pas des concepts théoriques, au sens où leur rôle principal n’est pas de désigner des processus ou des entités qui devraient être expliqués scientifiquement, mais d’identifier et de qualifier des phénomènes (les dimensions expressives du comportement) qui deviennent alors des phénomènes psychologiques (parce qu’ils sont qualifiés et reconnus au moyen de concepts psychologiques).
- Une variante de cette confusion est celle selon laquelle des verbes psychologiques comme percevoir, raisonner, comprendre ou se souvenir désignent des genres qui exhiberaient naturellement – indépendamment de ce que nous faisons en utilisant des concepts psychologiques – des propriétés cognitives ou psychologiques.
Dans le prolongement de cette première confusion,
la seconde confusion est générée par la conviction que les genres psychologiques surviennent sur, ou sont réalisés par des processus spatio-temporels (quel que soit leur lieu ou leur matière). La pensée, la compréhension, le souvenir, l’intention ou l’imagination seraient des processus mentaux ou psychiques, ou relèveraient plus génériquement de processus.
Un paragraphe des Recherches philosophiques explicite bien la source de cette seconde confusion,
- qui marque l’avènement d’un dilemme dramatique entre mentalisme et béhaviourisme :
Comment le problème philosophique des processus et états psychiques et du béhaviourisme peut-il bien surgir ? – Le premier pas dans cette direction passe complètement inaperçu. Nous parlons de processus et d’états, en laissant leur nature indécidée. Peut-être un jour connaîtrons-nous plus de choses à leur sujet – pensons-nous. Mais nous avons ainsi arrêté une manière déterminée de les considérer. Car nous avons un concept déterminé de ce que veut dire : apprendre à mieux connaître un certain processus. (Le pas décisif dans le tour de passe-passe est franchi, et c’est justement lui qui nous semble innocent.) – Et la comparaison qui aurait dû nous rendre nos pensées compréhensibles s’effondre alors. Aussi nous faut-il nier l’existence d’un processus encore incompris qui se déroulerait dans un medium encore inexploré. Mais nous semblons avoir nié l’existence des processus psychiques. Pourtant nous ne voulons évidemment pas la nier !
Le pas décisif est le premier :
- nous importons dans le domaine de la psychologie l’image du processus, telle qu’elle est présente dans les sciences de la nature (de la combustion d’une bougie à la digestion.
- Le processus – comme étant quelque chose de permanent, de continu et d’unifié, composé de parties qui sont mutuellement articulées – devient alors un modèle pour définir et comprendre des phénomènes comme la pensée, l’intention et la compréhension.
Ce pas décisif marque l’avènement de ce que Wittgenstein appelle justement le « mythe des processus mentaux » :
- les phénomènes mentaux doivent correspondre à des processus.
En structurant son projet de recherche à partir de ce mythe des processus mentaux, le psychologue se retrouve dans une situation inconfortable, guère différente de celle des sciences cognitives aujourd’hui :
- ou bien nous acceptons que les processus mentaux constituent un domaine particulier qui est à découvrir (en partant du principe que ces processus sont semblables aux processus des sciences physiques),
- ou bien nous soutenons qu’ils n’existent pas, ce qui correspond à une position grossièrement béhaviouriste.
Le geste de Wittgenstein consiste précisément à refuser ce dilemme :
- nier que tous les phénomènes mentaux sont des processus et que tous les processus sont comme des processus physiques n’implique aucunement que l’on nie qu’il existe certains phénomènes mentaux (et que certains de ces phénomènes sont des processus).
- Il y a en effet des phénomènes comme l’atténuation d’une douleur, une cogitation ou l’audition d’un son qui sont des processus mentaux, en raison justement de leur continuité. Mais la pensée ou la compréhension (comme l’attente, l’intention, le souvenir ou le vouloir-dire) ne sont généralement pas des processus ni – plus largement – des activités (Tätigkeit), ou encore l’accompagnement d’une activité .
S’il existe des processus mentaux, ce n’est pas pour cela que tous nos concepts psychologiques dénotent des processus, et cela même si ces derniers ne sont pas intérieurs, cérébraux ou représentationnels.
- Cette critique du mythe des processus mentaux découle plus largement du refus typiquement wittgensteinien de définir l’ensemble des phénomènes mentaux à partir d’une marque, d’une propriété ou d’un critère distinctif.
Pour chaque concept, pour chaque phénomène, c’est la diversité de ses usages et de ses manifestations qui est fondamentale, pour ne pas dire fondatrice.
- Les concepts psychologiques ne désignent pas des phénomènes, comme le font les concepts de la physique ordinaire.
- Mais il existe pourtant des phénomènes psychologiques !
Un phénomène est quelque chose que l’on peut observer : la pensée, la croyance, l’intention ou le désir ne s’observent pas – ni de l’intérieur ni de l’extérieur −, mais je peux observer leur expression dans le comportement : ces expressions comportementales, ce sont des phénomènes psychologiques, car nous les identifions et les qualifions à l’aide de concepts psychologiques.
- Ces phénomènes psychologiques, que Wittgenstein appelle parfois phénomènes du voir, phénomènes de l’intention… sont observés par le psychologue,
- mais ce n’est pas parce qu’il les observe qu’il peut nous apprendre des choses sur la signification de nos concepts psychologiques,
- ou qu’il doit remonter de ces phénomènes vers leurs causes internes qui correspondraient à ce que nos concepts psychologiques dénoteraient.
Ce rappel de la description et de la critique de ce que Wittgenstein appelle le « mythe des processus mentaux » permet de mettre au jour un présupposé que l’énactivisme partage avec les autres programmes de recherche en sciences cognitives : le présupposé selon lequel la cognition, et plus précisément des phénomènes dits cognitifs comme la perception, la compréhension ou le raisonnement sont réalisés par, ou surviennent sur des processus.
L’activité ou les formes d’action des énactivistes (actions effectives, motricité, dispositions à l’action, interactions, activité…) sont en effet
- des opérations qui possèdent des attributs spatiaux (pensés dans un cadre externaliste) et temporels (une durée, une histoire) ;
- cette caractérisation spatio-temporelle suffit à faire de ces opérations pragmatiques des processus, et donc de la cognition elle-même quelque chose qui relève d’un processus – public, environnemental, incarné, vivant, au-delà d’une séparation entre l’intérieur et l’extérieur, mais un processus tout de même.
Ce présupposé découle plus largement d’un préjugé référentialiste, également mis à jour par Wittgenstein, comme nous l’avons vu au début de cette section :
on considère que les concepts de “pensée” ou de “compréhension”, et plus généralement de cognition, doivent dénoter quelque chose. Si ce n’est pas une substance (cartésienne, spirituelle, cérébrale…) ou l’un de ses états, alors il s’agit d’un processus (vécu ou conscient, immatériel, symbolique, ou ici pragmatique).
La première définition de « cognition » en sciences cognitives fut proposée en 1967 par le psychologue Ulric Neisser, et présuppose déjà cette idée que
- le processus constitue le meilleur modèle pour définir et pour étudier ce que nos concepts psychologiques sont supposés désigner :
“cognition” désigne tous les processus par lesquels l’entrée sensorielle est transformée, réduite, élaborée, stockée, retrouvée et utilisée.
C’est là l’idée fondamentale des sciences cognitives, plus fondamentale en tout cas que les débats ayant trait à la localisation de ces processus, à leur composition matérielle, à leur forme ou à leur nature représentationnelle.
Pour Wittgenstein,
- associer la pensée à un processus antérieur à l’action, ou à une activité, occulte ses relations constitutives avec l’expression.
Mais qu’est-ce que cette expression comportementale, qui constitue pour Wittgenstein le point de départ des observations du psychologue, et qui empêche de définir les phénomènes psychologiques comme causes du comportement ?
3) Du processus à l’expression
Après avoir consacré autant d’énergie à la critique du mythe de l’intériorité, il aurait été décevant de soutenir que l’esprit était réalisé… dans des processus extérieurs, comme des processus comportementaux ou corporels.
Nous serions restés prisonniers du mythe du processus, et du préjugé selon lequel les concepts psychologiques désignaient certains types de propriétés spécifiques :
- Mais lorsque nous nous débarrassons ainsi du processus interne, – ne reste-t-il rien d’autre que le processus externe ? – Il reste non seulement le jeu de langage de la description du processus externe, mais aussi celui qui ressort de l’expression [Äusserung].
Rompre avec l’image de la pensée comme processus intérieur, ce n’est pas nécessairement verser dans l’image de la pensée comme processus extérieur : une voie tierce existe, celle qui associe l’esprit à l’expression.
- L’expression – et pas la description – est présente chez Wittgenstein pour rendre compte de la logique des jugements en première personne ;
- l’expression – et pas la réalisation – est aussi présente pour rendre compte des relations entre l’esprit et le comportement (mais aussi, dans d’autres contextes, de l’expressivité d’un visage, d’un tableau et d’un morceau de musique).
C’est ce dernier point qui nous intéressera ici.
L’expressivité des phénomènes mentaux, chez Wittgensteinien, ne passe en effet pas nécessairement par des événements ou par des dispositions linguistiques qui seraient produits par un sujet.
- Cette expressivité peut d’ailleurs se retrouver chez certains animaux :
- il peut en effet y avoir une expression naturelle des émotions, mais aussi des intentions.
Cette expression relève de manières d’agir, de faire, ou encore de parler. Pour Wittgenstein, le ton d’une phrase peut par exemple constituer l’expression (Äusserung) d’un sentiment.
De nombreux phénomènes peuvent être l’objet d’une expression (Ausdruck) dans des manières de faire ou d’agir :
- chercher le bon mot,
- l’intention,
- la sensation,
- l’apparition d’un aspect perceptuel, ou encore
- l’attente (Erwartung).
Pour ce dernier cas, voici ce qui est repris dans le Big Typescript :
« l’expression de l’attente est l’attente ».
- Ce qui est exprimé n’est pas dissocié du mouvement d’expression, en lui pré-existant :
- c’est ce qui distingue d’ailleurs l’expression de la description et du compte rendu.
L’expression n’est donc pas l’exécution ou l’expulsion d’un objet déjà constitué et abrité par une conscience ou une intériorité : c’est plutôt dans les nuances et l’imprévisibilité de l’expression, nous le verrons, que peut apparaître ce qui est exprimé.
L’expression ne s’identifie pas non plus à son support comportemental, mais la relation qui existe entre ce qui est exprimé et ce qui l’exprime n’est pas non plus une relation du même type que celles qui prennent place entre l’universel et le particulier, l’abstrait et le concret ou l’idéal et le réel : ces relations sont des relations de réalisation ou d’instanciation.
Or,
- la relation d’expression est différente :
- si le comportement peut être le lieu d’expression (et non pas de réalisation) de l’esprit, c’est parce qu’il est identifiable et qualifiable à partir de concepts psychologiques.
L’expression, en tant qu’acte (et non comme produit ou comme objet), jouit d’un statut particulier en philosophie de l’action :
- elle n’est pas une action au sens classique car elle s’accompagne rarement d’une intention ou d’une raison (sauf lorsque l’expression est réalisée pour manifester quelque chose, notamment dans le cas de la feinte).
L’expression possède souvent une spontanéité (c’est ce qui peut rendre un sourire, un froncement de sourcils, un sanglot, ou une démarche expressifs). Mais s’il ne s’agit pas d’une action dans ce sens, elle n’est pas réductible non plus à quelque chose qui nous arriverait, et qui serait l’effet d’une cause – intérieure ou extérieure – non maîtrisée.
Pour dépasser cette ambiguïté de l’expression, Peter Goldie a proposé de parler d’actions adverbialement expressives :
l’expression n’est pas un acte ou un comportement, mais une manière d’agir. L’expression colore une action, mais dans un cadre non-causaliste, l’action ne requiert pas, au préalable, une cause mentale pour exister.
- Les ambiguïtés de l’expression peuvent également se manifester de manière insistante lorsque l’on considère les rapports entre les phénomènes psychologiques et les phénomènes comportementaux à partir de la nécessité putative de l’interprétation.
Ce qui est exprimé ne serait alors jamais directement perçu :
- il faudrait procéder à une inférence allant de l’exprimant vers l’exprimé. Cette inférence légitimerait la présomption en l’existence d’états mentaux antérieurs au comportement, et dont l’expression serait un symptôme.
Or,
pour Wittgenstein, nous percevons directement la tristesse exprimée par un visage, ou la joie exprimée par un sourire : nous n’associons pas ces sentiments à la vue du visage ou du sourire ; nous considérons qu’ils sont plutôt porteurs de ces sentiments. « Je ne présume pas la peur en lui, je la vois » : ce qu’il y a, c’est une expressivité, propre à la manière dont le comportement, les gestes, le regard, ou les mimiques se déploient.
- L’expressivité est ce mouvement premier (qui est lié à un agent, mais pas nécessairement), à partir duquel un intérieur et un extérieur peuvent ensuite être distingués et, partant, un exprimant (le comportement) et un exprimé.
Pour peu que l’on retienne qu’
- un comportement n’est jamais expressif de lui-même, il est donc permis de penser que l’expressivité du comportement, c’est la vie mentale.
L’expression, pour reprendre une suggestion de David Finkelstein, devient alors une relation interne fondamentale entre les états mentaux et l’action : ceux-ci ne sont plus des causes de celle-là, mais relèvent d’un mouvement d’expression incluant celle-là.
- L’esprit n’est pas dans l’action comme l’électricité serait (dans) l’activité des électrons :
- il est dans l’action comme l’on peut dire que l’effort ou la vigilance sont des propriétés d’un comportement :
Imagine que nous parlions des phénomènes de la conversation. Pourraient nous intéresser ici : la rapidité d’élocution, le changement d’intonation, les gestes, la longueur ou la brièveté des phrases, etc., etc. – Or, si nous disons d’un homme qu’il a une vie psychologique : qu’il pense, qu’il désire, qu’il craint, croit, doute ; qu’il a des représentations, qu’il est triste, gai, etc., – cela est-il analogue à : il mange, il boit, il parle, il écrit, il court, ou bien analogue à : il avance tantôt rapidement, tantôt lentement, tantôt vers un but, tantôt tout droit, tantôt en rebroussant chemin ?
Wittgenstein opte pour la seconde voie de réponse,
- voie qui se rapproche de ce que l’on peut appeler à la suite de Gilbert Ryle un adverbialisme :
- la vie psychologique ne correspond pas fondamentalement à un ensemble d’activités distinctes que l’on pourrait à chaque fois rendre par un verbe (penser, craindre, comprendre…),
- mais à des manières d’effectuer des actions (lire, jouer du piano, parler, scier du bois, jouer au tennis, raisonner, analyser un échantillon d’ADN…).
Le fait qu’une créature pense, par exemple, n’est pas analogue au fait qu’elle coure ou au fait qu’elle écrive (des activités bien déterminées) : il est plutôt semblable au fait que la créature coure avec un but, ou qu’elle écrive attentivement.
Dans ces circonstances, la créature ne fait pas deux choses distinctes : l’adverbe qualifie son action, qui manifeste ou exprime la présence de pensée.
- Le dialogue suivant entre Wittgenstein et son interlocuteur est révélateur. Les dimensions vécues et ressenties de l’espoir ne sont pas niées,
- mais c’est le contexte de l’expérience de l’espoir qui est constitutif de l’espoir en tant que phénomène psychologique –
- c’est à partir de ce contexte qu’un comportement expressif de l’espoir est concevable :
« Mais tu parles comme si je n’attendais pas, n’espérais pas vraiment, en ce moment – alors que je crois espérer. Comment si ce qui se passe en ce moment n’avait pas de signification profonde. » – Que signifie : « Ce qui se passe en ce moment a une signification », ou : « a une signification profonde » ?
Qu’est-ce qu’un sentiment profond ? Quelqu’un pourrait-il éprouver pendant une seconde un amour ou un espoir intenses, – indépendamment de ce qui précède ou suit cette seconde ?
– Ce qui se produit en ce moment a une signification – dans ce contexte. C’est le contexte qui lui confère son importance. Et le terme « espérer » se rapporte à un phénomène de la vie humaine. (Une bouche souriante ne sourit que dans le visage d’un homme.)
- La contextualité du comportement,
- ce sont les circonstances à partir desquelles le comportement se déploie (histoire, habitudes, capacités, activités et actions passées…) et
- peut être surtout reconnu et qualifié à partir de concepts psychologiques :
Les phénomènes psychologiques sont enchâssés dans les régularités qui constituent la vie humaine.
- C’est dans le caractère situé de notre comportement, qui inclut à la fois son histoire et ce que nous pouvons dire et faire, que s’exprime notre vie psychologique.
Une expression comportementale de la pensée, du souhait ou de la vision n’est pas un symptôme, un indice ou une conséquence de la pensée : c’est, nous l’avons vu, un phénomène de pensée, de souhait ou de vision.
- Mais le fait que le comportement soit expressif des phénomènes psychologiques ne signifie pas que toute observation du comportement soit ipso facto une observation des phénomènes psychologiques.
Par exemple,
pour décrire l’agent en train de penser, et pour spécifier ce qu’il pense ou ce qu’il fait en pensant, je dois déborder la scène de son comportement actuel, non pas en le liant à des causes internes, mais en le décrivant en relation avec d’autres capacités, et le plonger dans une histoire et un environnement de pratiques intellectuelles, institutionnelles, symboliques ou tout simplement ritualisées.
S’il peut en définitive y avoir un processus qui peut être associé à nos usages des concepts psychologiques et, partant, aux propriétés psychologiques de certains phénomènes,
- c’est le flux de la vie (et non pas un flux de conscience, comme chez James, dont Wittgenstein était un grand lecteur).
Ce flux coule, de multiples manières, mais il est aussi régulier :
- “Souci” (“Kummer”) décrit une sorte de motif récurrent dans la tapisserie de la vie (Lebensteppich).
- Mais ce motif comporte aussi un processus (Verlauf).
Si l’expression physique (Körperausdruck) du chagrin et de la joie changeait, disons, à chaque battement du métronome, cela ne produirait pas le motif du chagrin ou de la joie. (Ce qui ne veut pas dire que la joie ou le souci soit un comportement.)
- Ce dernier passage nous amène à la question des relations qui existent entre l’expressivité et l’imprévisibilité.
L’usage des concepts psychologiques concerne certains aspects de notre vie.
- Cette vie est composée de régularités, mais elle n’est pas totalement prédictible, et
- c’est précisément pour cette raison que nous utilisons ces concepts et que nous parlons de vie mentale.
Voyons cela de plus près, en clarifiant d’ailleurs le rôle important que jouent, dans la reconnaissance de l’expressivité, les fines nuances comportementales.
Le comportement qui peut être expressif, nous l’avons vu, est large : il possède une histoire ; il est dirigé vers certains buts, et il prend place dans certaines circonstances – des formes de vie partagées, comprenant des règles, des coutumes, des institutions, et des concepts psychologiques qui sont utilisés pour qualifier ce comportement.
Mais le comportement expressif inclut aussi des fines nuances : les manières dont les actions sont réalisées, mais aussi les tons de nos discours.
- “Fines nuances du comportement.” – Exprimer ma compréhension du thème en le sifflant avec l’expression qui convient est un exemple de ces fines nuances.
Ces fines nuances de comportement sont par exemple constitutives de l’expression de la compréhension.
- Le substrat de l’expérience vécue de la vision aspectuelle d’une forme, dit aussi Wittgenstein, est la maîtrise d’une technique.
- Mais la maîtrise d’une technique n’est pas l’exécution machinale d’un geste.
Au contraire :
- les nuances comportementales qui accompagnent son déploiement ne sont généralement pas prévisibles.
Plus généralement,
si les concepts psychologiques ont des frontières floues et des conditions d’application vagues, c’est parce que le comportement lui-même n’est pas déterminé.
L’expression, c’est avant tout l’imprévisibilité :
- si je savais exactement quelle grimace un tel portera sur le visage, quel mouvement il fera, alors il n’y aurait ni expression du visage, ni geste.
L’imprévisibilité et la diversité sont des traits essentiels de l’esprit, au point qu’un homme sans âme serait tout simplement un homme qui agirait de façon mécanique.
C’est parce que leur comportement peut être imprévisible et qu’il possède des fines nuances que nous considérons que nos pairs sont des créatures pensantes, sentantes et désirantes.
- L’expressivité est imprévisible et incalculable ; et
- c’est justement pour cela que nous lui associons une intériorité qui redoublerait la vie mentale exprimée dans ce que nous faisons.
L’imprévisibilité et les phénomènes mentaux entretiennent des relations internes : le mental n’est pas la cause de l’imprévisibilité (ou inversement) ; c’est plutôt notre reconnaissance d’une vie mentale exprimée dans un comportement qui dépend de l’imprévisibilité de ce comportement.
- Pas une imprévisibilité totale, évidemment :
- l’expression ne possède pas de caractère réglé, bien qu’elle ne soit pensable que là où existent des règles et des régularités, sans lesquelles il n’y aurait pas plus de l’imprévisible que du prévisible.
Ces règles et régularités se retrouvent notamment dans les concepts que nous utilisons pour qualifier et identifier l’imprévisibilité d’un comportement :
Si la vie était une tapisserie, un motif donné (celui de la simulation, par exemple) ne serait pas toujours complet, avec des variations multiples. Mais nous, dans notre monde conceptuel, nous voyons toujours se répéter la même chose, avec des variations. C’est ainsi que nos concepts saisissent un motif. Les concepts, en effet, ne sont pas destinés à n’être employés qu’une fois.
En étant vue comme relevant d’une expressivité comportementale,
- la vie mentale fait apparaître ses relations avec l’imprévisibilité, et non pas avec le mystère ou la dissimulation.
Souvent, dit-on, nous ignorons ce qu’autrui peut penser, comme s’il cachait en lui une activité. Mais lorsque je dis « je ne sais pas ce que Paul pense de Julie », je ne fais peut-être au fond rien d’autre que manifester mon ignorance au sujet des actions à venir de Paul (et non pas mon ignorance de ce qui se passe « dans son for intérieur »).
La lecture, le discours, l’attention, la justification ou le raisonnement :
- lorsqu’elles portent sur Julie, chacune de ces activités déployées par Paul est imprévisible.
Prises ensemble, leur imprévisibilité demeure :
- c’est à partir de cette imprévisibilité des comportements de Paul que je peux alors lui attribuer des pensées dont j’ignore la teneur – c’est donc cette imprévisibilité du comportement qui explique pourquoi je peux penser qu’il y a des choses, chez Paul, qui m’échappent,
- et non pas l’inverse (il y aurait une pensée interne, chez Paul, qui me serait inaccessible, et qui produirait divers comportements, de manière imprévisible) :
- L’imprévisibilité du comportement humain.
- Sans cela, dirions-nous encore qu’on ne peut jamais savoir ce qui peut se passer chez autrui ?
Généralement,
l’expression semble annoncer une profondeur qui se cacherait tout en se montrant. Ce que suggèrent les remarques de Wittgenstein, c’est que la profondeur se situe dans l’imprévisibilité de l’expression.
Acceptons le fait qu’il y ait une indétermination dans l’usage des concepts psychologiques, et prenons-la justement au sérieux :
- cette indétermination dans cet usage n’est-elle pas étroitement liée à l’incertitude de nos vies et formes de vie ?
Nous ne pouvons jamais exactement prédire ce qu’autrui pourra faire, dire… et penser. Nous ne pouvons jamais exactement entrevoir les conséquences d’un événement ou d’une décision. Nous ne pouvons jamais parfaitement circonscrire les circonstances suffisantes pour l’occurrence de tel ou tel fait, qu’il soit naturel ou culturel.
Cette incertitude de nos vies et formes de vie est bien plus large que l’indétermination de nos usages des concepts psychologiques :
- tellement plus large qu’il n’est pas interdit de penser que cette indétermination est nichée dans cette incertitude ;
- elle n’est pas le symptôme de l’existence d’un domaine intérieur qui serait soustrait à cette incertitude générale, et qui nous fournirait un modèle de compréhension du sens et de l’usage correct des concepts psychologiques.
Les comportements humains sont à la fois imprévisibles et envisagés à partir d’un arrière-plan de régularités partagées : c’est ce qui permet justement à l’expressivité d’un comportement de nous apparaître, et de nous apparaître comme relevant d’un comportement humain.
- En présupposant l’humain, je m’attends à de l’imprévisible, et
- présuppose alors une intériorité.
Cela permet de mieux comprendre pourquoi
Wittgenstein aimait à dire que le corps humain, ou l’être humain, était la meilleure image de l’âme humaine : non pas l’image comme représentation, mais comme expression (située).
4) Repenser l’objet des sciences cognitives
L’énactivisme, nous l’avons vu dans la deuxième section,
- ne remet nullement en question le modèle du processus lorsqu’il s’agit de définir la cognition, même lorsqu’il insiste sur sa dépendance constitutive vis-à-vis de l’action, du comportement ou de l’environnement.
Plus précisément,
la cognition est un ensemble de processus comme la perception, le souvenir qui sont réalisés dans ou par d’autres processus – pragmatiques, corporels, comportementaux.
Le processus est présent à la fois dans la définition de ce qui est à expliquer – on parle de processus cognitifs – et dans la définition de l’explanans : des formes d’activités étendues dans le temps et dans l’espace.
De plus,
- l’énactivisme conserve une logique de réalisation entre la cognition et ces processus.
Pour Evan Thompson, par exemple,
la cognition est l’exercice d’un savoir-faire habile dans l’action incarnée et située.
L’énactivisme d’Alva Nöe défend quant à lui l’idée que
- le lieu de la conscience est la vie dynamique de la personne ou de l’animal total, immergé dans un environnement.
Pour l’énactivisme radical de Hutto et Myin,
- il s’agit de voir les processus cognitifs comme des formes d’activités incarnées, étendues spatialement et temporellement.
La confrontation entre cognitivisme et énactivisme se déploie donc à partir d’une alternative :
- soit la cognition est séparée (fonctionnellement, génétiquement) de l’action ;
- soit elle s’identifie ou se réalise dans l’action ou le comportement situé et engagé dans l’environnement.
Mais cette alternative ne traduit pas une nécessité :
la cognition peut ne pas être une action, ni quelque chose d’antérieur à l’action.
Positivement, en s’inspirant de Wittgenstein,
- la perception, le souvenir ou le raisonnement sont exprimés dans les formes prises par certaines activités.
Ce que les scientifiques appellent « cognition » n’est que l’ensemble des processus qui conditionnent ces activités ; ces processus sont bien évidemment des processus matériels étudiables scientifiquement. Mais ce qui les compose n’est pas ce qui réaliserait la perception, le souvenir ou le raisonnement, tout simplement parce que la grammaire de l’expression propre aux phénomènes psychologiques n’est pas celle de la réalisation.
Il est maintenant temps de clarifier l’apport possible de l’expressivisme wittgensteinien pour les sciences cognitives en général, au-delà donc de la confrontation exemplaire entre énactivisme et théorie computo-représentationnelle : dans ce cadre expressiviste, qu’étudient les sciences cognitives ? Quelles sont les relations entre la « cognition » et les concepts psychologiques que nous utilisons ?
Les concepts psychologiques ne sont pas à propos de processus, mais il existe des processus en vertu desquels nous pouvons produire un comportement qui sert de critère pour la justification de l’attribution de concepts psychologiques.
- Les praticiens des sciences cognitives peuvent soutenir qu’ils étudient ce que nos concepts psychologiques dénoteraient,
- mais on peut aussi affirmer – avec Wittgenstein – qu’ils étudient certains des processus et des capacités en vertu desquels nous sommes en mesure de produire des comportements qui peuvent être contextuellement qualifiés au moyen de concepts psychologiques.
Ces performances comportementales peuvent servir de critères pour l’attribution de concepts psychologiques. Mais l’expressivité, nous l’avons vu, ne requiert pas de critère pour être perçue.
Les critères comportementaux n’expriment pas la vie mentale ; ils garantissent notre application de concepts psychologiques à des personnes et à des organismes, et pas à leurs parties.
- En étudiant les mécanismes (intérieurs et extérieurs) qui rendent possibles ces performances comportementales, on n’étudie pas les phénomènes psychologiques ou leurs putatives « conditions capacitantes » :
- on étudie certaines conditions capacitantes à partir desquelles les personnes manifestent un comportement qui peut être directement perçu – dans nos formes de vie, et avant toute enquête scientifique – comme exprimant une vie mentale, et qui peut justifier l’attribution de concepts psychologiques.
La « cognition » dont parlent les sciences cognitives n’est alors pas une espèce générale qui engloberait ce que nos concepts psychologiques désigneraient.
C’est pour cette raison qu’il est fourvoyant de définir la perception, le raisonnement, le souvenir ou la compréhension comme des « processus », même si ces processus sont conçus comme étant incarnés, situés, étendus, etc.
- L’usage premier de concepts comme « vision », « raisonnement » ou « intention » n’est pas de désigner des processus ou des entités qui devraient être expliqués scientifiquement,
- mais de qualifier et d’identifier les dimensions expressives du comportement.
- Ces concepts ne peuvent donc être utilisés pour définir ce que la psychologie étudie.
Il y a une relation interne entre ces concepts, les descriptions dans lesquelles ils figurent, et le comportement qui est ainsi caractérisé.
Les personnes se souviennent, mais cela ne signifie pas que le souvenir consiste en un processus mental spécifique : le verbe « se souvenir » s’applique à des agents qui exhibent un comportement dans des circonstances particulières, garantissant par là même notre application du verbe.
En étudiant les mécanismes qui rendent possible ce comportement, on n’étudie pas le souvenir : on étudie les conditions à partir desquelles des personnes peuvent produire un comportement qui est pris – dans nos formes de vie – comme exprimant le souvenir.
De la même manière,
- la psychologie n’étudie pas ce dont nous parlons lorsque nous utilisons le verbe « voir » :
- la psychologie ne traite pas de ce que serait réellement la vision (dont nous parlerions naïvement ou erronément) ;
- ce serait en effet présupposer que le verbe « voir » désigne quelque chose.
La psychologie de la vision s’occupe des conditions et des processus en vertu desquels une personne manifeste – ou ne manifeste pas – un comportement que nous décrivons directement (ou pas) avec le verbe « voir », cela parce que ce comportement satisfait (ou non) nos critères d’usage et d’application de ce verbe.
Bref,
- la psychologie cognitive de la vision a pour objet les mécanismes et les conditions qui contribuent à causer l’occurrence des faits qui sont nos critères de reconnaissance de la vision, mais aussi des différentes formes de cécité.
- Cette production causale n’est pas une justification de ces critères :
- cette dernière relève plutôt d’une histoire et d’une anthropologie.
De même,
la psychologie ne nous dit pas ce que sont ces critères : toute personne maîtrisant ce verbe les connaît.
En utilisant des concepts psychologiques, nous qualifions certains aspects réguliers et situés des comportements des agents ; nous n’attribuons pas à ces agents des états ou des processus qui causeraient ces comportements.
- Si le concept de « cognition » doit être un concept scientifique, il doit être soigneusement séparé de nos concepts psychologiques quotidiens :
- par exemple, il ne peut être défini comme un genre qui couvrirait la plupart de nos concepts psychologiques, qui ne sont ni scientifiques ni proto-scientifiques.
Ces concepts psychologiques doivent être éliminés du projet scientifique dans lequel le psychologue les a importés.
- Cet éliminativisme scientifique n’est pas un éliminativisme ontologique :
- le fait que nos concepts quotidiens ne figurent pas dans les programmes de recherche scientifique contemporains n’implique pas qu’ils soient faux ou dénués de signification.
Et rien, dans cet éliminativisme scientifique, n’empêche que l’étude scientifique de
la « cognition » (comme ensemble de processus qui permet aux agents de manifester certains types de comportement que nous qualifions avec des concepts psychologiques)
puisse nous amener à réviser ou à modifier certains des critères d’attribution des concepts psychologiques, et donc modifier leur signification.
Par exemple,
- ce dont parlent les neurosciences, et quelle que soit la manière dont elles en parlent (au moyen éventuellement d’innovations conceptuelles ne respectant pas les usages quotidiens des concepts psychologiques), ne correspond pas au domaine d’application de nos concepts psychologiques ordinaires,
- même si rien n’empêche de penser que les descriptions et explications neuroscientifiques de la cognition en tant que processus pourraient petit à petit modifier certaines des conditions d’application et des critères d’usage (et donc le sens) de ces concepts psychologiques ordinaires, comme ceux de concentration, de lecture, de mémoire ou encore d’attention (les neurosciences ont des éléments importants à apporter sur les relations entre la conscience et l’attention, non pas parce que ces dernières correspondraient aux phénomènes étudiés par les neurosciences, mais parce que les neurosciences étudient certaines des conditions en vertu desquelles des agents peuvent être qualifiés de conscients ou d’attentifs).
Mais cette modification ne serait pas directe : les critères d’usage de ces concepts ne sont pas en correspondance directe avec les mécanismes étudiés par les sciences cognitives ; ils existent d’ailleurs depuis bien plus longtemps que les sciences cognitives. Pour qu’un tel changement puisse se produire, il faudrait d’abord que les sciences cognitives transforment nos formes de vie, et les manières que nous avons de nous définir et de nous reconnaître mutuellement en tant que personnes.
5) Après l’énactivisme, Wittgenstein
Pendant longtemps, les ressources de la philosophie de Wittgenstein ont été mobilisées pour discuter et critiquer les sciences cognitives de l’extérieur ; ces sciences cognitives se confondaient d’ailleurs avec le cognitivisme.
Les temps ont désormais changé, et
- il est temps de reposer et de discuter à nouveau la pertinence de Wittgenstein par rapport au projet d’une science de l’esprit tel qu’il est mené dans de nouveaux programmes de recherche.
Certaines pistes ont déjà été esquissées, et ont principalement consisté à rapprocher Wittgenstein des programmes de recherche d’inspiration énactive.
- Une voie alternative a été proposée dans cet article, radicalisant la portée critique de la philosophie de la psychologie de Wittgenstein.
Les opérations de rapprochement récentes entre l’énactivisme et Wittgenstein peuvent être discutées en ce qu’elles passent sous silence une possible critique wittgensteinienne de cette continuité fondamentale de l’énactivisme avec les autres programmes de recherche, et se concentrent plutôt sur ce qui apparaît alors comme étant des proximités de surface.
- Au-delà de sa radicalité proclamée concernant les questions de l’externalisme et de l’anti-représentationnalisme, c’est lorsqu’il est lu à partir de Wittgenstein que l’énactivisme apparaît dans ses relations de proximité et de continuité avec les autres programmes de recherche en sciences cognitives.
Au-delà de la critique du représentationnalisme et du mythe de l’intériorité, le défi le plus important que la pensée de Wittgenstein pose aux sciences cognitives est la remise en cause d’un modèle de la cognition comme processus ou comme activité.
L’expressivisme constitue une alternative à ce modèle, et nous avons suggéré à quel point cette alternative était compatible avec le projet de mener une étude scientifique de ce que l’on appelle aujourd’hui cognition. »
– Steiner, P. (2019). Wittgenstein : de l’action à l’expression: Phénomènes mentaux et sciences cognitives. Archives de Philosophie, tome 82(2), 361-382.
« Dans la théorie des monades qui se met en place au cours des années 1690,
- Leibniz fait de la simplicité un réquisit fondamental de la substantialité
- et l’érige en critère définitionnel.
Les monades sont en effet des substances « simples, c’est-à-dire sans parties » (Monadologie [M] § 1).
L’exigence d’unité de la réalité substantielle, formulée depuis l’époque de la correspondance avec Arnauld, consiste dans le caractère simple,
- c’est-à-dire indécomposable, de la monade.
Cette simplicité compositionnelle n’exclut pas toutefois une forme de complexité interne, sous la forme d’une diversité qualitative (M § 8). Cette diversité est à la fois synchronique, issue de la représentation par chaque monade de l’ensemble des autres monades, et diachronique, en ce que chaque monade est sujette au changement (M § 9).
- Les monades possèdent une « tendance interne essentielle au changement » comme l’écrit Leibniz à De Volder (GP II, 258).
Toute monade comporte deux aspects :
- un principe interne ou « loi de l’ordre » et
- une pluralité d’états engendrés par ce principe interne (M § 11-12), respectivement identifiés à l’appétition et à la perception.
La spontanéité monadique implique à son tour que le changement est interne aux monades qui en sont la source et ainsi que « toutes les choses singulières sont successives ou sujettes à la succession » (A De Volder, 21 janvier 1704, GP II, 263).
La conjonction ‘ou’ (seu) suggère bien une restriction de la première affirmation plutôt qu’une équivalence :
- quoique sujettes au changement, les substances ne sont pas des entités successives.
En dépit de cette restriction, l’inscription de la succession dans la nature monadique ne laisse pas de soulever une difficulté métaphysique rarement abordée et nettement formulée par J.E. McGuire dans un article de 1976 consacré au labyrinthe du continu :
- si la monade, ou du moins un aspect de celle-ci, est successive, comment concilier la succession avec la simplicité monadique ?
- Le problème peut se formuler à rebours : la simplicité étant un critère de la substantialité, comment ne pas conclure, étant donné qu’une pluralité d’états entraine la divisibilité selon la dimension du temps, que les substances ont une durée ponctuelle ?
- Le réquisit de persistance des substances renforce le problème. Conformément à la tradition aristotélicienne, la substance est ce qui persiste à travers les changements. Comment éviter alors la conclusion selon laquelle il n’existe pas de substances, mais que la distinction des états successifs définirait autant d’entités transitoires, éphémères, dont l’existence serait confinée à un atome de durée ?
Il s’agit là de trois formulations d’un même problème :
- la divisibilité temporelle des monades, qui est le versant temporel du labyrinthe du continu.
Le problème n’a pas échappé à Leibniz et se trouve au cœur des écrits métaphysiques des années 1700. Une formule lapidaire d’une lettre de 1704 à De Volder expose sous une forme très ramassée l’essentiel de sa position :
Les substances ne sont pas des touts qui contiennent des parties formellement, mais des choses totales qui contiennent les choses partielles éminemment.
(GP II, 263)
La solution réside
- dans le refus d’appliquer au rapport entre la substance ou monade et ses états, ici désignés par l’expression de « choses partielles »,
le modèle de la composition méréologique dans lequel le tout résulte d’une composition à partir de parties temporelles successives non nécessairement liées entre elles.
- Un tel modèle entre en contradiction manifeste avec l’exigence définitionnelle de simplicité.
C’est la raison pour laquelle Leibniz lui préfère un modèle alternatif, qui n’abandonne pas pour autant le recours au vocabulaire méréologique :
la substance est une res totalis dans laquelle les parties ne sont contenues qu’eminenter.
De prime abord,
- Leibniz soutiendrait que les différents états ou parties temporelles d’une substance S découlent de la nature de S et, en conséquence,
- (1) que les parties temporelles de S ne peuvent exister sans S. Néanmoins, Leibniz soutient également
- (2) qu’il n’y a pas de connexion nécessaire entre les parties de S, en conséquence de la doctrine de la conservation comme création continuée (désignée ensuite par ‘CCC’).
- La difficulté à accorder (1) et (2) est alors une autre manière de formuler le problème du labyrinthe temporel.
Dans ce qui suit, on examinera d’abord de quelle façon une res totalis peut être antérieure à ses parties sans se confondre avec une réalité idéale. Il convient pour cela de partir de l’analyse de la durée en général pour se pencher plus spécifiquement sur la manière dont cette analyse s’applique à la succession des états monadiques. La distinction entre des états substantiels paraissant constituer autant de parties temporelles, nous serons conduits à nous interroger sur les raisons pour lesquelles l’argument monadologique valide pour les agrégats étendus ne s’applique pas aux agrégats temporels, ou encore, pourquoi un « amas » d’états – pour reprendre une expression que nous commenterons plus loin – ne constitue pas un agrégat divisible (§ 1). On verra dans un second temps quelles contraintes l’interprétation leibnizienne de la CCC impose à la théorie de la persistance des substances. Après avoir confronté la version leibnizienne de la CCC à l’interprétation classique de Suárez et à celle de Descartes, on examinera et rejettera deux interprétations de la persistance des monades, l’une selon laquelle les monades existent de manière atemporelle, l’autre selon laquelle elles seraient des collections d’entités transitoires constamment recréées (§2).
En conclusion, on parviendra à l’idée que Leibniz résout le problème du labyrinthe temporel en recourant à l’idée selon laquelle une substance persiste tout entière à chaque moment de sa durée.
- Cette forme de ‘holenmérisme’ temporel permet d’accorder l’exigence de permanence de la monade avec les contraintes de la CCC
- au prix d’une modification du sens de l’exigence de simplicité selon la dimension temporelle.
[…]
Pour maintenir la simplicité de la substance, l’unique solution s’offrant à Leibniz est de soutenir que les monades existent tout entières à chaque partie de leur durée. Cela s’apparente à une forme de « holenmérisme », pour reprendre le néologisme forgé par Henry More pour désigner – et critiquer – les théories scolastiques du rapport de l’âme à l’étendue spatiale.
- L’adoption d’un modèle holenmériste est ce qui permet de soutenir que la monade est une entité indivisible quoique pourvue d’une extension temporelle.
Une telle conclusion demeure problématique et nous la proposons comme une suggestion.
- Elle implique en effet que le critère de simplicité de la substance ne peut donc pas se maintenir pleinement ou, plus exactement, que la conclusion ne peut avoir exactement le même sens selon que l’on envisage la dimension spatiale ou la dimension temporelle.
- Au regard de cette dernière, il n’est pas vrai que la substance soit absolument « simple, c’est-à-dire sans parties ».
- Elle est néanmoins tout entière présente à chacune de ces parties, c’est-à-dire à cette infinité d’« éclats de la divinité ».
Ou, pour être plus précis,
puisque la substance ne résulte pas d’une sommation de parties temporelles qui seraient ontologiquement premières, il faut dire que la substance est présente tout entière à chaque moment de sa durée.
- Une telle conception n’est pas radicale en soi et correspond à la conception que l’on se forme assez naturellement de la persistance des choses comme endurance.
Le problème est de savoir si la combinaison du principe de simplicité de la substance et de la CCC étaient compatibles avec une telle position.
- J.E. McGuire estimait que le problème de la divisibilité temporelle de la monade était insoluble.
Nous pensons pour notre part qu’il n’est qu’en partie insoluble,
- au prix d’un assouplissement de l’exigence de simplicité. »
– Anfray, J. (2014). Le labyrinthe temporel: Simplicité, persistance et création continuée chez Leibniz. Archives de Philosophie, tome 77(1), 43-62.
« Latour en donne une indication dans un article portant sur la pensée de Tarde et ses relations aux théories de l’acteur-réseau:
« les puissances d’agir (agencies), que nous devons considérer, celles que nous devons vraiment prendre en compte si nous voulons expliquer quelque chose, ne sont ni des agents humains ni des structures sociales, mais les monades elles-mêmes dans leurs efforts pour constituer des agrégats instables, ce que nous appellerions des actants ou des entéléchies constituant le monde » (Latour, 2002:13).
Ce passage ne définit pas encore ce que pourrait être une telle subjectivité, mais il indique le cadre philosophique à partir duquel le concept serait le plus adéquatement posé, à savoir la monadologie. si l’on pense au fait que le livre de Tarde, Monadologie et sociologie, est l’un des premiers et qu’il n’aura que très peu retenu l’attention de ses lecteurs plus tardifs, qui préfèreront reprendre Les lois de l’imitation,
- le passage de Latour peut surprendre. il n’hésite en effet pas à reprendre l’un des aspects de la pensée de Tarde la plus controversée, à savoir l’introduction du projet monadologique dans les sciences sociales.
Ce point nous paraît fondamental car, au-delà de la simple référence à Tarde, il marque la volonté de Latour d’hériter le plus explicitement du projet monadologique.
- Loin donc de tenter de « sauver » Tarde de ses restes de métaphysique, il en fait explicitement le centre de sa pensée et des reprises qu’il propose d’en faire, voyant les potentiels d’une approche monadologique à tous les niveaux de l’expérience :
même les sciences pourraient être pensées comme des modes par lesquels les monades « se diffusent et donnent sens à leur activité de production du monde » (Latour, 2002:13).
Tout indique donc l’importance de la notion de monade.
- si nous voulons comprendre ce que pourrait être une subjectivité non-humaine, c’est alors au statut de la monade qu’il nous faut en venir.
Dans ses textes,
- Latour les traite soit à partir d’oppositions, notamment à des notions telles que « sujets intentionnels », « individus », « subjectivités conscientes »,
- soit à partir de substantifs d’actions, tels que « l’activité », « la prise » ou encore « la puissance d’agir » (agency).
En un mot,
- la notion de monade ne trouve de définition positive que dans l’expression d’une activité.
Mais comment qualifier celle-ci ?
Le plus évident est de revenir à l’origine même de la conception de Tarde et à sa fascination pour la définition leibnizenne d’un sujet, à savoir ce qui est capable de perceptions et d’appétions (Leibniz, 1991:134).
- Nul doute que Tarde a été marqué par cette définition d’un sujet au confluent de deux forces, indépendamment desquelles elle ne serait qu’une pure abstraction.
il ne s’agit évidemment pas ici de retracer les axes et la cohérence de la conception leibnizienne du sujet, mais d’indiquer quelques conséquences importantes pour les reprises qui en seront faites par Tarde et Whitehead et, à travers eux, par Latour lui-même. Nous pouvons y voir une tentative importante pour sortir la question du sujet du paradigme de la conscience ou de l’apperception.
En effet, ni la « perception » qui est définie comme un « état passager qui enveloppe et représente une multitude dans l’unité ou dans la substance simple » (Leibniz, 1991:130), ni l’appétition qui est définie comme « l’action du principe interne qui fait le changement ou le passage d’une perception à une autre » (Leibniz, 1991:131) ne renvoient à une quelconque faculté et encore moins à la conscience ou à l’« apperception » (Leibniz, 1991:130).
- La survalorisation de l’apperception a fait croire, comme l’écrit Leibniz, que « seuls les esprits étaient des monades et qu’il n’y avait point d’âmes des bêtes ni d’autres entéléchies » (Leibniz, 1991:130).
En dégageant ainsi le sujet de l’apperception, Leibniz se donnait les moyens d’un élargissement considérable de son champ d’application dont il s’agirait de reprendre l’ambition.
- il nous semble possible de lire la proposition de Latour, celle d’une subjectivité dégagée de tout sujet intentionnel, comme une manière de reprendre la distinction de Leibniz entre la perception, constitutive du sujet, et l’apperception, relevant d’une modalité spécifique d’existence.
Ensuite,
l’affirmation, déjà contenue dans la définition de la perception – selon laquelle les « monades vont toutes confusément à l’infini, au tout » (Leibniz, 1991:159) mais qu’elles « sont limitées et distinguées par les degrés de perfections distinctes » (Leibniz, 1991:159) –, déplace complètement la question des limites et de l’identité du sujet, ou plus généralement de sa finitude.
Comme l’écrit Tarde, en écho à la pensée de Leibniz :
« nul moyen de s’arrêter sur cette pente jusqu’à l’infinitésimal, qui devient, chose bien inattendue assurément, la clé de l’univers entier » (Tarde, 1999:37).
Le sujet devient infinitésimal, les petites perceptions qui le constituent vont à l’infini sous des modalités qui, bien qu’elles soient de plus en plus imperceptibles, n’en sont pas moins déterminantes.
ainsi, Tarde en fait le point central d’une redéfinition du sujet :
- « ce seraient donc les vrais agents, ces petits êtres dont nous disons qu’ils sont infinitésimaux, ce seraient les vraies actions, ces petites variations dont nous disons qu’elles sont infinitésimales » (Tarde, 1999:40).
il s’agit par là de mettre en correspondance un pluralisme radical, dont le principe est que le réel est constitué d’un « fourmillement d’individualités novatrices, chacune sui generis, marquée à son propre sceau distinct, reconnaissable entre mille » (Tarde, 1999:65), et d’autre part une pensée de l’univocité affirmant « la discontinuité des éléments et l’homogénéité de leur être » (Tarde, 1999:65).
Les puissances de la possession
Latour y voit une conséquence majeure :
- la remise en question du principe d’identité.
Toujours au sujet de Tarde, il écrit que
« rien n’est plus stérile qu’une philosophie de l’identité – sans mentionner les politiques de l’identité – mais la philosophie de la possession – et peut être des politiques de la possession ? – crée la solidarité et des attachements qui ne peuvent être égalés » (Latour, 2002:15).
- Cette remise en question n’est pas uniquement une position philosophique, un choix purement spéculatif.
- Elle est une nécessité dérivant des pratiques liées aux théories de l’acteur-réseau; elle en forme la matrice.
ainsi, « ce rejet de la philosophie de l’identité a une dernière conséquence, qui est bien sûr cruciale pour nous sociologues des théories de l’acteur réseau:
- le statut des non-humains, pour lesquels nous avons été si souvent critiqués » (Latour, 2002:15).
Cette remise en question du principe d’identité, plus ou moins explicite dans le cadre des théories de l’acteur-réseau, ouvre celles-ci, selon Latour, à une tout autre orientation dont le terme majeur est la « possession ».
si l’idée se trouve déjà dans la théorie des perceptions chez Leibniz, c’est bien à Tarde qu’il revient d’en avoir fait l’axe central d’une philosophie générale, d’en avoir dramatisé les effets en la situant dans une histoire de l’ontologie :
« toute la philosophie s’est fondée jusqu’ici sur le verbe Être, dont la définition semblait la pierre philosophale à découvrir. On peut affirmer que, si elle eût été fondée sur le verbe avoir, bien des débats stériles, bien des piétinements de l’esprit sur place auraient été évités. – De ce principe, je suis, impossible de déduire, malgré toute la subtilité du monde, nulle autre existence que la mienne ; de là, la négation de la réalité extérieure. » (Tarde, 1999:86)
De la « nutrition dans le monde vivant » au « droit dans le monde social » en passant par « la perception dans le monde intellectuel »,
- la philosophie de Tarde se présente comme une vaste enquête sur les modalités de la possession.
Tout sujet impliquerait un certain type de questions concrètes :
- est-il engagé dans des possessions unilatérales ou réciproques ?
- Sous quel rapport est-il l’acteur d’une possession et dans quel autre en est-il l’objet ?
- Combien d’éléments, et avec quelle intensité, sont engagés dans ces rapports de possession ?
Ainsi, « depuis des milliers d’années, on catalogue les diverses manières d’être, les divers degrés de l’être, et l’on n’a jamais eu l’idée de classer les diverses espèces, les divers degrés de la possession » (Tarde, 1999:89).
C’est ce programme que Latour reprend à son compte lorsqu’il écrit qu’
il est « impossible de s’échapper de la logique de Tarde : prenez une monade quelconque, si vous regardez quelles sont ses propriétés et ses propriétaires, vous serez conduits à définir l’entièreté du cosmos, ce qui aurait été impossible si vous aviez seulement essayé de définir l’essence d’une identité isolée » (Latour, 2002:15).
- Tout sujet tend à une expansion maximale, utilisant d’innombrables moyens de capture afin d’établir des alliances temporaires ou pour séduire les autres en vue de maintenir sa domination sur eux.
Les limites de leur exercice sont toujours externes :
« le rêve ambitieux d’aucune d’elles ne s’accomplit en entier, et les monades vassales emploient la monade suzeraine pendant que celle-ci les utilise » (Tarde, 1999:93).
La différence entre la « monade vassale » et la « monade suzeraine » n’est pas une différence de nature, mais une différence pragmatique :
- dans un milieu particulier un sujet est renforcé par ses proximités à d’autres, et devient capable d’une possession accrue.
- Car « elles font bien parties les unes des autres, mais elles peuvent s’appartenir plus ou moins » (Tarde, 1999:93).
- Dès lors, il n’y a aucune raison a priori de séparer les formes plus courantes de l’existence sociale – celles de collectifs engagés dans des relations de pouvoir, de résistance et de domination – de ce qui constitue chaque sujet.
- Nous aurions ainsi un théâtre microscopique de guerres, de conquêtes, de trahisons et de pacifications se jouant pour chaque sujet, un drame qui se démultiplierait à l’infini.
Pourquoi les idées, les perceptions, les désirs, les croyances constitutives d’un sujet n’exerceraient-ils pas eux aussi leurs conquêtes sur d’autres, ne s’allieraient-ils pas en vue d’en exercer une plus grande possession? Avoir une idée n’est-ce pas essentiellement être possédé simultanément par elle et une multiplicité d’autres qui lui sont associées pour un temps ? Une croyance ne porte-t-elle pas directement avec elle d’autres croyances qui provisoirement lui sont soumises jusqu’au moment où, à l’occasion de l’introduction d’une nouvelle, les rapports se transforment ?
- Les désirs et les croyances, les inventions et les variations, sont eux aussi animés par ce grand principe :
« tout être veut, non pas s’approprier aux autres êtres, mais se les approprier » (Tarde, 1999:89).
Mais allons plus loin:
- ne serait-il pas possible de faire du concept de possession un terme véritablement métaphysique, un terme central pour l’interprétation de toute existence, qu’elle soit physique, biologique, psychologique ou sociale ?
C’est ici que la référence à Whitehead vient compléter l’approche monadologique de Tarde.
Dans un contexte très différent et en totale ignorance des travaux de ce dernier, Whitehead développe un essai de métaphysique dans lequel le concept de possession occupe une place majeure.
Le principe de cette cosmologie est que « la pluralité, qui est l’univers pris en disjonction, devient l’occasion actuelle unique [sujet], qui est l’univers pris en conjonction » (Whitehead, 1995:72), ou encore : « le principe métaphysique ultime est l’avancée vers la conjonction à partir de la disjonction, créant une entité nouvelle autre que les entités données en disjonction » ( Whitehead, 1995:73).
C’est la possession ou, dans les termes plus techniques de Whitehead, la préhension, qui opère le passage de la pluralité des êtres à l’unité d’une nouvelle existence. Elle est l’opération interne au monde par laquelle émerge un nouveau centre subjectif d’expérience.
- Celui-ci n’est pas une synthèse du monde, mais une prise ou une contraction.
Tout se passe ainsi comme si l’univers ne cessait de se contracter en une multiplicité de centres d’expérience, de perspectives sur l’ensemble de ce qui existe. À chaque fois, c’est un point de perspective, non pas sur mais de la nature, un devenir subjectif, qui est en même temps un centre de possession.
- C’est ici qu’une distinction importante doit être établie, signalée par Latour, entre la monadologie et la néo-monadologie.
si le projet leibnizien peut légitimement être décrit comme le point d’impulsion d’une métaphysique des subjectivités non-humaines, qui trouve chez Tarde et Whitehead ses outils principaux, cela ne réduit en rien la rupture nécessaire existant avec le projet initial.
- Contrairement « aux monades de Leibniz, elles ne sont pas connectées par une harmonie préétablie et, bien sûr, pour Tarde, il n’y a pas de Dieu pour les maintenir ensemble ou pour les pacifier » (Latour, 2002:13).
On pourrait l’exprimer encore autrement, en disant qu’à une logique de l’expression, il s’agirait d’opposer une logique de la possession.
En effet, dans une logique de l’expression « le monde, comme exprimé commun de toutes les monades, préexiste à ses expressions » (Deleuze, 1968:68)
Certainement,
l’univers « n’existe pas hors de ce qui l’exprime, hors des monades elles-mêmes ; mais ces expressions renvoient à l’exprimé comme au réquisit de leur constitution » (Deleuze, 1968:68).
- Ce qui fonde la théorie de l’expression, c’est le présupposé d’un monde commun, démultiplié, comme l’écrit Leibniz, par ses perspectives, mais néanmoins formellement unique.
- avec la néo-monadologie, c’est l’univers lui-même qui se démultiplie, comme il se contracte ; les sujets produisant des univers qui leur sont propres par l’opération de possession des autres.
Chaque sujet est ainsi le centre d’émergence d’un nouvel univers, lequel est cependant formé des mêmes matériaux.
- Cette fois, à la différence de Leibniz, ce matériau commun n’est pas l’univers exprimé, prédonné,
- mais uniquement la liaison des autres sujets par le mode de la capture qui en est faite.
La question n’est plus de savoir comment un univers commun s’actualise dans une multiplicité de sujets mais, à l’inverse, de savoir comment cette multiplicité peut produire un ou plusieurs univers communs, question relevant pour Latour d’une approche cosmopolitique (Latour, 2011).
Nous en arrivons à un problème particulièrement important :
- la constitution des réseaux et, à travers eux, celui de la composition d’un monde pluraliste.
Essayons donc d’en retracer la genèse conceptuelle à partir des éléments que nous avons posés jusqu’à présent.
si la réalité ultime est monadique et si une monade se définit essentiellement comme une activité possessive par laquelle est capturé l’ensemble des autres monades, nous pouvons alors dire que toute existence est fondamentalement sociale.
- Le caractère social ou relationnel des sujets n’est pas une situation secondaire et accidentelle ;
- il est constitutif de leur être puisqu’un sujet n’est rien d’autre qu’une activité possessive.
C’est à partir de cette définition du sujet que nous pouvons notamment comprendre l’une des propositions centrales de Tarde :
« toute chose est une société, tout phénomène est un fait social » (Tarde, 1999:58).
De la même manière qu’il convenait de sortir la notion de subjectivité de son inscription exclusivement humaine,
- il convient parallèlement de dégager la notion de société de toute réduction anthropologique.
ainsi, écrit Latour,
« l’idée de Tarde est simplement que s’il y a quelque chose de spécial dans la société humaine, ce n’est pas déterminé par une opposition forte avec d’autres types d’agrégats et certainement pas à cause d’un ordre symbolique imposé arbitrairement qui les séparerait de la simple matière.
Être une société de monades est un phénomène tout à fait général, c’est l’étoffe dont le monde est fait. il n’y a rien de spécialement nouveau dans le royaume de l’humain » (Latour, 2002:5).
- Le terme « société » chez Tarde, comme chez Whitehead, n’a rien à voir avec des représentations, des institutions, un ordre symbolique entre des humains.
- il concerne directement l’existence en tant que telle :
- « un objet physique ordinaire, qui a une durée temporelle, est une société » (Whitehead, 1995:91), un rocher, une cellule, un homme, « un polype, un cerveau, une pierre, un gaz, une étoile, sont faits de bien plus vastes collections de monades que les sociétés humaines » (Latour, 2002:6).
Tarde donne d’innombrables exemples de ces activités immanentes qui sont au cœur de tout processus collectif.
- Par exemple, dans Sociologie et monadologie, il n’hésite pas à faire correspondre directement les organisations sociales et biologiques :
Puisque l’accomplissement de la plus simple fonction sociale, la plus banale, la plus uniforme depuis des siècles, puisque, par exemple, le mouvement d’ensemble un peu régulier d’une procession ou d’un régiment exige, nous le savons, tant de leçons préalables, tant de paroles, tant d’efforts, tant de forces mentales dépensées presque en pure perte – que ne faut-il donc pas d’énergie mentale, ou quasi mentale, répandue à flots, pour produire ces manœuvres compliquées des fonctions vitales simultanément accomplies, non par des milliers, mais par des milliards d’acteurs divers, tous, nous avons des raisons de le penser, essentiellement égoïstes, tous aussi différents entre eux que les citoyens d’un vaste empire !
(Tarde, 1999:52).
- Tarde ne veut pas dire que de la cellule au régiment ou à la procession il s’agirait exactement de la même réalité ;
- il ne veut pas dire non plus que si nous connaissions les réalités premières (comme par exemple la cellule au niveau de l’organisme) il serait possible d’en faire dériver les réalités plus complexes.
- au contraire, il inverse complètement la perspective et montre que ce qui est posé comme premier est le résultat d’un nombre infini d’acteurs, éléments qui le produisent et le maintiennent dans son existence.
Qu’est-ce qu’une société ? C’est « la possession réciproque, sous des formes extrêmement variées, de tous par chacun » (Tarde, 1999:52).
En d’autres termes,
- une société est ce nous pourrions appeler une « dynamique de possession »,
- une multiplicité d’opérations par lesquelles des êtres désirant, avides, produisent,
- par leurs rencontres et par leurs convergences, les liens qui les tiendront ensemble,
- aussi longtemps qu’ils le peuvent, dans une histoire commune.
si nous voulons rendre compte de sociétés telles que les cellules, les corps, les techniques, nous devrons explorer une multiplicité de niveaux d’organisation, toutes produites par les activités immanentes de leurs membres, se contraignant mutuellement et assumant l’histoire commune dont ils dérivent.
- Le sujet est une pure abstraction si on lui soustrait ses possessions,
- mais réciproquement toutes les dynamiques complexes, les réseaux d’existence sont purement formels si on ne prend pas en compte les sujets qui les produisent et qui y sont engagés.
Ainsi,
« à chaque fois que vous voulez comprendre un réseau, regardez les acteurs, mais lorsque vous voulez comprendre les acteurs, regardez à travers le réseau le lien qu’il a tracé » (Latour, 2002:12)
Conclusion
Nous pouvons à présent revenir à la proposition de Latour et préciser
- les raisons pour lesquelles il nous paraît si important de développer une métaphysique des sujets non-humains.
Le projet semble se heurter de prime abord à d’innombrables difficultés et paradoxes :
- si la métaphysique tente de soustraire les événements de la nature à toute inscription exclusivement anthropologique, humaine, n’est-il pas évident qu’elle ne peut le faire qu’en se dégageant de toute approche subjective de la nature ?
- Et si elle cherche effectivement à intégrer la notion de sujet à son enquête sur la nature, n’est-elle pas obligée de n’en faire qu’une dimension particulière, une phase ou une étape, dans un processus plus profond qui serait le devenir de la nature elle-même ?
- Que pouvons-nous dès lors attendre d’une mise en relation entre deux termes qui ont cristallisé des tendances aussi opposées de la philosophie contemporaine?
D’un côté, le projet d’une anthropologie philosophique qui tente de penser la nature à partir de son inscription dans un sujet qui en fait effectivement l’expérience, de l’autre une philosophie de la nature qui se donne comme programme d’en dégager les caractéristiques sans les référer directement à un sujet anthropologique.
L’alternative paraît inévitable et toute tentative de mise en relation entre le sujet et la nature paraît devoir s’inscrire nécessairement dans l’une ou l’autre de ces voies.
- La proposition de Latour nous permet de prendre le problème différemment, en sortant de l’alternative et en établissant un nouveau rapport, plus direct et plus constitutif.
au lieu d’opposer le sujet et la nature, elle permet de faire du sujet, non pas une phase ni un foyer d’expériences de la nature, mais sa réalité première, son point ultime d’existence ; au lieu d’interpréter la nature comme un processus indifférencié et impersonnel, sorte d’« apeiron », « origine de toutes les espèces de l’être, antérieure à l’individuation » (Simondon, 1989:196), elle l’explique comme le résultat d’innombrables activités subjectives qui, à des échelles distinctes, se relient les unes aux autres et forment de véritables ensembles ou ordres de la nature.
- En suivant cette proposition nous en arrivons certainement à une étrange conception, mais cependant pas si éloignée de celle imaginée notamment par W. James lorsqu’il écrivait dans ses carnets qu’
- il s’agirait de penser un univers « de vies personnelles (qui peuvent être de niveaux de complexité différents, aussi bien suprahumaines, ou infrahumaines, qu’humaines), se connaissant les unes les autres par différents modes […], évoluant et changeant véritablement par leurs efforts et leurs essais, et fabriquant le monde par leurs interactions et leurs succès cumulés » (James, 1920:443-444).
Cette conception pluraliste de la nature
- nous oblige à soustraire simultanément le concept de sujet de toute inscription anthropologique
- et le concept de nature de toute philosophie de la nature.
au final,
« il n’y a pas de monde commun. il n’y en a jamais eu. Le pluralisme est avec nous pour toujours.
Pluralisme des cultures, oui, des idéologies et des opinions, des sentiments, des religions, des passions, mais pluralisme des natures aussi, des relations avec les mondes vivants, matériels et aussi avec les mondes spirituels »
(Latour, 2011:39) »
– Debaise, D. (2012). Qu’est-ce qu’une subjectivité non-humaine : L’héritage néo-monadologique de B. Latour. Archives de Philosophie, tome 75(4), 587-596.
Lectures supplémentaires / complémentaires :
- Rateau, P. (2014). L’univers progresse-t-il : Les modèles d’évolution du monde chez Leibniz. Archives de Philosophie, tome 77(1), 81-103.
- Le Jallé, É. (2015). David Hume : la philosophie et les savoirs. Archives de Philosophie, tome 78(4), 667-678.
- Gide, B. (2015). La critique naturaliste du scepticisme humien chez Thomas Reid. Archives de Philosophie, tome 78(4), 597-613.
- Vieu, P. (2015). L’homme introuvable. Fondements et limites du discours anthropologique chez Adam Ferguson. Archives de Philosophie, tome 78(4), 631-648.
- Marc-Kevin Daoust, « Repenser la neutralité axiologique », Revue européenne des sciences sociales [En ligne], 53-1 | 2015, mis en ligne le 01 janvier 2019, URL : http://journals.openedition.org/ress/3000 ; DOI : 10.4000/ress.3000
- Gautier, C. (2015). Les philosophies écossaises. Naturalismes et sciences de l’homme. Archives de Philosophie, tome 78(4), 587-596.
- Jacques Hamel, « De la nature réflexive de la sociologie et de la disparition de son objet », Revue européenne des sciences sociales [En ligne], XLV-139 | 2007, mis en ligne le 01 novembre 2010, URL : http://journals.openedition.org/ress/185 ; DOI : 10.4000/ress.185
- Marc Joly, « L’antinomie individu/société dans les sciences humaines et sociales », Revue européenne des sciences sociales [En ligne], 52-1 | 2014, mis en ligne le 12 mai 2014, URL : http://journals.openedition.org/ress/2714 ; DOI : 10.4000/ress.2714
- Daoust, M. (2018). Sciences normatives, procédures neutres. Philosophia Scientiæ, 22-2(2), 37-57.
- Caroline Guibet Lafaye, « Domination sociale et représentations du juste », Revue européenne des sciences sociales [En ligne], 50-2 | 2012, mis en ligne le 01 janvier 2016, URL : http://journals.openedition.org/ress/2284 ; DOI : 10.4000/ress.2284
- Hirt, J. (2011). L’avenir de la dignité humaine. Libres cahiers pour la psychanalyse, 24(2), 101-113.
- Lépine, S. (2015). Le sentimentalisme écossais et le problème de la normativité morale. Archives de Philosophie, tome 78(4), 649-666.
- « Kant et le pouvoir pratique de la raison », Archives de Philosophie, 2015/4 (Tome 78), p. 705-721.
- Jaffro, L. (2019). Jugement moral et désaccord persistant. Archives de Philosophie, tome 82(2), 233-253.
- Dumont, A. (2019). Fichte et le mal radical kantien: Une Auseinandersetzung inachevée. Archives de Philosophie, tome 82(2), 313-334.
- Gérard, G. (2019). Substantialité et causalité. L’évolution de la lecture hégélienne de Spinoza. Archives de Philosophie, tome 82(2), 335-360.
- Durand-Gasselin, J. (2019). Habermas lecteur de Popper : faillibilisme et historicisme. Archives de Philosophie, tome 82(1), 105-122.
- Monod, J. & Spadini, V. (2016). La vocation thérapeutique de la philosophie Wittgenstein – Blumenberg. Archives de Philosophie, tome 79(1), 103-107.
- Monod, J. (2016). « Le monde est… ». Lectures du Tractatus par Blumenberg. Archives de Philosophie, tome 79(1), 121-134.
- Laurent, J. (2016). La philosophie russe et le positivisme. Archives de Philosophie, tome 79(2), 229-231.
- Nicolas, R. (2016). Critique et annexion de la doctrine positiviste. Soloviev lecteur de Comte. Archives de Philosophie, tome 79(2), 233-244.
- « La philosophie positive et l’unité de la science [1892]. Boris Tchitchérine », Archives de Philosophie, 2016/2 (Tome 79), p. 271-282.
- Yastrebtseva, A. (2016). La voie de Piotr Lavrov. Sociologie comtienne et connaissance historique. Archives de Philosophie, tome 79(2), 283-295.
- Housset, E. (2016). La personne au-delà de l’anthropologie. Archives de Philosophie, tome 79(2), 363-386.
- Brahami, F. (2017). Le dieu intérieur. Archives de Philosophie, tome 80(1), 99-118.
- Abettan, C. (2016). Ricœur ou le prix de l’ipse. Archives de Philosophie, tome 79(2), 345-361.
- Crignon, P. (2017). Bacon, Hobbes: Les angles morts de la philosophie politique. Archives de Philosophie, tome 80(1), 119-139.
- Louis, A. (2016). Voir et comprendre la politique moderne: Leo Strauss et Claude Lefort. Archives de Philosophie, tome 79(3), 485-498.
- Pommier, É. (2016). Sauver le phénomène éthique pour préserver l’avenir: Jonas et Patočka ou la responsabilité et le sacrifice. Archives de Philosophie, tome 79(3), 525-537.
- Ehrsam, R. (2016). La théorie de la référence de Putnam. Entre déterminants conceptuels et déterminants réels. Archives de Philosophie, tome 79(4), 655-674.
- Zielinska, A. (2016). Putnam : Relativité conceptuelle et méréologie. Archives de Philosophie, tome 79(4), 675-692.
- Naibo, A. (2016). Putnam-Dummett. Quelle logique pour quel réalisme ?. Archives de Philosophie, tome 79(4), 693-720.
- Fasula, P. (2016). L’éthique de Putnam. Une « mixture bigarrée au carré ». Archives de Philosophie, tome 79(4), 721-738.
- Laugier, S. (2016). Nécrologie de l’ontologie. Putnam, l’éthique, le réalisme. Archives de Philosophie, tome 79(4), 739-757.
- Boutet, R. (2014). La métaphysique en dialogue: Sur l’appropriation herméneutique de Platon par H.-G. Gadamer. Archives de Philosophie, tome 77(3), 471-488.
- Rey, A. (2014). La dynamique du vivant. Archives de Philosophie, tome 77(1), 63-80.
- Milanese, A. (2014). L’histoire de la science et de ses institutions de Bacon à Hobbes : un héritage critique. Archives de Philosophie, tome 77(1), 105-129.
- Sandkaulen, B. (2012). La pensée post-métaphysique de Hegel. Archives de Philosophie, tome 75(2), 253-265.
- Béal, C. (2012). John Stuart Mill et le paternalisme libéral. Archives de Philosophie, tome 75(2), 279-290.
- Dov Hercenberg, B. (2012). De ce qui se donne en se retirant: Un mystère heideggérien à plusieurs visages. À propos de la terre. Archives de Philosophie, tome 75(2), 311-334.