EU: Sciences cognitives

De JFCM
Aller à : navigation, rechercher


SCIENCES COGNITIVES

Daniel ANDLER : professeur de philosophie à l'université de Paris-IV-Sorbonne, ancien directeur du département d'études cognitives, École normale supérieure

Les sciences cognitives ont pour objet de décrire, d'expliquer et le cas échéant de simuler voire d'amplifier les principales dispositions et capacités de l'esprit humain – langage, raisonnement, perception, coordination motrice, planification, décision, émotion, conscience, culture... En un sens, les sciences cognitives ne sont rien d'autre que la psychologie scientifique. Mais c'est une psychologie immensément étendue, à la fois dans son objet et dans ses méthodes : d'une part, les facultés mentales de l'être humain adulte et normal ne sont désormais qu'un cas important dans une famille de cas dont on ne peut pas le dissocier, ceux des humains à la naissance et en développement, celui des humains affectés par un déficit, une lésion ou une maladie, celui des animaux ; d'autre part, la nouvelle psychologie fait appel aux sciences de l'information, aux neurosciences, à la théorie de l'évolution, à la linguistique, à la philosophie et à différents secteurs des sciences sociales.

Dès leur émergence, au cours des années 1950, les sciences cognitives se sont pensées comme un faisceau de programmes de recherche relevant de différentes disciplines. Nées dans un contexte scientifique fortement marqué par la naissance de l’informatique et le développement des notions et des techniques de traitement formel de l’information, elles sont désormais étroitement liées aux neurosciences. Ce qui assure, par-delà les différences d'époque et d'école, la cohérence du domaine, ce sont, à la fois, une pratique et des paradigmes (exemples caractéristiques), des références théoriques et méthodologiques partagées, et un petit nombre d’idées-forces ou d’hypothèses fondamentales concernant la nature profonde de leur objet d’étude et la manière de le mettre au jour.

Au sein des disciplines dont elles relèvent, ce sont ces paradigmes, concepts et hypothèses qui les distinguent d'autres traditions, et qui dans le même temps les rassemblent par-delà les divisions disciplinaires. Pourtant, elles posent dans leur progrès même la question de leur objet véritable, de leur délimitation, de leur spécificité et de leurs fondements. Il est donc impossible aujourd'hui de s'en tenir, pour décrire ce domaine encore très jeune, à une définition « extensionnelle » (par l'objet d'étude), ou à une définition « intensionnelle » (par les options théoriques), ou encore à une définition historique : il faut aller de l'une à l'autre, sans rechercher une conception parfaitement stable et consensuelle.

Enfin, le statut problématique de ces recherches pose à la philosophie des questions épistémologiques et méthodologiques qui, sans être absolument nouvelles, n'en revêtent pas moins une acuité et une actualité particulières, notamment en raison de l'intervention de la philosophie elle-même – de toutes les disciplines, celle qui se consacre depuis le plus longtemps, et le plus obstinément, à élucider les énigmes de la connaissance et de la cognition – dans des travaux qui se veulent fortement appuyés sur l'enquête expérimentale et généralement justiciables d'une évaluation scientifique.



Constitution d'un champ interdisciplinaire[modifier]



Historique[modifier]


Selon l'aphorisme de Howard Gardner, si les sciences cognitives ont une histoire relativement courte, leur passé est très long : il remonte en effet aux origines de la philosophie occidentale et plonge aux sources de certains des principaux courants scientifiques des temps modernes. C'est toute la difficulté de l'historiographie des sciences cognitives (une discipline qui reste à créer) : où s'arrête l’histoire de la psychologie, des neurosciences, de la linguistique, de l'informatique, de la philosophie... et où commence celle des sciences cognitives ?


Les prodromes (1936-1950)[modifier]


Il est néanmoins possible de situer les « causes immédiates » de l'avènement de ces sciences dans la période qui s'étend entre le milieu des années 1930 et la fin des années 1940. Deux articles fondamentaux du grand logicien anglais A. M. Turing encadrent symboliquement cette préhistoire : en 1936, il jetait les bases mathématiques et conceptuelles de ce qui deviendrait, au cours de la décennie suivante, et en partie une seconde fois grâce à lui, l'ordinateur électronique programmable ; en 1950, il reformulait en termes modernes le vieux projet d'une machine intelligente, et en montrait la cohérence philosophique.
La logique mathématique apporte au cours de cette période d'essentiels outils conceptuels et techniques, et constitue un cadre dans lequel peuvent être pensés à la fois le formalisme et le calcul, portés à un haut degré de généralité et d'opérativité. Mais c'est la cybernétique qui, à partir de 1943, rassemble la totalité des ingrédients nécessaires à la mise en œuvre du grand projet d'explication matérialiste et de simulation du mental dont sont issues les sciences cognitives : il s'agissait de rien de moins que penser ensemble le cerveau, l'esprit et la machine. À cette fin se développera une réflexion fondée sur les idées d'information abstraite, d'isomorphisme fonctionnel, voire d'identité entre machine et esprit, de réduction des processus intentionnels à des notions sans contenu mentaliste telles que contrôle, rétroaction, homéostase, etc., « incarnation » (embodiment) des fonctions mentales, logiques et autres...
Cette cybernétique de la première époque, qu'il importe de ne pas confondre avec des entreprises postérieures se réclamant de la même étiquette, fut une entreprise collective, dans laquelle Norbert Wiener, auquel est dû depuis 1948 le néologisme « cybernétique » dans son acception actuelle, ne joua pas le rôle principal : ce rôle reviendrait plutôt à Warren McCulloch, penseur profondément original, esprit inclassable, maître fécond et généreux dont l'influence se fait encore sentir aujourd'hui. Même au sein des sciences cognitives, l'importance de la première cybernétique reste largement méconnue. C'est pourtant là qu'elles ont puisé une bonne part de leur inspiration initiale, et qu'elles retournent périodiquement pour renouveler ou enrichir leur répertoire d'idées.
Les idées de la première cybernétique se sont beaucoup développées à l'occasion d'une série de réunions interdisciplinaires, les « conférences Macy » (dix sessions entre 1946 et 1953), auxquelles participaient régulièrement, ou furent invités selon l'opportunité, outre les six cybernéticiens de la première heure (McCulloch, Wiener, John von Neumann, Arturo Rosenblueth, Julian Bigelow, Walter Pitts), des mathématiciens, des anatomistes, des physiologistes, des naturalistes, des psychologues, ainsi que quelques anthropologues, sociologues, linguistes et philosophes – citons, parmi les plus connus, Gregory Bateson, Kurt Lewin, Lorente de Nó, Margaret Mead, Leonard Savage et, à titre d'invités, W. Ross Ashby, Yehoshua Bar-Hillel, Max Delbrück, Roman Jakobson, Claude Shannon... Dans la diffusion de leurs idées, et leur confrontation aux courants dominants et à d'autres pensées naissantes, plusieurs colloques jouèrent un rôle important ; les plus retentissants furent celui de New York en 1946, intitulé « Teleological Mechanisms », et le Hixon Symposium de 1948, dont le thème était « Cerebral Mechanisms in Behavior ». L'influence de la cybernétique des origines s'exerça au cours des deux décennies suivantes à partir du laboratoire que McCulloch dirigea au Massachusetts Institute of Technology (M.I.T.) jusqu'à sa mort, et par lequel nombre des maîtres actuels passèrent. John von Neumann fut une autre figure clé, en raison tant du développement qu'il donna à la théorie des automates et de sa contribution décisive à la conception de l'ordinateur que de ses réflexions sur la nature des processus mentaux.
Les années 1945-1948 sont aussi marquées par l'émergence, aux États-Unis et en Grande-Bretagne, des premiers ordinateurs. Dans un article paru en 1948, Claude Shannon présente sa théorie mathématique de la communication. Mais les « sciences de l'information » ne sont pas les seules à émerger à cette époque : le titre du Hixon Symposium de 1948 témoigne de l'influence naissante de ce qui ne s'appellera que bien plus tard les « neurosciences ». C'est l'année suivante que paraît un livre essentiel, The Organization of Behaviour, du psychologue Donald Hebb. Dans sa Préface, Hebb insiste sur les « larges recoupements » entre les recherches du psychologue et celles du neurophysiologiste. Hebb est professeur à l'université McGill, à Montréal. C'est là que travaille également Wilder Penfield. Ce neurochirurgien, qui met au point un traitement chirurgical des épilepsies sévères, montre qu'en stimulant directement certaines zones précises du cortex d'un patient vigile on induit des sensations spécifiques, ainsi que des souvenirs extrêmement précis, inaccessibles à la mémoire volontaire. Penfield et Rasmussen publient en 1950 des cartes « homonculaires » des cortex sensoriel et moteur primaires. Montréal apparaît aujourd'hui comme l'un des lieux de naissance des neurosciences cognitives.
Les sciences cognitives ont également des sources européennes. C'est en Europe, au début du xxe siècle, que naît la Gestalttheorie, une école de psychologie qui place la perception au centre de la cognition. La plupart de ses fondateurs, fuyant le nazisme, s'établirent aux États-Unis, et participèrent, pour certains, à la cybernétique naissante, pour d'autres, à la création de la psychologie sociale, ou de l'éthologie cognitive. En Union soviétique, Lev Vygotski crée une psychologie à la fois développementale et sociale, dont l'orientation constructiviste inspire aujourd'hui tout un courant des sciences cognitives. À Genève, Jean Piaget fonde en 1955, sous le nom d'« épistémologie génétique », une école de sciences cognitives avant la lettre, qui connaît également aujourd'hui, après un relatif discrédit, un retour en grâce. La neuropsychologie se développe au xixe siècle surtout en France, en Allemagne et en Grande-Bretagne, où se sont maintenues des traditions vivaces dans cette zone-frontière entre psychologie et neurophysiologie. Les sciences du cerveau se développent partout en Europe au cours de la première moitié du xxe siècle. Mais c'est en Grande-Bretagne que se trouvent rassemblées et rapprochées la plupart des branches dont la rencontre donnera naissance aux sciences cognitives.


Phase I (1950-1970) : l'émergence[modifier]


Revenons aux États-Unis. La première cybernétique nous conduit directement à la fondation des sciences cognitives : la dernière conférence Macy se tient à Princeton en 1953, date à laquelle, par coïncidence, se tient un séminaire de huit semaines au cours duquel les objectifs et la dénomination d'une nouvelle discipline sont définis : il s'agit de la psycholinguistique, branche emblématique du courant de pensée qui allait très bientôt émerger.
L'année décisive est 1956. Au M.I.T., se tient, du 10 au 12 septembre, un « Symposium on Information Theory » qui marque symboliquement, aux yeux de plusieurs des principaux acteurs, le début d'un nouveau mouvement, intégrant dans une perspective commune la psychologie expérimentale, la linguistique théorique et la simulation par ordinateur des processus cognitifs. C'est également en 1956, lors d'un séminaire de deux mois à Dartmouth College, que l'on fait remonter la naissance officielle de l'intelligence artificielle, qui jouera un rôle décisif dans le développement du mouvement. C'est à la même époque que, en anthropologie, en neurophysiologie et dans les disciplines représentées au congrès du M.I.T., une première série de travaux importants et de publications marquent l'avènement de ce qu'il faudra encore plus de vingt ans pour désigner du nom de « sciences cognitives » ; mentionnons le traité de psychologie de J. Bruner, J. Goodnow et G. Austin, A Study of Thinking, paru en 1956 ; le célébrissime article de G. Miller, « The Magic Number seven, plus or minus 2 », paru la même année ; le livre de N. Chomsky, Syntactic Structures, publié l'année suivante, tout comme celui de L. Festinger, A Theory of Cognitive Dissonance. En 1959 paraît un compte rendu critique par Chomsky du livre de B. F. Skinner, Verbal Behavior (publié en 1957) ; pour beaucoup de contemporains, cet article marque le rejet final du behaviorisme comme cadre théorique adéquat pour la psychologie scientifique, dégageant du même coup la voie pour le cognitivisme, position de départ des sciences cognitives.
Les années 1960 voient s'affermir, d'une part, dans chaque discipline concernée, des programmes de recherche fondés sur des conceptions apparentées, sinon littéralement identiques, de l'objet d'étude « cognition » et des tâches scientifiques qu'il appelle, et, d'autre part, le rapprochement entre disciplines : les psychologues Jerome Bruner et George Miller fondent en 1960, à Harvard, avec l'aide de la Carnegie Corporation, un Center for Cognitive Studies, qui jouera pendant une dizaine d'années un rôle fédérateur important. Cette même année, un ouvrage de Miller, Pribram et Galanter présente une critique du behaviorisme classique alors régnant en psychologie, faite d'un point de vue de psychologues, et propose de lui substituer une approche cybernétique. En 1962, F. Rosenblatt publie son grand traité sur le perceptron : Principles of Neurodynamics. En 1967, Ulric Neisser, publie un livre intitulé Cognitive Psychology, et baptise ainsi une nouvelle forme de psychologie, tout en défendant et en illustrant son indépendance vis-à-vis d'une conception, défendue notamment par Herbert Simon et Allen Newell à la même époque, selon laquelle l'ordinateur fournit un modèle littéral de l'esprit humain. La même année paraît un ouvrage annonçant la neurolinguistique : Biological Foundations of Language, par E. Lenneberg. En 1968, R. Atkinson et R. Shiffrin présentent une théorie de la mémoire illustrant la démarche de la nouvelle psychologie. Toute une série de travaux annoncent, en psychologie, mais aussi en anthropologie, en linguistique, en intelligence artificielle, un tournant décisif, un « changement de paradigme », au sens du livre célèbre de Thomas Kuhn, paru à la même époque (La Structure des révolutions scientifiques, 1962) et dans le même milieu intellectuel.
À l'issue des quelque vingt ans que dure cette phase initiale, les sciences cognitives sont ainsi entrées en possession de leurs principales ressources et thématiques, et se sont fait une (petite) place dans le monde scientifique.


Phase II (1970-1995) : l'institutionnalisation[modifier]


S'ouvre alors une phase d'environ un quart de siècle au cours de laquelle les sciences cognitives montent en puissance, passant d'un statut avant-gardiste à celui d'acteur majeur. Elles s'institutionnalisent. Elles étendent leur domaine d'étude. Elles produisent des résultats en qualité et en quantité rapidement croissantes. Enfin, elles traversent une série de reconfigurations épistémologiques.
L'institutionnalisation se manifeste par la constitution de programmes ou centres interdisciplinaires, aux États-Unis surtout d'abord, puis dans la plupart des grandes nations scientifiques. Au début des années 1970, une demi-douzaine d'universités accueillent les sciences cognitives : M.I.T., Stanford, l'université de Californie à San Diego, l'université du Minnesota, Carnegie-Mellon, Yale, Édimbourg... Le mouvement s'amplifie grâce à l'aide massive apportée successivement par deux fondations américaines. Entre 1977 et 1987 la Sloan Foundation donnera plus de 17 millions de dollars et la Systems Development Foundation, 26 millions à une quinzaine d'universités américaines (parmi les nouvelles venues : l'université de Pennsylvanie, qui bénéficie d'une grande tradition en psychologie expérimentale ; Stanford ; Cornell ; l'université du Texas à Austin ; et, de manière intéressante, l'université de Californie à Berkeley qui s'était illustrée par une attitude radicalement critique à l'égard des hypothèses fondatrices du domaine). Ce qui permettra de créer de véritables centres interdisciplinaires de grande envergure (tel le Center for the Study of Language and Information [C.S.L.I.] à Stanford), capables de mettre en œuvre une politique scientifique ambitieuse et de donner au nouveau domaine une assise scientifique et institutionnelle. La National Science Foundation et les agences de recherche militaires prennent le relais. Dans d'autres pays, les grands organismes de recherche, tels la Max Planck Gesellschaft allemande, le Medical Research Council britannique, le C.N.R.S., prennent des initiatives semblables, quoique à une échelle plus modeste. Sous différents intitulés, mais se réclamant sans ambiguïté du domaine en question, des filières de formation sont mises sur pied, des thèses soutenues, des traités publiés.
C'est en 1975 qu'apparaît la locution « sciences cognitives ». L'expression est employée dans un sens plus restreint qu'aujourd'hui, puisqu'elle n'inclut pas les neurosciences, mais seulement une certaine approche en psychologie, en intelligence artificielle et en linguistique. Dès 1978, cependant, un rapport de prospective de la Fondation Sloan élargit le rayon d'action des sciences cognitives, en y incluant les neurosciences, ainsi que la philosophie et les sciences sociales. Des revues (Cognition, Cognitive Science, Behavioral and Brain Sciences...), des sociétés savantes, des colloques et congrès annuels commencent à constituer un réseau de communication internationale et plus ou moins interdisciplinaire.
Si la production scientifique s'accroît, c'est en partie parce que la communauté des chercheurs se reconnaissant dans les sciences cognitives et publiant dans ses organes grandit. De jeunes chercheurs arrivent sur la scène, des spécialistes des disciplines traditionnelles prennent le « virage » cognitif en nombre toujours plus grand, inscrivant leurs recherches dans le nouveau courant. D'autres facteurs contribuent à la croissance : nombre de phénomènes, initialement écartés, parce que trop difficiles, ou bien associés à des traditions rejetées, entrent dans le domaine autorisé ; une plus grande variété de tempéraments scientifiques et de formations initiales participe à l'enquête ; certaines préventions tombent, les schismes et rivalités d'une génération n'agissant guère sur la suivante...
Enfin, le domaine évolue profondément. Schématiquement, les années 1970 sont dominées par le cognitivisme. Les disciplines phares sont alors l'intelligence artificielle et la linguistique générative issue des travaux de Chomsky. Les années 1980 voient l’intelligence artificielle tout à la fois gagner en importance absolue et perdre, au sein de la « galaxie cognitive », en importance relative. Le connexionnisme envahit le domaine, obligeant à repenser certaines frontières, et critiquant, de l'intérieur, nombre de ses hypothèses initiales. La psychologie retrouve une certaine autonomie ; des programmes rivaux du générativisme chomskyen se développent ; enfin, le connexionnisme prépare le grand retour des neurosciences. Dès la fin des années 1980, l'intelligence artificielle a quitté le centre des sciences cognitives, pour se scinder en une branche théorique proche de la logique appliquée et une branche d'ingénierie informatique, divisée à son tour en spécialités telles que le traitement automatique des langues (T.A.L.), la vision artificielle, les images de synthèse, la reconnaissance vocale, et différentes techniques de programmation avancées inspirées de résultats obtenus dans les sciences cognitives théoriques.
À l'inverse, les neurosciences commencent à pouvoir s'appuyer sur les techniques d'imagerie fonctionnelle pour revendiquer le premier rôle. Vers la fin des années 1980 se cristallise une nouvelle approche, qui prend le nom de « neuroscience(s) cognitive(s) », auquel s'agrègent les « neurosciences computationnelles » ; le premier congrès annuel de la Cognitive Neuroscience Society se tient en 1994 à San Francisco ; il réunit désormais plusieurs dizaines de milliers de participants. Ici encore, des fondations telles que la Systems Development Foundation jouent un rôle ; le plus important résulte de l'association de la McDonnell Foundation et des Pew Charitable Trusts qui, ensemble, ont permis de créer près d'une dizaine de centres de neurosciences cognitives en Amérique du Nord et au Royaume-Uni (Oxford).
La fin de cette phase est également caractérisée par une explosion d'écoles et de thèmes de recherche. D'un côté, de nouveaux principes directeurs sont proposés – par exemple, la vision « dynamiciste » qui fait de la cognition un phénomène appartenant en propre à certains systèmes dynamiques ; l'approche par la complexité ; l'externalisme, pour lequel la cognition s'étend au-delà des systèmes nerveux des organismes individuels ; ou encore l'approche évolutionniste, qui permet de tirer les conséquences du fait que la cognition est un ensemble de fonctions d'un organe soumis à la sélection naturelle. Mais, d'un autre côté, se multiplient les programmes de recherche peu soucieux de s'identifier à tel ou tel ensemble de principes fondateurs : les sciences cognitives ont acquis une maturité telle qu'elles peuvent renoncer à exiger de leurs adeptes une adhésion initiale à des règles du jeu. Désormais, les principes « fondateurs » se dégageront progressivement au cours d'un processus normal d'aller-retour entre travail scientifique de laboratoire et de terrain et réflexion épistémologique. D'ailleurs, les philosophes, qui s'étaient longtemps employés à développer cette réflexion, se détournent pour la plupart de la tâche de défendre et d'expliciter les cadres les plus généraux convenant à l'étude de la cognition, au profit de travaux étroitement liés à des fonctions ou capacités particulières.


Phase III (1995 -2005) : la cognition comme phénomène biologique et social[modifier]


Ces dix années ont été marquées par un double basculement. À l'origine des sciences cognitives, la cybernétique et l'informatique naissante fournissaient le principe d'une séparation radicale entre structure et fonction : un principe général et abstrait de réalisation physique suffisait pour légitimer l'étude et l'explication des fonctions sans référence directe et constante à leur production naturelle dans le système nerveux central. Or, d'une part, cette approche n'a pas conduit à la confirmation espérée initialement, à savoir la constitution d'artefacts « intelligents » : l'échec du projet inaugural de l'intelligence artificielle, quelles qu'en aient été les raisons profondes, a jeté le doute sur toute approche purement fonctionnaliste. D'autre part, les sciences de la structure, en l'occurrence le cerveau, ont bénéficié de progrès spectaculaires, trop spectaculaires peut-être, ceux de l'imagerie cérébrale. Ainsi s'est accréditée l'idée que les sciences de la cognition ne sont en réalité rien d'autre que les neurosciences cognitives, c’est-à-dire la partie des neurosciences consacrée à l'étude des fonctionnalités systémiques ou intégratives du cerveau (par contraste avec les neurosciences cellulaires et moléculaires, qui étudient les propriétés locales du tissu nerveux). Cette vision radicale constitue le pendant parfait de celle qu'elle remplace, et ne peut pas davantage être acceptée sans un examen critique et une mise à l'épreuve empirique. Il n'en demeure pas moins que les neurosciences occupent désormais, et pour la première fois, une place considérable dans le domaine, comparable à celle de l'intelligence artificielle à l'époque héroïque.
Le second basculement concerne la place de l'objet d'étude (la cognition, ou le cerveau cognitif) dans son environnement. Les sciences cognitives naissantes avaient adopté un point de vue individualiste et internaliste : la cognition était comprise comme un attribut, ou un ensemble de capacités, appartenant strictement et intrinsèquement au système nerveux central de l'individu, et le cas échéant à d'autres systèmes matériels. Ce postulat n'a cessé d'être mis en cause ici ou là au cours des commencements, mais ce n'est que récemment qu'il a fait l'objet d'une contestation radicale par une proportion notable de chercheurs. La cognition apparaît à leurs yeux comme un phénomène à la fois incarné, social et extrinsèque ou relationnel. Ce qui signifie qu'elle résulte des interactions historiques entre un système nerveux intégré dans un organisme corporel et un environnement à la fois matériel (naturel et artefactuel) et social. Ce retour d'un contextualisme multidimensionnel familier dans d'autres traditions ne signifie pas l'abandon de toute dimension internaliste et individuelle. Il implique néanmoins un changement considérable de perspective.
Combinés, les deux basculements ont pour effet principal de modifier la composition disciplinaire du domaine. Primo, la biologie s'implique beaucoup plus largement, d'une part, comme science de l'organisme entier, et, d'autre part, comme théorie de l'évolution : aux questions en « comment » auxquelles s'en tenaient les sciences cognitives de la première période s'ajoutent désormais les questions en « pourquoi » – selon la distinction classique due à Ernst Mayr : comment s'effectue, par exemple, la fonction respiratoire chez les poissons ? ; pourquoi les poissons ont-ils cette fonction, et pourquoi est-elle réalisée chez eux de cette façon-ci plutôt que d'une autre ? Secundo, les sciences sociales, en particulier l'anthropologie, la paléontologie, la préhistoire, la psychologie sociale et la sociologie, voire la médecine, sont beaucoup plus directement impliquées ; et de même que le cerveau est immergé dans le corps, et que le corps a sa marque dans le cerveau, le cerveau est immergé dans un réseau de rapports sociaux, ses rapports devant eux-mêmes être représentés dans le cerveau.


Les disciplines et les regroupements[modifier]


On vient de le voir, le périmètre des sciences cognitives comme leurs relations, tant internes qu'externes, ont varié au cours de leur brève histoire. Il est néanmoins possible et nécessaire de dégager une structure de base relativement stable qui est la leur aujourd'hui, les configurations précédentes pouvant être considérées, au prix d'une lecture rétrograde, comme des variantes ou des réalisations incomplètes de cette structure.
Ces questions de nomenclature ne sont pas dépourvues de signification épistémologique. Pour des raisons qui sont tantôt de principe, tantôt de stratégie, différents regroupements sont privilégiés par différents courants au sein des sciences cognitives. D'une part, on peut vouloir ou non rassembler les manifestations biologiques et artificielles de la cognition. D'autre part, on peut vouloir ou non considérer solidairement les fonctions et les systèmes possédant ou réalisant les fonctions. Cela donne le tableau suivant (fig. 2) :
Mais cette façon de découper le domaine engage déjà certains choix doctrinaux, sur lesquels il faudra revenir : que l'on puisse séparer structure (ou forme) et fonction, s'agissant non pas, comme dans la biologie classique, de la rate ou du système circulatoire, mais d'organes, d'une part, et de fonctions mentales, d'autre part, cela ne va pas de soi. À cette question est liée également une ambiguïté portant sur la modélisation : est-ce la fonction que l'on modélise, ou bien la structure ? ou encore, en vertu d'une supposée adéquation entre structure et fonction, l'une et l'autre ? Lorsqu'on vise la structure (le cerveau), on parle de « neurocalcul » ; lorsqu'on vise la fonction, souvent, d'« intelligence artificielle ». Mais, on le verra, certains veulent modéliser la « microstructure » de la cognition, et occuper ainsi un niveau intermédiaire entre fonction et structure.
Revenons aux disciplines de base. Sont-elles entièrement immergées dans les sciences cognitives ? C'est loin d'être le cas. La philosophie, comme les sciences sociales, abritent toutes sortes de branches et de styles de pensée sans rapport direct, ni même lointain, avec les sciences cognitives. C'est plus clair encore pour des disciplines-outils telles que les mathématiques et la physique. Dans le cas de la linguistique, c'est moins évident : si l'on peut soutenir une conception « platonicienne » du langage, dont le statut serait comparable à celui des mathématiques, et si par ailleurs toute une tradition en linguistique rejette l'approche naturaliste ou psychologique du langage (et des langues), beaucoup voient dans le langage à la fois une fonction biologique et ses productions. Selon cette conception, la linguistique ne peut se désintéresser ni de la fonction ni de l'organe : elle s'inscrit par principe au cœur des sciences cognitives, même si elle se situe souvent à un niveau d'abstraction qui l'en éloigne. Pour la psychologie, si l'on a pu longtemps s'en tenir à une division des tâches, entre une psychologie cognitive, cantonnée aux fonctions épistémiques, et des psychologies de l'affect, de la personnalité, etc., cette division est aujourd'hui obsolète ; si l'on entend par psychologie cognitive la branche ou le courant de la psychologie scientifique qui est plongé dans les sciences cognitives, alors le domaine de cette psychologie cognitive recouvre l'ensemble des phénomènes mentaux, en ce qu'ils présentent des régularités qui les rendent accessibles à une approche scientifique. Toutefois, le fait sociologique demeure d'une certaine persistance de spécialités qui se réclament de la psychologie scientifique tout en revendiquant une autonomie vis-à-vis des sciences cognitives. Quant à l'intelligence artificielle, elle était la seule discipline à être en droit entièrement plongée dans les sciences cognitives de la première phase, mais elle a bientôt perdu son identité et ne participe en réalité au domaine que de manière fragmentaire et dispersée.
À l'extérieur de l'hexagone se trouvent quelques grandes disciplines qui jouent plusieurs rôles dans les sciences cognitives. Les mathématiques fournissent des outils : géométrie, théorie des systèmes dynamiques, probabilités et statistiques... La physique intervient à côté des mathématiques pour construire des modèles, le plus souvent de structures cérébrales, à différents niveaux, mais aussi parfois de phénomènes mentaux ou, comme on le dit plus naturellement aujourd'hui, informationnels, tels que la propagation des croyances dans une population. La physique intervient aussi dans l'étude des capteurs sensoriels (psychophysique) et des structures motrices (psycho- et neurophysiologie du mouvement). L'informatique est impliquée en tant que science du traitement de l'information, et collabore avec la psychologie et avec les neurosciences pour modéliser des processus tantôt au niveau abstrait, tantôt au niveau des structures neurales ; mais elle interagit également avec la linguistique (linguistique computationnelle). Les apports de la biologie sont multiples : d'une part, comme on l'a vu, l'une de ses branches occupe un sommet de l'hexagone ; d'autre part, cette branche est en constante interaction avec d'autres aires de la biologie, telles que la biologie moléculaire, la cytologie, la biochimie, etc. Mais de plus, depuis une quinzaine d'années, la biologie évolutionniste intervient massivement dans un courant en plein renouveau où se rejoignent la psychologie évolutionniste (descendante de la sociobiologie), l'anthropologie, la psychologie, la paléontologie et l'éthologie dite parfois cognitive.
À l'intérieur de l'hexagone se rencontrent d'autres spécialités charnières. Parmi les principales, citons d'abord la neuropsychologie, dont la vocation première (depuis les découvertes de P. Broca et de C. Wernicke dans les années 1860-1870) est de mettre au jour des correspondances entre déficits cognitifs (caractérisés au niveau psychologique) et lésions cérébrales, mais qui rejoint désormais les objectifs plus larges des neurosciences cognitives : à savoir dévoiler les « bases neurales » des processus cognitifs et l'architecture fonctionnelle du système nerveux central. La psycholinguistique, qui décrit les bases psychologiques des différentes fonctions linguistiques, a joué un rôle historique important et continue d'être une spécialité motrice, avec l'appoint, encore embryonnaire, de la neurolinguistique, dont l'objet est l'étude détaillée des processus cérébraux sous-jacents. Mentionnons enfin la robotique, qui se nourrit, d'un côté, de la mécanique et des théories mathématiques du contrôle, d'un autre, des neurosciences, enfin, de l'informatique et de l’intelligence artificielle.


Principales aires de recherche[modifier]


Pour tenter de situer et de classer les recherches se réclamant des sciences cognitives, il est commode, en première analyse, d'introduire trois dimensions taxonomiques.
La première est celle des aptitudes ou compétences cognitives, en commençant, bien entendu, par celles qui sont les plus basiques, et à partir desquelles, par combinaison (en un sens particulier du terme), les autres peuvent être obtenues. Historiquement, les sciences cognitives ont oscillé entre deux conceptions des capacités de base. Pour l'intelligence artificielle et la psychologie cognitive des années 1950 et 1960, les « briques élémentaires » de la cognition sont des capacités générales, c’est-à-dire indépendantes du domaine auquel elles s'appliquent : mémoire, apprentissage, raisonnement, résolution de problèmes, décision, reconnaissance d'analogies, etc. Chomsky a soutenu qu'en ce qui concerne le langage, au contraire, sont impliquées, particulièrement au stade de l'apprentissage, des capacités spécifiques. À cet égard, le langage serait comparable à la perception, ou plutôt aux différentes modalités perceptives : la vision (comme l'audition, ou l'olfaction) est fondée sur des mécanismes qui lui sont propres. C'est le philosophe Jerry Fodor qui, dans un ouvrage important paru en 1982, a explicité cette hypothèse modulariste, mais en la restreignant aux processus « inférieurs » (perceptifs et moteurs, présents chez la plupart des animaux, sous une forme ou une autre) et au langage. Depuis lors, de nombreux chercheurs se sont attachés à montrer que les processus supérieurs présentent également une spécificité déterminée par le domaine auquel ils s'appliquent.
En deuxième lieu, l'hypothèse la plus centrale du domaine demeure, malgré certaines mises en cause récentes, la possibilité d'aborder la cognition à différents niveaux, analysables jusqu'à un certain point indépendamment les uns des autres. Les deux niveaux fondamentaux sont : 1. celui de la réalisation des mécanismes causaux, c'est-à-dire, du côté biologique, celui des interactions dans le tissu nerveux, et, du côté artificiel, celui des processus électroniques et mécaniques ; ou encore, le niveau matériel ou physique ; 2. celui des processus décrits dans le vocabulaire de la psychologie ou de l'informatique ; ou encore, le niveau informationnel. Ce niveau est parfois à son tour divisé en sous-niveaux d'abstraction croissante (comme dans l'analyse par D. Marr de la perception visuelle).
Sur la troisième et dernière dimension se placent les types d'organismes dont est étudiée, à tel ou tel niveau, telle ou telle capacité. Un couple polaire est constitué par l'adulte humain normal, d'un côté, le nouveau-né humain normal, de l'autre : quelles sont les capacités qu'on doit attribuer au second, sachant qu'un « apprentissage », fait en général surtout d'une exposition à des stimuli et autres expériences, lui permet d'acquérir les compétences du premier ? On a donc, selon ce point de vue, d'un côté, des études portant sur l'« état final » des systèmes étudiés, de l'autre, des études sur leur « état initial », qui vont de pair avec l'exploration du passage de second au premier. Ainsi, le nouveau-né ne maîtrise-t-il aucun mot d'aucune langue, alors que l'enfant de quinze ans en possède plus de 50 000. De quel bagage le nouveau-né est-il équipé, qui lui permet de parvenir en quinze ans à cette compétence, et quels sont précisément les étapes et les mécanismes de cette acquisition ? Cette manière de poser le problème n'est pas acceptée par tous les chercheurs, mais on admet toujours, ne serait-ce que pour des raisons de division technique des tâches, une distinction entre l'exploration des capacités de l'être humain ayant accédé à la maîtrise de l'adulte, les compétences d'Homo sapiens sapiens à l'état mature, et l'étude des états antérieurs de ces compétences. Mais sur le même axe se placent également, avec une importance qui a beaucoup crû depuis les quinze dernières années, les études des mêmes compétences (ou de compétences analogues ou préparatoires) chez d'autres créatures : soit humaines mais non normales, soit normales mais non humaines quoique biologiques, soit encore artificielles.
En combinant les trois dimensions, on obtient un « prisme » dans lequel on peut ranger une bonne partie des recherches sur la cognition humaine. Les cases ne sont pas toutes occupées (ainsi, les capacités linguistiques ne donnent pas lieu à des études chez l'animal ; cependant, certains aspects du langage se retrouvent, par exemple, dans le chant des oiseaux ou dans certaines formes de communication animale). Certains travaux échappent à cette classification, par exemple en raison de leur caractère abstrait ou transversal. Mais ce système rend des services.


Fondements : deux grandes approches[modifier]



Hypothèses et choix stratégiques[modifier]


L'histoire nous enseigne que les hypothèses fondamentales sur lesquelles s’appuie une science ne sont jamais formulées au départ sous la forme qu'elles prennent lorsque la discipline atteint la maturité : indépendamment des changements, voire des revirements, et des désaccords entre écoles, qui accompagnent son développement, la signification véritable des intuitions de départ ne se dégage que progressivement. Comme on doit s'y attendre en raison de leur jeunesse, les sciences cognitives font l’objet de discussions animées sur la question de leurs fondements. Mais si elles sont aussi vives, c'est sans doute parce qu'elles touchent à la question sensible entre toutes, celle de la nature de l'homme. Le point de vue mécaniste du physiologiste et du médecin, qui s'occupent de la « carcasse », de la « chair », est depuis longtemps dans notre culture accepté dès lors qu'il s'applique : 1. aux fonctions « inférieures » que nous partageons avec le reste du règne animal (même si l'homme les « spiritualise ») ; 2. aux écarts de toutes sortes par rapport à l'état normal. Mais, replacé dans le cadre plus large du naturalisme (c’est-à-dire de l'approche de l'humain comme ensemble de phénomènes de la nature, accessibles aux méthodes des sciences de la nature), ce point de vue se heurte à des objections profondément enracinées, qui prennent la forme de perplexités philosophiques, de difficultés épistémologiques, et aussi de problèmes éthiques.
Il faut donc distinguer deux sources de principes fondamentaux : d'une part, les hypothèses formulées par les scientifiques eux-mêmes, complétées et interprétées par leurs pratiques ; d'autre part, les reconstructions, par les philosophes, visant à expliciter ces hypothèses et ces pratiques, à leur donner une unité et une cohérence interne, et à en dégager les conséquences ontologiques. Bien entendu, toute présentation synthétique des premières s'apparente aux secondes,
À un niveau aussi général et consensuel que possible, on peut sans doute distinguer trois hypothèses :
1. Principe de la double description des états. Dans la description et l’explication des phénomènes cognitifs, le niveau physique (au sens large : bio-chimico-physique) demeure insuffisant ; il doit être complété (voire, selon certains, essentiellement remplacé) par un niveau représentationnel : les états des systèmes physiques considérés représentent des informations, et c’est dans cette mesure qu’ils sont non seulement descriptibles comme états physiques, mais aussi comme états cognitifs.
2. Principe de la double description des processus. De même, les transformations que subissent ces états ne peuvent être décrites seulement comme des processus physiques (toujours au sens large), mais aussi comme des calculs sur les représentations dont ils sont porteurs.
3. Principe de l'intériorité. Quoique tout phénomène cognitif s’articule d’une part, à un stimulus (effet de l’environnement sur le système – organisme ou système artificiel – siège du phénomène en question, exercé par l’intermédiaire des capteurs du système), de l’autre, à une réponse ou réaction (effet du système sur l’environnement, exercé par l’intermédiaire d’effecteurs), et quoique ces effets constituent les traces empiriques fondamentales à partir desquelles la théorie s’élabore et à l’aune desquelles elle évalue ses résultats, la cognition ne se limite pas à ces effets. Au contraire, l’essentiel du processus se situe précisément entre le stimulus et la réponse, et donne lieu à des généralisations ne dépendant que partiellement des valeurs spécifiques des valeurs que prennent les paramètres extrémaux.
Les deux premiers principes donnent au domaine sa place dans la psychologie scientifique : il n'est pas une simple branche des neurosciences. Le premier l'attache à la philosophie et à la logique ; le second à l'informatique (au sens très général de théorie du calcul). Le troisième marque la rupture avec le behaviorisme, sans retour aux méthodes introspectives et phénoménologiques du passé.
À ces hypothèses générales s’ajoutent des orientations stratégiques qui, on l'a vu, ont sensiblement varié au cours du temps. Ce qui préserve l'unité du champ à travers ses transformations est sa déontologie naturaliste et interdisciplinaire : il est « interdit d'interdire ». C’est-à-dire qu'aucune école ou sous-discipline n'est en droit de s'abriter du regard des autres, en particulier de celles qui font incontestablement partie des sciences de la nature ; les théories développées en différents points du « prisme » doivent s'articuler, et les styles scientifiques ne doivent pas conduire à des « exceptions culturelles ». Il s'agit là d'une norme, non d'un fait ou d'une stipulation, et cette norme, qui s'impose à tous, constitue justement l'un des principaux moteurs du domaine.
On a longtemps opposé deux grandes conceptions de l’objet des sciences cognitives, commandant deux approches de l’explication, de la description et de la simulation des phénomènes cognitifs : le « cognitivisme » et le « connexionnisme ». Lorsqu'il a émergé, sous cette dénomination, dans la première moitié de la décennie 1980, le connexionnisme est apparu comme une réforme plus ou moins radicale (selon les écoles) du cognitivisme, réforme nourrie en partie d'une réactivation de thèmes actifs à différentes périodes antérieures de la psychologie, et encore récemment au sein de la cybernétique et de la Gestalt. Aujourd'hui, s’il demeure des aires de recherche où l'on doit parler de véritables divergences entre deux courants, beaucoup pensent que la différence concerne davantage les fonctions ou les niveaux visés que la nature profonde de la cognition.


Le cognitivisme[modifier]


Le cognitivisme conçoit la cognition comme un calcul sur des représentations internes ou mentales : un organisme, ou système cognitif, agit intelligemment dans son environnement en en formant des représentations (partielles, modèles des aspects pertinents eu égard à la tâche en cours) et en les modifiant, compte tenu de ses croyances et de ses désirs (ou des buts qui lui sont ou qu'il s'est assignés). Comme il ne s'agit nullement de restreindre la cognition à la cogitation délibérée (laquelle n'est d'ailleurs que le résultat de processus internes d'une nature sans doute toute différente), il est crucial de ne pas attribuer aux représentations et processus en question un caractère conscient : c'est (entre autres) le comportement conscient et la vie mentale d'un individu humain qu'il faut expliquer, et le recours aux délibérations d'un homunculus à l'image de l'homme même ouvre évidemment la porte à une régression infinie.
Ce n'est pas cependant cette conception très générale qui suffit à séparer le cognitivisme du connexionnisme. Il faut y adjoindre les réponses qu'il donne à certaines questions plus précises : 1. Dans quel matériau sont façonnées les représentations mentales ? 2. Comment s'établit et se maintient le lien entre les représentations et ce qu'elles représentent ? 3. Quelle sorte de calcul est appliqué à ces représentations ? 4. Quel est le rapport entre l'explication « computo-représentationnelle » de la cognition et son explication en tant que phénomène naturel, ou physique ? 5. Quel dispositif physique existant fournit à la fois une image du système cognitif humain, et une simulation possible de ce système ?
Les réponses cognitivistes sont, schématiquement, les suivantes. En premier lieu, les représentations mentales sont à l'image de formules, ou expressions bien formées, d'un langage interne (langage de la pensée ou « mentalais »). Ce langage doit être conçu comme un langage formel, tels ceux de la logique mathématique : il possède donc des règles morphologiques et syntaxiques qui lui confèrent une autonomie formelle, et des règles sémantiques qui précisent les relations entre expressions du langage et entités ou situations représentées. Si l'on admet donc que le contact avec l'environnement permet au système de déterminer la valeur sémantique des symboles primitifs de son langage interne, celle des symboles composés qu'il produit dans le cours de son fonctionnement est entièrement déterminée ; c'est le parallélisme strict entre syntaxe et sémantique, ou, dit autrement, le caractère compositionnel de la sémantique, qui garantit le maintien, au cours des processus cognitifs, d'une adéquation des représentations à l'univers représenté. Telles sont les réponses aux questions 1 et 2.
C'est encore la logique des années 1930 (avec les travaux d'Alan Turing et d'Alonzo Church) qui rend possible une réponse déterminée à la question 3. En effet, nous savons depuis cette époque que si par calcul on entend une suite finie d'opérations sur des symboles ou éléments discrets (ce qu'on appelle en mathématiques un algorithme), la notion générale de calcul est indépendante de la machine, système (esprit humain) ou procédure mathématique abstraite exécutant ou réalisant le calcul – à une idéalisation près, celle d'une capacité infinie de mémoire. Les fonctions calculables constituent ainsi une sorte d'« espèce naturelle », insensible à de larges variations de définition. Et les calculs auxquels sont soumises les représentations mentales peuvent être par exemple décrits comme ceux qu'exécute une machine de Turing, ou, encore, comme on peut le dire aujourd'hui, un ordinateur numérique.
La question 4 – qui n'est qu'une reformulation, dans le présent contexte, du vénérable problème du rapport entre le corps (le cerveau, système physique) et l'esprit (le mens, siège des représentations mentales) – reçoit ici une réponse à la fois matérialiste, moniste, et non réductionniste : selon la doctrine de l'« identité occasionnelle » (token identity), tout état mental est identique à un état physique, mais les catégories d'états mentaux que font intervenir les énoncés généraux de la psychologie ne correspondent pas à des catégories caractérisables dans le vocabulaire des sciences physiques (au sens large, biologie comprise). Cette thèse s'oppose au monisme réductionniste qui postule l'« identité catégorielle » (type identity) entre états mentaux et états physiques. Les types ou catégories d'états mentaux auxquels doit se référer la psychologie sont définis à partir du rôle fonctionnel que ces états jouent dans le déroulement régulier des processus cognitifs – d'où le terme de fonctionnalisme qui désigne souvent soit la thèse de l'identité occasionnelle, soit, plus largement, la position cognitiviste. Due au philosophe Hilary Putnam, reformulée par Jerry Fodor et par des spécialistes de l'intelligence artificielle tels qu'Allen Newell et Herbert Simon, cette doctrine est actuellement l'objet de vives discussions chez les philosophes et théoriciens des sciences cognitives, et Putnam lui-même l'a reniée.
La réponse donnée à la question 5, à savoir l'ordinateur, ou machine de von Neumann, confère cependant une certaine plausibilité à la thèse fonctionnaliste. L'ordinateur est en effet un système physique susceptible de deux caractérisations largement indépendantes. C'est d'une part un système physique, dont l'évolution est régie par des équations de transition fournies en principe par les lois de la physique. Mais c'est d'autre part également un système de traitement de l'information, dont les états peuvent être caractérisés comme états calculatoires, sans référence directe à leur constitution physique, les processus de traitement agissant sur ces états eux-mêmes, décrits à partir de causes ou fonctions de nature non physique mais calculatoire (« Ajouter n à p », « Rechercher dans la liste L les éléments commençant par s », etc.) – réductibles en principe aux opérations d'une machine de Turing.
Il est clair que c'est en général ainsi, et non à partir des lois de la physique, que l'observateur a intérêt à considérer l'ordinateur s'il veut en expliquer le fonctionnement, de même que c'est en tant que système de rouages qu'il considérera en général une montre, et non comme système dynamique régi par les équations de la mécanique quantique. Et c'est à ce niveau que l'observateur saisira ce qu'ont de commun deux ordinateurs équivalents sur le plan calculatoire mais de constitution physique différente. Méthodologiquement est ainsi posé le principe d'une indépendance explicative de la psychologie par rapport aux neurosciences, et de l'informatique/intelligence artificielle par rapport à l'électronique. Cette indépendance n'est toutefois que relative : chaque niveau exerce sur l'autre des contraintes – tel mécanisme fonctionnel peut être exclu faute d'une réalisation (ou « implémentation ») possible ou seulement plausible ; telle description de l'architecture ou du fonctionnement cérébral peut être mise en cause par son incompatibilité apparente avec des hypothèses retenues au niveau fonctionnel.
Il est essentiel de ne pas considérer ici l'ordinateur comme un simple calculateur, mais comme un système agissant sur des représentations symboliques internes : le ruban de la machine de Turing, la mémoire de l'ordinateur n'ont pas moins d'importance que les opérations régies par la table ou par le programme, et ce que renferme le ruban, la mémoire, ce ne sont pas des nombres, mais des symboles généraux uniquement définis par leur appartenance à un jeu de symboles régi par des règles syntaxiques.
Le rôle joué par l'ordinateur dans la réflexion sur les fondements des sciences cognitives est subtil. D'une part, il est incontestable que son apparition a beaucoup frappé les esprits (à juste titre) et que, conjugué à d'autres facteurs, il est directement à l'origine d'idées (parfois peut-être contestables) et de programmes de recherche dont la confluence a fini par prendre le nom de sciences cognitives. D'autre part, il ne doit être compris aujourd'hui ni strictement comme modèle ni simplement comme métaphore. Le cerveau et l'esprit humains en diffèrent trop profondément pour que l'idée de le prendre tel quel pour modèle, à quelque niveau de description que ce soit, puisse être prise comme argent comptant. Mais, inversement, ne voir dans la relation entre esprit/cerveau et ordinateur qu'une métaphore interdit d'en comprendre la fécondité opératoire : l'ordinateur prouve, par son principe et par son existence, la cohérence conceptuelle et la possibilité matérielle de rapports théoriques d'un genre nouveau, et de dispositifs les incarnant ; sur ces rapports s'érigera peut-être une science de l'esprit, et peut-être sera-t-on assuré un jour que ces dispositifs sont de ceux que le cerveau met en œuvre.


Le connexionnisme[modifier]


Le connexionnisme se présente quant à lui comme un ensemble de méthodes de modélisation et de simulation de toute une variété de processus cognitifs ; et c'est en cherchant à dégager les traits communs à ces méthodes, et les avantages qu'elles présentent sur les méthodes classiques, que les connexionnistes ont commencé à élaborer une doctrine. À cet égard, leur parcours n'est pas sans rappeler celui de l'intelligence artificielle. Partie d'un outil (l'ordinateur) et de quelques idées très générales, elle entreprit d'écrire des programmes simulant des tâches telles que le jeu d'échecs et la résolution de problèmes de géométrie ou de calcul propositionnel ; puis, pariant que ces premières tentatives étaient autant de premiers pas vers une solution générale, elle voulut formuler la conception de l'intelligence, ou de la cognition, qui s'en dégageait et lui paraissait devoir être confirmée. Les psychologues, les linguistes, les philosophes se mirent alors de la partie, élargissant, complétant et précisant la théorie – ainsi naquit le cognitivisme.
Avec un décalage d'une quinzaine d'années, le connexionnisme, renouant avec la première cybernétique et certains de ses prolongements (principalement le célèbre perceptron de Frank Rosenblatt), part d'un outil (le réseau de neurones formels), entreprend de simuler des fonctions telles que la classification de formes, la mémoire associative ou la prononciation de l'anglais. Ces modèles, présentés dans un gros ouvrage collectif (Rumelhart et al., 1986) rencontrent de multiples échos dans ce qui est, cette fois, un milieu scientifique constitué, ce qui explique la contagion rapide des idées connexionnistes.
Historiquement, le connexionnisme se définit, on l'a vu, par la machine, fonctionnellement décrite, dont il conjecture qu'elle est capable d'intelligence ou de cognition : cette machine, le réseau de neurones formels (ou réseau neuromimétique ; neural net en anglais), est au connexionnisme ce que la machine de von Neumann est au cognitivisme et à l'intelligence artificielle traditionnelle. S'il est vrai qu'il existe de nombreuses variantes de réseau (alors que la machine de von Neumann est essentiellement unique), on peut cependant donner une sorte de « portrait-robot » du réseau connexionniste (fig. 3).
Il s'agit d'un ensemble d'automates très simples interconnectés. Les connexions permettent à un automate tel que i de transmettre à un automate j une simulation positive (excitatrice) ou négative (inhibitrice), déterminée par l'état d'activité ui de i et modulée par un poids synaptique wji ne dépendant que du canal. Les automates (ou unités) sont en général tous identiques – ce sont souvent des automates à seuil, capables de comparer la somme pondérée des simulations afférentes Σiuiwji à un seuil Sj et à se mettre en état d'activité si ce seuil est dépassé, à s'éteindre sinon. Le système est donc caractérisé, à chaque étape de son évolution, qui est discrète, par un vecteur d'activation u = (u1, ...., un) ; la transition d'une étape à la suivante résulte d'une mise à jour, soit par tous les automates simultanément, soit par un seul, des valeurs d'activité. Le processus commence par l'imposition d'un certain vecteur d'activation u0 qui peut être considéré comme la donnée ou input, se poursuit par itération de la règle de transition, et se termine lorsque le système atteint un équilibre caractérisé par un vecteur uN, résultat ou output de ce qu'on peut appeler le calcul effectué par le réseau.
L'identité du réseau, au cours de ce calcul, est préservée sous la forme du vecteur w des poids synaptiques. C'est de ce vecteur que dépend, à input égal, le comportement du réseau et le résultat de son calcul – en ce sens il constitue sa « compétence » ; on dit parfois que les « connaissances » d'un réseau sont représentées ou emmagasinées dans ses connexions. Quant à la manière dont cette compétence est acquise, elle est actuellement au cœur des recherches : dans certaines conditions, un réseau peut l'acquérir spontanément, à partir d'exemples fournis par l'environnement. Cette capacité d'apprentissage « naturel » est l'une des grandes qualités des réseaux : ils font ce qu'on leur demande sans qu'il soit nécessaire de leur donner des instructions, de les programmer.
Ce n'est pas leur seule qualité. Leur comportement lui-même présente des propriétés remarquables : un réseau est capable, moyennant des conditions favorables, de généraliser, d'extraire la tendance moyenne ou de composer un type caractéristique d'un échantillon, de restaurer des données fortement altérées ou tronquées. Quand on l'éloigne de son domaine d'application, ou quand on le surcharge d'exemples, ses performances ne se dégradent que progressivement. Lésé, il continue de produire des résultats acceptables, quoique moins bons, et, s'il est gravement abîmé, il réapprend vite. Ici encore, ce sont des propriétés naturelles, qui ne résultent pas d'instructions ad hoc, ce qui souligne la différence par rapport aux modèles cognitivistes.
Ce n'est cependant qu'en examinant le fonctionnement des réseaux que l'on prend la véritable mesure de cette différence. La plus frappante est le caractère « massivement » parallèle des opérations : quoiqu'il puisse subsister une horloge interne qui rythme l'évolution du système, c'est à chaque étape, potentiellement ou de fait, autant d'opérations indépendantes qu'il y a d'unités qui s'effectuent simultanément. Cela suffirait à distinguer le sens que revêt ici « calcul » par rapport au sens canonique d'opération turingienne. Mais de plus, dans certaines versions du connexionnisme, chaque opération élémentaire peut être vue comme portant sur des quantités continues et non discrètes. Enfin, certains modèles introduisent une dose d'aléatoire.
L'analyse de l'évolution d'un réseau passe par la mécanique statistique et la théorie des systèmes dynamiques, non par la logique des programmes. Remarquons d'ailleurs qu'il n'y a ni programme, au sens strict du mot, ni unité de contrôle. Chaque unité est autonome, et ne propage que localement son influence. Cette influence peut certes être interprétée comme une sorte d'inférence, mais seulement plausible et non rigoureuse : elle est modulée et peut être soit renforcée, soit bloquée par d'autres influences. L'état stable est un équilibre, non un arrêt.
Quant au mode de représentation, il n'est pas moins original que le mode de calcul. Un modèle d'inspiration cognitive, tel qu'un système d'intelligence artificielle classique, stocke en mémoire des expressions quasi linguistiques interprétables comme des descriptions d'objets, de faits ou de règles, et selon les besoins du programme les consulte, les reproduit ou les transforme selon les règles formelles. Un réseau connexionniste ajuste ses poids synaptiques, et capte ainsi les régularités de l'environnement, qui n'est donc pas décrit, mais reflété avec une fidélité plus ou moins grande – précieuse souplesse ! La « connaissance » – si ce mot convient – semble être ici intégralement implicite ; plutôt que de connaissance, on serait tenté de parler d'adaptation : le système a une capacité dispositionnelle à agir en conformité avec certains aspects saillants de l'environnement. Enfin, dans les réseaux utilisant des représentations dites distribuées, chaque concept correspond à l'activation non d'une, mais d'un grand nombre d'unités ; inversement, chaque unité contribue à la représentation de plusieurs concepts : si les concepts sont ici ceux auxquels l'esprit a naturellement affaire dans la tâche qui l'occupe, ceux dont le modélisateur veut doter un système qu'il charge de cette tâche, alors ce que représente une unité est d'un ordre différent – c'est un « micro-trait », un fragment de sens invisible à l'œil nu, un constituant proto-sémantique destiné à entrer dans des assemblages variables, selon des règles non pas formelles, mais sensibles au contexte et à la tâche du moment. Seuls ces assemblages sont dotés d'une valeur sémantique au sens propre.
Quoi qu'il en soit des propositions plus radicales du connexionnisme, on voit donc que dans les réponses qu'il donne aux questions 1 à 5 formulées plus haut il se distingue nettement du cognitivisme. En fait, rien de précis n'a encore été dit de sa réponse à la question 4. Or beaucoup en dépend. En effet, s'il se dit fonctionnaliste (ce qui est en général le cas), le connexionniste doit préciser le niveau auquel selon lui se situe la description fournie par le réseau. S'agit-il du même niveau fonctionnel que le cognitivisme, ou bien d'un niveau inférieur ? Dans le premier cas, il faut justifier le caractère psychologiquement peu plausible de certains aspects du fonctionnement des réseaux, mais surtout leur incapacité à modéliser directement les tâches impliquant des représentations structurées – en premier lieu le langage et le raisonnement. Dans le second cas, il faut répondre à une autre question : le niveau du réseau est-il identique à celui de l'« implémentation » dans le schéma classique – les automates sont-ils des neurones idéalisés (lorsque le réseau modélise), et des composants élémentaires (lorsqu'il simule) ? Une réponse positive à cette nouvelle question entraîne pour le réseau deux risques : celui de l'invalidation pour insuffisance sur le plan biologique (les réseaux ne seraient pas des modèles acceptables du système nerveux), celui de la réduction au statut de hardware, de matériel (les réseaux ne seraient qu'une façon nouvelle, utile dans certains cas, de réaliser les opérations cognitives dont la caractérisation demeurerait du ressort du cognitivisme). Une réponse négative ramène le connexionniste au point de départ : où donc se situe le réseau ? Certains chercheurs penchent en faveur d'une sorte de fonctionnalisme « microstructurel » : le réseau se situerait à un niveau intermédiaire, au-dessus de la neurobiologie et de l'implémentation, au-dessous du niveau psychologique et linguistique ordinaire, le rapport avec celui-ci devant être pensé comme celui de la micro-physique avec la physique newtonienne des objets de taille moyenne animés de faibles vitesses. Il s'agirait donc d'un niveau fonctionnel fondamental, le niveau supérieur ne fournissant qu'une description approximative parfois utile.
On considère aujourd'hui généralement que le système cognitif humain est trop complexe et ses fonctions et propriétés trop diverses pour qu'il soit profitable de se demander s'il est, fondamentalement, conforme à l'un ou l'autre des deux grands modèles : le modèle inférentiel-formel du cognitivisme ou le modèle associatif-perceptif du connexionnisme. Nombreux sont les chercheurs qui rejettent l'alternative, et plaident soit pour une articulation des deux points de vue, convenablement modifiés, soit pour des modèles dits « hybrides », ou encore pour le droit à l'indifférence. En réalité, une majorité de chercheurs ne se préoccupent pas de ce qui les rattache à une école et les éloigne de l'autre : ils voient dans l'une comme dans l'autre soit des reconstructions, peut-être utiles sur le plan institutionnel, ou à des fins de vulgarisation, ou encore des étapes obligées pour le philosophe, soit comme sources de modèles. Leur travail ne leur paraît pas en dépendre de façon essentielle. On peut en dire autant d'autres « conceptions-cadres » proposées sous le titre d'« approche dynamique », « écologique », « située » ou « incarnée », ou encore « constructiviste », qui sont autant de programmes reposant sur une intuition forte, produisant des théories intéressantes, mais très loin de constituer le « fondement » général qu'ils prétendent parfois offrir aux sciences cognitives dans leur ensemble.


Modularité, domanialité et théories naïves[modifier]


La complexité fonctionnelle de l'esprit, comme la structure inhomogène du cerveau ont suscité depuis longtemps des théories « modulaires » de l'esprit et du cerveau, l'un des premiers représentants de cette tendance étant Franz Gall (1759-1828), qu'Auguste Comte admira et dont il s'inspira. Déconsidéré par sa théorie phrénologique (dont la dénomination et les excès semblent imputables à son disciple Spurzheim), Gall a été tiré de l'oubli et son idée maîtresse, celle d'une division de l'appareil mental en facultés spécialisées, reprise à nouveaux frais, notamment grâce au petit livre déjà mentionné du philosophe et psychologue américain Jerry Fodor. Aujourd'hui, il n'est presque personne pour contester qu'il y ait une certaine dose de modularité dans l'esprit, c'est-à-dire que celui-ci soit, du moins dans certaines de ses régions, constitué de facultés distinctes et essentiellement indépendantes les unes des autres. Les questions qui se posent sont de savoir si ce découpage concerne l'esprit dans son ensemble ou s'il laisse quelque chose de côté, et dans ce cas, ce qui échappe à la modularité ; quelle est la nature et quelles sont les propriétés essentielles de ces modules, et en particulier quel est leur rapport aux sous-systèmes anatomiques ou fonctionnels du cerveau, que les neurosciences, en particulier la neuropsychologie clinique et la neuro-imagerie, ont pour objectif d'identifier.
Fodor, pour sa part, défendait l'idée que la modularité était cantonnée aux modalités sensorielles, ainsi qu'au traitement du langage (jusqu'à un certain point) ; et que restaient non modulaires ce qu'il appelait les systèmes centraux, dont la fonction essentielle est de « fixer les croyances » de l'agent sur la base des produits des modules, et des informations stockées en mémoire. Ce processus, estimait-il, est trop irrégulier pour donner naissance à une science : les sciences cognitives étaient vouées à n'embrasser, finalement, que les « processus inférieurs » et une partie du langage, laissant de côté les « processus supérieurs » (conceptualisation, raisonnement, etc.).
Plus récemment, des chercheurs ont tenté de montrer que la modularité s'étend également aux processus supérieurs : ils seraient eux aussi domain specific. Cette propriété structurelle, qu'on pourrait donc désigner du néologisme « domanialité », est parfois nommée « modularité massive », L'hypothèse de domanialité repose sur quatre types d'arguments : ontogénétiques (très tôt le bébé fait preuve de compétences spécialisées dans certains domaines, sans exhiber la moindre trace de capacités intelligentes générales, et ces compétences se développent selon des rythmes caractéristiques) ; cliniques (certaines fonctions supérieures donnent lieu à des déficits spécifiques) ; fonctionnels (les êtres humains adultes, dans des situations expérimentales particulières, peuvent accomplir certaines tâches alors qu'ils sont dans l'incapacité provisoire d'en accomplir d'autres) ; et enfin phylogénétiques : la sélection naturelle aurait conduit à la mise au point de fonctionnalités spécifiques importantes sur le plan adaptatif. L'esprit-cerveau est le résultat de l'évolution, et porte les marques organisationnelles caractéristiques des organes naturels complexes. Chacun de ces « modules supérieurs » a en charge un certain type de stimulus auquel il applique, tel une modalité sensorielle, un traitement hautement complexe, automatique et rapide ; mais à la différence des sens, ce que délivre un module supérieur est une croyance relative au domaine dont provient le stimulus, d'où le nom de « théorie naïve » souvent donné à ces modules supérieurs. Il existerait ainsi une « physique naïve » chargée des interactions avec les objets et processus matériels usuels, une « arithmétique naïve », une « biologie ou systématique naïve », une « psychologie naïve » (également appelée « théorie de l'esprit ») permettant d'interpréter et de prévoir le comportement d'autrui (et peut-être le sien) en lui attribuant des désirs, croyances et intentions particulières. Il existerait aussi des modules de grain plus fin, assurant des fonctions telles que la reconnaissance des visages, l'identification de l'intention d'un mouvement, l'attention conjointe, etc.


Recherches et applications : quelques exemples[modifier]


Les sciences cognitives recouvrent désormais un champ trop varié et étendu pour qu'on puisse dresser une liste des principales questions qu'elles étudient. On se contentera ici d'un échantillon de recherches, choisies en raison de leur caractère clairement interdisciplinaire, qui viennent s'ajouter aux exemples évoqués dans ce qui précède.


Thèmes interdisciplinaires[modifier]



Langage et communication[modifier]


L'un des principaux et des premiers acquis des sciences cognitives est d'avoir distingué et articulé différents niveaux de représentation au sein du langage, chaque niveau nécessitant une analyse particulière, et leur articulation effective, dans la production et la compréhension du langage (parlé ou écrit), une théorie supplémentaire. Ajoutons que le penseur qui a le plus contribué à cette clarification de l'objet de la linguistique, Noam Chomsky, est également celui dont les conceptions ont le plus marqué le cognitivisme depuis ses origines, vers le début des années 1950. Quelles que soient les critiques dont ses théories font l'objet dans certains milieux, Chomsky demeure le principal théoricien du domaine, comme le reconnaissent d'ailleurs la plupart de ses adversaires au sein des sciences cognitives.
Un second acquis, plus négatif en apparence, a été la constatation qu'à chaque niveau la tâche qu'accomplit le système humain est d'une complexité stupéfiante, et que l'explication comme la simulation se heurtent à des difficultés redoutables.
Notre premier exemple concerne la perception et la production du discours, du flux de la parole. (Notons en passant qu'ici se chevauchent le thème du langage et ceux de la perception et de l'action.) Acousticiens, phonéticiens, phonologistes sont solidaires face à une série de défis. Il leur faut expliquer trois phénomènes apparemment mystérieux :
  • la perception catégoriale, qui permet à l'auditeur de classer dans des catégories discrètes des stimuli dont les différences varient continûment ;
  • la constance perceptive, qui permet à l'auditeur de comprendre le même mot en dépit de variations énormes d'une énonciation à l'autre (c'est cette variabilité qui fait obstacle à la réalisation d'un système entièrement satisfaisant de reconnaissance de la parole) ;
  • l'invariance de la cible, en vertu de laquelle la même parole est produite par un locuteur, alors que d'une énonciation à l'autre les déplacements matériels de ses organes varient plus fortement encore que les sons produits.
La perception de la parole est un domaine dans lequel d'autres disciplines progressent également. La psycholinguistique développementale découvre les capacités considérables que les nourrissons déploient dès les premières semaines, et parfois dès les premiers jours de la vie, dans la perception des phonèmes, la discrimination des paroles de la mère, celle de la langue maternelle, etc. La capacité de distinguer tous les phonèmes des langues naturelles semble présente à un stade très précoce, tandis que l'exposition exclusive à la langue maternelle conduirait à l'élimination ultérieure de certaines distinctions : les jeunes Japonais (monolingues) perdent la capacité de distinguer le /l/ du /r/. Il n'empêche que l'on ne dispose pas encore d'une solution complète au problème central de la psycholinguistique développementale : sachant que la compréhension d'une phrase prononcée exige de pouvoir segmenter le flux sonore de la parole, que cette segmentation exige de disposer de connaissances lexicales, syntaxiques et sémantiques, lesquelles ne semblent pouvoir elles-mêmes être acquises que sur la base de chacune des autres, comment le bébé fait-il pour apprendre tout cela, se sortant ainsi, apparemment, d'un cercle multiplement vicieux ?
Les neurosciences, quant à elles, s'intéressent à l'organisation des structures cérébrales responsables de la perception, de la production et de la compréhension de la parole. Elles sont notamment guidées par l'étude des déficits du langage, qui présentent d'extraordinaires différenciations. Ce qui semblait de prime abord constituer une capacité homogène résulte en fait de la coopération de nombreuses structures fonctionnelles spécialisées et largement indépendantes. Les neurosciences rejoignent ainsi, par leurs propres voies, les conclusions des linguistes, des psychologues et des philosophes du langage.
Passons sur les niveaux syntaxique et sémantique, malgré leur caractère absolument central dans l'étude du langage, et choisissons notre deuxième exemple dans le domaine de la pragmatique. La question est ici celle de la compréhension d'un message dont l'analyse phonologique, syntaxique et sémantique est accomplie, fournissant ce qu'on pourrait appeler, avec beaucoup de prudence, un sens « brut » ou littéral de la phrase ou des phrases énoncées. Que la question se pose constitue déjà (comme, à l'autre extrémité de la chaîne, pour la phonologie) un résultat non trivial. On savait depuis un certain temps que l'output de l'analyse sémantique (à supposer, ce qui est sans conséquence ici, que cette analyse prenne place après l'analyse phonologique et syntaxique et avant l'analyse pragmatique) doit dans certains cas être enrichi pour fournir une proposition complète, susceptible d'être vraie ou fausse : « Je suis content » n'est pleinement saisi par un auditeur ou un lecteur qu'après qu'il a appris que le locuteur est untel – c'est là le phénomène de l'indexicalité. Mais il aura fallu du temps pour prendre la pleine mesure de l'étendue du phénomène, et pour le rattacher à une famille beaucoup plus vaste d'effets d'enrichissement du sens brut. Le passage de ce sens à la proposition complète exprimée par le locuteur, puis à son intention communicative et enfin à la saisie, par l'auditeur, de cette dernière est désormais considéré comme une étape fondamentale, à laquelle participent tant les capacités linguistiques des locuteurs-auditeurs que leurs capacités cognitives générales. L'interprétation des dialogues les plus simples, tels que :
« Pouvez-vous me passer le sel ?/ – Excusez-moi, mon mari suit un régime. »/ Ou bien « Crois-tu que les pizzas sont bonnes ici ?/ – Il paraît que le cuisinier est napolitain. » fait appel à des connaissances et à des inférences qui ne sont aucunement transmises par les phrases prononcées, mais qui n'en sont pas moins indispensables à leur compréhension. Relèvent du même ordre de phénomènes, et sont peut-être justiciables d'explications semblables, l'ambiguïté, la métaphore, l'ironie et de manière générale tous les effets argumentatifs et rhétoriques. Les recherches sur ces problèmes, dont certains sont étudiés depuis les Grecs, sont très actives. Y interviennent les linguistes, les philosophes, les logiciens, les spécialistes d'intelligence artificielle, et les modèles proposés sont suffisamment développés pour donner lieu à d'énergiques controverses.


Logique et raisonnement[modifier]


Pendant longtemps, la logique a été considérée comme fournissant les règles du raisonnement idéal : n'est-elle pas la science de l'inférence valide, c'est-à-dire de l'opération permettant de passer à coup sûr de prémisses vraies, ou supposées telles, à une conclusion vraie ? Si tel de nos raisonnements ne se conforme pas aux canons de la logique, la raison doit en être recherchée, pensait-on, dans l'imperfection de nos capacités individuelles, dans l'irrationalité foncière de certaines aires de notre activité mentale (celles qui concernent les émotions, par exemple), ou encore dans l'application de règles spéciales, cachées, valables seulement dans certains domaines (d'où la possibilité d'une « logique des émotions », d'une « logique du pouvoir », d'une « logique de la folie », etc.).
Très tôt, cependant, il est apparu que dans un domaine dont sont bannis, en principe, tant l'irrationalité que les insuffisances individuelles et les principes occultes, à savoir la science, les raisonnements ne procèdent qu'occasionnellement par déduction logique, qu'ils semblent souvent relever de l'induction. Le problème de l'induction, qui occupe la philosophie depuis Bacon et Hume, est au centre de la philosophie des sciences du xxe siècle : parmi ses principaux représentants, Rudolph Carnap a cherché à le résoudre en montrant la possibilité d'une logique inductive, tandis que Karl Popper s'efforçait de démontrer l'impossibilité d'une telle logique tout en « sauvant » la connaissance scientifique. De son côté, W. V. O. Quine s'en prenait au caractère analytique, et partant incorrigible, de la logique déductive elle-même, et, revenant sur le geste de Frege et de Husserl, replaçait la logique dans la psychologie, ouvrant la voie à une « naturalisation » de l'épistémologie et préparant ainsi son assimilation aux sciences cognitives.
Tel est le riche contexte philosophique dans lequel ces dernières ont repris la question générale du raisonnement. De leurs très nombreux travaux, dus principalement aux psychologues, aux philosophes, aux logiciens, aux spécialistes d'intelligence artificielle et aux linguistes, nous ne retiendrons ici que quelques aspects.
Les heuristiques. Dans son effort pour faire exécuter à l'ordinateur des raisonnements complexes, qu'il s'agisse de jeu d'échecs, de compréhension de textes, de démonstration automatique de théorèmes ou de systèmes experts, l'intelligence artificielle a eu tôt fait de constater que, pour éviter l'explosion combinatoire provoquée par l'exploration systématique de tous les cas possibles, il fallait introduire dans les programmes des règles dites heuristiques, qui orientent la recherche dans une direction plus prometteuse, au risque, dans les cas défavorables, de ne pas conduire à la solution désirée. D'où toute une série de questions : Existe-t-il des heuristiques optimales ? Comment s'assurer de la cohérence d'un ensemble de règles heuristiques ? Les résultats parfois catastrophiques obtenus par les systèmes d'intelligence artificielle loin de leurs conditions optimales d'application sont-ils dus à des heuristiques défectueuses ? Certaines de ces règles ont-elles une réalité ou une plausibilité psychologique et, de manière plus générale, l'efficacité relative de l'esprit humain ainsi que certaines de ses défaillances s'expliquent-elles par l'intervention d'heuristiques, conscientes ou préconscientes ?
Logique et formalisations du raisonnement. Trois questions expriment différemment ces interrogations : 1. Une formalisation de l'heuristique est-elle possible ? 2. Si c'est le cas, faut-il considérer une telle formalisation comme une logique, complétant ou remplaçant la logique classique ? 3. Y a-t-il dans le raisonnement humain, saisi au niveau psychologique, un équivalent fonctionnel de cette heuristique formelle, une « logique naturelle » ?
Or ces questions sont exactement celles qu'il convient de poser à propos de toute forme de raisonnement s'écartant de la déduction classique. Ainsi généralisée, la question 1 appelle deux sortes de réponse : une réponse de principe, qui est en général positive dans le camp cognitiviste, dubitative dans le camp connexionniste et négative chez certains adversaires résolus de l'intelligence artificielle sous toutes ses formes, et de la philosophie « formaliste », qui la sous-tend ; et une réponse par l'action, qui consiste à construire des formalisations de certaines formes de raisonnement : on assiste actuellement à une floraison de tels systèmes, destinés à prendre en compte des dimensions telles que le probable, le flou, la temporalité, les croyances et attributions de croyance, etc.
À la question 2, certains philosophes répondent que seule la déduction est d'ordre logique, tandis que le raisonnement, notamment inductif, est de nature foncièrement différente. Tenter de l'enfermer dans des logiques toujours plus compliquées, et, selon eux, toujours plus arbitraires, n'apporte aucune clarification véritable.
Quant à la question 3, elle appelle une investigation expérimentale, destinée à déterminer ce que les hommes font effectivement quand ils raisonnent, c'est-à-dire à la fois les résultats qu'ils obtiennent, et les procédures qu'ils appliquent, consciemment ou non. Beaucoup de travaux sont consacrés à cette tâche, l'une des premières que se soit assignée la psychologie cognitive (au point de s'y être, à ses débuts, pratiquement identifiée). Les résultats, malgré les difficultés d'interprétation qu'ils soulèvent, ne manquent pas de surprendre.
Erreurs de raisonnement et illusions cognitives. Les psychologues ont en effet découvert toute une série d'erreurs systématiques dans certains raisonnements élémentaires. Ces erreurs affectent aussi bien la déduction logique que le raisonnement inductif et probabiliste. C'est ainsi que, placés devant une pile d'enveloppes portant d'un côté un timbre à 0,50 euro (tarif réduit) ou bien un timbre à 0,53 euro (tarif urgent), et de l'autre l'une des deux mentions « urgent » ou « réduit », et priés de vérifier le plus efficacement possible si toutes les enveloppes sont suffisamment affranchies, la plupart des sujets omettent certaines vérifications indispensables et en font d'inutiles. De même, interrogés sur les probabilités comparées pour qu'une femme ayant fait des études poussées pendant les années 1960 se retrouve employée de banque, ou bien employée de banque, syndicaliste et féministe, beaucoup de sujets estimeront la seconde hypothèse plus probable.
Les expériences de ce genre se sont multipliées, et s'il est toujours possible de contester la validité de l'une ou de l'autre, dans leur ensemble elles semblent bien prouver l'existence d'écarts systématiques par rapport aux normes établies. La question centrale est alors d'interpréter le phénomène. Faut-il le comparer aux illusions perceptives ? Manifeste-t-il des procédures, heuristiques ou autres, violant les calculs logique et probabiliste classiques, et dans ce cas doit-on s'en tenir à ces canons, ou au contraire mettre en cause leur normativité ? Les sujets procéderaient-ils très différemment de la logique, et au lieu d'enchaîner des assertions, fût-ce fautivement, construiraient-ils des « modèles mentaux », ou chercheraient-ils à déterminer un « prototype » de la situation examinée ? Dans les débats, loin d'être conclus, que suscitent ces questions, les frontières entre disciplines disparaissent, et l'on croit parfois être revenu à l'époque où la réflexion philosophique mêlait logique, psychologie et linguistique.


Vision et perception du monde[modifier]


Les recherches sur la vision sont peut-être la branche la plus « scientifique » (au sens étroit) des sciences cognitives. C'est aussi celle dans laquelle les neurosciences jouent le plus grand rôle. Le second fait n'explique qu'en partie le premier : la vision présente par rapport à d'autres modalités cognitives des particularités qui la rendent plus accessible à l'enquête scientifique. Elle est aussi l'objet d'une fascination ancienne, et son étude bénéficie d'une avance prise au cours des siècles, tout particulièrement depuis une centaine d'années.
Ce qui distingue la vision, c'est d'abord le caractère fortement objectif et reproductible de ses manifestations. Les illusions visuelles elles-mêmes comptent parmi les phénomènes les plus robustes du monde naturel. Ces propriétés sont rapportées aujourd'hui au caractère modulaire du système visuel. Fonctionnant de manière absolument automatique (il est impossible de ne pas voir ce qu'on a sous les yeux, même s'il arrive qu'on ne le remarque pas), prodigieusement sûr et rapide, ce système est dans une grande mesure isolé des autres systèmes cognitifs, qui lui transmettent peu d'informations, sinon aux stades ultimes de l'élaboration des images. En particulier, nos croyances et nos attentes affectent rarement notre perception de l'environnement : nous voyons le tigre s'élancer sur nous, si improbable et importune que sa présence nous paraisse place de l'Opéra, et devant la cage vide du zoo nous écarquillons nos yeux en vain, si probable et espérée qu'elle soit.
Une deuxième particularité de la vision est de se prêter à des séparations nettes, sur le plan fonctionnel comme sur celui de l'analyse. Il est facile de distinguer, par exemple, la perception des couleurs, celle des formes, celle du relief et de la profondeur, celle des dimensions relatives, celle du mouvement ; les défaillances sélectives, permanentes ou occasionnelles, nous aident à penser de telles distinctions. La cécité elle-même, dans la variété de ses formes et de ses étiologies, nous renseigne, paradoxalement, sur les composantes de la vision. De même, les niveaux d'analyse sont assez facilement discernables, de la biochimie des cellules photosensibles à l'optique physique, en passant par la neuroanatomie, la neurophysiologie du cortex visuel, les problèmes topologiques de la transformation d'une image rétinienne bidimensionnelle en un percept tridimensionnel, etc.
Un troisième privilège de la vision est d'être présente dans une grande variété d'organismes autres que l'homme adulte, du nourrisson aux chats, aux oiseaux et aux poissons, chez lesquels elle prend des formes variées, et de s'y laisser interroger, du moins jusqu'à un certain point.
Enfin, les aires visuelles occupent chez les Primates un bon tiers du cortex, ce qui fait de la vision la fonction cognitive majeure pour les neurosciences, et leur sujet favori : ils lui consacrent plus d'efforts qu'à tout autre.
Pourtant, elle demeure profondément mystérieuse, et le contraste entre l'abondance d'informations sûres dont nous disposons sur ses mécanismes et la perplexité dans laquelle nous plongent ses énigmes est peut-être la plus frappante de ses singularités.
Renvoyant aux articles vision et vision (physiologie), nous mentionnerons seulement quelques-uns des problèmes qui retiennent l'attention des chercheurs, et semblent exiger une fois de plus la collaboration de plusieurs disciplines.
Si l'on considère d'abord les images que nous avons conscience de percevoir, nous constatons qu'elles sont stables et dépourvues de discontinuité. Or l'examen des mouvements oculaires dans l'orbite révèle l'existence de saccades régulières (se produisant deux à cinq fois par seconde), d'amplitude non négligeable (entre 4′ et 150), rapides (600/s). À cela s'ajoutent les variations de l'image rétinienne lorsque nous nous déplaçons tout en maintenant notre regard sur un objet fixé. Comment expliquer que l'image perçue ne pivote ni ne varie au cours de ces mouvements ? De même, la « tache aveugle » correspondant à l'implantation dans la rétine du nerf oculaire, dont nous savons qu'elle provoque un « trou » dans l'image rétinienne, n'a pas d'homologue perceptif. De manière générale, tout un ensemble de mécanismes « correctifs » semblent compenser les diverses imperfections du système optique que constitue l'œil. Mais quel écart s'agit-il de corriger ? Quel sens donner à la notion d'une perception fidèle : à quoi le serait-elle ? Autant de questions que posera le philosophe avec non moins de curiosité que le neurophysiologiste et le psychologue.
La reconnaissance invariante des formes donne naissance à une seconde série de questions. Comment se fait-il que nous soyons capables de reconnaître un même objet sous des angles, à des distances ou dans des contextes extrêmement variables, sans être conscients (sauf effort particulier) que la sensation est chaque fois différente ? De même, comment classons-nous des objets très différents, tels que des graphies différentes de la même lettre de l'alphabet, dans une même catégorie, sans avoir conscience, ici encore, de devoir faire l'effort d'assimiler une forme à une autre ? Qu'il ne s'agisse pas là de problèmes imaginaires est attesté par le fait que trente années de recherches intensives en vision artificielle n'en sont pas venues à bout.
Avec la question de la segmentation d'une image même modérément complexe, nous abordons les processus visuels « de haut niveau ». C'est là qu'apparaît pleinement la notion de représentation cognitive des signaux visuels, après une première phase de traitement par les processus « de bas niveau ». (La question de l'ordre dans lequel les différents processus se déroulent, et de la manière éventuelle dont ils coopèrent, se pose également ; il n'est pas nécessaire d'en préjuger ici pour formuler notre troisième problème.) Comment le système visuel s'y prend-il pour constituer, à partir des pixels, ces « éléments d'image » définis par une intensité et un couple de coordonnées dans un repère bidimensionnel associé à l'image rétinienne, des formes connexes, à les situer les unes par rapport aux autres, à distinguer le fond sans en faire une forme de plus ? Comment passer, pour le dire brièvement, d'une représentation locale à une représentation globale de l'image ? Immense problème qui, sans être complètement résolu, a fait néanmoins l'objet d'avancées remarquables, notamment grâce aux efforts d'un chercheur particulièrement respecté dans tout le domaine des sciences cognitives, David Marr (1945-1980).
Marr a d'abord accompli un progrès méthodologique en considérant qu'il s'agit d'un processus de traitement d'informations symboliques, et en insistant sur la nécessité de le formuler d'abord au niveau formel, avant de partir à la recherche d'un algorithme abstrait de traitement, puis d'une réalisation de cet algorithme dans le tissu nerveux. Cette méthode s'étend, selon lui, à tout phénomène cognitif complexe, et la leçon a été entendue bien au-delà du domaine de la vision. Ensuite, Marr a montré comment le système visuel pouvait extraire certaines primitives, tels les bords d'une forme, et les combiner en vue de formuler des hypothèses sur l'étendue et la position respective des objets dans l'image, notamment en profondeur. Ce processus se déroule presque entièrement au niveau symbolique, et implique l'élaboration d'une suite de représentations porteuses d'informations particulières. Il met en œuvre des principes heuristiques d'allure kantienne, hypothèses générales sur l'impénétrabilité des objets solides ou la continuité des bords, se démarquant ainsi des approches empiristes qui ont longtemps dominé. Sans être à l'abri des critiques, les thèses de Marr ont néanmoins profondément marqué le domaine, et aux yeux d'une majorité de chercheurs indiquent la voie à suivre. Cependant, les tenants du point de vue « écologique » de J. J. Gibson mettent en cause l'approche symbolique cognitiviste de Marr ; il en est de même, aujourd'hui, de certains connexionnistes, malgré le caractère connexionniste des mécanismes proposés par Marr pour prendre en compte le caractère massivement parallèle, à certains stades, du traitement de l'information visuelle.
Notre dernier exemple est celui de la compréhension des scènes. Le problème est maintenant de dégager d'une image supposée convenablement segmentée une hypothèse plausible sur la situation ou l'événement qu'elle (re)présente. (Ici non plus il n'est pas en fait indispensable de supposer que ce processus d'interprétation se place après le processus de segmentation, ou même certains processus de bas niveau.) Comme la pragmatique dans le cas de la communication linguistique, cette étape mêle les fonctions proprement visuelles et les fonctions cognitives générales. Elle fait appel, en effet, à de nombreuses informations sur l'organisation de l'environnement, sur la manière dont les événements se regroupent, selon des probabilités variables, sur les enchaînements causaux possibles et impossibles, sur les croyances et les attentes des êtres humains, etc. Bref, il n'est aucune compétence cognitive qui ne puisse à tout moment être mise à contribution dans ce travail d'interprétation. Tout, jusqu'à la variété des solutions acceptables et la possibilité d'erreurs, fait de ce travail une de ces tâches cognitives centrales que Fodor assimile à la « fixation de la croyance ». Il a néanmoins été possible, en restreignant fortement l'univers dont les images sont analysées (stratégie universelle pour l'étude et la simulation des processus centraux), de proposer des mécanismes fondés sur des schémas hiérarchisés de représentations. Comme toujours en pareil cas, la question est de savoir dans quelle mesure ces solutions sont généralisables. Les travaux en cours sur la cécité attentionnelle et la cécité au changement semblent toutefois montrer les limites des conceptions classiques, essentiellement unidirectionnelles, de la perception visuelle.


Quelques thèmes apparus au xxie siècle[modifier]


L'un des traits les plus frappants dans l'évolution récente des sciences cognitives est l'apparition ou la réapparition de sujets d'étude qui en avaient été résolument écartés dans la phase initiale. Nous ne pouvons que mentionner quelques exemples : l'intentionnalité, au sens habituel (volitionnel) du terme (et non au sens philosophique), et l'agentivité (la perception par un agent de sa capacité d'agir, ou de celle d'autrui), liée à l'identification par l'agent de l'auteur de ses propres gestes ; le contenu non conceptuel de certaines représentations, et son rôle dans le décours des processus cognitifs ; la conscience (et ses modalités, ou ses variétés) ; la cognition sociale, comprise d'abord comme l'ensemble des capacités permettant à l'individu d'agir socialement ; la distribution des processus cognitifs en dehors des systèmes cognitifs individuels internes ; les intentions et actions conjointes ; les émotions ; les formes animales de cognition ; les processus cognitifs réels (et leurs bases neurales) mis en jeu dans la vie des agents économiques ; la culture et l'évolution culturelle... Chacun de ces thèmes est désormais un chapitre conséquent des sciences cognitives ; certains constituent de véritables sous-domaines, avec tous les signes extérieurs de la spécialisation.


Les applications[modifier]


Les sciences cognitives sont-elles applicables ? En théorie, c'est évident : toute activité dans laquelle intervient l'être humain en tant qu'il perçoit, délibère, forme des intentions et cherche à les réaliser est susceptible de recevoir des sciences cognitives des enseignements importants, sinon décisifs. Mais une double difficulté se présente. À ce compte en effet, il semblerait que pratiquement toute sphère d'activité humaine tomberait ainsi dans le domaine de compétence des sciences cognitives, et qu'en particulier la quasi-totalité des sciences humaines en relèveraient. Une première difficulté surgit ici : cela ne fait-il pas beaucoup pour un domaine scientifique ? N'y a-t-il pas risque de dissolution et d'éclatement ? Comment une science en formation, fragile dans ses fondements et commençant tout juste à émerger institutionnellement, pourrait-elle absorber tant de grandes et grosses disciplines, ou fusionner avec elles ? Ce doute rejoint la seconde difficulté : les sciences cognitives ont-elles vraiment une contribution spécifique à apporter, ou bien n'ont-elles d'autre rôle à jouer que de « conscience psycho-neurologique » ou de mouche du coche ? La réponse est que l'apport des sciences cognitives varie selon les domaines, mais que la phase dans laquelle elles sont entrées vers la fin des années 1990 est grosse de promesses.


Intelligence artificielle, robotique, vision artificielle[modifier]


Tout en étant dès l'origine, on l'a vu, l'une des composantes majeures du projet des sciences cognitives, l'intelligence artificielle consiste aujourd'hui en grande partie en une collection d'applications de ces sciences – dans chacune des quatre grandes aires (perception, raisonnement, langage, action), les recherches fondamentales sur l'homme ont leur pendant en intelligence artificielle. Il arrive que les réalisations dans ce domaine ne s'inspirent pas directement des travaux sur l'homme, ou bien que leurs auteurs n'en aient pas conscience, ou encore que ce soient les applications informatiques qui ont à l'inverse suscité les recherches fondamentales.
Il n'empêche que, pour une bonne part, l'intelligence artificielle applique les notions et les résultats des (autres) sciences cognitives. Mentionnons, pour la perception, la vision artificielle et la reconnaissance des signaux acoustiques ou de la parole ; pour le raisonnement, les systèmes experts et tous les systèmes d'aide à la décision, au diagnostic ou au contrôle, les bases de données dites intelligentes, les jeux, etc. ; pour le langage, la traduction automatique, l'analyse automatique des textes, le traitement de texte, la classification et l'indexation, etc. ; pour l'action, la planification et la coordination robotique...


Thérapeutique et prothèses[modifier]


La neuropharmacologie a d'ores et déjà obtenu des résultats spectaculaires dans la thérapeutique palliative de certains désordres mentaux. Il est permis de penser que les connaissances nouvelles acquises par la neurochimie et d'autres neurosciences permettront d'affiner sensiblement ces traitements, voire de compenser chez l'enfant un désordre métabolique et rétablir les conditions d'un développement cognitif normal.
La neurophysiologie pathologique a dès à présent des applications cliniques, fondées sur des progrès dans le diagnostic et la taxinomie des déficits cognitifs. Dans des domaines tels que la rééducation des patients ayant subi des lésions cérébrales partielles, la formation des enfants ayant des difficultés d'apprentissage liées ou non à un handicap sensoriel, moteur, ou cognitif, ou souffrant d'une déficience intellectuelle massive (syndromes de Down et de Williams, autisme), de grands espoirs sont permis.
Il en est de même pour les prothèses sensorielles et motrices : l'intelligence artificielle, l'informatique, la mécanique, la neuroanatomie et la neurophysiologie coopèrent activement dans ce domaine, mettant à profit nos connaissances toujours plus fines des connexions nerveuses, les techniques de miniaturisation électronique et de micromécanique, les nouveaux matériaux, etc. La commande directe de dispositifs par la pensée, grâce à un entraînement spécifique et identification de signatures neuroélectriques est une réalité. Les connexions directes entre composants électroniques et tissu neural sont désormais réalisables, et les premières applications médicales sont en vue.


Communication homme-machine, ergonomie[modifier]


La communication entre l'homme et la machine, contrairement à la communication entre l'homme et l'homme, appelle des applications immédiates et certainement bénéfiques. En mettant au jour certains mécanismes à l'œuvre chez l'homme, les sciences cognitives permettent à la machine de s'adapter à l'homme, pour la première fois dans l'histoire de manière systématique. Dans le même temps, en inventant des machines capables de reproduire certaines démarches humaines, les sciences cognitives permettent à l'homme de se rapprocher de la machine. Qu'il s'agisse de machines dans lesquelles la part informationnelle l'emporte toujours plus sur la part motrice ne fait que favoriser cette symbiose.
Ce domaine, dont une partie se reconnaît sous l'étiquette ergonomie cognitive, d'autres s'identifiant au label d'interface homme-ordinateur (en anglais H.C.I., soit human-computer inferface), ou à l'usage (usability), ou encore au « cognitive engineering » qui s'étend à l'environnement et au contexte des fins poursuivies par l'utilisateur, touche à la plupart des branches des sciences cognitives, ainsi qu'aux domaines d'application énumérés à l'instant.
Connaissances, inférences, décisions, actions deviennent dans ce contexte le répertoire commun de l'homme et de la machine, sur lequel ils doivent d'une certaine manière s'accorder, en prenant en compte leurs différences.


Les technologies convergentes[modifier]


En 2002, un rapport commandité par la National Science Foundation et par le ministère du Commerce des États-Unis a émis l'hypothèse d'une révolution technologique et anthropologique sans précédent que serait en train de provoquer la convergence de quatre domaines d'avant-garde, les nanotechnologies, les biotechnologies, les technologies de l'information et les sciences cognitives (d'où le sigle N.B.I.C., pour « nano-bio-info-cogno »). Certains y voient une refonte ontologique radicale, les nouveaux constituants élémentaires étant le bit, l'atome, le neurone et le gène (d'où le slogan du « little b-a-n-g »), ou encore une sorte de version ultime du rêve de maîtrise absolue par l'homme de la nature, la nature incluant cette fois tout, y compris l'homme lui-même.
Plus prosaïquement, la convergence comporte des aspects parfaitement plausibles. La miniaturisation des composants informatiques, Internet, les techniques de communication sans fil, les interfaces électroniques/neurales, tout cela rend beaucoup plus réalistes certaines ambitions de l'I.A. « prométhéenne » des commencements. Parmi les applications de ces « technologies cognitives », les plus importantes concernent l'éducation, qu'il s'agisse d'outils de conception relativement classique ou de méthodes puisant beaucoup plus profondément dans les connaissances récemment acquises en psychologie, en neuropsychogie, en linguistique, en anthropologie. La portée de ces applications est potentiellement considérable, qu'il s'agisse de la formation des enfants et des jeunes gens, de la formation continue et du recyclage, de l'éducation de personnes physiquement ou cognitivement handicapées, de l'éducation civique (au sens le plus large), de la communication politique et la persuasion de masse (causes nationales, publicité), de l'emploi des sources d'information modernes (la question de l'expertise et plus largement de l'autorité, du recoupement des sources, de l'évaluation de l'incertitude), etc. On passe ainsi de la pédagogie au politique. De fait, les perspectives sont vertigineuses, et par conséquent redoutables. L'histoire est là pour nous rappeler que les théories de la cognition, appliquées trop hâtivement ou directement à la conduite des affaires et des âmes humaines, ont eu plus d'effets placebo et d'effets pervers que d'efficacité. Aujourd'hui, un problème symétrique se pose, qui est celui de l'efficacité probable de certaines technologies émergentes : une réflexion éthique s'impose. Elle rejoint d'ailleurs le nouveau domaine de la « neuroéthique », qui soulève la question des conséquences à tirer du fait que nos connaissances des déterminations cérébrales de notre comportement, de nos émotions, de nos intentions, de notre vécu sont en train sous nos yeux de croître qualitativement et quantitativement, déchirant toujours davantage le voile d'ignorance qui a longtemps protégé notre confortable dualisme pragmatique.


Applications théoriques[modifier]


Il ne faudrait pas croire que les sciences cognitives n'ont d'applications que pratiques. Elles commencent à se pencher sur des questions théoriques, dont certaines relèvent du reste des domaines cités à l'instant : éducation, décision individuelle et collective, politique, économie... Ce ne sont pas seulement des problèmes de « comment » (comment mieux enseigner et mieux apprendre, mieux consommer et mieux s'informer, etc.), ce sont aussi les questions fondamentales du « quoi » et du « pourquoi » que les sciences cognitives peuvent contribuer à éclairer, modifiant ou complétant les problématiques des disciplines établies (philosophie et théorie politique, économie, théories de la rationalité, sciences de l'éducation, etc.). D'autres domaines théoriques s'ouvrent désormais à l'application d'approches cognitives : l'art, la science, les normes, les valeurs... Se déploie ici un naturalisme nouvelle manière, héritier d'une longue tradition, mais instruit des échecs et des excès de ses prédécesseurs, et mieux armé sur le plan scientifique et expérimental.
La tâche était ici de donner une idée de ce qui se fait et peut se faire dans le cadre encore incertain d'une science de l'esprit. Les critiques faites à ces programmes de recherche ne manquent pas ; on leur reproche en vrac leur naïveté philosophique, leur positivisme, leur empirisme, leur scientisme, leur cartésianisme, leur kantisme, leur ambition démesurée, leur étroitesse d'esprit, leurs résultats fragiles, leurs promesses non tenues, leur réductionnisme, leur faiblesse formelle, leur formalisme, leurs divisions, leur dispersion, leurs prétentions à l'unité, et bien d'autres choses encore. Les chercheurs sont du reste souvent eux-mêmes leurs critiques les plus lucides.
L'erreur la plus grave, de la part de ceux qui, de l'extérieur ou de l'intérieur, tentent d'évaluer globalement le domaine, pour l'élever ou l'abaisser, est de lui attribuer une unité doctrinale ou méthodologique qu'il n'a pas. Ce qui réunissait à l'origine les chercheurs, c'était une sorte de charte commune, qui ne jouait que le rôle d'un étendard, et à laquelle il n'a été à aucun moment nécessaire d'adhérer strictement. Formulé pour lancer le mouvement, motiver ses participants et l'imposer institutionnellement, le credo scientifique et philosophique des pionniers ne joue désormais qu'un rôle mineur dans le travail des chercheurs.
Ce que les différents programmes de recherche partagent, au-delà d'une certaine éthique et d'une méthodologie scientifique, c'est peut-être davantage un air de famille que des principes. En tant que concept, les sciences cognitives illustreraient assez bien l'image qu'ils se sont forgée, après bien des détours, de la notion de concept – image qui les réconcilie avec celui que l'on présente souvent comme leur adversaire avant la lettre, le Wittgenstein des Investigations philosophiques.
Mais en cela, les sciences cognitives ne diffèrent guère de disciplines telles que l'économie ou encore la biologie, dont l'absence d'unité formelle ne nuit pas à la fécondité théorique et pratique.


Bibliographie[modifier]


J. A. Anderson & E. Rosenfeld dir., Neurocomputing, M.I.T. Press, Cambridge (Mass.), 1988 / J. A. Anderson, A Pellionisz & E. Rosenfeld, Neurocomputing II, ibid., 1990
D. Andler dir., Introduction aux sciences cognitives, Gallimard, Paris, nouv. éd. 2004
D. Andler, A. Fagot-Largeault & B. Saint-Sernin, Philosophie des sciences, 2 vol., coll. Folio, Gallimard, Paris, 2002
M. Arbib dir., The Handbook of Brain Theory and Neural Networks, M.I.T. Press, Cambridge (Mass.), 2e éd. 2003 / J. Barkow, L. Cosmides & J. Tooby, The Adapted Mind. Evolutionary Psychology and the Generation of Culture, Oxford University Press, New York, 1992
S. Baron-Cohen, Mindblindness. An Essay on Autism and Theory of Mind, M.I.T. Press, Cambridge, (Mass.), 1995 (trad. franç., La Cécité mentale, Presses de l'université de Grenoble, Grenoble, 1998)
W. Bechtel & G. Graham dir., A Companion to Cognitive Science, Blackwell, Oxford, 1999
M. Bekoff, C. Allen, & G. Burghardt, The Cognitive Animal : Empirical and Theoretical Perspectives on Animal Cognition, M.I.T. Press, Cambridge (Mass.), 2002
J. L. Bermúdez & N. Eilan dir., The Body and the Self, M.I.T. Press, Cambridge (Mass.) ,1995
A. Berthoz, Le Sens du mouvement, Odile Jacob, Paris, 1997
N. Block, O. Flanagan & G. Güzeldere dir., The Nature of Consciousness, Philosophical Debates, M.I.T. Press, Cambridge (Mass.), 1997
P. Bloom, How Children Learn the Meaning of Words, M.I.T. Press, Cambridge (Mass.), 2000
P. Bourgine, & J.-P. Nadal, Cognitive Economics , An Interdisciplinary Approach, Springer, New York, 2004
M. Bowerman & S. Levinson, Language Acquisition and Conceptual Development, Cambridge University Press, Cambridge, 2001
R. Boyd & J. B. Silk, How Humans Evolved, Norton, New York, 3e éd. 2003 [1e éd. 1997] (trad. franç., L'Aventure humaine. Des molécules à la culture, De Boeck, Bruxelles, 2004)
P. Boyer, Et l'homme créa les Dieux, Laffont, Paris, 2001
R. A. Brooks, Flesh and Machine : How robots Will Change Us, Pantheon Books, New York, 2002
Brown, M. R. Keynes & A. Lumsden, The Developing Brain, Oxford University Press, Oxford, 2001
J. Cacioppo et al. dir., Foundations in Social Neuroscience, M.I.T. Press, Cambridge (Mass.), 2002
P. Carruthers & A. Chamberlain, , Evolution and the Human Mind, Modularity, Language and Meta-Cognition, Cambridge University Press, Cambridge, 2000
D. J. Chalmers, The Conscious Mind. In Search of a Fundamental Theory, Oxford University Press, New York, 1996
J.-P. Changeux, L'Homme de vérité, Odile Jacob, Paris, 2003
N. Chomsky, Syntactic Structures, Mouton, La Haye, 1957 ; New Horizons in the Study of Language and Mind, Cambridge University Press, Cambridge, 2000
A. Clark, Being there. Putting Brain, Body, and World Together Again, M.I.T. Press, Cambridge (Mass.), 1997
L. Cohen, L'Homme thermomètre, Odile Jacob, Paris, 2003
F. Cowie, What's Within ?, Oxford University Press, Oxford, 1998
C. Crawford & D. Krebs dir., Handbook of evolutionary psychology, Erlbaum, Hillsdale (NJ), 1997
R. J. Davidson, K. R. Scherer & H. Hill Goldsmith dir., Handbook of Affective Sciences, Oxford University Press, Oxford, 2002
P. Dayan & L. Abott, Theoretical Neuroscience : Computational and Mathematical Modeling of Neural Systems, M.I.T. Press, Cambridge (Mass.), 2001
S. Dehaene, Le Cerveau en action, P.U.F., Paris, 1997 ; The Cognitive Neuroscience of Consciousness, M.I.T. Press, Cambridge (Mass.), 2001
D. C. Dennett, Darwin's Dangerous Idea. Evolution and the Meanings of Life, Simon & Schuster, New York, 1995 ; The Penguin Press, 1996 (trad. franç. Darwin est-il dangereux ?, Odile Jacob, Paris, 2002)
F. Dretske, Naturalizing the Mind, M.I.T. Press, Cambridge (Mass.), 1995
R. Dunbar, C. Knight & C. Power, The Evolution of Culture, Edinburgh University Press, Édimbourg, 1999
E. Dupoux dir., Language, Brain, and Cognitive Development : Essays in Honor of Jacques Mehler, M.I.T. Press, Cambridge (Mass.), 2001 (trad. franç. Les Langages du cerveau. Textes en l'honneur de Jacques Mehler, Odile Jacob, Paris, 2002)
J.-P. Dupuy, Aux origines des sciences cognitives, La Découverte, Paris, 1999
G. M. Edelman & G. Tononi, A Universe of Consciousness : How Matter Becomes Imagination, Basic Books, New York, 2001
C. Eliassmith & C. Anderson, Neural Engineering : Computation, Representation, and Dynamics in Neurobiological Systems, M.I.T. Press, Cambridge (Mass.), 2002
J. Elman, L. E. Bates, M. H. Johnson, A. Karmiloff-Smith, D. Parisi & D. Plunkett, Rethinking Innateness. A Connectionist Perspective on Development, M.I.T. Press, Cambridge (Mass.), 1996
R. Fagin, J. Y. Halpern, Y. Moses & M. Y. Vardi, Reasoning About Knowledge, M.I.T. Press, Cambridge (Mass.), 2e éd., 2003
D. Fisette & P. Poirier dir., Philosophie de l'esprit, Vrin, 2 vol., Paris, 2002-2003
J. Fodor, The Mind Doesn't Work That Way. The Scope and Limits of Computational Psychology, M.I.T. Press, Cambridge (Mass.), 2000 (trad. franç. L'esprit, ça ne marche pas comme ça, Odile Jacob, Paris, 2003)
U. Frith, Autism : Explaining the Enigma, Blackwell Publishers, Oxford, 2e éd. 2003
M. S. Gazzaniga, dir., The New Cognitive Neurosciences : Second Edition, M.I.T. Press, Cambridge (Mass.), 1999
G. Gigerenzer & R. Selten, Bounded rationality, M.I.T. Press, Cambridge (Mass.), 2002
D. Gilbert, S. Fiske, G. Lindzey, & F. Lindzey dir., The Handbook of Social Cognition, Oxford University Press, Oxford, 1998
M. Gilbert, Marcher ensemble. Essais sur le fondements des phénomènes collectifs, P.U.F., Paris, 2003
G. Gilovitch & D. Kahnemann dirs., Heuristics and Biases : The Psychology of Intuitive Judgment, M.I.T. Press, Cambridge (Mass.), 2002
H. Gintis, Game Theory Evolving, Princeton University Press, Princeton, 2000
P. Glimcher, Decisions, Uncertainty, and the Brain, M.I.T. Press, Cambridge (Mass.), 2003
P. Godfrey-Smith, Complexity and the Function of Mind in Nature, M.I.T. Press, Cambridge (Mass.), 1998
S. Guttenplan dir., A Companion to the Philosophy of Mind, Blackwell, Oxford, 1996
M. Hauser, À quoi pensent les animaux ?, Odile Jacob, Paris, 2002
D. O. Hebb, The Organization of Behaviour, John Wiley, New York, 1949
L. A. Hirschfeld & S. A. Gelman dir., Mapping the Mind. Domain Specificity in Cognition and Culture, M.I.T. Press, Cambridge (Mass.), 1994
A. Hodges, Alan Turing : the Enigma, Burnett Books-Simon & Schuster, Londres-New York, 1983 (trad. franç. abr., Alan Turing, ou l'Énigme de l'intelligence, Payot, 1988)
D. Hofstadter & D. Dennett dir., The Mind's I, Basic Books, New York, 1981 (trad. franç., Vues de l'esprit, Interéditions, 1987)
O. Houdé et al., Vocabulaire de sciences cognitives, P.U.F., Paris, 1998
O. Houdé, B. Mazoyer & N. Tzourio-Mazoyer et al., Cerveau et psychologie, P.U.F., Paris, 2002
E. Hutchins, Cognition in the Wild, M.I.T. Press, Cambridge (Mass.), 1995
R. Jackendoff, Foundations of Language, Oxford University Press, Oxford, 2002 / P. Jacob, Pourquoi les choses ont-elles un sens ?, Odile Jacob, Paris, 1997
P. Jacob, M. Jeannerod & C. Heckscher, Ways of Seeing : The Scope and Limits of Visual Cognition, Oxford University Press, Oxford, 2003 / M. Jeannerod, The Cognitive Neuroscience of Action, M.I.T. Press, Cambridge (Mass.), 1997
L. A. Jeffress, Cerebral Mechanisms in Behavior. The Hixon Symposium, John Wiley, New York, 1951
D. M. Johnson & C. E. Erneling dir., The Future of the Cognitive Revolution, Oxford University Press, New York, 1997
D. Kahneman, P. Slovic & A. Tversky dir., Judgement under Uncertainty : Heuristics and Biases, Cambridge University Press, 1982
E. R. Kandel, J. H. Schwartz & T. M. Jessel dir., Principles of Neural Science, McGraw Hill, New York, 4e éd. 2000
G. Kanizsa, Grammatica del vedere, Il Mulino (trad, franç. La Grammaire du voir, Diderot, Paris, 1997)
R. Klein, The Human Career : Human biological and cultural origins, University of Chicago Press, Chicago, 2e éd. 1999
C. Koch, The Quest for Consciousness : A neurobiological Approach, Roberts & Co., Englewood (Colo.), 2004
Z. Kunda, Social Cognition, M.I.T. Press, Cambridge (Mass.), 1999
R. D. Lane & L. Nadel dir., Cognitive Neuroscience of Emotion, Oxford University Press, Oxford, 2000
S. Levinson dir., Evolution and Culture, M.I.T. Press, Cambridge (Mass.), 2004
P. Livet dir., De la perception à l'action, Vrin, Paris, 2000
S. McAdams, E. Bigand et al., Penser les sons. Psychologie cognitive de l'audition, P.U.F., Paris, 1994
W. McCulloch, Embodiments of Mind, M.I.T. Press, nouv. éd. 1988
A. Mack & I. Rock, Inattentional Blindness, M.I.T. Press, Cambridge (Mass.), 1998
E. Margolis & S. Laurence dir., Concepts. Core readings, M.I.T. Press, Cambridge (Mass.), 1999
D. Marr, Vision : a Computational Investigation Into the Human Representation and Processing of Visual Information, Freeman, San Francisco, 1982
L. May, M. Friedman & A. Clark dir., Mind and Morals, M.I.T. Press, Cambridge (Mass.), 1996
G. A. Miller, E. Galanter & K. Pribram, Plans and the Structure of Behavior, Holt, Rhinehart & Winston, New York, 1960
D. Milner & M. Goodale, The Visual Brain in Action, Oxford University Press, Oxford, 1995
M. Minsky & S. Papert, Perceptrons : an Essay in Computational Geometry, M.I.T. Press, 1969 (2e éd. 1988)
J. Nadel & J. Decety, Imiter pour découvrir l'humain, P.U.F., Paris, 2002
L. Nadel dir., Encyclopaedia of Cognitive Science, Nature Publishing Group, 4 vol., Londres-New York-Tokyo, 2003
U. Neisser, Cognitive Psychology, Appleton-Century-Crofts, New York, 1967
A. Newell & H. A. Simon, Human Problem Solving, Prentice-Hall, Englewood Cliffs (N.J.), 1972
D. Osherson dir., An Invitation to Cognitive Science, M.I.T. Press, 4 vol., Cambridge (Mass.), 2e éd. 1995-1998
J. Petitot, F. Varela, B. Pachoud & J.-M. Roy dir., Naturaliser la phénoménologie. Essais sur la phénoménologie contemporaine et les sciences cognitives, C.N.R.S. Éditions, Paris, 2002
M. Piatelli-Palmarini dir., Théories du langage, théories de l'apprentissage : la rencontre Piaget-Chomsky, Seuil, Paris, 1979
S. Pinker, The Language Instinct. How the Mind Creates Language, William Morrow, New York, 1994, éd. de poche Harper-Collins, New York, 1995 (trad. franç. L'Instinct du langage, Odile Jacob, Paris, 1999)
G. Politzer dir., Le Raisonnement humain, Hermès, Paris, 2002
R. F. Port & T. van Gelder dir., Mind as Motion : Dynamical Perspectives on Behavior and Cognition, M.I.T. Press, Cambridge (Mass.), 1995
D. Premack & A. J. Premack, Original Intelligence : The Architecture of the Human Mind, McGraw Hill, New York, 2002 (trad. franç., Le Bébé, le singe et l'homme, Odile Jacob, Paris, 2003)
H. Putnam, Representation and Reality, M.I.T. Press, Cambridge (Mass.), 1988 (trad. franç., Représentations et réalité, Gallimard, Paris, 1993)
S. R. Quartz & T. J. Sejnowski, Liars, Lovers, and Heroes : What the New Brain Science Reveals About How We Become Who We Are, HarperCollins, New York, 2002
M. C. Roco & W. S. Bainbridge dir., « Converging technologies for improving human performance : Nano-, Bio-, Info-Technology and Cognitive Science », in National Science Foundation and Department of Commerce Report, 2002, http ://wtec.org/ConvergingTechnologies/ ou http ://www.nsf.gov/nano
D. E. Rumelhart, J. L. McClelland & The PDP Research Group, Parallel Distributed Processing : Explorations in the Microstructure of Cognition, vol. I-II, M.I.T. Press, 1986
S. Russell & P. Norvig, Artificial Intelligence, Prentice-Hall, Englewood Cliffs (N.J.), 1995, 2e éd. 2003
T. Shallice, From Neuropsychology to Mental Structure, Cambridge University Press, Cambridge, 1988 (trad. franç., Symptômes et modèles en neuropsychologie, P.U.F., Paris, 1995)
P. Smolensky & G. Legendre, The Harmonic Mind : From Neural Computation to Optimality-Theoretic Grammar, vol. I : Cognitive Architecture ; vol. II : Linguistic and Philosophical Implications, M.I.T. Press, Cambridge (Mass.), 2006
D. Sperber dir., Metarepresentations : A Multidisciplinary Perspective, Oxford University Press, Oxford, 2000
D. Sperber, La Contagion des idées, Odile Jacob, Paris, 1996
D. Sperber, D. Premack & A. J. Premack dir., Causal Cognition. A multidisciplinary debate, Clarendon Press, Oxford, 1995
D. Sperber & D. Wilson, Relevance : Communication and Cognition, Basil Blackwell, Oxford & Harvard University Press, 1986, 2e éd. 1995 (trad. franç., La Pertinence, Minuit, Paris, 1990)
E. Thelen & L. B. Smith, A Dynamic System Approach to the Development of Cognition and Action, M.I.T. Press, Cambridge (Mass.), 1994
M. Tomasello, The Cultural Origins of Human Cognition, Harvard University Press, Cambridge (Mass.) 2001
J. Vauclair, L'Homme et le singe : psychologie comparée, Flammarion, Paris, 1998
J. Von Neumann, The Computer and the Brain, Yale University Press, 1958
B. Walliser, L'Économie cognitive, Odile Jacob, Paris, 2000
A. Whiten & R. Byrne, Machiavelian intelligence II, M.I.T. Press, Cambridge (Mass.), 1997
R. A. Wilson & F. C. Keil dir., The MIT Encyclopedia of the Cognitive Sciences, M.I.T. Press, Cambridge (Mass.), 2001
L. Wittgenstein, Philosophical Investigations, Blackwell, Oxford, 1953 (trad. franç., Investigations philosophiques, Gallimard, Paris, 1962).




Daniel ANDLER, « COGNITIVES SCIENCES », Encyclopædia Universalis [en ligne], consulté le 19 octobre 2018. URL : http://www.universalis.fr/encyclopedie/sciences-cognitives/