Le mystère de la chambre chinoise



Les ordinateurs peuvent-ils comprendre ? C'est ce qu'on pourrait penser à la lumière des récents développements de l'intelligence artificielle. Un programme écrit par Roger Schank est capable de répondre à des questions concernant des histoires simples. (scripts, plans, goals and understanding). Mais ce programme comprend-t-il réellement ces histoires ou simule-t-il seulement la compréhension ?
Pour tenter de répondre à cette question, le philosophe américain John Searle imagine la situation suivante:
Il est enfermé dans une chambre dans laquelle on lui glisse l'histoire et les questions en chinois à travers une fente. Il ne comprend rien au chinois mais il dispose des instructions exactes, rédigées en Anglais, permettant de déterminer les réponses. Il fait donc la même chose que le programme de Schank, et ne comprend rien aux histoires. Searle en déduit donc que le programme de Schank ne comprend rien non plus aux histoires.
Plusieurs objections ont été soulevées par cette démonstration et la plus convaincante me paraît être celle selon laquelle si Searle lui-même ne comprend rien aux histoires, de son activité de manipulation de symboles chinois émerge une sorte d'entité (le chinois simulé par Searle) bien distincte de Searle, bien que résultant de son activité, et qui, elle, comprend les histoires. De même, quand nous comprenons une histoire, nos neurones, considérés en tant que petits êtres vivants, n'y comprennent rien, tout ce qu'ils font est de réagir aux excitations transmises par les autres neurones; mais de cette activité émerge l'esprit humain qui, lui, comprend l'histoire.

Il apparait donc que si l'on prend le mot "comprendre" dans un sens faible, extérieur, comportemental, les ordinateurs peuvent comprendre. Mais le mot "comprendre" peut aussi être pris dans un sens plus fort, intérieur, de compréhension consciente, et c'est le point de vue adopté par Searle. Mais le problème est qu'il supose abusivement que c'est là le seul sens su mot "comprendre", alors que les partisans de l'intelligence artificielle "forte" au contraire considèrent que la compréhension se définit uniquement de façon externe, comportementale, d'où le désaccord. Le problème philosophique est donc doublé d'un problème sémantique. L'apparition de l'intelligence artificielle a provoqué une "ramification sémantique" du concept de compréhension ("brisure de symétrie"). Avant, la compréhension comportementale et la compréhension conscient étaient liés, il n'y avait donc pas besoin de deux mots différents pour désigner ces deux concepts qui sont pourtant bien différents. Mais maintenant, il me semble qu'il n'y a pas de raison de privilégier un sens par rapport à l'autre, et que quand on parle de compréhension, pour être précis on devrait toujours préciser s'il s'agit de compréhension comportementale ou consciente.
Après avoir précisé les choses d'un point de vue sémantique, il reste certaines questions philosophiques et métaphysiques fondamentales : l'ordinateur comprend-il au sens conscient ? Et l'entité qui émerge de l'activité de Searle dans sa chambre chinoise ? La compréhension consciente découle-t-elle de la compréhension comportementale ?
Personnellement, je doute que la conscience puisse émerger d'un processus mettant en jeu un nombre de règles fini et bien définies. Je pense plutòt qu'elle apparait ainsi que le libre arbitre dans le cas où on a un processus limite d'une suite infinie de processus définis précisément de façon finie et qui constituent des approximations successives de plus en plus précises mais jamais rigoureusement exactes, du processus duquel émergent alors à la fois la conscience et le libre arbitre.