lundi 7 janvier 2019

3a. Searle, John. R. (1980) Minds, brains, and programs

Searle, J. R., & Duyckaerts, É. (1987). Document: Esprits, cerveaux et programmesQuaderni1(1), 65-96.

Résumé : Cet article est une tentative d'explorer les conséquences de deux propositions. (1) L'intentionnalité chez les êtres humains (et les animaux) est le produit de caractéristiques causales du cerveau: certains processus cérébraux suffisent à l'intentionnalité. (2) Un programme d'ordinateur n'est jamais en soi une condition suffisante d'intentionnalité. L'argument principal de cet article vise à établir cette affirmation. La forme de l'argument est de montrer comment un agent humain pourrait implémenter le programme sans avoir toujours l'intentionnalité appropriée. Ces deux propositions ont les conséquences suivantes (3) L'explication de la façon dont le cerveau produit l'intentionnalité ne peut pas être qu'il le fait en mettant en œuvre un programme informatique. C'est une conséquence logique stricte de 1 et 2. (4) Tout mécanisme capable de produire une intentionnalité doit avoir des pouvoirs causaux égaux à ceux du cerveau. Ceci est censé être une conséquence insignifiante de 1. (5) Toute tentative de créer artificiellement une intentionnalité (IA forte) ne pourrait pas réussir simplement en concevant des programmes mais devrait dupliquer les pouvoirs causaux du cerveau humain. Cela découle de 2 et 4.

PPT 2019:


SEMAINE 3 2018






see also:

Click here --> SEARLE VIDEO

38 commentaires:

  1. Important

    1. Utilizer le fureteur Chrome pour afficher vos ciélos pour le cours

    2. Créer un compte gmail et mettre votre photo comme icon dans votre profil gmail

    3. Quand vous faites un ciélo, quitter d'autres identités google et logger uniquement avec le gmail que vous utilisé pour le cours (sans ça google sera confus concernant votre identité et mettra "unknown" au lieu de votre nom).

    4. Si vous faites ça correctement, vos noms devraient paraître avec vos ciélos. Mais jusqu'à ce que vous ne réglez ça, il faut que vous vous identifiez en mettant votre nom à la tête du texte. Sans ça je ne saurai pas qui a fait le commentaire et je ne pourrai pas le créditer.

    5. Donc si vous avez affiché une ciélo anonyme, revisiter la ciélo et identifiez-vous dans une réponse. (Mais ne lâchez pas avant de régler le problème de faire désambiguïser votre identité gmail/Chrome")

    RépondreEffacer
  2. L’argument de Searle lorsqu’il parle de sa théorie de la « chambre chinoise » est qu’il peut réussir une tâche tel un ordinateur (ou robot) pourrait le faire en ayant les bonnes informations et le bon programme, même s’il ne comprend pas l’information qu’on lui demande. Il veut donc dire que les robots, même s’ils réussissent les tâches qui leur sont demandés, ne traitent pas l’information de façon à la comprendre. Ils peuvent seulement répondre à la demande. Sa façon d’appuyer son argument est de se mettre lui même dans une situation où on l’expose à un problème et en lui donnant suffisamment d’informations pour répondre au problème sans qu’il ne comprenne l’information qu’il reçoit ou la réponse qu’il émet. Il prétend qu’avec les bons symboles et les bons programmes, sont cerveau, comme un robot, peut effectuer une tâche sans la comprendre. Il prétend donc qu’une machine peut penser, sans toutefois interpréter ou comprendre l’information qu’il reçoit.

    Plus loin, Searle fait une distinction intéressante. Searle mentionne l’importance de faire la différence entre la simulation et la reproduction (duplication). Ce que je comprends de ce passage est que, tel que vu en classe, la simulation fait référence à une simulation computationnelle. Il nomme que c’est cette simulation computationnelle qui permet, par les bonnes informations qu’il reçoit, qu’il émet et par le bon programme, de démontrer qu’on peut décrire certains phénomènes sans pour autant prouver que le robot le comprend. Je ne suis par contre pas certaine de comprend ce qu’il veut dire par reproduction (duplication). Fait-il référence à ce qui pourrait se rapprocher à du clonage?

    RépondreEffacer
    Réponses
    1. Penser sans comprendre, ce n'est pas penser; c'est juste le traitement des symboles.

      Mais attention: Searle ne parlait pas d'un robot, comme Riccardo (T3); il parlait d'un ordinateur, une machine de Turing (T2) qui ne fait que manipuler les symboles selon une recette. Un robot est un système hybride, en partie computationnelle, mais en partie dynamique, grace à ses composantes sensorimotrices. Il peur ce balader dans le monde, comme Riccardo, interagir avec les objets auxquels réfèrent ses symboles. Searle peut « devenir » un T2, mais pas un T3

      Effacer
  3. L’article de Searle fournit un argument contre « l’intelligence artificielle forte », la possibilité d’une véritable intelligence artificielle, c’est-à-dire au point où la capacité intellectuelle d’une machine est indiscernable de celle d’un être humain. Ses arguments reposent sur la distinction entre la syntaxe (les symboles) et la sémantique (la signification, l’intention ou la compréhension de ce que représente un symbole).

    À son avis, un programme informatique ne peut pas constituer l’esprit : les programmes informatiques sont syntaxiques et traitent de la manipulation de symboles intrinsèquement insignifiants ; alors que l’esprit est constitué d’un contenu mental intrinsèque (c.-à-d., la signification et la compréhension). De plus, à l’aide de l’expérience de la chambre chinoise, Searle démontre que la manipulation systématique de la syntaxe n’est pas suffisante pour la sémantique. Ainsi, la syntaxe du programme ne serait pas suffisante pour constituer un contenu mental. En d’autres termes, les ordinateurs peuvent suivre des règles, mais, ils ne connaissent pas la signification des symboles qu’ils manipulent et ne peuvent donc pas générer une compréhension de la signification desdits symboles.

    En dépit de ces points de vue opposés sur l’intelligence artificielle, cet article a une importance capitale en ce sens qu’il remet en question non seulement la validité du test de Turing, mais également la pertinence des approches computationnelles de l’intelligence artificielle et de l’esprit.

    RépondreEffacer
    Réponses
    1. Penser sans comprendre n'est pas penser; (donc pas de la cognition) c'est juste le traitement des symboles (la computation).

      Mais attention, Searle ne parlait pas d'un robot, comme Riccardo (T3); il parlait d'un ordinateur, d'une machine de Turing qui ne fait que manipuler les symboles selon une recette (l'algorithme qui réussit T2).

      « Étienne dit » qu'il est impossible de réussir T2 par la computation seule. Les symboles doivent être ancrés par les capacités robotiques (Riccardo; T3).

      Mais Searle démontre quand-même que même s'il était possible de réussir le T2 par la computation seule, ça ne produirait pas la compréhension, donc pas le penser, donc pa la cognition.

      Effacer
  4. Dans l’exemple de Searle de la pièce chinoise, j’ai du mal à imaginer un programme/des instructions assez complexe pour donner des phrases qui pourraient constituer des réponses pertinentes à des questions sur une histoire en chinois (alors que la réponse ne figure pas dans le dit texte), qu’un humain pourrait utiliser afin d’arriver dans un délais raisonnable à produire les dites phrases, sans avoir recours à un programme informatique externe à lui même. Surtout dans un délais auquel on pourrait s’attendre de la mise en scène décrite par Searle.

    Je ne dis pas qu’un programme ne pourrait pas arriver à produire des réponses qui paraissent sensées à des questions de ce type sur une histoire donnée, mais que ce programme, il me semble, devrait être très, très lourd et complexe, et avoir accès à une banque de données statistiques… incroyablement grande, du moins afin d’être programmée et mise à jour. Je crois aussi que le programme en question devrait comprendre plusieur niveaux pour plusieurs… Sujets ou concepts, et que chaque fois qu’on passes à un niveau supérieur, il devrait y avoir des calculs dans ce programme permettant de faire une méta-analyse des variables prise en compte dans les calculs du niveau précédent, en appliquant certaines règles du genre de celles dont Turing parle dans son texte.
    ...Il me semble.
    Et à travers toutes ces étapes possibles mais que l’on ne s’imagine peut-être pas, n’est-il pas possible que prenne forme un phénomène surprenant, qui pourrait être considéré comme une forme de compréhension?

    RépondreEffacer
    Réponses
    1. Nonbstant le fait que je ne connais pratiquement rien à la programmation et que ce que je viens d’écrire en toute “inconnaissance de cause” comporte fort probablement plusieurs choses qui ne fonctionnent pas en pratique dans le monde de la programmation, je souhaite en arriver à ceci: les résultats obtenus par un programme ne sont pas comparables à ceux obtenus par un autre programme étant différent quant à son utilité, sa visée, sa performance à une tâche donnée ou son niveau de complexité. Un programme n’en vaut pas un autre, tout comme la machine chien ne vaut pas la machine perruche. Pourtant, je crois que la nature de la compréhension des situations chez le chien et chez la perruche est différente, bien que l’on parle bien de compréhension dans les deux cas. Tout comme ma compréhension des choses est différente de celle de la personne à côté de moi en classe, bien que certainement plus apparentée.

      Non, l’homme de la pièce chinoise ne comprends pas le chinois, il stimule, et rien de plus. Mais une simulation faite par un programme beaucoup plus complexe pourrait-elle mener à un programme qui comprenne réellement quelque chose en simulant, si on y ajoutait certaines lignes de code décisives et non interchangeables, qui rendraient la nature de ce code incomparable au principe de l’idée de la pièce chinoise de Searle (Par exemple, peut-être, en y incluant une règle qui puisses simuler la perte de capacitées, pouvant mener à la mort, et que cette perte de capacité soit ultimement à éviter pour le programme?.. )?
      Je n’en sais rien. Je n’ai aucune certitude à ce sujet.

      N’importe quel programme ne peut pas fonctionner sur n’importe quelle machine, ultimement, bien que la machine en soit n’est effectivement pas plus importante que sa capacité à accueillir le programme et à lui permettre de s’exécuter. Reste que cette compatibilité ne peut être considérée comme négligeable car sans la machine, on ne peut pas faire fonctionner le programme, et la nature même du concept de programme est qu’il doit pouvoir être mis à exécution.

      Le programme peut exister sans la machine, mais pas fonctionner sans elle. Aussi, un programme qui peut-être pourrait réellement “comprendre” quelque chose ne peut pas nécessairement passer par un homme agissant dans une pièce, et que cet homme soit une composante importante dans la procédure qui mène à une certaine compréhension de la part de du programme en question. L’apport de l’homme en question, sa compréhension à lui, ne me parait pas nécessairement pertinente, pas plus que celle du métal dont est composé la machine...

      Effacer
    2. @Emily Croteau:

      (1) Pour T2 il ne s'agit pas de réponses aux questions, mais la capacité toute échange verbale entre deux personnes, le long d'une vie.

      (2) Soit tu crois ou tu ne crois pas qu'un programme (algorithme, computation) pourrait réussir T2. Searle démontre que même si un programme pouvait réussir T2, ça ne générerait pas la compréhension, parce que si c'était lui le « matériel » qui exécutait le programme, il ne comprendrait pas. (Et ayant mémorisé le logiciel, il ne reste plus personne pour comprendre sauf lui.)

      Effacer
  5. Je crois que dans toute compréhension, il y a une partie de computation. Lorsque je lis une histoire qui parle de hamburger, je dois d’abord décrypter les symboles qui se trouvent sur ma page, c’est-à-dire analyser les regroupements de lettres qui forment des mots puis des phrases. Puisque cet exercice ne se résume qu’à une manipulation de symboles, il s’agit de computation et c’est ce que nous devons tous faire lorsque nous désirons comprendre un propos. Cependant, pour réellement affirmer que nous comprenons une histoire, nous devons être en mesure d’accorder une signification aux symboles décryptés. Ici, ce n’est plus de la computation et c’est là qu’un ordinateur ne peut atteindre les facultés cognitives d’un humain. Une computation hautement sophistiquée capable de simuler de la compréhension demeure tout de même de la computation, même si le programme est complexe et que les combinaisons possibles de symboles sont presque infinies.

    RépondreEffacer
    Réponses
    1. Qu'est-ce que c'est que de « être en mesure d’accorder une signification aux symboles décryptés » ?

      Effacer
  6. Je vois un peu l'argument de la pièce chinoise comme le jeu que nous faisions lorsque nous étions petits : Une page était remplie de symboles (symboles 1) qu'il nous était impossible de comprendre, mais on nous fournissait une légende associant chaque symbole à une lettre de l'alphabet (symboles 2). Le jeu consistait seulement à écrire la bonne lettre associée au bon symbole afin d'arriver à une suite de symboles que nous étions en mesure de comprendre (à savoir les lettres de l'alphabet). Il s'agit exactement de la même chose que dans la pièce chinoise: Afin de comprendre les symboles 1 (ou le chinois), nous devions les transformer en symboles 2, ces derniers étant les seuls à avoir du sens pour nous. Ainsi, les symboles 1 n'étaient révélateurs que dans la mesure où ils étaient analysés avec les symboles 2, ce qui témoigne que notre compréhension (attribution de sens aux symboles) ne s'applique qu'aux lettres de l'alphabet et non aux symboles 1.

    RépondreEffacer
    Réponses
    1. Mais dans la pièce chinoise il n'y a pas de chiffre (cipher) pour traduire les symbols chinois...

      Effacer
  7. Dans la « chambre chinoise », Searle peut manipuler des idéogrammes chinois grâce à une notice, et ainsi répondre en chinois à un sinophone extérieur à la chambre... mais même s'il communique en chinois, il ne « parle » pas pour autant le chinois. Il se contente de manipuler des symboles en fonction d'un programme, sans en comprendre le sens ; il ne pourrait pas tenir une conversation par lui même avec le sinophone. Le traitement de symboles (la computation), qui est syntaxique et non pas sémantique, n'est donc pas de la pensée (la cognition).
    Ainsi, selon Searle, un ordinateur ne pense pas, car il ne comprend pas le sens de ce qu'il fait. L'ordinateur peut reproduire le comportement verbal d'un humain, il ne comprend pas pour autant ce qu'il raconte comme pourrait le faire un humain. Plus loin, Searle précise qu'il existe bien différents niveaux de compréhension (lui-même ne comprend pas de la même façon l'anglais, le français et l'allemand), et affirme que le niveau de compréhension d'un ordinateur est bien de zéro.

    L'exemple donné par Searle est de lire une histoire à l'ordinateur, et de lui poser une question sur celle ci pour s'assurer qu'il a « compris » ce qu'il venait d'entendre. Mais que se passerait-il si on posait des questions ouvertes à l'ordinateur, sur des sujets qui ne possèdent pas de bonne ou de mauvaise réponse ?
    Mon impression : il faudrait à ce moment créer un algorithme complet de toute la langue française, pour que l'ordinateur connaisse toutes les questions possibles et imaginables que je peux lui poser, et avoir ainsi toutes les réponses potentielles à ces questions.
    Mais je suppose que ce ne serait toujours pas de la pensée...

    RépondreEffacer
  8. Cielo 3.1

    Dans cette critique, je trouve que l’hypothèse de l’intelligence artificielle forte est infirmée, parce que l’ordinateur fonctionne dans un contexte purement syntaxique.

    D’abord, lorsqu’une machine digitale est capable de donner une réponse négative ou positive quand elle est confrontée à un évènement réel, par exemple, approuver ou désapprouver si quelque chose nous plait ou pas, une machine digitale et un être humain peuvent bien donner la même réponse, telle « je l’aime ; je ne l’aime pas », cela ne veut pas dire que la machine répond parce quelle est sémantiquement programmée, ce que, tout comme l’auteur, je considère quasiment impossible. Au delà, la machine digitale n’est qu’un ensemble de symboles (codes positifs qui remplacent «je l’aime» ou codes négatifs qui remplacent «je ne l’aime pas») qui ne sont pas porteurs de sens, mais plutôt d’associations syntaxiques. Donc, dans ce sens la machine digitale sera toujours axée sur le traitement de mots, de symboles pouvant satisfaire partiellement des besoins qui ont certain niveau d’équivalence sans pouvoir donner une totale intentionnalité de ce qu’elle dit.

    RépondreEffacer
    Réponses
    1. La computation ne fait que manipuler les mots, ce qui purement syntaxique. Si elle réussit le T2, ceci reste le cas.

      Effacer
  9. La position de Searel sur IA dans son texte, Esprits Cerveaux et programmes est bien souligné dans le passage ou il complique la version de la chambre chinoise en ajoutant des histoires en anglais aux quelles il fournit des réponses en anglais, sa langue d'origine, et en supposant qu'il est devenu un expert en symbole chinois dans la chambre avec beaucoup d'exercices, une personne de l'extérieur pourrait croire formellement qui connait bien le chinois et l'anglais comme une personne d'origine.
    Mais ou il fait le discernement c'est qu'il ne comprend toujours rien au chinois,qu'il répond machinalement comme l'ordinateur en suivant des consignes et un programme soit de la computation, contrairement a l'anglais qu'il répond avec discernement. Donc il réussirait le test de Turing dans les deux cas, sans comprendre absolument rien du chinois.
    Pour que l'ordinateur, soit intelligence artificiel, approche les capacités cognitives de l'homme il devrait:`` penser et comprendre``.

    RépondreEffacer
    Réponses
    1. Oui, Searle réussit le T2 en chinois, sans rien comprendre. En anglais, ce n'est pas le T2, parce que ce n'est pas rétroingénierié: il s'agit juste notre capacité (toujours pas expliquée) de comprendre l'anglais.

      Effacer
  10. À la fin du texte, Searle nous dit que la thèse de l'intelligence artificielle forte accepte implicitement une forme de dualisme. Pas un dualisme au sens cartésien (une substance matérielle et une substance mentale) mais un dualisme entre le cerveau et le mental (il n'y a qu'un type de substance - matérielle - mais cerveau et mental =/= la même chose).
    L'idée de Searle est-elle de faire remarquer que l'hypothèse de le mental n'est pas réductible au cerveau va à l'encontre de nos connaissances scientifiques?

    RépondreEffacer
    Réponses
    1. Le dualisme du computationnalisme (l'IA forte) est d'imaginer que le ressenti («l'esprit ») existe au «niveau» du logiciel et non du matériel. (C'est une idée incohérente, permise par le problème des autres esprits. Mais le périscope de Searle réussit à la pénéter.)

      Effacer
  11. Ce que je retire comme impressions générales du texte de Searle tient surtout à sa stratégie narrative : il passe un temps fou a démontrer point par point que rien ne prouve qu’un système de manipulation formelle « comprend » en ne nous donnant que très peu d’éléments sur ce qu’il comprend par… « comprendre ». Il aurait été plus efficace de donner en premier sa définition pour ensuite, par l’expérience de pensée de la chambre chinoise, nous montrer avec les points essentiels de sa définition ne colle pas avec les arguments défendus par la thèse de l’intelligence artificielle forte.
    En somme (mais je n’ai pas pu lire les quatre dernières pages du texte, il semble que Searle ne puisse être capable de définir la cognition que par ce qu’elle n’est pas, ce qui, est, pour reprendre ses mots, « insuffisant » a prouver que ses adversaires ont tort.

    RépondreEffacer
    Réponses
    1. Il n'est pas nécessaire de définir « comprendre » plus ou moins qu'il est nécessaire un mal au dents. Nous savons tous à quoi ça ressemble, ces deux ressentis là...

      Effacer
  12. 3.1

    Je crois qu’il est question ici de mesurer l’habileté à faire des associations, autrement dit effectuer une tâche correctement.

    On donne une recette (algorithme) qui fonctionne peut importe les symboles si et seulement si la forme (syntaxe) est respectée. Dans l’exemple de la chambre chinoise, si je comprends bien, il s’agit d’un test de lecture en chinois. L’observateur fournit 1) un scénario, 2) une histoire et 3) des questions à l’utilisateur dans la chambre. L’utilisateur dans la chambre possède un guide avec toutes les règles (algorithme). Pour que l’observateur déclare que le test est réussi, il faut qu’il reçoive les bonnes réponses aux questions correspondantes. Or, il n’est jamais question ici de comprendre quoi que ce soit, et pour réussir le test du point de vu de l’utilisateur il suffit de faire une reconnaissance des symboles exacte et une manipulation exacte selon les règles. Cependant, je crois que répondre à une question en reformulant la question montre une faiblesse aux niveaux des capacités cognitives.

    D’après, moi il y a plusieurs conditions idéales dans cette situation qui font en sorte que ce n’est pas valide comme raisonnement. Dans son contre-exemple où le test serait en anglais, je crois qu’il est possible, même pour quelqu’un qui fait le test dans sa langue maternelle, d’échouer le test. Dans le cas où le test serait échoué on pourrait utiliser l’argument qu’il y a eu une «mauvaise compréhension» du test, par contre l’utilisateur savait reconnaître les symboles là où il a échoué c’est au niveau de l’utilisation des règles. Autrement dit, si on veut distinguer un ordinateur d’un humain il faudrait considérer que l’humain est d’intelligence équivalente à l’ordinateur. Enfin, même si on arrive satisfaire ces conditions, il ne sera pas encore question de comprendre.

    RépondreEffacer
    Réponses
    1. Le T2 n'est pas une liste de questions et réponses. C'est la capacité de Riccardo de communiquer verbalement le long d'une vie. Est-ce qu'il y a un algorithme pour ça?

      Effacer
  13. 3.2

    Le mot « comprendre » comporte plusieurs ambiguïtés. Dans le texte, je suppose que l’on emploie le mot « comprendre » pour la « compréhension mécanique » : être dans un état avec des conditions initiales, reconnaître des symboles et appliquer des critères pour accomplir une tâche.

    Or, la réelle question, la question de la cognition, implique, selon moi, la compréhension au niveau du sens. Il faut supposer un contexte x, une discussion entre i et j, où i et j sont dans un référentiel commun soit x. Si i dit a j quelque chose en lien à x j va comprendre ce qui i implique. Sauf que, si k du contexte y va rejoindre i et j et leur dit quelque chose en lien à y il n’est pas juste de dire que i et j vont comprendre ce que k dit. Cet exemple soulève un problème majeur avec le langage naturel (i.e. français) soit : savoir de quoi on parle sémantiquement. Un problème que le langage formel (symboles) n’a pas. Dès lors, je me demande comment peut-on traiter les ambiguïtés du monde réel avec la computation si on assume qu’un même symbole ne peut pas avoir deux définitions ?

    RépondreEffacer
    Réponses
    1. Brillante réflexion, Sophie. En faisant de la linguistique structurale, l'on découvre que la polysémie rend le signe « linguistique » (propre aux humains) ce qu'il est. Ici, on parlerait d'un même symbole pour plusieurs référents. C'est une des propriétés du langage humain, qui ne s'accorde donc pas avec la computation comme mécanisme régissant, au minimum, le langage.

      Effacer
    2. Le problème n'est pas la polysémie. C'est la portée de la capacité T2. Est-ce qu'un algorithme a anticipé ce que Sophie vient de dire, et ce que Riccardo a dit en réplique?

      Effacer
  14. La critique que fait Searle du computationnalisme est forte et convaincante, il n’y a pas de doute là-dessus. Son approche est autant détaillée qu’exhaustive.

    Je ne sais pas si le point que je soulève maintenant est pertinent, d’autant plus que nous avons vu en classe qu’une machine est tout ce qui est un mécanisme causal : que peut-on dire de l’électricité comme source d’alimentation énergétique des « machines » dont nous faisons l’usage au quotidien? J’entends par là les machines métalliques et munies de circuits électriques comme nos téléphones, nos thermostats et nos calculatrices, parmi les autres objets que Searle a mentionnés.

    Si l’on retire l’alimentation énergétique à une telle machine, le mécanisme causal en lui-même ne peut plus s’opérer. Arrêtent-elles d’être d’une telle nature? Dans le paradigme computationnaliste, pouvons-nous penser qu’elles perdent leur « mental »? Vont-elles dans un état de non être? Enfin, à mesure que l’on se rapproche de notre mort biologique, certaines de nos cellules arrêtent définitivement de se régénérer. Puis, quand on meurt, nonobstant les croyances spirituelles et religieuses, le corps ne bouge plus et il n’y a plus d’activité cellulaire. De ce que l’on peut observer, on ne revient pas de la mort. Parallèlement, si je ne reprends que les machines électriques, il me semble qu’il est toujours possible de les « rebrancher » et de réactiver le mécanisme causal.

    Est-ce chercher là où il ne faut pas, ou matière à réflexion?

    RépondreEffacer
    Réponses
    1. Tu parles du matériel, et ce qui est devant le tribunal c'est le logiciel.

      Effacer
  15. Le robot T3 produit des entrées et des sorties qui sont semblables à ceux d’un être humain. Par contre, il nous ait impossible de vérifier si T3 donne des réponses en pensant de la même manière que les êtres humains, car on ne peut pas vérifier son algorithme (processus de réflexions). T3 pourrait alors, tout comme l’explication de la chambre chinoise, ne pas réellement comprendre ce qu’il exprime. Ou il pourrait comprendre, mais de façon différente. Par contre, est-ce que T3 serait réellement suffisant pour réussir le TT ? Il pourrait probablement facilement réussir à « tromper un humain » mais là n’est pas l’objectif. S’il réussit le TT je doute qu’on puisse comprendre comment T3 pense puisque nous n’aurions pas le même algorithme qu’un humain. Et si on sait comment T3 pense, alors on ne saurait probablement pas comment l’humain pense. Selon moi, il ne suffit pas de trouver un algorithme qui donne les mêmes sorties pour les mêmes entrées, il faut aussi trouver le bon algorithme. T4 pourrait probablement correspondre à ce que l’on cherche. En ayant des entrées et des sorties qui concordent à ceux des humains et en plus en ayant des zones dans le cerveau qui s’activent aux mêmes moments, je crois qu’il nous en dirait alors plus sur la façon dont l’humain pense (puisque nous l’aurions construit.)

    RépondreEffacer
    Réponses
    1. Un T3 est un robot, donc pas juste un algorithme. En principe T2 pourrait être juste un algorithme (implémenté) mais comment est-ce que savoir ce qui est son algorithme indiquerait si oui ou non T2 comprend?

      Mais c'est sûr que peu importe comment il réussit T3, on ne peut pas savoir si T3 comprend (à cause du problème des autres esprits). Turing recommande que lorsqu'on ne peut plus le distinguer d'un de nous, les probabilités sont égales pour les humains et les T3.

      T3 n'est plus juste une question d'algorithme. Un robot n'est pas un ordinateur.

      Tu ne fais pas confiance à l'équivalence faible (entrées/sorties)? Mais même si on sait que c'est la même dynamique (T4), ça ne garantit rien. Turing nous rappelle encore de ne pas être plus royaliste que le roi: N'exigeons pas plus de Riccardo (T3) que ce que nous exigeons de nos compatriotes (ce qui n'est pas une neuro-imagerie (T4) pour garantir qu'ils ressentent!).

      Autrement dit: pourquoi t'as plus de confiance en T4 que T3? Tu donnerais un coup de pied à Riccardo s'il n'était que T3, pas T4? Pourquoi?

      Effacer
  16. Un algorithme se définit par une manipulation symbolique suivant des règles. L'idée derrière la pièce Chinoise est qu'un algorithme, sans se faire démasquer, a la capacité formelle tel un humain. Donc, l'argument de Searle démontre que la manipulation des symboles (computation) n'est pas liée à la compréhension du sens des symboles. Et qu'au-delà de la machine vient le programme.Si, par exemple un algorithme est créé et implémenté et est indiscernable l'un de l'autre(en français). Puis, le même est implanté en mandarin. Dans les deux cas, cela résulte qu'a une manipulation formelle des symboles.
    Cela réfute le Strong AI de Searle "computaitons =/= capacités de la cognition humaine".

    RépondreEffacer
    Réponses
    1. La langue du T2 n'est pas pertinente. Ce qui est devant le tribunal c'est la computation (donc n'importe quel algorithm qui réussit T2 en n'importe quelle langue).

      Effacer
  17. Ce commentaire a été supprimé par l'auteur.

    RépondreEffacer
  18. On parle de la capacité verbale de Riccardo (T2) le long d'une vie.

    C'est quoi la simulation et la duplication? On parle des capacités T2, T3, ou T4.

    RépondreEffacer
  19. Ce commentaire a été supprimé par l'auteur.

    RépondreEffacer
  20. Searle démontre qu’un correspondant entièrement computationnel n’a pas la compréhension du langage d’un correspondant humain. Les mots qu’il utilise n’étant que des symboles manipulés selon leur forme et suivant des règles. Les mots pour le programme informatique n’ont pas de référent dans le monde réel et n’ont pas de sens. Le correspondant computationnel ne peut pas accéder à la compréhension du langage d’un correspondant ayant fait l’expérience du monde avec un système sensorimoteur. En effet, afin de faire le lien entre le référent dans le monde réel des mots qu’il utilise le programme informatique doit au préalable avoir fait l’ancrage des symboles par son système sensorimoteur. Ce qui permet l’encodage du langage.

    RépondreEffacer
  21. La cognition est une forme de computation. Quand un humain lit un article, par exemple, son cerveau transforme instantanément les lettres et les symboles perçus par l’œil en signaux qu’il déchiffre. Il traite l’information reçue et la compare à sa base de données. Dès que le cerveau reconnait l’information (concordance entre l’information reçue et les données de la base de données), l’humain est alors capable de lire l’article. Cependant, lire l’article ne veut pas dire l’avoir compris nécessairement. Dans le cas de la compréhension, le cerveau suit relativement la même procédure que dans le cas de la lecture. Il compare ce qu’il reçoit à ce qu’il a déjà. Deux questions se posent : Combien de temps ça lui a pris pour comprendre l’article? Est-ce qu’il a vraiment compris ce que l’auteur de l’article véhicule? On s’entend que ce ne sont pas tous les humains qui pourront lire et même comprendre l’article vu que leur cerveau n’a pas la même base de données. Par exemple, si l’article est rédigé en anglais, seuls les lecteurs capables de lire l’anglais pourront le lire. Si c’est un article scientifique, les lecteurs ayant un bagage en sciences auront plus de facilité à le comprendre. On remarque donc que la cognition est effectivement une forme de computation. Ainsi, les machines devraient être capables d’atteindre les facultés cognitives du cerveau humain.

    RépondreEffacer