Est-ce qu’une intelligence artificielle pense ? Interview avec le philosophe Markus Gabriel.

Catégorie : Interview d'experts

Nos interrogations sur l’intelligence artificielle et, sur ce qu’elle apporte d’inconnu, sont loin d’être récentes.  Est-ce qu’une calculette calcule ? Est-ce qu’un ordinateur, smartphone ou robot pense

Dans son livre, Pourquoi je ne suis pas mon cerveau, le philosophe Markus Gabriel – que nous avons eu l’honneur de recevoir dans nos locaux lors des Ideas Days 2017 – relève que Descarte se posait déjà des questions sur ce sujet au XVIIe siècle :

(…) si par hasard je ne regardais d’une fenêtre que des hommes qui passent dans la rue, à la vue desquels je ne manque pas de dire que je vois des hommes (…) et cependant que vois-je de cette fenêtre, sinon des chapeaux et des manteaux, qui peuvent couvrir des spectres ou des hommes feints qui ne remuent que par des ressorts ? Mais je juge que ce sont des vrais hommes ; et ainsi je comprends, par la seule puissance de juger qui réside en mon esprit, ce que je croyais voir de mes yeux.

Ideas Laboratory : Dans votre livre, vous faites une différence entre conscience intentionnelle et conscience phénoménale. Vous expliquez que c’est cette caractéristique qui nous différencie des intelligences artificielles, aussi perfectionnées soient-elles. Pouvez-vous nous en dire un peu plus ?

L’idée est la suivante.

L’Intelligence Artificielle – l’I.A – agit selon certaines informations (data) et elle organise ces informations en les soumettant à certaines règles. Ces règles peuvent être exprimées mathématiquement et correspondent à ce que l’on nomme “algorithmes”.

Aussi, il est possible de perfectionner les I.A. avec des capteurs pour qu’elles soient réagissent en fonction d’informations provenant du monde extérieur. La conscience intentionnelle est la conscience de quelque chose qui n’a pas besoin d’être consciente d’elle-même. L’I.A. est une machine de traitement d’information, une forme de conscience humaine tronquée. Il s’agit d’une matière pure, fonctionnant sur une logique de logiciel.

Notre conscience humaine, elle, regroupe deux aspects. La conscience phénoménale signifie que nous ne traitons pas seulement les informations d’un point de vu neutre, gouverné par des lois logiques. En tant qu’animal et historiquement, penseurs avec une éducation culturelle, nous faisons l’expérience de la réalité. Cette spécificité ne peut pas être reproduite par une quelconque I.A.

D’une part parce qu’il est trop compliqué pour nous de comprendre dans sa globalité cette forme de conscience. D’autre part, parce que cette conscience n’est pas uniquement digital. Les processus à l’intérieur du cerveau sont chimiques. Cette chimie humaine ne peut pas être entièrement reproduite par des modèles mathématiques.

Ideas Laboratory : Le philosophe et psychologue français Henri Delacroix écrivait au début du XXe siècle que “ la pensée fait le langage en se faisant par le langage”. Or, Facebook vient de devoir neutraliser et reprogrammer deux robots qui ont inventé leur propre langage, incompréhensible par leurs inventeurs. Donc, est-ce que l’on peut s’aventurer à dire que les robots pourraient penser par eux-mêmes ?

Il est difficile d’expliciter précisément le sens de la pensée. La philosophie traite de ce problème depuis plus de 2000 ans. Actuellement, il y a une utilisation du mot “penser” pour toute forme de traitement d’information et d’exploitation des données qui est sujet à des règles pouvant s’exprimer mathématiquement (algorithmes).

En ce sens, les logiciels liés à la langue peuvent seulement être considéré comme pensant. Il y a un autre problème concernant le sens du mot “langage”. Si toute transformation syntaxique des signes selon un livre de grammaire est un langage, alors les mathématiques sont un langage. L’apprentissage en profondeur, le réseau neuronal, et Internet sont toutes des instances de pensée, pensées elles-mêmes dans un sens formel.

Toutefois, il y a un fossé infranchissable entre ces processus et la pensée humaine. Quand les humains pensent, la plupart de nos schémas mentaux sont chaotiques et pas entièrement structurés. Les humains pensent par fragments. Nous pouvons connecter ces points grâce à la logique, la science, etc. Nous pouvons discipliner notre propre pensée par l’éducation. En ce sens, nous créons un module d’intelligence artificielle qui fonctionne sur notre disque dur biologique. Notre pensée logique a toujours été une pensée robotisée.

Depuis que les humains ont commencé à créer un ordre dans leurs pensées en les soumettant à des règles (sous la forme de peinture dans des grottes, de chant, de parole, etc.), nous sommes aussi des robots.

Ce qui est nouveau dans notre ère d’information, est que nous puissions externaliser un grand nombre de processus et créer des machines mieux pensantes.

Mais n’ayez pas peur ! Les machines pensantes ne partagent pas nos intérêts. Elles sont des modèles d’humain pensant et non des copies. Il est impossible de copier la pensée humaine grâce à la complexité de ses racines biologiques dont nous ne comprenons pas le fonctionnement. Personne ne peut simuler un organisme humain entier avec ses processus d’adaptation. Notre pensée est très influencée par notre environnement social. Par conséquent, en un certain sens, les ordinateurs peuvent penser mais pas comme un humain. Il est important de faire cette distinction pour évaluer les vrais risques de l’I.A.

Ideas Laboratory : Dans le Figaro récemment on pouvait lire qu’Elon Musk a demandé aux autorités de réguler l’intelligence artificielle, craignant de la voir prendre le contrôle sur l’homme. Mark Zuckerberg juge ces déclarations «irresponsables». Selon vous, doit-on ralentir le progrès ? Quelles prudences et quelles réflexions doit-on avoir sur le sujet ? Une législation est-elle souhaitable ?

Toute percée technologique vient avec des dangers. Le plus récent, selon moi, est le suivant: l’intelligence artificielle est un modèle de la pensée humaine. Elle ne peut marcher que sur la base de données fournies par l’humain. Les big datas qui nourrissent l’intelligence artificielle, se composent de fragments de pensées humaines ou d’empreintes digitales que nous laissons tous sur la toile. L’I.A. peut uniquement étudier notre comportement en utilisant ce que nous lui mettons à disposition comme modèles logiques. Elle rationalise ces modèles en les optimisant. Elle n’a pas d’intérêt particulier ou de jugement éthique. C’est le principal problème.

Nous avons besoin d’une législation pour rendre ces nouvelles technologies sécuritaires et morales. Selon ses calculs, l’I.A. pourrait déclarer une guerre nucléaire en déduisant que ce serait bénéfique aux humains. Si un algorithme observe l’internet dans son ensemble – qui est constellé de messages haineux – cela pourrait engendrer des conclusions immorales et avoir de très fâcheuses conséquences dans le monde réel.

Nous ressentons et agissons différemment selon si nos pensées sont positives ou négatives. Si nous stockons des pensées négatives en ligne, cela pourrait créer un vrai tremblement de terre dans un futur proche. Nous devons associer un progrès éthique au progrès technologique.

Ce que E. Musk et M. Zuckerberg ne comprennent pas est le rôle de l’humain dans la gestion des I.A. Ils ont une compréhension abstraite du réseau, du fonctionnement des l’I.A. et oublient complètement le facteur humain. En effet, les informations que nous téléchargeons et rendons accessibles aux I.A. sont un miroir de ce que nous voulons être. Facebook fait de l’argent avec cela.

Cette entreprise publie des photos de notre vie que l’I.A. va ensuite interpréter. C’est dangereux puisque la façon dont nous nous présentons en ligne est très limitée et idéalisée. Toute I.A. a une image erronée de la vie humaine et opère sur cette supposition.

FacebookTwitterLinkedIn

Ecrire une réponse ou commenter

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *