Sunday, March 23, 2008

Citation du 24 mars 2008

Le danger dans le passé était que les hommes deviennent des esclaves. Le danger dans le futur est qu'ils deviennent des robots.

Erich Fromm (psychanalyste américain 1900-1980)

1er danger : tomber en esclavage.
2ème danger : devenir un robot
3ème danger : que les robots réduisent les hommes en esclavage.

Avouez qu’on est un peu surpris de ne pas trouver ce 3ème danger signalé par notre auteur. Sauf a supposer qu’il n’ait pas voulu entre dans le débats des trois lois d’Isaac Asimov (1), ce qui supposerait que les robots soient des être intelligents et responsables - autrement dit des sujets de droit - ce qui relève de la science fiction. Toutefois, si les hommes devenaient eux-mêmes des robots, alors ils seraient soumis aux lois d’Asimov - à supposer que cela ait encore un sens, c'est à dire que l'humanité ait encore une forme d'existence.

Laissons pour le moment de côté cet aspect, et concentrons nous sur le passage du 1er danger au second.

Pour faire un peu vite, relevons que le danger de l’esclavage pour l'homme moderne consiste dans l’inconscience du moment où il succomberait à cet état : il ne s’agit pas d’un rapt violent suivi d’une mise en vente sur le marché aux esclaves. Il s’agit plutôt de l’homme qui devient esclave de lui-même, esclave de ses habitudes, des dépendances qu’il s’est créées, etc.

On admettra donc que le danger de devenir un robot concerne des hommes dont le comportement devient stéréotypé, inconscient, systématiquement copié sur des règles ou des usages jamais remis en question.

Quelle différence entre devenir un esclave et devenir un robot ?

Ecartons l’absence de responsabilité : le robot, même extra lucide quant aux conséquences de ce qu’il fait n’est pas responsable de ses actes ; exactement comme l’esclave, qui ne peut être tenu pour responsable des actes qu’il a commis sous la responsabilité de son maître. Le Code Noir insiste pour dire aux maîtres : vous êtes toujours responsables de ce que font vos esclaves.

Mais il y a surtout la déshumanisation : même si l’esclave n’était jamais considéré que comme un « instrument animé » (Aristote), il lui restait tout de même un résidu d’humanité, quelque chose qui faisait qu’on pouvait s’imaginer être à sa place. C’est ainsi que le même Aristote disait qu’il était avantageux pour l’esclave d’être gouverné par un maître, car cela lui donnait ce qui lui manquait, à savoir l’art que possèdent normalement les humains de décider ce qu’il convient de faire. Le robot, lui ne peut jamais décider de son avenir, puisque seul le programme qui lui a été fixé peut le déterminer.

Il y a aussi l’insensibilité : le robot n’a pas de sentiment, pas d’émotions, et si ça lui arrive, ça le détraque, il cesse d’être une machine pour devenir un homme. Voyez Terminator : l’émotion n’est pas à sa place dans ses circuits électroniques.


(1) Comme les Mousquetaires de Dumas, les 3 lois sont en réalité 4 :

  • Loi Zéro : Un robot ne peut nuire à l’humanité ni, restant passif, permettre que l’humanité souffre d’un mal.
  • Première Loi : Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger, sauf en cas de contradiction avec la Loi Zéro.
  • Deuxième Loi : Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres sont en contradiction avec la Loi Zéro ou la Première Loi.
  • Troisième Loi : Un robot doit protéger son existence dans la mesure où cette protection n’est pas en contradiction avec la Loi Zéro, la Première ou la Deuxième Loi.


3 comments:

Djabx said...

Vous dites à un moment: "seul le programme qui lui a été fixé peut le déterminer".

C'est vrai actuellement: toute notre informatique / électronique est essentiellement déterministe; même nos fonctions aléatoires sont relativement déterministes (même si déterminer le résultat est très compliqué!).

Il y a toute fois des choses beaucoup moins déterministe qui "existent" déjà plus ou moins comme la logique floue ou comme l'informatique quantique.

Ainsi avec un comportement non déterministe des algorithmes et des systèmes sous-jacent, il est tout a fait envisageable qu'à l'avenir un "robot" puisse choisir selon ses propres critères (encore une fois non déterministes).

A partir de ce moment (=un robot peut faire un choix qui lui est propre) vos arguments sur la responsabilité et sur la déshumanisation ne sont plus valable car il repose uniquement sur le déterminisme des technologies existantes.

Il reste alors uniquement la sensibilité.
Si je reprends la citation du 6 décembre 2006 "L’homme n’est rien d’autre […] que l’ensemble de ses actes" Jean-Paul Sartre, il m'apparait vraisemblable qu'un robot puisse avoir une certaine sensibilité.


Ce que je veux vous montrer ici n'est en aucun cas les "erreurs" que vous faites, mais que votre raisonnement est vrai avec ses suppositions.
Or il semble que dans un avenir plus ou moins proche ces suppositions ne soient plus vrai, et alors là, la distinction entre robot et esclave sera je pense bien plus fine que ce vous nous montrez.

Enfin, je finirai par quelques questions:
_Voyez vous notre capacité à choisir comme uniquement le fruit de notre cerveau, ou plus comme un mélange entre notre "puissance" cognitive et des éléments métaphysique?
_Si notre intelect est uniquement le fruit de notre cerveau: pourquoi ne serai-t-il pas "simulable" par un quelconque moyen technologique ?
_Enfin, si cet intelect est simulable, quel sera la différence entre un humain et cet simulation ?

Vous me direz qu'on peut par là, rejoindre aussi le débat éthique sur le clonage humain: un clone est-il vraiment humain? N'est-ce pas une "simulation" à l'identique d'un être humain?

Ce qui nous amène alors à une autre question: qu'est-ce que l'homme ? Et je sais que si on écoute Diogène on arrivera enfin sur la question de la poule et de l'oeuf...

Bref, vous l'aurez compris, votre texte soulève beaucoup de questions chez moi...

Jean-Pierre Hamel said...

- Ainsi avec un comportement non déterministe des algorithmes et des systèmes sous-jacent, il est tout a fait envisageable qu'à l'avenir un "robot" puisse choisir selon ses propres critères (encore une fois non déterministes).

--> Sans doute peut-on imaginer des machines douées de facultés extraordinaires, et le refuser c’est non seulement s’interdire de rêver, mais encore faire un pari sur l’avenir, ce qui n’est vraiment pas raisonnable.
Ce qui est intéressant, c’est de savoir ce que c’est que choisir, non seulement pour établir ce qu’il manque encore aux machines pour nous égaler, mais surtout par savoir ce que nous faisons nous-mêmes quand nous opérons un choix.
- Vous point un point essentiel : il faut déjà ne pas être dans un « comportement déterministe ». Descartes parlait à cette occasion de « liberté d’indifférence ». Par exemple : Je connais le bien, je l’approuve, mais je peux choisir le mal.
- Maintenant, cela risque de nous mener à l’idée de hasard, ce qui n’est pas un choix : perdu dans une forêt, arrivé à un carrefour, je tire à pile ou face la direction ; ce n’est pas un choix – pas plus que si je consulte mon GPS (déterministe).
- Donc entre le hasard et la nécessité (déterministe), il y a le _choix_. Comment concevoir le choix s’il n’est ni n’importe quoi, ni prédéterminé par une raison quelconque ? Y a-t-il une autre voix ?
Bergson nous dit que le choix est invention, création de quelque chose de neuf. L’homme selon lui n’est pas le seul à inventer : les animaux aussi inventent, la vie crée des espèces nouvelles. [A noter au passage : comme la conscience n’est rien d’autre que l’exercice du choix et de l’invention, alors il admet la conscience animale]
- Et les robots, alors ? Inventent-ils quelque chose de neuf, quelque chose dont on puisse dire : ça, ce n’était pas dans le programme, et c’est une vache de bonne idée !
Je ne connais qu’un cas qui réponde _peut-être_ à la définition bergsonienne du choix : c’est Deep Blue, vous savez la machine qui a battu Garry Kasparov le champion du monde d’échec en 1996. Les spécialistes ont dit que certains coups joués par la machine n’étaient pas dans sa bibliothèque de données, que c’étaient de innovations totales – et adaptées puisque l’ordinateur l’a emporté.
Même si ensuite on a prétendu que Kasparov manquait d’expérience pour ce genre de partie, il n’en reste pas moins que c’est un cas comme celui-ci qui serait effectivement révélateur de facultés intelligentes dans la machine. D’ailleurs les gens d’IBM ont démonté à tout jamais leur Deep Blue, parce que laisser croire qu’il fabriquaient des machines plus intelligentes que les hommes, c’est mauvais en terme d’image.

P.S. Lorsque Sartre dit que nous ne sommes rien d’autre que la somme de nos actes, ils veut dire seulement que les intentions et les prétentions ne servent à rien : seuls les actes comptent

Djabx said...

Comme le hasard fait parfois bien les choses, je vous invite à écouter l'émission de radio "science et conscience" de la semaine dernière, que vous pouvez toujours écouter en ligne ici, qui traite des "créatures artificielles".