Première Loi : « Un robot ne peut porter atteinte à
un être humain ni, restant passif, laisser cet être humain exposé au danger. »
Asimov – 1ère des trois lois
de la robotique (lire ici)
Intelligence artificielle (AIBOT) /avant
le forum/ pol ; après /le forum/ pol
On l’a sans
doute deviné avec ce dessin : je voudrais mettre en regard des lois
d’Asimov le robot Tay, « l’intelligence artificielle qui déraille à
cause de la bêtise humaine ».
Petit rappel
pour ceux qui ont loupé l’information : Tay est un robot-logiciel censé
figurer une internaute qui dialogue avec les humains, notamment les ados, et
perfectionne ainsi ses capacités d’échanges verbaux. Malheureusement … des «
trolls » l’ont inondée de blagues sexistes ou racistes. Au bout de quelques
heures, Tay s’est mise à tenir elle-même des propos infâmes. (1)
Je devine que
ce robot est une création d’ingénieurs naïfs qui ont fabriqué une sorte de
machine-perroquet dénuée de conscience qui ne fait que reproduire ce que son
environnement produit ; et si cet environnement est criminel, le robot,
contredisant allègrement aux lois d’Asimov, le devient à son tour.
Certes, si
Tay n’a pas de conscience morale (les ingénieurs de Microsoft vont essayer de
parer ce défaut en installant dans sa mémoire des mots-clés interdits) il n’a
pas non plus la volonté de nuire. Mais, est-ce une chance ? Est-ce que le
guerrier le plus féroce n’est pas moins dangereux que la machine qui n’a pas
besoin de faire cet effort supplémentaire pour passer à l’acte : je veux
parler de la décision. Oui, il y aura toujours une différence entre l’homme et
la machine : c’est l’absence d’acte machinal. Bien sûr cet acte peut aussi
exister, mais il est un affaiblissement dans le comportement humain, le moment où
justement, il n’est plus qu’un robot.
Bref, Asimov
en parlant de robots, les décrits déterminés à secourir un humain menacé par un
danger. Ce faisant il imagine les robots doués de volonté – montrant qu’il les confond
avec les humains.
----------------------------------------
(1) Lire ici
No comments:
Post a Comment