|
Le côté éthique est abordé de front par Yudkowsky dans les fondations de sa démarche. Il vise à créer une IA "amicale" (Friendly AI) en arguant que plus cette intelligence sera développée, plus elle sera morale. Il est difficile de résumer sa reflexion, mais en tout cas elle n'est pas simpliste, heureusement. J'ai cependant mes doutes. De toute façon, j'ai du mal à croire que nous puissions développer un système du type Les Trois Lois d'Asimov, qui ne prend absolument pas en compte la complexité de l'esprit, et du monde que l'esprit tente de comprendre et de manipuler.
Pour ce qui est des singularités passées, je verrais bien, dans un premier temps, l'apparition de la vie, qui a bouleversé de fond en comble tous les processus qui avaient lieu sur la planète, puis, dans une moindre mesure, le développement du langage et de l'imagination, qui a chamboulé toute la biosphère. La singularité cognitive (apparition de véritables IAs) qu'on envisage pour ce siècle pourrait cependant être de nature inférieure sur l'échelle de l'innovation, malgré l'aspect quantité de changements qu'elle poduirait. A moins qu'elle ne produise une compréhension inédite de l'univers donnant lieu à un remodelage gigantesque de celui-ci, et de la vie qui est dedans...
Pour ce qui est de la peur, je suis d'accord que rien ne sert de se fermer les yeux. L'univers semble être engagé depuis son apparition (si apparition il y a eu) dans un processus d'évolution qui nous dépasse. Chaque changement a ses bons et ses mauvais côtés, mais il est difficile de juger le changement lui-même, il est, après tout, ce qui nous a fait naître.
|
|