Centre de Terminator Studies à Cambridge
L’université Cambridge ouvrira bientôt un centre de Terminator Studies où des professeurs réputés étudieront les risques que les robots super-intelligents et les ordinateurs ne deviennent une menace pour l’humanité, nous apprend le Sunday Times de Londres. « Le Centre pour l’étude du risque existentiel ─ le mot existentiel désignant une menace pour l’existence même de l’humanité ─ vient d’être lancé par Lord Rees, l’astronome royal : son but est d’étudier les quatre principales menaces pesant sur l’espèce humaine : l’intelligence artificielle, le réchauffement climatique, la guerre nucléaire, et la biotechnologie sauvage. Dans Our final Century, un livre publié en 2003, Rees nous rappelle que l’instinct destructeur de l’humanité est tel que notre espèce pourrait s’exterminer elle-même vers 2100. Rees lance le Centre de concert avec Huw Price, lequel occupe à Cambridge la chaire Bertrand Russell de philosophie, et avec Jaan Tallin, co-fondateur de Skype, le logiciel de communications sur Internet ».
Nous présentons ici une traduction du texte de Lord Martin Rees publié sur le site de l'université Cambridge.
Nous avons une nette aversion pour le risque, mais il y a un décalage entre la perception que nous avons de divers risques et leur gravité réelle. Nous faisons grands cas de la radiation de bas niveau et de la présence de substances cancérigènes dans nos aliments; et nous réagissons par le déni face à la faible probabilité d’événements lourds de conséquences qui devraient nous préoccuper davantage. La récente crise financière fut l’un de ces événements, mais d’autres, qui ne se sont pas encore produits – et qui pourraient prendre de l’ampleur dans les décennies à venir – méritent plus d’attention. De tels événements ont beau être improbables, ils pourraient être si catastrophiques que même s’ils ne se produisaient qu’une fois, ce serait une fois de trop.
La plupart du temps au cours de l’histoire, les menaces sont venues de la nature – maladies, tremblements de terre, inondations, etc. Mais le pire désormais vient de nous. Nous sommes entrés dans une ère géologique que l’on appelle l’anthropocène. On peut affirmer que cela commença avec l’invention des armes thermonucléaires. Pendant la guerre froide, nous courions le risque d’une catastrophe qui auraient pu faire régresser notre civilisation de plusieurs décennies ou plus. Ce danger est moins grave maintenant – quoique le risque d’un conflit nucléaire régional soit plus élevé.
Certains risques globaux sont insidieux. Ils découlent de la pression exercée sur les sources d’énergie, les aliments, l’eau et d’autres ressources naturelles. Ces risques vont s’aggraver au fur et à mesure que la population mondiale se rapprochera des 9 milliards prévus pour 2050 et à cause des effets du changement climatique. Un ‘’choc écologique’’ pourrait provoquer une dégradation irréversible de notre environnement.
Presque toutes les innovations comportent des risques : au début de la vapeur, plusieurs mouraient suite à l’explosion d’une bouilloire mal conçue. Mais quelque chose a changé. Que la bouilloire explose, la chose est horrible, il y a toutefois des limites à cette horreur, tandis que parmi les risques émergents plusieurs pourraient être si catastrophiques que même une faible probabilité de leur survenue donne froid dans le dos. Par exemple, la société mondiale dépend de réseaux très complexes – contrôle aérien, finance internationale, réseaux électriques, livraison à la minute près. Si ces systèmes ne sont pas hautement résilients, les avantages manifestes qu’ils présentent pourraient être perdus suite à des interruptions catastrophiques (quoique rares) déstabilisant le système entier en cascades. Et le risque peut aussi bien prendre la forme de la terreur que celle de l’erreur. La crainte d’une cyber attaque, orchestrée par des criminels ou par des nations hostiles, est de plus en plus justifiée. La biologie synthétique présente certes de grands avantages pour la médecine et l’agriculture, mais elle pourrait servir la cause du bioterrorisme. Et, portant notre regard plus loin encore dans l’avenir, nous devrions peut-être aussi nous soucier d’un scénario de science fiction mettant en cause des ordinateurs, qui pourraient acquérir une puissance de calcul telle qu’ils pourraient se retourner contre nous.
Je crains qu’en 2050 nous en soyions réduits à minimiser désespérément ces risques existentiels. Il n’est pas trop tôt pour commencer à s’en préoccuper – même s’ils sont impondérables et difficilement quantifiables. Je me réjouis donc de ce que mon collègue de Cambridge, le philosophe Huw Price, ait pris l’initiative de rassembler un groupe pluridisciplinaire pour entreprendre cette étude.
l