J’inaugure ici quelques réflexions à propos de l’intelligence artificielle et du transhumanisme. Je me place du point de vue du citoyen ordinaire, je veux dire par là que je ne prétends pas du tout être un spécialiste de ces questions. d’ailleurs, est-ce là le problème ? Précisément, la démocratie consiste à donner la parole à ceux qui ne sont pas des experts, sinon, il suffirait d’abolir la politique et de confier l’économie aux économistes – mais lesquels ? -, la santé aux médecins – mais quid des patients et des autres personnels soignants ? -, la guerre aux militaires – qui a dit qu’elle était une chose trop sérieuse pour la laisser aux militaires ?
À vrai dire, ces questions ne sont pas si nouvelles que cela. Elles m’ont été posées par la science fiction, qui ne se résume pas à des batailles de vaisseaux spatiaux !
Collégien, j’ai dévoré les livres d’Isaac Asimov, scientifique reconnu – auteur d’ouvrages de vulgarisation – et d’une œuvre de science fiction qui pose notamment la question de l’irruption de robots intelligents dans la vie. Tout un cycle de nouvelles consiste à mettre en abîme les questions qui se poseraient à des robots, confrontés à des situations où des humains risquent de mourir. Il propose trois lois de la robotique :
- « un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;
- un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;
- un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi. »
La cybernétique naissante – on est en 1942 – appelle ces questions. Nous n’avons pas encore de robots anthropomorphes qui nous environnent au quotidien, mais les prodiges de l’Intelligence artificielle sont déjà là. Au quotidien : les GPS nous proposent des itinéraires sûrs et rapides en temps réel, Facebook et Google nous proposent des publicités ciblées. Les drones des armées ciblent et frappent des bases terroristes.
Les essais concernant des véhicules autonomes ont commencé. Il y a déjà deux accidents mortels : l’une impliquant une voiture Tesla, l’autre une Toyota/Uber. Les circonstances sont encore à l’étude, et bien entendu la question de savoir si un conducteur humain aurait pu éviter l’accident est importante. Elle n’est pas la seule.
Il faut s’intéresser aux programmes menés. Des dizaines de chercheurs sont associés. Au-delà des techniques mises en jeu, extraordinaires, il faut aussi prendre connaissance des approches. Tous les programmes doivent envisager les enjeux moraux. La question de savoir si le programme saura réagir en cas de dilemme est importante : sauver un piéton ou le conducteur ? Ces questions ne sont pas secondaires, car il y a fort à parier que les cas se produiront. On peut en profiter pour interroger les types de jugements moraux en cause : morale des principes ou morale conséquentialiste ? Il y a fort à parier que la seconde l’emportera, une machine étant plus à même de calculer des effets que prévoir des principes.
Ce qu’il y a de plus inquiétant c’est l’opacité dans laquelle se mènent ces recherches. Les GAFA mettent en œuvre des programmes dont ils espèrent des millions de dollars de retombées. La lecture de la presse spécialisée montre que cela est fait avec sérieux, si sérieux que cela est glaçant. Dans le contexte des études anglo-saxonnes de morale appliquée, les questions sont soulevées : comment programmer une machine pour qu’elle ait à choisir entre la mort du piéton ou du conducteur ? Faut-il, dans l’espoir que globalement les voitures autonomes seront plus sûres encourager leur achat en informant les acheteurs que dans ce cas – heureusement rare – les voitures les sauveront plus que les piétons ? Décision morale difficile mais efficace en terme de politique publique : si globalement les voitures automatiques réduisent les accidents, alors en effet il faut encourager l’achat en montrant que dans les cas limites les conducteurs seront privilégiés. Ce ne sont pas des hypothèses farfelues, mais le travail du lauréat d’un prix de 500 000 dollars sur ce thème.
Ce qui est préoccupant c’est que l’économie capitaliste ici mène des recherches en dehors de tout débat public. Disposant de sommes inédites dans l’histoire de l’économie les GAFA peuvent à leur guise prévoir des programmes de recherche et de développement de machines sans que les instances politiques et démocratiques soient préparées à affronter l’irruption de leurs applications, sans doute accompagnées des dispositifs législatifs et moraux préparés par des avocats nombreux là où les États ne peuvent – restrictions budgétaires en sus – dépenser les sommes nécessaires pour analyser et riposter à ces innovations.
Un chercheur, dans Philosophie magazine d’avril 2018, évoque le fait que les voitures autonomes pourront en temps réel connaître l’âge de tous les piétons disposant d’un téléphone portable, et donc cibler leurs victimes si, en cas d’accident, elles ont plusieurs options. Le pire n’est pas qu’elles aient à le faire – il n’est pas certain qu’un humain fasse mieux – , le pire est que des chercheurs fassent ces hypothèses sans qu’un contrôle citoyen ne soit appliqué !