// Interaction avec le terminal //
Les machines et la moralité. Durant les cinq prochaines décennies, nous espérons pouvoir laisser Raspoutine gérer, en totale autonomie, notre réseau de défense.
Mais pouvons-nous être certains qu’une intelligence artificielle prendra des décisions moralement correctes ?
// Interaction avec le terminal //
Les premiers véhicules autonomes furent conçus au début du millénaire. Avant cela, il y avait plus d’un million de décès liés aux automobiles par an.
Les développeurs d’intelligences artificielles de l’époque se retrouvèrent confrontés à des dilemmes moraux qui n’avaient été jusque là que de simples exercices intellectuels.
Une voiture autonome se trouvant sur une trajectoire qui tuerait cinq personnes a une alternative : une nouvelle trajectoire où seule une personne innocente est tuée.
Pour qu’une machine puisse prendre la décision de changer de trajectoire, son créateur doit entreprendre la tâche impossible d’attribuer une valeur objective à une vie humaine individuelle.
Il s’avère que les implications éthiques de l’intelligence artificielle sont beaucoup plus compliquées que ne le laissaient penser les lois de la robotique d’Asimov.
Les ingénieurs de Clovis Bray conçurent une solution durant le développement de notre projet d’Esprit tutélaire.
En déléguant la prise de décision à une système de moralité dit “Boîte noire”, l’Esprit tutélaire instrumentaliste ses propres quantificateurs de vertu qui sont incompréhensibles même pour ses créateurs.
Raspoutine détermine ce qui est moral selon ses propres termes, et ce processus nous est incompréhensible afin de préserver son objectivité.