À propos des « robots tueurs »
Pendant des années, les « robots tueurs » ont constitué une figure récurrente dans le monde du divertissement et de la fiction. Au cours de la dernière décennie, l’idée que des armes entièrement autonomes puissent exister s’est rapprochée de la réalité. En effet, nous avons pu observer dernièrement une augmentation importante de la présence d’armes ne nécessitant pas de contrôle humain, lesquelles ont changé considérablement le visage de la guerre. Les nouvelles technologies permettent de sérieuses avancées dans le développement d’armes entièrement autonomes. Les armes robotisées seraient capables de choisir et de faire feu sur leurs cibles par elles-mêmes, sans aucune intervention humaine. Cette capacité posera un défi fondamental en termes de protection des civils d’une part, et de conformité avec le droit humain et le droit humanitaire international d’autre part. Par ailleurs, il importe de mettre au clair que les armes entièrement autonomes ne sont pas des drones. En effet, les drones sont pilotés par un être humain à distance, alors que les armes entièrement autonomes ne le sont pas, et leur portée va donc bien au-delà des drones armés.
Malgré que la question du moment où les armes entièrement autonomes seront disponibles fait toujours l’objet d’un débat, nous savons que certaines puissances militaires très avancées, incluant la Chine, Israël, la Russie, le Royaume-Uni et les États-Unis, se tournent de plus en plus vers des technologies permettant de donner davantage d’autonomie aux machines en situation de combat. Si certains États déploient des armes entièrement autonomes, d’autres pourraient se sentir obligés de maintenir ou d’ajuster leur arsenal à ce niveau, ce qui risque de mener à une course aux armements robotisés. Il est nécessaire de prendre des mesures maintenant afin d’établir un contrôle sur ces armes avant que les investissements, le progrès technologique et une nouvelle doctrine militaire rendent le cours des choses difficile à changer.
Permettre à des machines de prendre des décisions ayant un impact sur la vie ou la mort d’individus outrepasse une ligne morale fondamentale. Des robots autonomes ne disposeraient pas du jugement et de l’habileté nécessaires pour comprendre le contexte dans lequel ils évoluent. Ces qualités sont essentielles pour faire des choix éthiques complexes sur un champ de bataille en mouvement, pour faire la différence entre des soldats et des civils, et pour évaluer la proportionnalité de l’attaque. En conséquence, les armes entièrement autonomes ne rempliraient pas les exigences du droit de la guerre.
Remplacer des troupes humaines par des machines pourrait également rendre la décision d’aller en guerre plus facile, alourdissant ainsi le fardeau que représente un conflit pour les civils. Par ailleurs, l’utilisation d’armes entièrement autonomes créerait un vide juridique en termes de responsabilité, puisqu’il n’existe pas de règles claires à propos de qui porterait la responsabilité des actions posées par le robot : s’agirait-il du commandant, du programmeur, du manufacturier, ou du robot lui-même ? Sans responsable clair, tous ces acteurs auront moins d’incitatifs pour s’assurer que les robots ne posent pas de menace pour les civils, et les victimes pourront difficilement avoir la satisfaction de voir le responsable des préjudices qui leur auront été causés puni.
Leave a comment
Comments 0