Categories
News

Drones Big Data Armes automatisees

Drones Big Data Armes automatiseesDrones Big Data Armes automatisees . La vidéo virale et les armes automatisées. La vidéo Slaughterbots suscite un buzz impressionnant sur les réseaux sociaux, et beaucoup d’entre vous m’en ont parlé.

Les réactions à ce petit film de fiction sont nombreuses et très variées. Il y a la lecture catastrophiste au premier degré : “c’est la preuve que les drones sont très dangereux”. Il y a les pragmatiques : “c’est un faux, la mise en scène est grossière”. Il y a les paramilitaires (et les gamers) : “cool, headshot !”. Il y a les théoriciens du complot : “on le sait depuis longtemps, ces technologies existent, tout ça c’est pour mieux nous contrôler”. Il y a les défenseurs des drones récréatifs : “c’est dommage de présenter les drones de cette manière, on va encore avoir des ennuis”. Il y a ceux qui s’inquiètent : “ça n’existe pas encore, mais ce n’est qu’une question de temps”. Il y a les sceptiques positivistes : “c’est juste une théorie sombre de l’avenir, ça n’arrivera pas”. Et bien d’autres réactions encore…

Le site web Ban Lethal Autonomous Weapons

Qui diffuse cette vidéo et dans quel but ? Vous devez suivre le lien indiqué pour arriver sur le site web Ban Lethal Autonomous Weapons. Il s’agit d’une initiative de plusieurs associations aux objectifs très divers, mais qui se sont regroupées pour mener une campagne en faveur d’un moratoire sur les robots tueurs (“Campaign to Stop Killer Robots”) présentée à Genève le 17 novembre 2017 . Même s’ils sont d’accord sur le fait qu’il n’existe actuellement aucune définition universelle des “armes automatisées”, leur objectif est de convaincre les nations de s’abstenir d’utiliser des armes capables de choisir automatiquement leurs cibles dans le but de tuer.

Est-ce de l’utopie ?

Sans aucun doute. La Convention d’Ottawa de 1997 (voir ici), dite visant à interdire la production et l’utilisation de mines antipersonnel, n’a pas éradiqué leur utilisation dans les conflits. Mais le fait que 162 pays aient ratifié la convention a permis de déminer 30 pays dont le territoire était considéré largement miné (source : Encyclopédie canadienne). Cela nous laisse tout de même un peu d’espoir. À noter que l’exemple des mines antipersonnel n’est pas comparable à celui des armes automatisées comme celles de la vidéo: les mines tuent de manière indiscriminée, ces armes sont conçues pour tuer en ciblant.

Est-ce de l’utopie ?

Sans aucun doute. La prétendue Convention d’Ottawa de 1997 (voir ici), visant à interdire la production et l’utilisation de mines antipersonnel, n’a pas éradiqué leur utilisation dans les conflits. Cependant, le fait que 162 pays aient ratifié la convention a permis de déminer 30 pays dont le territoire était largement considéré comme miné (source : Encyclopédie canadienne). Cela nous laisse tout de même avec un peu d’espoir. Notez que l’exemple des mines antipersonnel n’est pas comparable à celui des armes automatisées comme celles de la vidéo : les mines tuent de manière indiscriminée, tandis que ces armes sont conçues pour tuer avec une cible précise.

Technologie ?

Est-ce que la technologie présentée dans la vidéo est déjà possible ? Les briques technologiques nécessaires existent déjà, le plus souvent dans des produits déjà commercialisés au grand public ! Les nano multirotors sont une réalité, tout comme les technologies de déplacement en extérieur et en intérieur. Les outils de reconnaissance d’objets, y compris les formes et les visages, sont opérationnels. Des recherches sont en cours dans le milieu universitaire pour perfectionner la reconnaissance des visages, notamment lorsqu’ils sont dissimulés derrière des lunettes, des cheveux naturels ou artificiels, ou des couvre-chefs (comme ceux de l’université de Cornwell en Grande-Bretagne, à lire ici). Je ne fais pas de commentaire sur le transport et l’utilisation de charges explosives comme celle montrée dans la vidéo : je n’en sais rien.

Réseaux longue distance, intelligence artificielle et Big Data ?

Les outils de communication à longue distance sont également opérationnels pour un retour vidéo en temps réel. Les ordinateurs embarqués sur les multirotors sont devenus, comme les téléphones portables, des monstres de calcul prêts à l’emploi, et les outils de communication de données permettent d’effectuer des calculs lourds sur des unités situées à distance. La combinaison de l’intelligence artificielle capable de prendre des décisions autonomes avec la disponibilité de grandes quantités de Big Data pour établir des modèles statistiques, tout en profitant des bases de données d’informations personnelles qui incluent désormais la géolocalisation. Tout cela fournit les moyens de créer des algorithmes et de les alimenter en données pour des scénarios similaires à ceux mentionnés dans la vidéo : des attaques ciblées, des vols en essaim.

Demain !

Cependant, même si tous les blocs technologiques existent déjà, ils sont encore trop peu évolués pour être miniaturisés et enfermés dans de si petits dispositifs. Mais le progrès est très rapide, on peut imaginer qu’un scénario proche de celui de la vidéo sera possible demain. Quand ? Demain, c’est-à-dire dans 6 mois, 1 an, 2 ans, 10 ans, c’est seulement une question de temps. Rappelez-vous, il y a 5 ans, il y avait le Ladybird de Walkera (voir ici). La technologie a beaucoup progressé depuis, comme en témoigne le Spark de DJI. Les chercheurs ajoutent que le prix de ces armes pourrait chuter très rapidement pour être accessible à… trop de personnes et en grande quantité, contrairement aux armes conventionnelles lourdes, pour un résultat plus “efficace” ! Il est fort probable que les outils de détection et de neutralisation accusent un retard d’une génération…

La lutte à mener ?

Si l’avenir nous menace de telles armes, la lutte de Ban Lethal Autonomous Weapons semble légitime, à encourager, même si elle semble utopique. Le Future of Life Institute a publié une lettre ouverte le 28 juillet 2015 pour mettre en garde contre les dangers des armes automatisées. Elle a été signée par un nombre impressionnant de scientifiques (dont plus de 3 500 spécialistes des technologies de la robotique et de l’intelligence artificielle) et d’individus (voir la liste ici). Parmi eux, on note des influenceurs tels que Stephen Hawkins, Elon Musk et Steve Wozniak – pour ne citer que les plus connus. Cette lettre ouverte peut être consultée en ligne (voir ici), avec la possibilité de la signer.

Est-ce que ces pétitions fonctionnent ?

Nous ne vivons pas dans un monde parfait et personne n’est dupe, les utilisations malveillantes de la technologie existeront toujours. Pourtant, oui, l’avis de scientifiques reconnus est susceptible d’influencer les politiques militaires. Cela a été le cas, comme l’explique un article de l’anthropologue Jeanne Guillemin du MIT, avec les armes biologiques (voir ici). Notez que les armes automatisées avaient déjà été mentionnées par un scientifique en 2007 : Noel Sharkey avait publié une tribune sur les guerres menées par des robots dans The Guardian (voir ici).

Ceux qui disent non

Nous devrons compter sur l’adversité des États, des organisations, voire des individus qui n’auront ni le désir ni l’intérêt d’adhérer à l’idée d’un moratoire sur les armes automatisées. Le Foreign Office britannique a clairement indiqué en 2016 qu’il n’avait pas l’intention d’imposer un moratoire sur les armes automatisées, arguant que les lois internationales existantes étaient suffisantes, selon le Dr William Boothby dans une interview avec Business Insider (voir ici). Il va même plus loin, ajoutant que les armes automatisées ne sont pas une mauvaise idée : avec elles, “il n’y a pas d’émotion, il n’y a pas de haine, il n’y a pas d’esprit, d’un autre côté, il n’y a pas de panique, il n’y a pas de perversité”…

Déclaration de Stuart Russell ?

Stuart Russell, professeur d’informatique à l’Université de Berkeley

C’est celui présenté à la fin de la vidéo du site AutonomousWeapons.org. “Ce petit film n’est pas simplement de la spéculation, il montre les résultats de l’intégration et de la miniaturisation des technologies que nous avons déjà. Je suis Stuart Russell, professeur d’informatique à l’UC Berkeley. J’ai travaillé dans le domaine de l’intelligence artificielle depuis plus de 35 ans. Son potentiel bénéfique pour l’humanité est gigantesque, y compris pour la défense. Permettre aux machines de choisir de tuer des humains sera dévastateur pour notre sécurité et notre liberté. Des milliers de collègues chercheurs conviennent que nous avons encore l’opportunité d’éviter un avenir comme celui que vous venez de voir. Mais il sera bientôt trop tard pour réagir.”

Le mot de la fin

Regardez la vidéo complète publiée par le site AutonomousWeapons.org, prenez du recul et formez votre propre opinion.

Entre-temps, suite à cette vidéo, nous devrons expliquer calmement et par l’exemple que le Tiny Whoop trouvé sous le sapin de Noël ne sera pas une arme de destruction ciblée, pas même pour le faux vase Ming dans le salon…

https://www.helicomicro.com Fred 20 nov. ’17 Drones Big Data Armes automatisees Drones Big Data Armes automatisees Drones Big Data Armes automatisees

Leave a Reply

Your email address will not be published. Required fields are marked *