La lumière du soleil traverse la fenêtre de mon bureau temporaire à Jérusalem tandis que j’examine un document qui aurait été inconcevable il y a seulement dix ans. Le contrat de 13,5 millions de dollars entre Microsoft et le ministère israélien de la Défense révèle comment l’intelligence artificielle a silencieusement transformé la guerre moderne d’une façon que la plupart des civils – et peut-être même les décideurs politiques – comprennent à peine.
« Ils appellent ça la ‘numérisation du champ de bataille’, mais ce que nous voyons réellement, c’est l’industrialisation de la guerre par l’IA, » explique Dr. Samir Khoury, chercheur en éthique technologique que j’ai rencontré lors d’une récente conférence à Genève. « La puissance de calcul déployée contre Gaza représente un mariage sans précédent entre les innovations de la Silicon Valley et les opérations militaires. »
L’enquête explosive du Guardian publiée la semaine dernière a révélé comment Microsoft a fourni des services d’informatique en nuage et des technologies d’IA à l’armée israélienne alors qu’elle mène des opérations à Gaza – opérations qui ont fait plus de 35 000 morts palestiniens depuis octobre, selon le ministère de la Santé de Gaza. Le contrat détaille des capacités avancées de reconnaissance d’images, d’analyse prédictive et d’outils d’apprentissage automatique conçus spécifiquement pour les scénarios de combat.
En me promenant hier dans Jérusalem-Est, j’ai parlé avec Fatima al-Haddad, une ingénieure logicielle palestinienne dont la famille a fui Gaza en décembre. « L’ironie la plus cruelle, » me dit-elle, la voix ferme mais les yeux reflétant une douleur incontestable, « c’est que les mêmes technologies présentées comme des outils pour l’avancement humain sont militarisées contre mon peuple avec une efficacité effrayante. »
Ce partenariat ne se limite pas à fournir des logiciels d’entreprise standard. Selon des documents examinés par plusieurs organes de presse, les systèmes d’IA de Microsoft contribuent à alimenter les systèmes d’identification de cibles d’Israël, permettant un traitement plus rapide des données de surveillance et, surtout, des décisions plus rapides sur les lieux à frapper.
Lorsque j’ai contacté Microsoft pour obtenir une réaction, un porte-parole a fourni cette déclaration soigneusement élaborée : « Microsoft offre des services en nuage aux gouvernements en conformité avec toutes les lois applicables et nos engagements en matière de droits humains. » L’entreprise a également affirmé qu’elle ne conçoit ni ne développe de systèmes d’armement. Cette distinction technique – fournir l’infrastructure informatique plutôt que les armes elles-mêmes – est devenue l’échappatoire éthique par laquelle de nombreux géants technologiques naviguent désormais.
Les analystes de défense que j’ai consultés indiquent que l’IA sur le champ de bataille accélère considérablement ce que les planificateurs militaires appellent la « chaîne de mise à mort » – le processus décisionnel allant de l’identification de la cible à l’exécution de la frappe. Ce qui nécessitait autrefois des heures d’évaluation par l’intelligence humaine peut maintenant se produire en quelques minutes ou secondes.
« Les conséquences pour la protection des civils sont profondes, » avertit Eliza Gavrilova du Comité international sur l’éthique des technologies militaires. « Quand on retire la délibération humaine de la guerre, on risque d’automatiser la tragédie. »
Les Forces de défense israéliennes maintiennent que le ciblage amélioré par l’IA améliore en réalité la précision et réduit les pertes civiles. « Nos systèmes nous aident à distinguer les combattants des non-combattants avec une précision plus grande que jamais, » m’a déclaré un porte-parole de Tsahal lors d’un point presse étroitement surveillé à Tel-Aviv.
Cependant, les observateurs de l’ONU et les organisations de droits humains ont régulièrement contesté ce récit. L’ampleur de la destruction des infrastructures civiles à Gaza – y compris hôpitaux, écoles et immeubles résidentiels – suggère soit des échecs de ciblage, soit des frappes délibérées sur des sites protégés.
Ce qui rend l’implication de Microsoft particulièrement significative, c’est la façon dont elle brouille les lignes entre responsabilité d’entreprise et éthique militaire. Les principes éthiques de l’IA de l’entreprise, publiés en évidence sur leur site web, mettent l’accent sur une conception centrée sur l’humain et l’équité. Pourtant, des employés au sein de Microsoft auraient soulevé des préoccupations quant à la façon dont leur travail est déployé dans les zones de conflit.
Une pétition interne signée par plus de 600 employés de Microsoft appelait l’entreprise à « cesser de fournir des technologies qui alimentent la violence. » Plusieurs employés ont démissionné en signe de protestation, selon des sources au sein de l’entreprise qui ont demandé l’anonymat par crainte de répercussions professionnelles.
La controverse s’étend au-delà de Microsoft. Google, Amazon et d’autres géants technologiques ont des contrats de défense tout aussi lucratifs, créant ce que certains observateurs appellent le « complexe militaro-technologique » – une mise à jour du 21e siècle de ce contre quoi le président Eisenhower mettait en garde.
Les implications géopolitiques sont tout aussi troublantes. Comme je l’ai rapporté depuis plusieurs zones de conflit au cours des quinze dernières années, un schéma clair émerge : les capacités d’IA déployées dans un théâtre de guerre se propagent rapidement à d’autres. Les technologies testées à Gaza aujourd’hui pourraient apparaître en Ukraine, au Soudan ou au Myanmar demain.
« Nous sommes témoins non seulement des souffrances à Gaza, mais du modèle pour les conflits futurs, » affirme Dr. Hassan Ibrahim, professeur de relations internationales à l’Université Georgetown. « Lorsque les grandes puissances constatent l’efficacité de ces systèmes, l’incitation à développer des capacités similaires devient irrésistible. »
La pression publique s’est intensifiée depuis ces révélations. Des manifestations devant les bureaux de Microsoft ont eu lieu à Seattle, Londres et Tel-Aviv. Des représentants du Congrès ont demandé des audiences sur l’implication des entreprises technologiques dans les conflits internationaux. Le Haut-Commissaire des Nations Unies aux droits de l’homme a demandé la transparence concernant la façon dont les systèmes d’IA sont déployés à Gaza.
Pour les Palestiniens pris dans le conflit, ces partenariats entreprise-militaire représentent quelque chose de plus immédiat que des abstractions éthiques. « Quand un missile frappe un bâtiment, personne à l’intérieur ne pense à l’algorithme qui a aidé à le guider là, » me dit Fatima avant que nous nous séparions.
Alors que la nuit tombe sur Jérusalem, les questions éthiques qui planent sur la Silicon Valley semblent particulièrement puissantes. L’industrie technologique qui promettait autrefois de connecter l’humanité se retrouve profondément intégrée dans la machinerie de guerre. Pour Microsoft et ses pairs, la distance entre le développement de services d’informatique en nuage et la facilitation d’opérations militaires s’est effondrée – nous laissant tous aux prises avec ce que cela signifie lorsque les entreprises qui construisent notre avenir numérique contribuent également à façonner la guerre moderne.