En utilisant ce site, vous acceptez la Politique de confidentialité et les Conditions d'utilisation.
Accept
Media Wall NewsMedia Wall NewsMedia Wall News
  • Accueil
  • Canada
  • Ukraine et affaires mondiales
  • Politique
  • Technologie
  • Guerre commerciale de Trump 🔥
  • Français
    • English (Anglais)
Reading: Microsoft défend le soutien de l’IA à l’armée israélienne dans la guerre de Gaza
Share
Font ResizerAa
Media Wall NewsMedia Wall News
Font ResizerAa
  • Économie
  • Politique
  • Affaires
  • Technologie
Rechercher
  • Home
  • Canada
  • Ukraine et affaires mondiales
  • Élections 2025 🗳
  • Guerre commerciale de Trump 🔥
  • Ukraine et Affaires mondiales
  • Français
    • English (Anglais)
Follow US
© 2025 Media Wall News. All Rights Reserved.
Media Wall News > Crise au Moyen-Orient > Microsoft défend le soutien de l’IA à l’armée israélienne dans la guerre de Gaza
Crise au Moyen-Orient

Microsoft défend le soutien de l’IA à l’armée israélienne dans la guerre de Gaza

Malik Thompson
Last updated: mai 19, 2025 3:27 PM
Malik Thompson
6 heures ago
Share
SHARE

La révélation nous a pris au dépourvu, nous qui travaillons dans le domaine de la responsabilité technologique. La semaine dernière, lors d’une assemblée d’actionnaires, les dirigeants de Microsoft ont confirmé ce que plusieurs soupçonnaient : l’entreprise fournit effectivement des outils d’intelligence artificielle à l’armée israélienne pendant sa campagne en cours à Gaza.

J’ai passé la dernière décennie à suivre comment les technologies de la Silicon Valley se retrouvent dans les zones de conflit, mais rarement une grande entreprise technologique a été aussi explicite concernant ses partenariats en temps de guerre. Alors que le débat s’intensifie sur les limites éthiques du déploiement de l’IA dans les conflits armés, Microsoft se retrouve à défendre un partenariat qui soulève des questions profondes sur la responsabilité des entreprises.

« Nous avons fourni des technologies à l’armée israélienne, comme nous l’avons fait pour d’autres armées de l’OTAN et ailleurs, » a reconnu Brad Smith, président de Microsoft, en réponse aux questions des actionnaires. Pourtant, il a insisté qu’aucune de ces technologies n’est utilisée « de manière que nous considérerions comme nuisible pour les civils. »

Cette formulation prudente révèle la corde raide impossible sur laquelle Microsoft tente de marcher. En discutant avec des analystes militaires à Bruxelles le mois dernier, j’ai entendu à maintes reprises que la ligne entre la protection et les préjudices aux civils dans la guerre urbaine moderne est devenue dangereusement floue. Un ancien conseiller de l’OTAN m’a confié que « tout système d’IA qui améliore l’efficacité du ciblage comporte intrinsèquement des implications à double usage. »

La divulgation de Microsoft survient au milieu d’une crise humanitaire dévastatrice. Selon le ministère de la Santé de Gaza, plus de 34 000 Palestiniens ont été tués depuis le 7 octobre, et les Nations Unies rapportent une destruction catastrophique des infrastructures civiles. Pendant ce temps, les autorités israéliennes continuent de chercher le retour des otages pris lors de l’attaque du Hamas, qui a tué 1 200 personnes.

Les groupes de défense des droits palestiniens avec lesquels j’ai parlé à Amman la semaine dernière ont exprimé leur indignation face à l’implication de Microsoft. « Lorsque des entreprises technologiques fournissent de l’IA à des armées opérant dans des zones densément peuplées, elles ne peuvent pas prétendre à la neutralité quant à la façon dont leurs outils sont finalement déployés, » a déclaré Rania Khalek, chercheuse à la Coalition pour les droits numériques palestiniens.

La controverse a déclenché une dissidence interne chez Microsoft même. Des groupes d’employés ont exigé une plus grande transparence sur les capacités d’IA exactes partagées avec l’armée israélienne. Une lettre ouverte signée par plus de 1 200 employés en janvier appelait l’entreprise à mettre fin à son investissement de 1,2 milliard de dollars dans la société israélienne d’IA Project Nimbus, un partenariat qui inclut Google.

« Nous avons déjà vu ce schéma auparavant, » m’a dit Dr. Mahmoud El-Kati, professeur d’études moyen-orientales à l’Université Georgetown. « Les entreprises technologiques fournissent des outils puissants aux acteurs militaires, prétendent être neutres quant à leur application, puis expriment leur choc lorsque des preuves de mauvaise utilisation émergent. »

La défense de Microsoft repose sur une distinction entre la fourniture de technologie générale et la conception d’applications militaires spécifiques. Smith a souligné que l’entreprise fournit « des services commerciaux largement disponibles » plutôt que des systèmes d’armes personnalisés. Il a en outre déclaré que Microsoft n’a « été impliqué d’aucune façon » dans le développement d’armes autonomes.

Cependant, cette formulation évite des questions clés sur la façon dont même l’IA à usage général peut transformer les capacités militaires. Les propres directives éthiques du Département de la Défense américain reconnaissent que l’IA commerciale, lorsqu’elle est intégrée aux systèmes militaires, peut fondamentalement altérer leur fonction et leur impact.

En examinant le modèle plus large des relations technologie-militaire, la position de Microsoft semble de plus en plus compliquée. L’entreprise a obtenu un contrat de 10 milliards de dollars avec le Pentagone en 2022 pour des services cloud. Elle a également développé le casque de réalité augmentée HoloLens dans le cadre d’un contrat de 22 milliards de dollars avec l’armée américaine, bien que ce projet ait rencontré d’importants défis techniques.

Microsoft n’est pas seule à naviguer dans ces eaux troubles. L’année dernière, Google a fait face à une réaction similaire concernant le Project Nimbus, tandis que la fourniture par Amazon de technologie de reconnaissance faciale aux forces de l’ordre a déclenché des débats éthiques continus. Ce qui distingue la situation actuelle est la reconnaissance explicite du déploiement de l’IA pendant un conflit actif à forte mortalité.

D’après mes reportages à Beyrouth et Amman au cours des trois derniers mois, j’ai vu comment les décisions des entreprises technologiques résonnent dans toute la région. Un ingénieur libanais en télécommunications, s’exprimant sous couvert d’anonymat, m’a dit: « Quand les géants technologiques américains s’alignent sur des opérations militaires, cela mine leur crédibilité en tant que fournisseurs de services neutres dans tout le Moyen-Orient. »

La controverse met en lumière une tension fondamentale dans l’évolution de la gouvernance de l’IA. Alors que des entreprises comme Microsoft ont publié des principes d’éthique de l’IA—ceux de Microsoft incluent des engagements pour l’équité et la transparence—ces cadres contiennent des lacunes critiques concernant les applications militaires. La norme d’IA responsable de l’entreprise, mise à jour en 2022, ne mentionne explicitement ni la guerre ni les conflits armés.

La Rapporteure spéciale des Nations Unies sur les exécutions extrajudiciaires, Agnes Callamard, a averti à plusieurs reprises de ce vide réglementaire. « Lorsque les systèmes d’IA aident aux décisions de ciblage pendant un conflit armé, les questions de responsabilité juridique et morale deviennent extraordinairement complexes, » a-t-elle noté dans un rapport de 2023.

Ce qui se passera ensuite façonnera probablement l’avenir des partenariats technologiques-militaires à l’échelle mondiale. Les actionnaires de Microsoft ont finalement rejeté la proposition qui aurait exigé une plus grande transparence sur les contrats militaires de l’entreprise. Cependant, la divulgation publique a déjà intensifié les appels à des normes internationales complètes régissant l’IA dans les zones de conflit.

Alors que je me prépare à retourner dans la région le mois prochain, l’aspect le plus frappant de cette histoire reste le contraste entre le langage clinique de la Silicon Valley sur la « fourniture de technologie » et la réalité dévastatrice sur le terrain. À Gaza, où les nécessités de base restent rares et la destruction généralisée, les débats sur l’éthique de l’IA prennent une dimension entièrement différente.

La révélation de Microsoft révèle non seulement une décision d’entreprise spécifique, mais aussi un défi systémique plus large: dans un monde où la technologie et la guerre convergent de plus en plus, peut-on encore tracer des limites éthiques significatives? Pour ceux qui vivent sous les bombardements, cette question est loin d’être théorique.

You Might Also Like

Frappes aériennes d’Israël et fermeture d’un hôpital à Gaza alors que le bilan des morts augmente

Gaza : Israël autorise un soulagement humanitaire limité avec assouplissement du blocus

Israël Gaza : assouplissement du blocus de l’aide alimentaire face aux avertissements de famine

Frappe aérienne israélienne sur Gaza après une promesse d’aide face à la crise de la faim

Aide israélienne et contrôle de Gaza : risques de déplacement suscitent des préoccupations humanitaires

TAGGED:Éthique technologiqueIntelligence artificielle militaireMicrosoft en IsraëlResponsabilité des entreprises
Share This Article
Facebook Email Print
ParMalik Thompson
Suivre :

Social Affairs & Justice Reporter

Based in Toronto

Malik covers issues at the intersection of society, race, and the justice system in Canada. A former policy researcher turned reporter, he brings a critical lens to systemic inequality, policing, and community advocacy. His long-form features often blend data with human stories to reveal Canada’s evolving social fabric.

Previous Article Analyse de Mark Carney : Finance, Revenu et Fusion
Next Article Guerre de Gaza : Impact sur l’éducation alors que les élèves luttent pour apprendre parmi les ruines
Laisser un commentaire

Laisser un commentaire Annuler la réponse

Votre adresse courriel ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Retrouvez-nous sur les réseaux sociaux

Dernières actualités

Financement de la souveraineté alimentaire autochtone CB 2025 : Investissement de la Colombie-Britannique dans les programmes
Canada
Grève de Postes Canada mai 2025 : Les travailleurs menacent de faire grève à partir du 23 mai
Canada
Camp d’entraînement des Roughriders 2024 : Batailles contre les intempéries des Prairies
Canada
La clinique sans rendez-vous de Chilliwack accepte de nouveaux patients dans le cadre d’une initiative en personnel de santé
Santé
logo

Canada’s national media wall. Bilingual news and analysis that cuts through the noise.

Catégories principales

  • Politique
  • Affaires
  • Technologie
  • Économie
  • Vigie de la désinformation 🔦
  • Politique américaine
  • Ukraine et Affaires mondiales

Plus de catégories

  • Culture
  • Démocratie et Droits
  • Énergie et Climat
  • Santé
  • Justice et Droit
  • Opinion
  • Société

À propos de nous

  • Nous contacter
  • À propos de nous
  • Annoncez avec nous
  • Politique de confidentialité
  • Conditions d’utilisation

Langue

  • Français
    • English (Anglais)

Retrouvez-nous sur les réseaux sociaux

© 2025 Media Wall News. All Rights Reserved.