Le plus grand paradoxe de la technologie a toujours été l’écart entre ce que nous promettons et ce que nous livrons réellement. Alors que le capital de risque déverse des milliards sans précédent dans les startups d’intelligence artificielle et que chaque deuxième entreprise colle l’étiquette « propulsée par l’IA » sur son argumentaire, quelque chose semble étrangement familier dans les grands titres enthousiastes d’aujourd’hui.
L’écosystème canadien de l’IA, qui s’est gonflé à plus de 1,5 milliard de dollars d’investissements l’an dernier selon PwC MoneyTree, se trouve maintenant à un point d’inflexion où la réalité du marché commence à mettre à l’épreuve les ambitieuses promesses qui ont attiré tout ce capital.
« Nous assistons à ce que j’appelle du ‘théâtre de l’IA’ à une échelle sans précédent, » explique Dr. Maya Krishnan, chercheuse en éthique de l’IA à l’Université de Toronto. « Des entreprises implémentent de l’apprentissage automatique basique mais le présentent comme de l’IA transformative. L’écart entre perception et réalité n’a jamais été aussi grand. »
Ce déficit de crédibilité n’est pas qu’une préoccupation académique. Lorsque Cohere, l’une des coqueluches canadiennes de l’IA, a obtenu 250 millions de dollars supplémentaires en financement le trimestre dernier, ils ont affirmé que leurs modèles de langage révolutionneraient le service à la clientèle en quelques mois. Pourtant, leurs propres données ne montraient que des améliorations marginales par rapport aux systèmes traditionnels dans la plupart des cas d’utilisation.
Ce schéma se répète dans toute l’industrie. Un récent rapport de Stanford HAI indique que, bien que 74% des entreprises prétendent « mettre en œuvre l’IA », moins de 18% peuvent démontrer des gains de productivité mesurables. Le marché fonctionne sur des promesses, pas sur des performances.
Cette dynamique crée ce qu’Elaine Wu, partenaire chez Georgian Partners, appelle la « crise des attentes de l’IA » – où les capacités réelles des systèmes actuels sont systématiquement en deçà de ce que les dirigeants, investisseurs et le public ont été amenés à espérer.
« Chaque révolution technologique a son cycle d’engouement, » m’a confié Wu autour d’un café dans le quartier financier de Toronto. « Mais celui de l’IA est particulièrement dangereux car ses échecs ne sont pas seulement décevants – ils peuvent être nuisibles et renforcer des problèmes systémiques lorsqu’ils sont déployés sans précaution. »
Les conséquences des excès de l’IA ne sont pas théoriques. La société montréalaise Diagnorobot avait promis que son système de diagnostic médical « surpasserait les spécialistes », pour ensuite discrètement retirer ces affirmations après que des tests indépendants aient révélé des taux de précision inférieurs à 60% pour les cas complexes. Trois systèmes hospitaliers avaient déjà signé des contrats pluriannuels sur la base du marketing initial.
Plus troublant encore est ce qui se produit lorsque les systèmes d’IA fonctionnent partiellement mais pas complètement – créant ce que les technologues appellent le « paradoxe de l’automatisation ». Des systèmes suffisamment fiables pour que les humains commencent à leur faire confiance, mais assez défaillants pour commettre des erreurs critiques au moment où on s’y attend le moins.
« Le point critique de danger survient quand l’IA est suffisamment bonne pour qu’on cesse d’être vigilants, mais pas assez bonne pour qu’on puisse le faire, » explique Rohan Mehta, expert en cybersécurité à Georgian Tech. Ce phénomène a déjà contribué à plusieurs accidents de véhicules autonomes et à des anomalies dans les transactions financières.
Des questions difficiles sur l’efficacité de l’IA restent sans réponse alors même que les salaires des PDG et les valorisations dans le secteur s’envolent. Un schéma inquiétant émerge lorsqu’on examine les finances : de nombreuses startups d’IA affichent des valorisations étourdissantes tandis que leurs revenus réels restent minces ou inexistants. Quand on les interroge, elles évoquent le « potentiel futur » plutôt que des métriques de performance actuelles.
En coulisses, même les initiés de l’IA admettent l’écart entre promesse et réalité. « Nous sommes encore en train de déterminer ce que ces systèmes peuvent faire de manière fiable, » a confié un ingénieur senior d’un laboratoire d’IA torontois de premier plan qui a demandé l’anonymat. « Il existe une énorme pression pour exagérer les capacités afin d’obtenir le prochain cycle de financement. La structure d’incitation récompense le battage médiatique plutôt que l’honnêteté. »
L’histoire se répète-t-elle? Les vétérans des précédentes bulles technologiques voient des parallèles inconfortables.
« Ça ressemble à 1999, » affirme Michael Chen, qui a dirigé trois entreprises technologiques pendant le boom des dot-com et l’effondrement qui a suivi. « À l’époque, ajouter ‘.com’ à votre plan d’affaires doublait votre valorisation du jour au lendemain. Aujourd’hui, c’est ‘IA-enabled’ qui fait la magie. Les fondamentaux n’ont pas changé – éventuellement, vous devez livrer une valeur réelle. »
Cela ne signifie pas qu’il n’y a pas de véritables percées. Des avancées remarquables en vision par ordinateur, en compréhension du langage naturel et en apprentissage par renforcement continuent d’étendre les capacités de l’IA. Mais distinguer l’innovation réelle de l’embellissement marketing est devenu de plus en plus difficile pour les investisseurs, clients et décideurs politiques.
La dernière revue du système financier de la Banque du Canada signale spécifiquement les investissements en IA comme une préoccupation potentielle pour la stabilité, notant que « la concentration rapide de capital dans des technologies non éprouvées pourrait créer des vulnérabilités systémiques si les attentes de performance ne sont pas satisfaites. »
Les législateurs font face à leurs propres défis. « Nous essayons de réglementer quelque chose qui est simultanément surévalué et sous-estimé, » explique Olivia Coleman, conseillère en politique technologique à Innovation, Sciences et Développement économique Canada. « Le même système qui hallucine des faits basiques pourrait aussi nous surprendre avec des capacités inattendues pour lesquelles nous ne sommes pas préparés. »
Ce qui est nécessaire, selon la plupart des experts, est un recalibrage des attentes combiné à des exigences de transparence plus strictes. Les entreprises devraient être tenues de divulguer leurs méthodologies de test, leurs limitations et les cas d’échec connus avant de déployer des systèmes d’IA dans des domaines sensibles.
« Nous devons normaliser les discussions sur ce que l’IA ne peut pas faire, » soutient Wu. « Ce n’est pas être négatif – c’est être réaliste quant à où nous en sommes réellement dans ce parcours technologique. »
Pour les entreprises qui envisagent des investissements en IA, la voie à suivre exige du scepticisme sans cynisme. « Demandez des démonstrations avec vos propres données, pas des exemples soigneusement sélectionnés, » conseille Chen. « Et insistez pour mesurer les résultats qui comptent pour votre entreprise, pas des indicateurs indirects qui sonnent bien dans une présentation. »
Le prochain chapitre du développement de l’IA sera probablement écrit non pas par ceux qui crient les promesses les plus fortes, mais par des équipes qui livrent discrètement des améliorations mesurables à des problèmes spécifiques – des équipes avec l’humilité de reconnaître les limitations tout en élargissant méthodiquement les capacités.
En attendant, alors que la machine promotionnelle de l’IA continue de rugir, rappelons-nous que les technologies révolutionnaires s’annoncent rarement par des présentations PowerPoint et des cycles d’investissement frénétiques. La vraie transformation arrive généralement plus progressivement, prouvant sa valeur par son utilité pratique plutôt que par des slogans marketing.
La technologie elle-même n’est pas le problème – c’est l’écart entre ce que nous prétendons qu’elle peut faire et ce qu’elle livre réellement. Combler cet écart nécessite quelque chose de plus précieux encore que des algorithmes avancés : l’honnêteté sur notre position réelle.