Conditions d'utilisation : Copilot uniquement à des fins de divertissement
Par Victor Tangermann .Publié le
2026/04/09 10:10
Avril. 09, 2026
Les utilisateurs de Microsoft Windows manifestent une frustration croissante face à l'insistance de l'entreprise à intégrer son agent conversationnel Copilot dans les moindres recoins du système d'exploitation, au point de le surnommer péjorativement Microslop.
Pourtant, Microsoft admet elle-même dans les conditions d'utilisation de Copilot qu'il ne faut se fier à l'intelligence artificielle pour pratiquement aucun travail important.
Un aveu de non-fiabilité
« Copilot est destiné uniquement à des fins de divertissement », peut-on lire dans ce long document. « Il peut commettre des erreurs et peut ne pas fonctionner comme prévu. Ne vous fiez pas à Copilot pour obtenir des conseils importants. Utilisez Copilot à vos propres risques. »
Il s'agit d'une contradiction flagrante, compte tenu des efforts acharnés de Microsoft pour imposer Copilot jusque dans des applications simples comme Microsoft Paint et Notepad, ainsi que dans ses outils de productivité.
Une méfiance partagée par les utilisateurs
Sur Reddit, les critiques ne manquent pas. « Personnellement, ce n'est pas un bon signe lorsqu'une entreprise refuse de garantir l'exactitude de son produit », note un utilisateur. « Si Microsoft ne fait pas confiance à Copilot, pourquoi devrais-je lui faire confiance ? »
Un autre ironise : « Un tiers de l'économie américaine investi dans une technologie destinée uniquement au divertissement. Quelle confiance. Je suis sûr que cela va bien se passer. »
La réponse de Microsoft : une « formulation héritée »
Un porte-parole de l'entreprise a précisé à PCMag que cette formulation inhabituelle est un « héritage de l'époque où Copilot a été lancé initialement comme un service d'accompagnement de recherche dans Bing ».
« À mesure que le produit a évolué, cette formulation ne reflète plus la manière dont Copilot est utilisé aujourd'hui et sera modifiée lors de notre prochaine mise à jour », a ajouté le porte-parole.
Un fossé entre promesses et réalité
Néanmoins, ce langage contractuel met en lumière une tendance plus large : les entreprises d'IA vantent les capacités de leurs chatbots tout en déclinant toute responsabilité en cas d'erreurs ou de réponses absurdes.
Si les dirigeants de la tech affirment que les modèles de langage derrière des outils comme Copilot constituent le développement le plus important depuis la révolution industrielle, ces systèmes conservent une forte tendance à l'hallucination, rendant leurs résultats fondamentalement peu fiables.
La fracture entre les promesses grandioses des leaders technologiques et la réalité des capacités actuelles de l'IA reste un point de friction majeur, alors que des entreprises comme OpenAI et Anthropic se préparent à des introductions en bourse potentiellement historiques. Les premières fissures apparaissent déjà : Amazon a signalé des pannes majeures cette année, causées par du code défectueux généré par l'IA.
Notez ce sujet