Utiliser Microsoft Copilot sans le cloud

Les assistants IA « Copilot » de Microsoft – du Microsoft 365 Copilot intégré aux applications Office, au GitHub Copilot pour le codage, en passant par le nouveau Windows Copilot – promettent tous d’augmenter la productivité grâce à l’IA générative. Cependant, aujourd’hui, ces outils reposent largement sur le cloud. Ils s'appuient sur des modèles de langage étendus exécutés dans les centres de données de Microsoft pour générer des réponses, des suggestions de code et des analyses. Cela soulève une question clé pour de nombreux responsables informatiques : Est-il possible d'utiliser Copilot sans connexion Internet ni dépendance au cloud ?

Dans cette analyse approfondie, nous examinerons l’état actuel de la dépendance de Copilot au cloud, les options disponibles (le cas échéant) pour une utilisation hors ligne ou sur site, et comment Microsoft fait évoluer Copilot pour des scénarios hybrides. Nous passerons en revue chaque offre Copilot – Microsoft 365, GitHub et Windows – et discuterons des stratégies d’entreprise adaptées aux environnements à connectivité limitée. Nous mettrons également en avant la feuille de route de Microsoft et les nouvelles solutions en cours de développement visant à étendre l’accès à Copilot au-delà du cloud.

(Spoiler : aujourd'hui, les expériences Copilot sont principalement liées au cloud, mais des évolutions sont à venir. En attendant, il existe des moyens d’atténuer les exigences cloud et de se préparer à des déploiements IA plus flexibles.)

Microsoft 365 Copilot sur siteMicrosoft 365 Copilot sur site

La nature cloud-based de Microsoft Copilot aujourd'hui

Actuellement, tous les services Microsoft Copilot fonctionnent principalement comme des assistants IA basés sur le cloud, ce qui signifie que le traitement lourd de l'IA est effectué sur des serveurs distants. Récapitulons brièvement comment chaque Copilot fonctionne et pourquoi une connexion Internet active est généralement nécessaire :

  • Microsoft 365 Copilot – Un assistant IA pour Word, Excel, PowerPoint, Outlook, Teams, etc., qui utilise OpenAI GPT-4 (hébergé sur Azure) ainsi que les données de Microsoft Graph pour générer du contenu et des réponses. Il est disponible uniquement dans le cadre des services cloud de Microsoft. Microsoft 365 Copilot est explicitement basé sur le cloud, sans exécution locale ou hors ligne. La documentation de Microsoft est très claire à ce sujet : « Microsoft 365 Copilot est basé sur le cloud et n'a pas accès aux boîtes aux lettres locales. » Si les données de l'utilisateur (comme une boîte aux lettres Exchange) sont stockées sur site au lieu d'Exchange Online, Copilot n'y aura tout simplement pas accès. Toute la magie s'effectue dans le cloud Microsoft 365 ; sans accès Internet à ce cloud, Copilot ne peut pas fonctionner. Les experts du secteur avertissent également : « Ne vous attendez pas à utiliser Copilot hors ligne… Copilot ne fonctionne pas sans accès aux services Azure. » En résumé : pas d'Internet, pas de Copilot dans Office.
  • GitHub Copilot – Un pair programmeur IA qui suggère du code dans votre IDE. GitHub Copilot repose sur les modèles OpenAI Codex/GPT hébergés par GitHub (filiale de Microsoft). Votre éditeur de code envoie le contexte de votre code au service Copilot dans le cloud, qui retourne des suggestions générées par l'IA. Cela signifie que GitHub Copilot nécessite une connexion Internet active pour fournir ses suggestions. Il n'y a pas de mode hors ligne. Les forums d'assistance GitHub confirment que « Copilot a besoin d'un accès Internet pour obtenir vos suggestions, car le traitement est effectué côté GitHub ». Lorsqu'on leur a demandé s'il existait une version sur site pour les entreprises, la réponse a été directe : « Aucune version sur site de Copilot n'est prévue. » Aujourd'hui, que vous soyez développeur indépendant ou entreprise utilisant Copilot for Business, les complétions de code proviennent d'un service cloud (avec les mesures de sécurité appropriées dans Copilot for Business pour éviter la conservation de votre code). Si vos développeurs sont complètement hors ligne ou sur un réseau restreint sans Internet, GitHub Copilot ne fonctionnera pas.
  • Windows Copilot – Introduit avec Windows 11 (2023) comme assistant IA intégré, Windows Copilot a débuté essentiellement comme une interface pour Bing Chat (GPT-4) dans Windows. Lors de sa première version, les fonctionnalités de Windows Copilot (répondre aux questions, résumer du contenu, contrôler les paramètres) étaient toutes basées sur le cloud – en particulier sur l'IA de Bing. Ainsi, une connexion Internet était indispensable. Les premiers utilisateurs ont noté que Windows Copilot était essentiellement « un service en ligne greffé à Windows » – si vous étiez hors ligne, il ne faisait rien. Même des tâches simples comme demander à Windows Copilot de résumer un document ou de rédiger un email nécessitaient l'IA cloud. Cela restait vrai que vous disposiez d'un PC IA récent ou d'une machine vieille de 10 ans – sans Internet, Copilot était indisponible. En résumé, la première version de Windows Copilot considérait le PC uniquement comme un canal vers l'IA cloud.

Pourquoi cette dépendance au cloud ?

Le point commun entre ces expériences Copilot est qu'elles exploitent des modèles de langage de grande taille (LLMs) beaucoup trop volumineux pour être exécutés sur du matériel local classique (du moins jusqu'à récemment). Microsoft 365 Copilot utilise GPT-4 ; GitHub Copilot utilise Codex et de nouveaux modèles basés sur GPT-4 pour le chat ; Bing/Windows Copilot utilise également GPT-4. Ces modèles comptent des milliards de paramètres et nécessitent des GPU puissants – ils résident dans le cloud Azure. Leur exécution dans le cloud permet également à Copilot d'intégrer des données basées sur le cloud (par exemple, vos documents Microsoft 365, vos e-mails ou des dépôts de code publics) et d'appliquer des contrôles de sécurité d'entreprise de manière centralisée.

Cependant, cette dépendance au cloud pose des défis. Explorons pourquoi de nombreuses organisations demandent des capacités Copilot hors ligne ou sur site et quelles sont les options actuellement disponibles.

Pourquoi les entreprises souhaitent un Copilot sans le cloud

Pour les décideurs informatiques, la nature cloud de Copilot soulève des considérations importantes concernant la connectivité, la confidentialité et la conformité. Voici quelques scénarios où un Copilot dépendant du cloud pourrait ne pas être idéal :

Environnements à connectivité limitée ou inexistante

De nombreuses industries comptent des utilisateurs situés dans des endroits isolés ou éloignés – plates-formes pétrolières, sites miniers, navires en mer, stations de recherche sur le terrain, cliniques rurales ou déploiements militaires. Dans ces cas, une connexion Internet fiable n'est pas garantie. Un ingénieur sur un cargo ou un soldat dans une base avancée pourrait grandement bénéficier d'un assistant IA, mais si celui-ci nécessite une connexion Internet permanente, cela devient impossible. Ces utilisateurs recherchent des outils d'IA capables de fonctionner hors ligne ou avec une connectivité intermittente.

Sécurité stricte des données et conformité

Les secteurs fortement réglementés (gouvernement, défense, finance, santé) imposent souvent des politiques interdisant la transmission de données sensibles sur Internet public. Même si le cloud de Microsoft est sécurisé, l'idée qu'une requête ou des données utilisateur quittent l'environnement sur site peut enfreindre les réglementations. Par exemple, une agence gouvernementale pourrait être séduite par l'idée que Copilot résume un rapport confidentiel, mais si cela implique que le texte du rapport soit envoyé vers le cloud, cela violerait les protocoles de sécurité. De telles organisations recherchent des solutions IA sur site ou en cloud privé, où les données restent en permanence dans leur environnement contrôlé.

Latence et fiabilité

Se reposer sur des services cloud signifie que les utilisateurs sont soumis à la latence Internet et aux interruptions de service. Si la connexion est lente ou instable, Copilot devient lent ou indisponible. Dans des flux de travail critiques, cette incertitude est problématique. Un Copilot capable de fonctionner hors ligne pourrait garantir la continuité – une assistance IA disponible même en cas d'interruption du réseau. Il s'agit de résilience : imaginez une situation d'urgence lors d'une catastrophe naturelle où Internet est hors service, mais où un assistant IA pourrait toujours aider à analyser des données localement.

Coût et bande passante

Envoyer en permanence des données vers le cloud pour le traitement IA peut consommer de la bande passante et potentiellement générer des coûts (même si Copilot lui-même est licencié par utilisateur). Dans des succursales distantes avec des connexions mesurées ou à faible débit, minimiser le trafic cloud est souhaitable. Un modèle IA local pourrait réduire l'empreinte en bande passante.

Perception de la confidentialité

Au-delà de la sécurité réelle, certaines organisations ont un besoin culturel ou imposé par leurs clients de conserver les données sur site. Elles peuvent faire confiance au cloud de Microsoft en principe, mais préfèrent pouvoir assurer aux parties prenantes que « l'IA fonctionne localement, vos données ne quittent jamais nos installations ». C'est une garantie pour les clients ou les citoyens que les informations sensibles ne transitent même pas temporairement par un système externe.

Valeur des données propriétaires

Microsoft 365 Copilot et GitHub Copilot sont conçus de manière à ce que vos données ne soient pas utilisées pour entraîner les modèles fondamentaux (les données d'entreprise restent privées dans votre environnement). Microsoft a été clair à ce sujet. Cependant, les organisations extrêmement sensibles peuvent toujours craindre toute forme d’exposition. Disposer d'une IA déployée derrière un pare-feu – idéalement sans accès à Internet – leur offrirait un contrôle total. Cela permettrait aussi de personnaliser profondément l'IA avec des données propriétaires sans jamais envoyer ces données à l'extérieur.

Compte tenu de ces motivations, il n'est pas surprenant que dès l'annonce de Copilot, les clients aient commencé à demander : « Y aura-t-il une version sur site ou hors ligne ? » Ci-dessous, nous examinerons chaque offre Copilot et ce qu'il est possible (ou non) de faire pour l'utiliser sans passer par le cloud.

Microsoft 365 Copilot – Uniquement dans le cloud aujourd'hui, accès hybride aux données possible

Microsoft 365 Copilot est l'assistant IA intégré aux applications Office telles que Word, Excel, PowerPoint, Outlook, Teams, et plus encore. Il peut rédiger des documents, créer des présentations, résumer des e-mails ou des discussions, analyser des données Excel et répondre à des questions – en exploitant les données de votre organisation dans Microsoft 365 (SharePoint, OneDrive, Exchange Online, etc.) ainsi que l'intelligence de GPT-4. Par conception, ce service fonctionne dans le cloud de Microsoft (via le service Azure OpenAI, dans l'environnement Microsoft 365).

Actuellement, il n’existe aucun moyen d’exécuter les composants LLM de Microsoft 365 Copilot en local ou hors ligne – il faut disposer d'une connexion Internet vers le cloud Microsoft 365 pour l'utiliser. Même les données exploitées résident généralement dans le cloud (vos fichiers SharePoint Online, vos boîtes aux lettres Exchange Online, etc.). Si vous n'êtes pas connecté à ces ressources, Copilot n'a aucune base de travail. Comme mentionné précédemment, la documentation de Microsoft est explicite : « Microsoft 365 Copilot est basé sur le cloud. » Il ne peut pas accéder aux systèmes locaux non intégrés au cloud​.

Par exemple, prenons les e-mails. Si la boîte aux lettres d'un utilisateur se trouve dans Exchange Online, Copilot peut lire les e-mails (auxquels l'utilisateur a accès) et les résumer ou y répondre. Mais si cette boîte aux lettres est hébergée sur un serveur Exchange local non accessible à Microsoft 365, Copilot n'inclura pas ces e-mails dans son analyse. Dans les configurations hybrides de messagerie, Microsoft précise que Copilot ne fonctionnera qu'avec le contenu hébergé dans le cloud et que « l’utilisation des données des boîtes aux lettres locales n’est pas prise en charge ». Concrètement, cela signifie que Copilot pourra encore répondre à des requêtes générales ou utiliser vos fichiers SharePoint Online, mais agira comme si vos e-mails ou calendriers locaux n'existaient pas.

Pas de mode hors ligne

Et si l'utilisateur est simplement hors ligne (par exemple, en travaillant sur un ordinateur portable sans connexion Internet) ? Dans ce cas, les fonctionnalités Copilot dans les applications Office n'apparaîtront pas ou ne fonctionneront pas. Tony Redmond de Practical 365 l’a bien résumé : Copilot ne fonctionne pas hors ligne… il a besoin d'un accès rapide aux services cloud et aux données Graph. Même si vous disposez de copies locales de documents via OneDrive Sync, le traitement IA s'effectue toujours dans Azure – sans connectivité, Copilot ne peut pas « réfléchir ». Les applications Office peuvent afficher une icône Copilot grisée si vous n'êtes pas connecté.

Accès hybride aux données via les connecteurs Graph

Bien que vous ne puissiez pas exécuter localement le LLM de Copilot, Microsoft 365 propose un moyen d'inclure certaines données locales dans l'environnement de Copilot : les connecteurs Microsoft Graph. Les connecteurs Graph permettent aux organisations d’indexer des sources de données externes (partages de fichiers locaux, SharePoint sur site, services tiers, etc.) dans l’index de recherche Microsoft 365. Une fois indexées dans le cloud, ces données deviennent accessibles à Copilot pour répondre aux questions (puisque Copilot utilise Microsoft Search/Graph pour récupérer les contenus pertinents). Par exemple, si vous disposez de fichiers sur un serveur local, vous pouvez utiliser le connecteur Windows File Share pour explorer et indexer ces fichiers dans Microsoft 365​. Ensuite, lorsqu'un utilisateur pose une question à Copilot, celui-ci peut « ancrer » sa réponse sur ces fichiers locaux (représentés dans l'index cloud).

Ce n’est pas une solution hors ligne – elle implique en fait la copie de métadonnées (et éventuellement de contenu) vers l’index cloud – mais c’est un moyen de relier les données locales au cloud Copilot. Un administrateur sur le forum communautaire de Microsoft a demandé si Copilot pouvait inclure des données de partages de fichiers locaux, et un représentant de Microsoft a confirmé : « Oui – créez un connecteur Graph de M365 vers votre partage de fichiers local. » Le résultat est un scénario hybride : vos données restent en local pour le stockage principal, mais une copie consultable est disponible dans Microsoft 365, permettant à Copilot de les exploiter. Notez que la configuration des connecteurs Graph nécessite une planification (indexation de recherche, sécurisation des accès) et que les données seront envoyées vers l’index cloud de Microsoft 365, ce que certaines organisations ultra-sensibles peuvent refuser. Mais pour beaucoup, c’est un compromis acceptable pour donner à Copilot de la visibilité sur les contenus locaux sans migration complète de ces contenus.

Sécurité et résidence des données

Microsoft a travaillé pour atténuer les inquiétudes en matière de sécurité cloud pour Copilot. Notamment, Copilot (entreprise) n'utilise pas vos données privées pour entraîner les modèles publics : les données et requêtes de votre tenant sont isolées. Microsoft 365 Copilot fonctionne sur Azure OpenAI dans les limites contrôlées de Microsoft, et non via l’API publique d'OpenAI. Microsoft précise que les requêtes, les données récupérées et les réponses restent à l’intérieur du périmètre de votre tenant Microsoft 365. Tout cache est temporaire et utilisé uniquement pour la session en cours. De plus, si vous ne souhaitez pas que Copilot envoie des données à des plugins externes ou à Bing pour des recherches web, vous pouvez le contrôler (par exemple, si le plugin de recherche web est activé, Copilot pourrait parfois appeler l’API de Bing – les administrateurs peuvent désactiver cela). En résumé, Microsoft veut rassurer les clients soucieux de la confidentialité en garantissant que Copilot dans Microsoft 365 est adapté aux entreprises.

Cependant, pour certaines organisations, cela ne suffit pas – que ce soit pour des raisons de politique interne ou d'absence de connectivité, elles ne peuvent pas utiliser un service cloud, aussi sécurisé soit-il. Pour elles, la question devient : Microsoft 365 Copilot fonctionnera-t-il un jour localement ou dans un centre de données privé ?

Perspectives d'avenir

Microsoft a laissé entendre qu’il pourrait tirer parti du traitement local pour Copilot à l’avenir, du moins dans certains scénarios. En 2024, Microsoft a annoncé les PC Copilot+ (nous aborderons cela en détail dans la section Windows) – des appareils Windows optimisés pour l'IA avec des NPU (unités de traitement neuronal) capables d’exécuter certaines tâches IA localement. Notamment, des rapports indiquaient que « Microsoft 365 Copilot pourra bientôt utiliser le NPU sur les appareils Copilot+ pour exécuter des modèles IA localement. »

Cela suggère que si vous utilisez, par exemple, Word sur un PC Copilot+, certaines fonctionnalités de Copilot pourraient s’exécuter sur l’appareil sans aller-retour avec le cloud. Par exemple, des suggestions rapides de grammaire ou de style, ou des résumés simples, pourraient être traités par un modèle plus petit embarqué. Bien que les détails émergent encore, c’est un signe fort que Microsoft explore des architectures hybrides pour Copilot : les tâches les plus lourdes continueront d'appeler GPT-4 dans le cloud, mais certaines fonctions d'assistance IA (comme l'indexation de contenus locaux ou la compréhension partielle de documents) pourraient s'exécuter localement sur du matériel adapté.

De plus, Microsoft a étendu Microsoft 365 Copilot aux tenants du GCC (Government Community Cloud) fin 2024​. Cela signifie que même les organisations publiques réglementées peuvent utiliser Copilot, mais toujours dans un cloud géré par Microsoft (l'environnement GCC est distinct du commercial, mais ce n’est pas sur site). Il est important de noter que Copilot n’est pas encore disponible dans GCC High ni dans le DoD (les clouds gouvernementaux américains les plus sécurisés)​, ce qui indique que Microsoft travaille toujours à répondre à ces exigences plus strictes – probablement via des réseaux entièrement isolés ou des niveaux de sécurité accrus. Nous pourrions éventuellement voir Copilot dans ces environnements, où il n'y a aucune exposition à Internet public. Ce serait une sorte de « cloud sans Internet » – un service fonctionnant dans les régions Azure Government totalement déconnectées. Ce n’est pas sur site sur les serveurs des clients, mais cela s’en rapproche (cloud dédié).

Conclusion

Aujourd'hui, si vous souhaitez utiliser Microsoft 365 Copilot, vous devez utiliser le service cloud Microsoft. Il n’existe pas d’installation sur site. Cependant, vous pouvez intégrer vos données locales via des connecteurs et configurer la sécurité réseau (par exemple, utiliser des liens réseau privés vers Azure) pour garantir que votre trafic Copilot ne passe pas par Internet public (nous en parlerons plus tard). La feuille de route de Microsoft laisse entrevoir une capacité accrue à utiliser des ressources locales (comme les NPU) en parallèle de l'IA cloud, mais un Microsoft 365 Copilot entièrement hors ligne n'est pas encore disponible.

Microsoft Copilot sans le nuageMicrosoft Copilot sans le nuage

GitHub Copilot – Assistant de codage IA (et ses contraintes dans des environnements restreints)

GitHub Copilot est devenu un outil très apprécié des développeurs, offrant des suggestions de code générées par l'IA et même une discussion en langage naturel pour coder. Il est disponible sous forme d'extension pour VS Code, Visual Studio, les IDE JetBrains, etc. Pour les entreprises, il existe GitHub Copilot for Business, qui offre des garanties de confidentialité renforcées (pas de conservation des extraits de code, possibilité de bloquer les secrets, etc.). Malgré ces différences de licence, l’architecture technique de base de GitHub Copilot est la même pour tous les utilisateurs : il repose sur l'IA basée sur le cloud de GitHub. Le modèle (un descendant d'OpenAI Codex, amélioré avec GPT-4 pour certaines fonctionnalités) s'exécute sur des serveurs ; le plugin IDE envoie le contexte de votre code au serveur et reçoit les suggestions de l’IA en retour.

Cela signifie que GitHub Copilot ne peut pas fonctionner localement sur votre PC ou votre serveur ; il nécessite une connexion au service de GitHub. Si votre machine de développement est hors ligne ou privée d'accès Internet, Copilot ne générera simplement rien. Concrètement, l’extension affichera des erreurs ou restera inactive si elle ne peut pas atteindre le service. L'équipe GitHub a été très claire sur cette limitation. Lors de sessions de questions-réponses communautaires, des utilisateurs ont demandé s’il existait une version hors ligne (pour les entreprises sans accès Internet). La réponse officielle (dès 2022) a été : « Copilot nécessite un accès Internet... le traitement est effectué côté GitHub. »​ et qu’il n'y avait aucun projet de version sur site de Copilot​. Cela reste valable en 2025 – GitHub Copilot est un service cloud.

Pour de nombreuses entreprises, cette dépendance au cloud est acceptable, car GitHub a mis en œuvre plusieurs mesures de sécurité pour les entreprises : Copilot for Business garantit que « Les requêtes et suggestions ne sont pas conservées ni utilisées pour entraîner le modèle » et permet de restreindre l’accès de Copilot à certains dépôts ou types de fichiers. En résumé, votre code propriétaire n'est pas intégré à une base publique : il est traité à la volée et oublié ensuite. Cela répond à certaines préoccupations liées à la propriété intellectuelle. Cependant, du point de vue réseau, les développeurs doivent tout de même avoir accès à Internet pour utiliser Copilot. Les organisations avec des environnements de développement isolés (courants dans la défense, la finance ou les infrastructures critiques) trouvent cela bloquant. Par exemple, une banque développant des logiciels sur un réseau fortement contrôlé sans accès à GitHub ne pourra tout simplement pas utiliser Copilot, aussi utile soit-il, car elle ne peut pas communiquer avec le service.

Solutions réseau pour les entreprises

Si l’inquiétude ne porte pas tant sur Internet lui-même que sur la sécurité des données en transit, une approche consiste à utiliser des contrôles réseau pour limiter l’accès de Copilot uniquement aux points de terminaison nécessaires. Par exemple, une entreprise pourrait autoriser les postes de développement à se connecter uniquement aux API de Copilot de GitHub (via des règles de pare-feu ou des proxys) et bloquer tout autre accès Internet. Le trafic vers Copilot est chiffré (TLS) et, avec Copilot for Business, vous avez des garanties sur le traitement des données. Cette configuration nécessite toujours un accès Internet, mais très restreint. C’est une façon de limiter les risques : le code est envoyé uniquement au cloud de GitHub et nulle part ailleurs. Certaines entreprises font également passer ce trafic via un VPN ou un lien privé. GitHub (via Azure) peut potentiellement être accessible via ExpressRoute ou une autre connexion réseau privée si elle est configurée – transformant ainsi le service cloud en une extension du réseau d'entreprise. (Nous voyons des schémas similaires avec les services Azure utilisant Private Link – nous en parlerons dans la section suivante.) Bien que cela ne rende pas Copilot « hors ligne », cela élimine au moins l'exposition à Internet public.

Alternatives sur site pour l'IA de codage

Reconnaissant que certaines entreprises n’utiliseront pas un service cloud pour la génération de code, quelques fournisseurs tiers ont commencé à proposer des outils similaires à Copilot pouvant fonctionner sur site. Par exemple, Codeium (un assistant de codage IA alternatif) propose une offre entreprise sur site qui peut être déployée dans l’environnement du client avec la garantie que « aucune donnée ni télémétrie ne quitte jamais l’entreprise »​. Cela vous donne essentiellement un modèle IA auto-hébergé pour le code. Cependant, ces alternatives utilisent des modèles IA différents (souvent des modèles open source comme CodeGen, SantaCoder ou des dérivés de LLaMA) qui n’atteignent pas forcément la puissance des derniers modèles d'OpenAI. Leur intérêt est qu'ils peuvent être conteneurisés et exécutés sur vos propres serveurs GPU derrière votre pare-feu, donc véritablement hors ligne (après installation initiale). Les grandes entreprises aux politiques strictes peuvent évaluer ces options si GitHub Copilot n'est pas envisageable.

Une autre approche consiste à utiliser le service Azure OpenAI pour construire un « Copilot » personnalisé. Azure OpenAI fournit des API vers les modèles d'OpenAI (Codex, GPT-3.5, GPT-4) avec l’enveloppe de sécurité d’Azure pour les entreprises. Bien qu'Azure OpenAI soit toujours un service cloud, vous pourriez héberger un petit service web interne qui appelle le modèle de complétion de code d'Azure OpenAI pour vos développeurs. Cela maintiendrait tous les flux de code dans votre tenant Azure contrôlé. Vous pouvez également utiliser des points de terminaison privés pour que les appels vers Azure OpenAI ne passent pas par Internet public mais par un lien réseau privé​. En résumé, c’est toujours du cloud, mais configuré pour se comporter comme une extension privée de votre centre de données (par exemple via un circuit ExpressRoute vers Azure). Les IDE des développeurs pourraient alors pointer vers ce service interne pour obtenir des complétions IA. Cette approche demande un travail d'intégration important (ce n'est pas aussi plug-and-play que l'intégration native de GitHub Copilot dans VS Code), mais c'est un compromis viable pour certains : obtenir une assistance IA similaire en utilisant les modèles cloud d'Azure, avec isolation réseau et potentiellement plus de contrôle direct sur les requêtes et les réponses (possibilité de journaliser ou de filtrer si besoin).

Limitations actuelles

En fin de compte, si « pas de cloud » signifie vraiment aucun cloud, alors GitHub Copilot n'est pas une option actuellement. Les développeurs travaillant sur des réseaux complètement isolés ne peuvent pas l'utiliser. Ils devront se rabattre sur des outils d’analyse statique ou des outils d’assistance au codage basés sur l’apprentissage machine local (certains IDE proposent des complétions de code basiques hors ligne, formées sur du code local – mais leur efficacité est loin d’égaler celle de Copilot). C'est dans ce contexte que certaines organisations espèrent que Microsoft ou GitHub proposeront un jour un Copilot auto-hébergé ou un modèle exécutable sur Azure Stack (Azure sur site). À ce jour, aucune feuille de route publique en ce sens n'existe – il est supposé que le rythme d'amélioration des modèles et l'intégration avec la plateforme cloud GitHub rendent un produit sur site difficile à proposer.

Cependant, la demande est bien réelle – surtout à mesure que les assistants de codage IA deviennent la norme. Microsoft pourrait plutôt rassurer les entreprises via sa politique : par exemple, permettre à l'avenir d'exécuter GitHub Copilot entièrement via Azure OpenAI dans votre tenant (de sorte que même l'inférence se fasse dans une instance Azure sous votre contrôle). Cela satisferait certains clients, qui le considèreraient alors comme « leur cloud » plutôt que comme un service multi-locataires de GitHub. À suivre. Pour l’instant, si un fonctionnement totalement hors ligne d'un LLM de codage est nécessaire, il faut chercher en dehors de Copilot officiel, du côté de solutions open source ou tierces, avec une éventuelle baisse de qualité par rapport au modèle dernier cri utilisé par GitHub Copilot.

Windows Copilot – Vers un modèle d'IA hybride (local + cloud)

Windows Copilot (introduit avec Windows 11) est unique car il fait partie intégrante du système d'exploitation, visant à aider aussi bien pour les requêtes web/cognitives que pour les tâches spécifiques au PC (comme ajuster des paramètres ou résumer ce qui est affiché à l'écran). À l'origine, l'intelligence de Windows Copilot reposait essentiellement sur Bing Chat – c'est-à-dire alimentée par le cloud (OpenAI GPT-4 via Bing) pour quasiment tout. Mais très rapidement, Microsoft a annoncé un passage vers une approche hybride, exploitant le matériel local. Cela reflète une vision plus large : amener les capacités d'IA directement sur les PC afin que tout ne dépende pas uniquement des serveurs distants.

En juin 2024, Microsoft (et ses partenaires fabricants de PC) ont annoncé les « PC Copilot+ » – une nouvelle catégorie de PC Windows 11 équipés de puissants NPU (unités de traitement neuronal) et d'un environnement d’exécution spécial pour Windows Copilot. Ces machines (comme les appareils Surface avec processeurs Qualcomm Snapdragon, ainsi que les futurs modèles Intel Core Ultra avec NPU) sont conçues pour exécuter plusieurs modèles d'IA localement, directement sur l’appareil. Microsoft a révélé que les PC certifiés Copilot+ intègrent le Windows Copilot Runtime, avec plus de 40 modèles d'IA fonctionnant entièrement sur les ordinateurs portables. C’est un changement majeur par rapport au modèle exclusivement cloud. En résumé, Windows dispose désormais d'une pile de modèles IA préchargés (pour la vision, le langage, l'audio, etc.) pouvant s'exécuter sur le NPU ou d'autres accélérateurs locaux, permettant à de nombreuses fonctionnalités de Copilot de fonctionner hors ligne ou avec des performances améliorées.

Que peuvent faire ces modèles locaux ? Selon Microsoft et les rapports technologiques, l'IA locale des PC Copilot+ prend en charge des fonctionnalités telles que :

« Recall » (Recherche sémantique personnelle)

Il s'agit d'une fonctionnalité qui indexe tout ce que vous avez vu ou fait sur votre PC (fichiers, fenêtres, applications, captures d'écran dans une frise chronologique) et vous permet de rechercher sémantiquement à travers ces éléments. Recall s'appuie sur un index sémantique personnel construit et stocké entièrement sur votre appareil, avec les instantanés conservés localement​. En d'autres termes, c’est comme avoir votre propre « mémoire » locale capable de répondre aux questions sur vos activités, sans requête au cloud. Cela fonctionne hors ligne et conserve vos données privées sur votre PC.

Génération et retouche d’images (Cocreator, Paint, Photos)

Windows intègre désormais un générateur d’images IA (similaire à DALL-E ou Stable Diffusion). Sur les PC Copilot+, cela fonctionne via le NPU local. Microsoft a précisé que, contrairement aux générateurs d'images dans le cloud qui imposent souvent des limites ou des temps d'attente, la génération d’images via NPU est « presque en temps réel » sur l’appareil​. Vous pouvez saisir une requête pour obtenir une image créée par le modèle local, ou appliquer des effets IA à vos photos (comme changer le style d’une image) avec « Restyle » dans l’application Photos – le tout sans contacter un service cloud. Ils mettent même en avant qu'avec les PC Copilot+, vous pouvez générer des images infinies, rapidement et gratuitement, puisque tout se passe en local​.

Transcription et traduction audio en temps réel

Des fonctionnalités comme les sous-titres en direct ou la traduction de la parole peuvent être exécutées avec des modèles IA locaux (par exemple, un petit modèle de reconnaissance vocale et un modèle de traduction sur le NPU). Cela élimine encore une fois le besoin d'API cloud et garde les données audio locales.

Reconnaissance visuelle et contextuelle

Microsoft a démontré que Copilot (sur ces nouveaux PC) peut « voir » ce qui est affiché sur votre écran ou dans les applications ouvertes et vous assister. Cela implique probablement l’utilisation de modèles de vision locaux (par exemple, pour la reconnaissance des éléments d’interface utilisateur) s’exécutant sur le PC. Copilot pourrait ainsi identifier une capture d’écran ou une image et offrir du contexte, localement avant toute requête au cloud.

Microsoft a particulièrement mis en avant l'aspect confidentialité de ces capacités locales : « Tout fonctionne hors ligne et sur votre PC, de manière plus protectrice de la vie privée — aucune donnée personnelle n'est envoyée à un serveur cloud pour traitement. ». Cette citation tirée d'un article de PCMag sur les PC Copilot+ souligne que les tâches comme la recherche sur votre PC ou la génération d'images se font entièrement hors ligne, ce qui signifie que même sans connexion Internet, ces fonctionnalités Copilot continuent de fonctionner, sans que vos données (contenu de vos fichiers ou images) ne quittent votre machine.

Toutefois, toutes les requêtes Copilot ne seront pas traitées hors ligne sur ces PC...

Microsoft a précisé que « certaines tâches continueront d'utiliser des modèles d'IA exécutés dans des centres de données distants » – vraisemblablement pour les conversations plus générales ou les raisonnements complexes pris en charge par GPT-4. Par exemple, si vous demandez à Copilot de rédiger un long e-mail ou d’écrire du code qui n’existe pas localement, le PC pourra encore solliciter le cloud pour utiliser toute la puissance du grand modèle. Les modèles locaux (de l’ordre de 1,5 à 7 milliards de paramètres selon les modèles "DeepSeek" déployés par Microsoft) sont parfaits pour les tâches contextuelles rapides, mais pour le langage naturel ouvert, le modèle cloud restera probablement supérieur.

Ce modèle hybride est en réalité très attractif : votre PC traite ce qu’il peut (rapide, privé, fonctionnant hors ligne), et ne sollicite le cloud que pour les tâches lourdes. C'est comparable à la manière dont les smartphones traitent certaines tâches IA en local (reconnaissance vocale, reconnaissance d’images) et utilisent l’IA cloud pour des requêtes plus complexes.

Du point de vue des entreprises, l’arrivée des PC Copilot+ signifie que les utilisateurs sur le terrain disposeront bientôt d’une partie des fonctionnalités Copilot même hors ligne. Imaginez un travailleur sur un champ pétrolier équipé d’un appareil Copilot+ robuste – il pourrait utiliser Recall pour interroger ses deux derniers jours d’activité, générer des images pour visualiser un concept, ou obtenir une transcription en temps réel d’une réunion, tout cela hors ligne. Lorsqu’il se reconnectera, toute requête complexe en attente pourra être traitée par l'IA cloud. Cela pourrait considérablement accroître l’utilité de Copilot dans les environnements à faible connectivité.

Microsoft propose également aux développeurs des outils pour exploiter cet environnement IA local. Le blog développeurs de Windows a annoncé que les développeurs peuvent désormais cibler le Windows Copilot Runtime et les NPU pour intégrer des fonctionnalités IA dans leurs propres applications​. Cela signifie que des applications tierces ou internes pourront déployer des modèles IA personnalisés fonctionnant localement sur les PC des utilisateurs. Une entreprise pourrait par exemple distribuer un modèle IA de vérification de conformité ou un analyseur de données spécialisé, exécuté localement via le runtime Copilot – sans aucun besoin de cloud pour cette fonction spécifique.

La vue d'ensemble...

L’évolution de Windows Copilot montre clairement la stratégie de Microsoft visant à combiner IA cloud et IA en périphérie (edge). L’équipe Windows a littéralement déclaré : « L'IA se rapproche de la périphérie, et les PC Copilot+ ouvrent la voie. ». En optimisant et en distillant des modèles pour qu'ils s'exécutent sur des NPU, Microsoft prépare le terrain pour des expériences Copilot qui se dégradent de manière fluide lorsque la connexion est absente, au lieu de simplement cesser de fonctionner. Aujourd'hui, cela est particulièrement visible sur du matériel spécialisé, mais à terme, les NPU deviendront courants dans la plupart des PC professionnels. On peut s'attendre à voir la frontière entre ce qui est traité localement et ce qui l’est dans le cloud évoluer avec l’amélioration du matériel IA local. Peut-être qu’à l'avenir, même un PC standard pourra exécuter localement un modèle de taille raisonnable – ce qui signifierait que Microsoft 365 Copilot pourrait traiter localement certaines requêtes simples et ne solliciter Azure que pour les demandes complexes ou l'accès aux données à l’échelle de l’entreprise. Cette approche hiérarchisée pourrait résoudre de nombreuses préoccupations liées à l’obligation d'une connexion Internet permanente.

En résumé, Windows Copilot dans sa dernière version est le premier Copilot à offrir de véritables capacités hors ligne (pour certaines fonctionnalités). Cela reflète la prise de conscience de Microsoft que tout dépendre du cloud n’est pas idéal. Les entreprises doivent suivre ces évolutions, car les techniques validées dans Windows (index sémantiques locaux, modèles distillés comme « DeepSeek » pour la recherche, etc.) pourraient ensuite être appliquées aux applications Office ou aux produits serveurs. C’est un développement prometteur pour ceux qui ont besoin d’IA dans des scénarios déconnectés – il sera bientôt possible d'équiper les utilisateurs avec des appareils fournissant une assistance IA, quelle que soit la connectivité.

Copilote sans nuageCopilote sans nuage

Exécuter votre propre Copilot : Déploiements LLM locaux et options pour les entreprises

Si une organisation ne peut pas utiliser les versions cloud de Copilot, une alternative consiste à tenter de déployer des modèles de langage de grande taille (LLM) sur site ou dans un environnement privé pour reproduire certaines fonctionnalités de Copilot. C’est essentiellement une approche « faites-le vous-même » pour obtenir un « assistant IA » sans dépendre du cloud de Microsoft. Quelles sont alors les possibilités et les limites ?

Azure OpenAI dans un réseau privé

Nous avons déjà abordé ce point : bien que le service Azure OpenAI soit basé sur le cloud, vous pouvez l’isoler en utilisant Private Link/Endpoints afin que, du point de vue de l’entreprise, il se comporte comme un service interne. Microsoft permet de verrouiller une instance Azure OpenAI à un réseau virtuel spécifique et même de bloquer tout accès à Internet public​. Les clients (vos applications ou services) se connectent alors via ce réseau privé. Le chemin des données reste entièrement dans le réseau sécurisé d’Azure ou passe par votre connexion ExpressRoute. Cela réduit les risques liés à l'exposition sur Internet et garantit qu'aucun autre tenant ne peut accéder à votre instance. De nombreuses entreprises utilisent ce modèle pour des charges de travail sensibles : le LLM est « dans Azure », mais en pratique, seule votre organisation peut y accéder, tout le trafic est chiffré et reste dans certaines régions. Ce n’est pas hors ligne, mais cela ressemble à une extension privée de votre infrastructure.

En complément, Azure OpenAI a récemment introduit « Azure OpenAI sur vos données », qui permet d’indexer vos données internes (par exemple, fichiers, bases de connaissances) et de faire en sorte que le modèle s’appuie dessus pour formuler ses réponses, le tout dans votre environnement. C'est un peu comme construire un chatbot connaissant les documents de votre entreprise. Encore une fois, ce n'est pas totalement hors ligne, mais vous pouvez héberger tous les éléments sur Azure ou via des connexions sur site de manière à ce que le système ne dépende pas d'Internet public ni de services multi-tenant. Si un fonctionnement temporairement hors ligne est nécessaire, il serait possible de mettre en cache certaines données ou de prétraiter des requêtes, mais en règle générale, Azure OpenAI nécessite tout de même une connexion active.

LLM open source sur site

Si les offres officielles de Microsoft ne répondent pas encore aux besoins, certaines organisations expérimentent des modèles de langage open source pouvant être exécutés sur site ou même sur des machines individuelles. Ces dernières années ont vu apparaître de nombreux modèles comme LLaMA 2 de Meta, qui, dans ses versions 7B ou 13B de paramètres, peut tourner sur un serveur haut de gamme (ou même un ordinateur portable puissant avec GPU) – et en version 65B, sur un serveur multi-GPU robuste. Ces modèles peuvent être affinés sur des données internes et servir de Copilot de base pour un usage interne. Pour l’assistance au codage, des modèles comme StarCoder ou Code Llama ont été utilisés pour développer des fonctionnalités similaires à Copilot sans recourir au cloud. Certains projets open source intègrent ces modèles dans VS Code, permettant ainsi des complétions de code hors ligne (avec une précision toutefois inférieure à celle des suggestions basées sur GPT-4 de GitHub Copilot).

Le compromis avec les modèles open source est la qualité et la maintenance. Ils sont souvent en retard par rapport à l’état de l’art en matière de cohérence et de précision. Cela dit, l’écart se réduit : un modèle affiné de 70 milliards de paramètres peut offrir d’excellentes performances sur de nombreuses tâches – même s’il peut encore éprouver des difficultés sur des raisonnements complexes ou la couverture de connaissances que maîtrise GPT-4. De plus, utiliser ces modèles nécessite d’allouer des ressources IT (GPU, stockage, etc.) et des compétences en machine learning pour les installer et les mettre à jour en continu. Cela devient un projet interne consistant à « posséder » l'IA. Pour certaines grandes entreprises ou agences gouvernementales, c’est acceptable (voire préférable). Pour d’autres, la barrière est trop élevée, et elles préfèrent attendre qu'un fournisseur comme Microsoft propose une solution sur site clé en main.

Déploiements hybrides avec connectivité périodique

Une autre approche est de fonctionner en mode « parfois connecté ». Peut-être que votre environnement est hors ligne la plupart du temps mais peut se connecter à des moments programmés (par exemple, synchronisations quotidiennes ou hebdomadaires). Dans ce cas, on pourrait utiliser Copilot par lots – par exemple, générer du contenu ou des analyses lors des fenêtres de connexion, puis utiliser ces résultats hors ligne jusqu’à la prochaine synchronisation. Ce n'est pas une utilisation en temps réel de Copilot, mais c’est une façon de tirer parti du cloud quand il est disponible pour bénéficier de l’IA hors connexion. Exemple : une équipe de sous-marin se connecte une fois par semaine ; pendant cette fenêtre, elle pourrait charger tous ses rapports et données à Copilot pour obtenir des analyses, utilisables ensuite en immersion sans connexion. Cela demande de la planification et n’est pas aussi fluide qu’un usage à la demande, mais c’est une solution créative pour certains flux de travail.

Résumé des possibilités locales

Déployer votre propre « Copilot » local est faisable aujourd'hui pour des cas spécifiques (avec des modèles open source), mais pour une expérience complète équivalente à GPT-4 sur tous les domaines, nous restons en grande partie dépendants du cloud. Microsoft avance dans la bonne direction avec des options de réseaux privés et d'exécution en périphérie. Lors de sessions de questions-réponses, Microsoft a suggéré qu’ils « pourraient proposer une version sur site à l'avenir » pour Azure OpenAI​, mais sans échéancier précis. Ils encouragent les clients ayant ce besoin à le faire savoir via les canaux de feedback – c’est donc surveillé. Avec les avancées rapides, il n'est pas irréaliste de penser qu’au cours des prochaines années, Microsoft proposera un modèle IA allégé mais déployable localement pour certaines fonctionnalités de Copilot – notamment à mesure que les NPU et le matériel spécialisé se démocratisent (rendant économiquement viable la distribution des modèles sur les machines des clients plutôt que dans les datacenters Microsoft).

Pour l’instant, les entreprises qui doivent éviter le cloud ont ces choix : utiliser l’approche cloud privé d’Azure (en restant dans leur tenant sans exposition publique), ou investir dans des déploiements IA alternatifs (solutions open source ou tierces sur site) en connaissant les limitations. Beaucoup adoptent une approche attentiste – mettant Copilot en pause pour l’instant, mais surveillant les évolutions de Microsoft qui se rapprochent progressivement de leurs exigences. Ceux qui peuvent tolérer un peu de cloud commencent peut-être à tester Copilot pour des utilisateurs moins sensibles, ou dans des environnements bac à sable, pour évaluer les bénéfices.

Stratégies pour les environnements à connectivité limitée : tirer parti de Copilot

Bien que l’utilisation totalement hors ligne de Copilot soit actuellement limitée, il existe des stratégies pour maximiser les avantages de Copilot dans des environnements à faible connectivité ou à haute sécurité :

1. Utiliser Copilot dans une zone réseau contrôlée

Si l'utilisation d'Internet est totalement interdite, envisagez de créer une zone ou un terminal contrôlé ayant accès à Copilot. Par exemple, certaines organisations disposent d'un « poste de recherche » autorisé à se connecter (via des canaux surveillés) alors que les autres PC ne le sont pas. Un analyste pourrait utiliser Copilot sur cette station pour obtenir une assistance IA sans exposer l’ensemble du réseau. Ce n'est pas hors ligne, mais cela compartimente les risques. Imaginez cela comme une salle sécurisée où Copilot peut fonctionner, et où vous importez/exportez les données de manière maîtrisée (en veillant à ne pas transmettre de données réellement sensibles, ou en utilisant des données factices). Cela peut être combiné avec Bing Chat Enterprise, une autre offre IA de Microsoft : c’est essentiellement le chat GPT-4 de Bing mais avec la garantie que vos requêtes ne sont pas stockées ni utilisées pour entraîner l'IA et que les données restent dans les limites de votre organisation. Bing Chat Enterprise peut être utilisé par des équipes juridiques ou RH pour des questions générales avec contexte sensible, car Microsoft ne conserve pas ces données après la réponse. C'est toujours du cloud, mais avec une confidentialité renforcée.

2. Utiliser Private Link et VPN

Comme évoqué, configurez une connectivité privée vers le cloud Microsoft pour les services Copilot. En utilisant Azure ExpressRoute ou des tunnels VPN, vous pouvez garantir que tout le trafic Copilot passe par votre réseau sécurisé directement vers Microsoft, sans transiter par Internet public. Cela réduit les risques d'interception ou d’exposition. Cela transforme effectivement Microsoft 365 ou Azure en une extension de votre intranet. Associé au chiffrement des données (activé par défaut) et aux accords d'entreprise de Microsoft, cela permet souvent de satisfaire aux exigences de conformité. C’est une solution technique qui ne change pas la nature cloud de Copilot, mais qui la rend acceptable dans davantage de scénarios.

3. Intégrer les données sur site via les connecteurs Graph

Nous l’avons mentionné pour Microsoft 365 Copilot : si vos utilisateurs ont principalement besoin de Copilot pour travailler sur des documents internes ou des connaissances hébergées sur site, prévoyez de canaliser ces données vers Microsoft 365 de manière sécurisée. Les connecteurs Graph pour les partages de fichiers, les bases de données locales, les wikis, etc., peuvent être configurés pour que Copilot puisse répondre aux questions à partir de ces données. De cette manière, même si la source de vérité est sur site, l'IA n'a pas besoin d'accéder dynamiquement à votre réseau (ce qu’elle ne peut pas faire) ; au contraire, les informations pertinentes sont indexées à l'avance dans le cloud. C'est une forme de mise en cache de votre savoir d'entreprise dans le cloud. Il faudra cependant veiller au filtrage de sécurité (pour que Copilot n'affiche que les informations appropriées aux utilisateurs) – Microsoft Search/Graph gère cela si configuré correctement. L'avantage est que les utilisateurs obtiennent des réponses enrichies de Copilot incluant le contenu de vos fichiers privés sur site – ce qu'ils n'auraient pas autrement. Le coût est l'installation initiale et la synchronisation continue.

4. Sensibiliser les utilisateurs et isoler les données sensibles

Un élément clé du déploiement de Copilot, quel que soit l'environnement, est l'éducation des utilisateurs sur ce qu'ils doivent ou ne doivent pas partager avec l'IA. Même si vous n’envisagez pas un usage hors ligne, pour la conformité, il est conseillé d’instruire les utilisateurs par exemple : « Ne collez pas de contenu Secret/Classifié dans Copilot » tant qu'un modèle entièrement privé n’est pas disponible. Certaines organisations ont déjà mis en place des politiques internes pour l'IA générative. En guidant les utilisateurs, vous réduisez le risque qu'ils envoient involontairement des données sensibles à une IA cloud. Dans des projets extrêmement sensibles, les utilisateurs pourraient opérer sans Copilot pour ces tâches (à l'ancienne) mais utiliser Copilot pour des tâches moins critiques. Avec le temps, à mesure que la confiance augmente ou que des options plus privées apparaissent, ces directives pourront évoluer.

5. Surveiller et itérer

Activez toutes les options de journalisation ou d’audit disponibles. Pour Microsoft 365 Copilot, vous pouvez utiliser les outils Microsoft Purview pour surveiller l’utilisation de Copilot et vérifier qu’il n’expose pas incorrectement des données. Dans GitHub Copilot for Business, vous pouvez obtenir des télémétries sur les suggestions. La surveillance contribue à instaurer la confiance dans l’utilisation sûre de Copilot, même s’il est basé sur le cloud – et les données recueillies pourraient aussi indiquer où une solution hors ligne est vraiment nécessaire, et où la version cloud suffit. Vous pourriez découvrir, par exemple, que Copilot n’utilise jamais certains types de données sensibles, ou que certaines équipes l’utilisent intensivement tandis que d’autres (situées dans des segments sécurisés) ne l'utilisent pas – ce qui vous permettrait de cibler vos efforts pour ces groupes.

6. Évaluer le matériel Copilot+ pour une utilisation sur le terrain

Si vous avez des employés souvent déconnectés (consultants se rendant chez des clients avec une mauvaise connexion Wi-Fi, techniciens dans des zones isolées), envisagez de les équiper des nouveaux PC Copilot+ ou de dispositifs dotés de NPU dès qu’ils seront disponibles. Les fonctionnalités IA locales de ces appareils pourraient améliorer considérablement la productivité sur le terrain. Par exemple, un consultant en vol (sans Internet) pourrait encore utiliser les capacités hors ligne de Copilot pour organiser ses notes (via Recall), générer des images pour un rapport ou transcrire une réunion passée – des tâches qui auparavant nécessitaient l’IA cloud. Lorsqu'il se reconnecte, il pourra synchroniser ses données et utiliser le Copilot complet pour des besoins plus complexes. Microsoft et les fabricants commercialiseront probablement fortement ces PC IA auprès des entreprises en 2025 ; les responsables IT devraient envisager de les tester pour voir s'ils apportent des bénéfices IA hors ligne concrets justifiant leur adoption. Cela revient à amener une partie de l'intelligence du cloud directement sur l’appareil – une approche intelligente pour certains rôles.

7. Planifier les futurs déploiements hybrides

En planifiant vos investissements IT et cloud, surveillez la feuille de route Copilot de Microsoft. La tendance va vers plus de flexibilité : peut-être qu’un jour Azure Stack (Azure sur site) hébergera des modèles IA utilisables par Copilot, ou qu’un « Copilot Appliance » sera proposé aux grandes entreprises. Microsoft déploie également Copilot Studio, permettant aux organisations de créer leurs propres mini copilots (avec plugins et invites personnalisées) – pour l’instant dans l'écosystème cloud, mais il est envisageable qu'ils soient un jour déployables sur des clouds privés​. L’idée est de préparer votre architecture (identité, réseau, matériel) à intégrer ces solutions IA hybrides. Par exemple, investir dans des appareils équipés de NPU, configurer votre environnement Azure avec Private Link, ou former vos équipes à la gestion des modèles IA – toutes ces actions vous positionneront pour exploiter pleinement les fonctionnalités Copilot hors ligne ou semi-hors ligne dès qu'elles seront disponibles.

Feuille de route de Microsoft : vers un Copilot optionnel sans cloud ?

Le message de Microsoft autour de Copilot a toujours été « l’IA partout », et de plus en plus, « partout » inclut la périphérie, les appareils et tous les environnements cloud. Nous voyons des étapes concrètes : Windows utilisant l’IA locale, Microsoft 365 Copilot s’étendant aux clouds gouvernementaux, Azure proposant des points de terminaison privés pour les modèles, et la mention de possibilités sur site à l’avenir​.

Il convient de noter la vision de Satya Nadella – il évoque souvent l'informatique distribuée et la manière dont l'IA fera partie de toutes les plateformes que nous utilisons. Une partie de cette distribution est probablement « l’IA en périphérie », c’est-à-dire que l'IA ne réside pas uniquement dans de grands centres de données, mais aussi sur votre téléphone, votre ordinateur portable ou votre serveur sur site. Les investissements de Microsoft dans les NPU (par exemple, les Surface Pro avec processeurs SQ, les partenariats avec Qualcomm et Intel pour des puces IA) montrent qu'ils misent sur l’exécution des charges IA sur des appareils locaux. Le partenariat avec Meta pour amener LLaMA 2 sur Azure et le support des modèles open source pourrait également jouer un rôle : Microsoft pourrait intégrer de plus petits modèles ouverts pour certaines tâches Copilot locales ou même permettre aux clients d’utiliser leur propre modèle dans certains cas.

Il faut modérer les attentes...

Les meilleures capacités de Copilot reposent encore sur de très grands modèles difficiles à exécuter entièrement sur site pour la majorité des clients en 2025. Cela ne changera probablement pas immédiatement. Ce qui évoluera, c'est le partage entre traitement cloud et local et les options concernant l'endroit où ce traitement a lieu (cloud public ou privé). Microsoft 365 Copilot continuera d'utiliser quelque chose de similaire à GPT-4 hébergé dans Azure – mais peut-être qu’il sera possible de choisir d’héberger l’instance dans un datacenter de votre pays, ou sur un serveur dédié et isolé pour votre entreprise. GitHub Copilot restera sans doute un service cloud mutualisé pendant un certain temps, mais peut-être qu’Azure DevOps proposera une IA similaire hébergeable sur site. Nous avons déjà l’exemple de Azure DevOps Services vs Azure DevOps Server – il pourrait donc y avoir un « module IA » pour Azure DevOps Server, formé sur votre code, s'exécutant sur vos propres serveurs. Ce sont des spéculations, mais elles correspondent à l’évolution habituelle des logiciels d’entreprise (cloud d’abord, options sur site ensuite).

La réponse officielle de Microsoft concernant l’IA sur site (Azure OpenAI) est révélatrice : « travaille en continu à des améliorations... pourrait proposer une version sur site à l'avenir. ». Ils sont bien conscients que des concurrents pourraient répondre à la demande sur site. Par exemple, IBM propose des solutions IA pouvant être exécutées dans votre propre centre de données. CodeWhisperer d’Amazon (service AWS similaire à Copilot) n’a pas non plus de version sur site, mais AWS pourrait pivoter pour proposer des modèles sur AWS Outposts (matériel sur site). Microsoft ne voudra pas perdre de grands clients exigeant des solutions hors cloud, la pression augmentera donc pour proposer des alternatives.

En conclusion, la trajectoire est claire : Microsoft réduit progressivement la dépendance de Copilot au cloud de Microsoft en permettant à votre cloud ou vos appareils de prendre en charge une plus grande partie du traitement. Nous sommes passés de « Copilot = uniquement cloud » début 2023 à « Copilot peut utiliser 40 modèles locaux sur un PC » fin 2024. Il n’est pas inconcevable que d’ici fin 2025, nous entendions parler d’un Copilot pour Azure Stack (hypothétique) ou d’une extension des conteneurs hors ligne pour inclure certains modèles de langage. Les entreprises devraient dialoguer avec Microsoft via leurs équipes commerciales pour exprimer leur intérêt pour ces capacités – souvent, certaines fonctionnalités (comme l’aperçu des conteneurs hors ligne) sont proposées aux clients stratégiques en priorité​. Si votre organisation appartient à cette catégorie (infrastructures critiques, défense, etc.), il pourrait exister des programmes pilotes pour introduire plus rapidement une IA de type Copilot dans votre environnement.

Conclusion : se préparer à un futur hybride de l'IA

Aujourd'hui, Microsoft Copilot – que ce soit dans Office, GitHub ou Windows – repose encore largement sur une IA basée sur le cloud, ce qui signifie qu'une connexion Internet et une confiance dans la sécurité du cloud sont indispensables. L'utilisation totalement hors ligne de Copilot n'est généralement pas disponible pour l’instant, à l'exception des capacités émergentes sur certains appareils Windows spécialisés. Les organisations appliquant des politiques strictes sans cloud ne peuvent pas encore déployer Copilot largement dans leur environnement.

Cependant, Microsoft réduit activement l'écart entre le cloud et l'on-prem. Grâce aux déploiements cloud privés, à l'exécution locale de l'IA sur les appareils et aux potentielles futures offres sur site, la dépendance au cloud diminue progressivement. En attendant, les entreprises peuvent adopter une approche hybride : conserver les flux de travail moins sensibles dans le cloud pour exploiter toute la puissance de Copilot, tout en utilisant des solutions alternatives pour aider les utilisateurs hors ligne ou dans des zones sécurisées. Même une utilisation partielle de Copilot peut apporter des gains de productivité notables – par exemple, les employés de bureau pourraient utiliser Copilot pour automatiser la documentation (cloud), tandis que les ingénieurs de terrain utiliseraient une IA locale simplifiée pour des transcriptions (edge).

Il est également important d’évaluer la valeur métier que Copilot peut offrir par rapport aux défis liés à la dépendance au cloud. De nombreuses organisations ont constaté que le gain de productivité apporté par Copilot – génération rapide de contenu, accélération du codage, analyse de données – est significatif. Cela crée une dynamique interne pour trouver un moyen d’adopter Copilot en toute sécurité plutôt que de le rejeter d’emblée. Les responsables IT doivent équilibrer innovation et gestion des risques. La bonne nouvelle est que les engagements de Microsoft en matière de confidentialité, de conformité et d'outillage ont rassuré de nombreux DSI pour au moins tester Copilot dans des environnements maîtrisés. Si ces pilotes démontrent leur valeur, ils pourront étendre l'adoption ou pousser Microsoft à proposer davantage de capacités hors ligne.

Pour planifier l’intégration de Copilot dans votre organisation, pensez à :

  • Cas d'usage : Identifiez les tâches que Copilot pourrait révolutionner (ex. génération de rapports, revue de code, Q&R sur la base de connaissances) et évaluez les besoins en connectivité pour ces tâches.
  • Connectivité : Améliorez les connexions réseau vers le cloud Microsoft (bande passante, faible latence, Private Link) pour garantir une utilisation fluide et sécurisée de Copilot. Une connexion rapide et fiable réduit la frustration des utilisateurs et les préoccupations de sécurité.
  • Politiques : Développez des directives claires sur l'usage de l'IA. Cela évite les abus et montre aux employés que l'organisation adopte l'IA de manière réfléchie, renforçant ainsi la confiance entre IT, conformité et utilisateurs.
  • Formation : Aussi importante que l'installation technique, la formation des employés à l'utilisation de Copilot (et à la gestion des situations où il n'est pas disponible) est essentielle (ex. « Si vous êtes hors ligne, voici ce que Copilot peut/ne peut pas faire… »).
  • Suivi du ROI : Mesurez le temps gagné ou les améliorations de qualité grâce à Copilot. Cela vous aidera à justifier de futurs investissements, comme l'acquisition de PC Copilot+ ou le financement d’initiatives IA sur site.

Le paysage de l'IA en entreprise évolue rapidement. Microsoft Copilot, en avril 2025, est à la pointe de l'intégration de l'IA générative dans le travail quotidien. Bien qu’il soit initialement né dans le cloud, il est clair que la vision de Microsoft pour Copilot ne se limite pas à des scénarios toujours connectés. Nous nous dirigeons vers un monde où les copilotes IA seront omniprésents – à votre bureau, sur votre ordinateur portable en haut d’une montagne, ou dans un bunker sans connexion externe, travaillant à vos côtés. Réaliser cette ubiquité de manière responsable est le prochain défi. L’approche hybride de Microsoft montre qu’ils comprennent qu’une seule solution (cloud) ne convient pas à tous.

Pour l’instant, la plupart des organisations expérimenteront Copilot comme un service cloud, mais elles devraient dès maintenant préparer (techniquement et stratégiquement) des déploiements plus flexibles. Ces efforts porteront leurs fruits à mesure que Microsoft proposera davantage de fonctionnalités compatibles hors ligne. En restant informés des dernières mises à jour de Copilot et en suivant la feuille de route de Microsoft, les professionnels IT pourront s'assurer de tirer parti de Copilot – dans le cloud, en périphérie, ou entre les deux.