Utilizando o Microsoft Copilot Sem a Nuvem

Os assistentes de IA “Copilot” da Microsoft – desde Microsoft 365 Copilot nas aplicações Office, até GitHub Copilot para programação, e o novo Windows Copilot – prometem aumentar a produtividade com IA generativa. Mas hoje, estas ferramentas estão maioritariamente alimentadas pela nuvem. Elas dependem de grandes modelos de linguagem que operam nos centros de dados da Microsoft para gerar respostas, sugestões de código e insights. Isso levanta uma questão chave para muitos líderes de TI: O Copilot pode ser utilizado sem uma conexão à internet ou dependência da nuvem?

Nesta exploração aprofundada, vamos examinar o estado atual da dependência do Copilot em relação à nuvem, quais (se houver) opções existem para uso offline ou local, e como a Microsoft está evoluindo o Copilot para cenários híbridos. Vamos analisar cada oferta do Copilot – Microsoft 365, GitHub e Windows – e discutir estratégias empresariais para ambientes com conectividade limitada. Também vamos destacar o roteiro da Microsoft e soluções emergentes que visam ampliar a disponibilidade do Copilot além da nuvem.

(Spoiler: As experiências atuais do Copilot estão maioritariamente ligadas à nuvem, mas mudanças estão a caminho. Entretanto, existem formas de mitigar os requisitos da nuvem e preparar-se para implementações de IA mais flexíveis.)

Microsoft 365 Copilot on-premisesMicrosoft 365 Copilot on-premises

A Nature Baseada na Nuvem do Microsoft Copilot Hoje

Todos os serviços atuais do Microsoft Copilot funcionam principalmente como assistentes de IA baseados na nuvem, o que significa que realizam o processamento intensivo de IA em servidores remotos. Vamos recapitular brevemente como cada Copilot funciona e porque uma conexão de internet ativa é geralmente necessária:

  • Microsoft 365 Copilot – Um assistente de IA para Word, Excel, PowerPoint, Outlook, Teams, etc., que utiliza OpenAI GPT-4 (hospedado no Azure) mais dados do Microsoft Graph para gerar conteúdo e respostas. Está disponível apenas como parte dos serviços de nuvem da Microsoft. O Microsoft 365 Copilot é explicitamente baseado na nuvem, sem execução local/offline. De fato, a documentação da Microsoft afirma isso claramente: “O Microsoft 365 Copilot é baseado na nuvem e não tem acesso a caixas de correio locais.”​. Se os dados de um utilizador (como uma caixa de correio Exchange) estiverem armazenados localmente em vez de no Exchange Online, o Copilot simplesmente não consegue aceder a eles. Toda a mágica acontece na nuvem do Microsoft 365, portanto, sem acesso à internet a essa nuvem, o Copilot não pode funcionar. Especialistas da indústria também alertaram: “Não espere usar o Copilot offline… O Copilot não pode funcionar sem acesso aos serviços do Azure.”. Em outras palavras, sem internet, sem Copilot no Office.
  • GitHub Copilot – Um programador de IA que sugere código dentro do seu IDE. O GitHub Copilot depende dos modelos OpenAI Codex/GPT hospedados pelo GitHub (agora uma subsidiária da Microsoft). O seu editor de código envia o contexto do seu código para o serviço Copilot na nuvem, que retorna sugestões geradas por IA. Isso significa que o GitHub Copilot requer uma conexão de internet ativa sempre que está a fornecer sugestões. Não há modo offline. Os próprios fóruns de suporte do GitHub confirmam que “O Copilot precisa de acesso à internet para obter as suas sugestões, pois o processamento é feito do lado do GitHub”​. Quando questionados sobre uma versão local para empresas, a resposta foi direta: “Sem planos para uma versão local do Copilot.”​. Portanto, hoje, quer seja um desenvolvedor individual ou uma empresa a usar o Copilot para Negócios, as conclusões de código vêm de um serviço na nuvem (com as medidas de segurança apropriadas no Copilot para Negócios para evitar a retenção do seu código). Se os seus desenvolvedores estiverem completamente offline ou numa rede restrita sem internet, o GitHub Copilot não funcionará.
  • Windows Copilot – Introduzido no Windows 11 (2023) como um assistente de IA integrado, o Windows Copilot começou essencialmente como uma interface para Bing Chat (GPT-4) dentro do Windows. Na sua versão inicial, as capacidades do Windows Copilot (responder a perguntas, resumir conteúdo, controlar definições) eram todas suportadas pela nuvem – especificamente pela IA do Bing. Como tal, exigia acesso à internet. Os primeiros utilizadores notaram que o Copilot para Windows era basicamente “um serviço online acoplado ao Windows” – se estivesse offline, ele não fazia nada​. Mesmo tarefas simples como pedir ao Windows Copilot para resumir um documento ou redigir um e-mail precisavam da IA na nuvem. Esta paridade mantinha-se verdadeira quer tivesse um PC novo melhorado com IA ou uma máquina de 10 anos – sem internet, o Copilot não estava disponível. Em resumo, a primeira iteração do Windows Copilot tratava o PC apenas como um canal para a IA na nuvem.

Porquê a Dependência da Nuvem?

O fio condutor é que estas experiências do Copilot aproveitam grandes modelos de linguagem (LLMs) demasiado massivos para serem executados em hardware local típico (pelo menos até recentemente). O Microsoft 365 Copilot utiliza GPT-4; o GitHub Copilot utiliza Codex e modelos mais recentes baseados em GPT-4 para chat; o Bing/Windows Copilot utiliza GPT-4. Estes modelos têm milhares de milhões de parâmetros e requerem GPUs poderosas – residem na nuvem do Azure. Executá-los na nuvem também permite que o Copilot se integre com dados baseados na nuvem (por exemplo, os seus documentos do Microsoft 365, e-mails ou repositórios de código públicos) e aplique controles de segurança empresarial de forma centralizada.

No entanto, a dependência da nuvem apresenta desafios. Vamos explorar porque muitas organizações estão a pedir capacidades de Copilot offline ou locais e quais são as opções atuais.

Porque as Empresas Querem Copilot Sem a Nuvem

Para decisores de TI, a natureza baseada na nuvem do Copilot levanta considerações importantes em torno da conectividade, privacidade e conformidade. Alguns cenários onde um Copilot dependente da nuvem pode não ser ideal incluem:

Ambientes com Conectividade Limitada ou Nula

Muitas indústrias têm utilizadores em locais remotos ou isolados – pense em plataformas de petróleo, locais de mineração, navios no mar, estações de pesquisa de campo, clínicas de saúde rural ou implantações militares. Nestes casos, a internet fiável não é garantida. Um engenheiro num navio de carga ou um soldado numa base de operações avançadas pode beneficiar imenso de um assistente de IA, mas se isso exigir internet sempre ativa, não é viável. Estes utilizadores querem ferramentas de IA que possam funcionar offline ou com conectividade intermitente.

Segurança de Dados Rigorosa e Conformidade

Setores altamente regulamentados (governo, defesa, finanças, saúde) frequentemente têm políticas que proíbem a transmissão de dados sensíveis pela internet pública. Mesmo que a nuvem da Microsoft seja segura, a ideia de que um prompt ou dado de um utilizador saia do enclave local pode violar regras. Por exemplo, uma agência governamental pode adorar a ideia do Copilot resumir um relatório confidencial, mas se usá-lo significar que o texto desse relatório é enviado para a nuvem, isso pode violar protocolos de segurança. Tais organizações procuram soluções de IA locais ou em nuvem privada onde os dados permanecem dentro do seu ambiente controlado em todos os momentos.

Latência e Confiabilidade

Confiar em serviços de nuvem significa que os utilizadores estão sujeitos à latência da internet e a interrupções. Se a conexão for lenta ou cair, o Copilot torna-se lento ou indisponível. Em fluxos de trabalho críticos, essa incerteza é problemática. Um Copilot capaz de funcionar offline poderia garantir continuidade – assistência de IA disponível mesmo quando a rede falha. Trata-se de resiliência: pense numa situação de resposta a emergências durante um desastre natural onde a internet está fora, mas um assistente de IA ainda poderia ajudar a analisar dados localmente.

Custo e Largura de Banda

Enviar constantemente dados para a nuvem para processamento de IA pode consumir largura de banda e potencialmente incorrer em custos (embora o Copilot em si seja licenciado por utilizador). Em filiais remotas com links medidos ou de baixa largura de banda, minimizar a comunicação com a nuvem é desejável. Um modelo de IA local poderia reduzir a pegada de largura de banda.

Perceção de Privacidade

Além da segurança real, algumas organizações têm uma necessidade cultural ou impulsionada pelo cliente de manter as coisas locais. Podem confiar na nuvem da Microsoft em princípio, mas preferem dizer aos interessados “a IA funciona localmente, os seus dados nunca saem das nossas instalações.” É uma garantia para clientes ou cidadãos de que informações sensíveis não estão mesmo temporariamente num sistema externo.

Valor dos Dados Proprietários

O Microsoft 365 Copilot e o GitHub Copilot são projetados de forma que os seus dados não são utilizados para treinar os modelos base (os dados empresariais permanecem privados para o seu inquilino) – a Microsoft tem sido clara sobre isso. No entanto, organizações extremamente sensíveis podem ainda se preocupar com qualquer exposição. Ter uma IA que pode ser implantada dentro de um firewall – idealmente mesmo sem acesso à internet – daria a elas total controle. Isso também abre a porta para personalizar profundamente a IA com dados proprietários sem enviar esses dados para fora.

Dado esses motivadores, não é surpresa que assim que o Copilot foi anunciado, os clientes começaram a perguntar: “Haverá uma versão local ou offline?” Abaixo, vamos explorar cada oferta do Copilot e o que pode (ou não) ser...

feito para ser utilizado de uma forma não baseada na nuvem.

Microsoft 365 Copilot – Apenas na Nuvem Hoje, Acesso a Dados Híbridos Possível

Microsoft 365 Copilot é o assistente de IA integrado nas aplicações do Office como Word, Excel, PowerPoint, Outlook, Teams, e mais. Ele pode redigir documentos, criar apresentações, resumir e-mails ou conversas, analisar dados do Excel e responder a perguntas – tudo isso aproveitando os dados da sua organização no Microsoft 365 (SharePoint, OneDrive, Exchange Online, etc.) além da inteligência do GPT-4. Por design, este serviço funciona na nuvem da Microsoft (no serviço Azure OpenAI, dentro do ambiente Microsoft 365).

Atualmente, não há como executar os componentes LLM do Microsoft 365 Copilot localmente ou offline – é necessário ter uma conexão à nuvem do Microsoft 365 para utilizá-lo. Mesmo os dados que ele utiliza normalmente residem na nuvem (seus SharePoint Online, caixas de correio do Exchange Online, etc.). Se você não estiver conectado a esses, o Copilot não tem nada com que trabalhar. Como mencionado anteriormente, a documentação da Microsoft é explícita: “O Microsoft 365 Copilot é baseado na nuvem.” Ele não pode acessar sistemas locais que não estão integrados com a nuvem.

Por exemplo, considere o e-mail. Se a caixa de correio de um utilizador estiver no Exchange Online, o Copilot pode ler e-mails (a que o utilizador tem permissão para acessar) e resumir ou responder. Mas se a caixa de correio desse utilizador estiver em um servidor Exchange local que não é acessível ao Microsoft 365, o Copilot não incluirá esses e-mails na sua análise. Em configurações de e-mail híbrido, a Microsoft afirma que o Copilot funcionará apenas com o conteúdo da nuvem e “a ancoragem da caixa de correio (usando dados de e-mail) não é suportada” se a caixa de correio for local. Em termos práticos, isso significa que o Copilot ainda pode responder a perguntas gerais ou usar seus arquivos do SharePoint Online, mas agirá como se seus e-mails ou calendário locais não existissem.

Sem modo offline

E se o utilizador estiver simplesmente offline (por exemplo, a trabalhar num portátil sem internet)? Nesse caso, as funcionalidades do Copilot nas aplicações do Office nem sequer aparecerão ou funcionarão. Tony Redmond do Practical 365 resumiu bem: O Copilot não funciona offline… precisa de acesso rápido aos serviços de nuvem e dados do Graph​. Mesmo que você tenha cópias locais de documentos via OneDrive Sync, o processamento de IA ainda acontece no Azure – portanto, sem conectividade, o Copilot não pode “pensar.” As aplicações do Office podem mostrar um ícone do Copilot desativado se você não estiver conectado.

Acesso a dados híbridos via Conectores do Graph

Embora você não possa executar o LLM do Copilot localmente, o Microsoft 365 oferece uma forma de incluir certos dados locais na visão do Copilot: conectores do Microsoft Graph. Os conectores do Graph permitem que as organizações indexem fontes de dados externas (incluindo partilhas de arquivos locais, SharePoint local, serviços de terceiros, etc.) no índice de pesquisa do Microsoft 365. Uma vez indexados na nuvem, esses dados tornam-se parte do que o Copilot pode acessar ao responder perguntas (já que o Copilot usa a Pesquisa/Graph da Microsoft para recuperar conteúdo relevante). Por exemplo, se você tiver arquivos em um servidor de arquivos local, pode usar o conector de Partilha de Arquivos do Windows para rastrear e indexar esses arquivos no Microsoft 365​. Assim, quando um utilizador faz uma pergunta ao Copilot, o Copilot pode “ancorar” sua resposta nesses arquivos locais (agora representados no índice da nuvem).

Esta é não uma solução offline – na verdade, envolve copiar metadados (e opcionalmente conteúdo) para o índice da nuvem – mas é uma forma de integrar dados locais na nuvem do Copilot. Um administrador no fórum da comunidade da Microsoft perguntou se o Copilot pode incluir dados de partilha de arquivos locais, e um representante da Microsoft confirmou: Sim – crie um conector do Graph do M365 para a sua partilha de arquivos local​. O resultado é um cenário híbrido: seus dados permanecem locais para armazenamento primário, mas uma cópia pesquisável vive no Microsoft 365, permitindo que o Copilot a utilize. Tenha em mente que configurar conectores do Graph requer planejamento (para indexação de pesquisa e segurança), e os dados serão enviados para o índice da nuvem do Microsoft 365, o que algumas organizações ultra-sensíveis podem ainda proibir. Mas para muitos, este é um compromisso viável para dar ao Copilot visibilidade sobre o conteúdo local sem a migração total desse conteúdo.

Segurança e residência de dados

A Microsoft tem trabalhado para aliviar as preocupações de segurança na nuvem para o Copilot. Notavelmente, o Copilot (empresarial) não usa seus dados privados para treinar os modelos públicos – os dados e prompts do seu inquilino são isolados. O Microsoft 365 Copilot funciona no Azure OpenAI dentro do limite controlado da Microsoft, não na API pública do OpenAI. A Microsoft afirma que prompts, dados recuperados e respostas permanecem dentro do limite do seu inquilino do Microsoft 365​. Qualquer cache é temporário e usado apenas para essa sessão. Além disso, se você não quiser que o Copilot envie dados para plugins externos ou mesmo para o Bing para pesquisa na web, você pode controlar isso (por exemplo, se o plugin de pesquisa na web estiver ativado, o Copilot pode às vezes chamar a API de pesquisa do Bing para melhores respostas – os administradores podem desativar isso se for uma preocupação). Essencialmente, a Microsoft quer que os clientes cautelosos em relação à nuvem se sintam seguros de que o Copilot no Microsoft 365 está pronto para empresas em termos de privacidade.

No entanto, para algumas organizações isso não é suficiente – seja por política ou falta de conectividade, elas simplesmente não podem usar um serviço na nuvem, não importa quão seguro seja. Para elas, a questão torna-se: o Microsoft 365 Copilot algum dia funcionará localmente ou em um centro de dados privado?

Perspectivas futuras

A Microsoft deu a entender que está a considerar o processamento local para o Copilot no futuro, pelo menos em certos cenários. Em 2024, a Microsoft anunciou PCs Copilot+ (cobriremos isso em detalhe na seção do Windows) – essencialmente dispositivos Windows otimizados para IA com NPUs (unidades de processamento neural) que executam algumas tarefas de IA localmente. Notavelmente, relatórios indicaram que “o Microsoft 365 Copilot em breve poderá usar a NPU em dispositivos Copilot+ para executar modelos de IA localmente.”

Isso sugere que se você estiver usando, por exemplo, o Word em um PC Copilot+, algumas partes da funcionalidade do Copilot podem ser executadas no dispositivo sem idas e vindas para a nuvem. Por exemplo, sugestões rápidas de gramática/estilo ou simples resumos poderiam possivelmente ser tratados por um modelo menor no dispositivo no futuro. Embora os detalhes estejam surgindo, este é um forte sinal de que a Microsoft está explorando arquiteturas híbridas para o Copilot: as tarefas mais exigentes ainda chamam o GPT-4 na nuvem, mas certos modelos de IA de suporte (talvez para indexar seu conteúdo local ou fazer uma compreensão parcial de um documento) podem ser executados localmente em hardware capaz.

Além disso, a Microsoft estendeu o Microsoft 365 Copilot para inquilinos da nuvem comunitária do governo (GCC) a partir do final de 2024​. Isso significa que até mesmo organizações do setor público regulamentadas podem usar o Copilot, mas ainda em uma nuvem que a Microsoft gerencia (o ambiente GCC é separado do comercial, mas não é local). Importante, o Copilot não está disponível ainda no GCC High ou DoD (as nuvens do governo dos EUA com maior segurança)​, o que indica que a Microsoft ainda está a trabalhar para atender a esses requisitos mais rigorosos – possivelmente coisas como redes totalmente isoladas ou maior autorização para dados. Podemos eventualmente ver o Copilot nesses ambientes, que por definição não têm exposição à internet pública. Isso poderia ser considerado “nuvem sem internet” – o serviço funcionaria em regiões do Azure Government que estão desconectadas de redes públicas. Não é local nos servidores próprios do cliente, mas é um passo mais próximo (uma nuvem dedicada).

Conclusão

Hoje, se você quiser usar o Microsoft 365 Copilot, você deve usar o serviço de nuvem da Microsoft. Não há instalação local. Mas você pode integrar dados locais via conectores, e pode configurar a segurança da rede (por exemplo, usar links de rede privada para o Azure) para garantir que o tráfego do seu Copilot não passe pela internet aberta (mais sobre isso mais tarde). O roteiro da Microsoft sugere uma capacidade crescente de utilizar recursos locais (como NPUs) em conjunto com a IA da nuvem, mas um Microsoft 365 Copilot totalmente offline ainda não está disponível.

Microsoft Copilot Without the CloudMicrosoft Copilot Without the Cloud

GitHub Copilot – Assistente de Codificação AI (e as Suas Limitações em Ambientes Restritos)

GitHub Copilot tornou-se uma ferramenta popular entre os desenvolvedores, oferecendo sugestões de código geradas por AI e até mesmo chat em linguagem natural para codificação. Está disponível como uma extensão no VS Code, Visual Studio, IDEs da JetBrains, etc. Para empresas, existe o GitHub Copilot for Business, que oferece maior privacidade (não retendo trechos de código, bloqueio opcional de segredos, etc.). Apesar dessas diferenças na licenciamento, a arquitetura técnica central do GitHub Copilot é a mesma para todos os utilizadores: depende da AI baseada na nuvem do GitHub. O modelo (um descendente do OpenAI Codex e agora melhorado com o GPT-4 para certas funcionalidades) opera em servidores; o plugin do IDE envia o contexto do código para o servidor e recebe de volta as sugestões da AI.

Isso significa que o GitHub Copilot não pode ser executado nativamente no seu PC ou servidor; exige conectividade com o serviço do GitHub. Se a sua máquina de desenvolvimento estiver offline ou desconectada do acesso à internet, o Copilot simplesmente não gerará nada. A nível prático, a extensão apenas mostrará erros ou nenhuma saída se não conseguir alcançar o ponto final. A equipa do GitHub tem sido clara sobre esta limitação. Em perguntas e respostas da comunidade, os utilizadores perguntaram se uma versão offline poderia ser oferecida (para empresas sem acesso à internet). A resposta oficial (em 2022) foi: “O Copilot precisa de acesso à internet... o processamento é feito do lado do GitHub.”​ e que não havia planos para um Copilot local como produto​. Esta situação mantém-se em 2025 – o GitHub Copilot é um serviço na nuvem.

Para muitas empresas, esta dependência da nuvem é aceitável porque o GitHub implementou uma série de medidas de segurança empresarial: o Copilot for Business garante que “os prompts e sugestões não são retidos ou usados para treinar o modelo”, e você pode restringir o acesso do Copilot a certos repositórios ou tipos de ficheiros. Essencialmente, o seu código proprietário não está a ser ingerido em algum pool público; é processado em tempo real e esquecido. Isso aborda algumas preocupações sobre propriedade intelectual. No entanto, do ponto de vista de rede, os desenvolvedores ainda precisam de acesso à internet para usá-lo. Organizações com ambientes de desenvolvimento isolados (comuns em defesa, algumas finanças e software de infraestrutura crítica) consideram isso um bloqueio. Por exemplo, um banco que faz desenvolvimento de software numa rede rigorosamente controlada sem acesso ao GitHub simplesmente não pode permitir que os desenvolvedores usem o Copilot, não importa quão benéfico possa ser, porque não pode chamar o serviço.

Soluções de rede empresarial

Se a preocupação não é tanto a internet em si, mas a segurança dos dados em trânsito, uma abordagem é usar controles de rede para limitar o alcance do Copilot apenas aos pontos finais necessários. Por exemplo, uma empresa poderia permitir que as máquinas dos desenvolvedores se conectassem apenas aos pontos finais da API do Copilot do GitHub (usando regras de firewall/proxies) e nada mais na internet. O tráfego para o Copilot é encriptado (TLS), e com o Copilot for Business, você tem garantias sobre o manuseio de dados. Esta configuração ainda requer um canal de internet, mas um muito restrito. É uma forma de mitigar riscos: o código vai para a nuvem do GitHub e não para mais nenhum lugar. Algumas empresas também roteiam esse tráfego através de uma VPN ou link privado. O GitHub (via Azure) poderia potencialmente ser acessado através de um ExpressRoute ou outra conexão de rede privada se configurado – tornando efetivamente o serviço na nuvem uma extensão da rede corporativa. (Vemos padrões semelhantes com os serviços do Azure usando Private Link – mais sobre esse conceito na próxima seção.) Embora isso não torne o Copilot “offline”, pelo menos remove a exposição à internet pública.

Alternativas locais para AI de código

Reconhecendo que algumas empresas não usarão um serviço na nuvem para geração de código, alguns fornecedores de terceiros começaram a oferecer ferramentas semelhantes ao Copilot que podem ser executadas localmente. Por exemplo, a Codeium (um assistente de codificação AI alternativo) tem uma oferta empresarial local que pode ser implantada no ambiente de um cliente com “nenhum dado ou telemetria sai”​. Isso essencialmente dá a você um modelo de AI auto-hospedado para código. No entanto, essas alternativas usam modelos de AI diferentes (frequentemente de código aberto, como CodeGen, SantaCoder ou derivados do LLaMA) que podem não corresponder ao pleno poder do mais recente da OpenAI. O apelo é que podem ser containerizados e executados nos seus próprios servidores GPU atrás do seu firewall, assim verdadeiramente offline (após a instalação inicial). Grandes empresas com políticas rigorosas podem avaliar tais opções se o GitHub Copilot estiver fora de questão.

Outro caminho é usar o Azure OpenAI Service para construir um “Copilot” personalizado. O Azure OpenAI fornece APIs para modelos da OpenAI (Codex, GPT-3.5, GPT-4) com a camada empresarial do Azure. Embora o Azure OpenAI ainda seja um serviço na nuvem, você poderia hospedar um pequeno serviço web internamente que chama o modelo de conclusão de código do Azure OpenAI em nome dos seus desenvolvedores. Isso manteria todos os fluxos de código dentro do seu inquilino Azure controlado. Você também pode usar Pontos Finais Privados para que as chamadas ao Azure OpenAI não atravessem a internet pública, mas passem por um link de rede privada​. Em essência, ainda é nuvem, mas pode ser feito para se comportar como uma extensão privada do seu centro de dados (por exemplo, via um circuito ExpressRoute para o Azure). Os IDEs dos desenvolvedores poderiam ser direcionados para este serviço interno para conclusões de AI. Esta abordagem requer um trabalho personalizado substancial (não é tão plug-and-play como a integração do GitHub Copilot no VS Code), mas é um compromisso viável para alguns: você obtém assistência de AI semelhante usando os modelos de nuvem do Azure, mas com isolamento de rede e talvez mais controle direto sobre prompts e respostas (você poderia registrá-los ou filtrá-los se necessário).

Limitações atuais

No final do dia, se “sem nuvem” realmente significa sem nuvem, então o GitHub Copilot está fora de questão no momento. Desenvolvedores em redes totalmente isoladas não podem usá-lo. Eles teriam que confiar em ferramentas de análise estática ou ferramentas de assistência ML de gerações anteriores (alguns IDEs têm conclusão de código básica impulsionada por ML que funciona offline, treinada em código local – mas estas estão longe da capacidade do Copilot). É aqui que algumas organizações esperam que a Microsoft/GitHub eventualmente ofereça um aparelho Copilot auto-hospedado ou um modelo que possa ser executado no Azure Stack (um Azure local). Até agora, não existe um roteiro público desse tipo – a suposição é que o ritmo de melhoria do modelo e a integração com a plataforma de nuvem do GitHub tornam um produto local desafiador.

No entanto, a demanda está claramente lá – especialmente à medida que os assistentes de codificação AI se tornam padrão. A Microsoft pode, em vez disso, continuar a assegurar as empresas através de políticas: por exemplo, talvez futuras atualizações permitam executar o GitHub Copilot inteiramente através do Azure OpenAI no seu inquilino (de modo que até a inferência aconteça em uma instância do Azure sob o controle do cliente). Isso satisfaria alguns que é “a sua nuvem” em vez do serviço multi-inquilino do GitHub. Teremos que acompanhar este espaço. Por agora, se o uso offline de um LLM de codificação é um requisito, é necessário olhar para fora do Copilot oficial, para soluções de código aberto ou de terceiros, e estar preparado para uma possível queda na qualidade em comparação com o modelo de ponta que o GitHub Copilot utiliza.

Windows Copilot – Rumo a um Modelo de AI Híbrido (Local + Nuvem)

Windows Copilot (introduzido no Windows 11) é único porque faz parte do próprio sistema operativo, visando ajudar tanto com consultas web/cognitivas como com tarefas específicas do PC (como ajustar definições ou resumir o que está na tela). Inicialmente, a inteligência do Windows Copilot era essencialmente Bing

Chat – significando que era alimentado pela nuvem (OpenAI GPT-4 via Bing) para quase tudo. Mas muito rapidamente, a Microsoft sinalizou uma mudança para uma abordagem mais híbrida, aproveitando o hardware local. Isto reflete uma visão mais ampla: trazer capacidades de IA diretamente para os PCs de modo que nem tudo tenha de estar do lado do servidor.

Em junho de 2024, a Microsoft (e parceiros de hardware de PC) anunciou “Copilot+ PCs” – uma nova classe de PCs com Windows 11 equipados com poderosos NPUs (unidades de processamento neural) e um runtime especial do Windows Copilot. Estas máquinas (como os dispositivos Surface com processadores Qualcomm Snapdragon, e os próximos modelos Intel Core Ultra com NPUs) são projetadas para executar múltiplos modelos de IA localmente, no dispositivo. A Microsoft revelou que os PCs Copilot+ certificados incluem o runtime do Windows Copilot, com mais de 40 modelos de IA a funcionar inteiramente nos portáteis​. Esta é uma grande mudança em relação ao modelo apenas na nuvem. Essencialmente, o Windows agora vem com uma pilha de modelos de IA pré-carregados (para visão, linguagem, áudio, etc.) que podem ser executados no NPU ou em outros aceleradores locais, permitindo que uma gama de funcionalidades do Copilot funcione offline ou com desempenho melhorado.

Que tipos de coisas podem fazer estes modelos locais? De acordo com a Microsoft e relatórios tecnológicos, a IA local dos PCs Copilot+ lida com funcionalidades como:

“Recall” (Pesquisa semântica pessoal)

Esta é uma funcionalidade que indexa tudo o que você viu ou fez no seu PC (ficheiros, janelas, aplicações, capturas de ecrã numa linha do tempo) e permite que você faça uma pesquisa semântica através disso. Recall aproveita um índice semântico pessoal construído e armazenado inteiramente no seu dispositivo, com instantâneas mantidas localmente​. Em outras palavras, é como ter o seu próprio modelo de “memória” local que pode responder a perguntas sobre o que você fez, sem qualquer pesquisa na nuvem. Isto funciona offline e mantém os dados privados no PC.

Geração e edição de imagens (Cocreator, Paint, Photos)

O Windows agora integra um gerador de imagens de IA (semelhante ao DALL-E ou Stable Diffusion). Nos PCs Copilot+, isto funciona no NPU local. A Microsoft observou que, enquanto os geradores de imagens na nuvem muitas vezes têm limites ou tempos de espera, a geração de imagens baseada em NPU pode ser “quase em tempo real” no dispositivo​. Você pode digitar um prompt e obter uma imagem criada pelo modelo local, ou aplicar efeitos de IA às suas fotos (como mudar o estilo de uma foto) com “Restyle” no aplicativo Photos – tudo sem contactar um serviço de nuvem. Eles até afirmam que nos PCs Copilot+ você pode gerar imagens infinitas gratuitamente e rapidamente, uma vez que é local​.

Transcrição e tradução de áudio em tempo real

Funcionalidades como legendas ao vivo ou tradução de palavras faladas podem ser executadas com modelos de IA locais (por exemplo, um pequeno modelo de fala para texto e um modelo de tradução no NPU). Isto elimina novamente a necessidade de APIs na nuvem e mantém os dados de áudio locais.

Reconhecimento de visão e contexto

A Microsoft demonstrou que o Copilot (nestes novos PCs) pode “ver” o que está no seu ecrã ou nas aplicações abertas e ajudar com isso. Isto provavelmente envolve modelos de visão locais (para reconhecimento de elementos de UI, etc.) a funcionar no PC. Por exemplo, o Copilot poderia identificar uma captura de ecrã ou imagem e oferecer contexto, o que poderia ser feito localmente antes de qualquer consulta à nuvem.

Crucialmente, a Microsoft destacou o ângulo da privacidade destas capacidades locais: “Tudo funciona offline e no seu PC de uma forma que protege mais a privacidade — sem enviar os seus dados pessoais para um servidor na nuvem para processamento.”​. Esta citação de uma análise da PCMag sobre os PCs Copilot+ sublinha que tarefas como pesquisar no seu PC ou gerar imagens acontecem inteiramente offline no dispositivo, significando que mesmo que a sua internet esteja desligada, essas funcionalidades do Copilot ainda funcionam, e nenhum dos seus dados (como o conteúdo dos seus ficheiros ou imagens) sai da máquina​.

No entanto, nem todas as consultas do Copilot serão tratadas offline nestes PCs...

A Microsoft esclareceu que “algumas tarefas ainda usarão modelos de IA que funcionam naqueles centros de dados distantes”​– presumivelmente o chat de propósito mais geral ou raciocínio complexo que o GPT-4 fornece. Por exemplo, se você pedir ao Copilot para redigir um e-mail longo ou escrever código que não está disponível localmente, o PC pode ainda chamar a nuvem para aproveitar todo o poder do grande modelo. Os modelos locais (que podem estar na ordem de 1,5 bilhões a 7 bilhões de parâmetros, como sugerido pelos modelos “DeepSeek” que a Microsoft está implementando​) são ótimos para tarefas contextuais rápidas, mas para linguagem natural aberta, o modelo na nuvem provavelmente continua a ser superior.

Este modelo híbrido é na verdade muito convincente: o seu PC lida com o que pode (rápido, privado, capaz de funcionar offline), e chama a nuvem apenas para as tarefas mais pesadas. É análogo a como os smartphones executam alguma IA no dispositivo (como ditado de voz, reconhecimento básico de imagens) e usam IA na nuvem para consultas mais complexas.

De uma perspetiva empresarial, o advento dos PCs Copilot+ significa que os utilizadores em campo podem em breve ter funcionalidade parcial do Copilot mesmo quando offline. Imagine um trabalhador de campo de petróleo com um dispositivo Copilot+ robusto – ele poderia usar o Recall para consultar os seus últimos 2 dias de dados, usar a geração de imagens para visualizar um conceito, ou obter transcrição em tempo real de uma reunião, tudo offline. Quando se reconectar, quaisquer consultas complexas pendentes podem ser respondidas pela IA na nuvem. Isto poderia aumentar significativamente a utilidade do Copilot em situações de baixa conectividade.

A Microsoft também está a criar ferramentas para os desenvolvedores aproveitarem este runtime de IA local. O Blog do Desenvolvedor do Windows anunciou que os desenvolvedores podem direcionar o Runtime do Windows Copilot e os NPUs para incluir funcionalidades de IA nas suas próprias aplicações​. Isso significa que aplicações empresariais de terceiros ou internas poderiam implementar modelos de IA personalizados para funcionar localmente nos PCs dos utilizadores. Pode-se imaginar uma empresa a embalar um modelo de IA específico para verificação de conformidade ou um analisador de dados especializado que funcione em todos os portáteis dos funcionários através do runtime do Copilot – sem necessidade de nuvem para essa função específica.

A grande imagem...

A evolução do Windows Copilot demonstra a estratégia da Microsoft de combinar IA na nuvem e na borda. A equipa do Windows afirmou literalmente que “a IA está a mover-se mais perto da borda, e os PCs Copilot+ estão a liderar o caminho.”​. Ao otimizar e até destilar modelos para funcionar em NPUs, a Microsoft está a estabelecer as bases para experiências do Copilot que degradam de forma elegante quando offline em vez de simplesmente não funcionarem. Hoje, isto é mais evidente em hardware especializado, mas ao longo do tempo, estes NPUs serão comuns na maioria dos PCs empresariais. Podemos esperar que a linha entre o que é feito localmente e o que é feito na nuvem se desloque à medida que o hardware local se torna mais amigável à IA. Talvez dentro de um ou dois anos, até um PC padrão possa executar um modelo de tamanho decente localmente – significando que o Microsoft 365 Copilot poderia responder a prompts simples localmente e apenas chamar a Azure para pedidos muito complexos ou para acesso a dados em toda a empresa. Esta abordagem em camadas poderia aliviar muitas preocupações sobre a necessidade de internet sempre ativa.

Em resumo, o Windows Copilot na sua forma mais recente é o primeiro Copilot a oferecer verdadeiras capacidades offline (para certas funcionalidades). Representa o reconhecimento da Microsoft de que exigir a nuvem para tudo não é ideal. As empresas devem observar este espaço, uma vez que técnicas comprovadas no Windows (índices semânticos locais, modelos destilados como “DeepSeek” para pesquisa, etc.) podem mais tarde ser aplicadas em aplicações do Office ou produtos de servidor. É um desenvolvimento promissor para aqueles que precisam de IA em cenários desconectados – você pode ser capaz de equipar os utilizadores com dispositivos que continuam a fornecer assistência de IA independentemente da conectividade.

Copilot without cloudCopilot without cloud

Executar o Seu Próprio Copilot: Implementações Locais de LLM e Opções Empresariais

Se uma organização não puder usar as versões em nuvem do Copilot, uma alternativa é tentar implementar grandes modelos de linguagem localmente ou em um ambiente privado para replicar algumas das funcionalidades do Copilot. Esta é essencialmente uma abordagem DIY para obter um “assistente de IA” sem depender da nuvem da Microsoft. Quais são as possibilidades e limitações aqui?

Azure OpenAI em uma rede privada

Já mencionámos isto anteriormente – enquanto o Azure OpenAI Service é em nuvem, você pode isolá-lo usando Private Link/Endpoints de modo que, do ponto de vista empresarial, ele se comporte como um serviço interno. A Microsoft permite restringir uma instância do Azure OpenAI a uma rede virtual específica e até bloquear todo o acesso público à internet. Os clientes (suas aplicações ou serviços) então conectam-se através dessa rede privada. O caminho dos dados está totalmente dentro da rede segura do Azure ou através da sua conexão ExpressRoute. Isso mitiga o risco de exposição à internet e garante que nenhum outro inquilino possa acessar sua instância. Muitas empresas usam este modelo para cargas de trabalho sensíveis: o LLM está “no Azure”, mas essencialmente apenas a sua organização pode comunicar com ele, e todo o tráfego é criptografado e permanece em certas regiões. Não está offline, mas pode parecer uma extensão privada da sua infraestrutura.

Além disso, o Azure OpenAI introduziu recentemente “Azure OpenAI nos Seus Dados”, que permite indexar seus dados internos (por exemplo, arquivos, base de conhecimento) e ter o modelo fundamentando respostas com base nisso, tudo dentro do seu ambiente. É semelhante a construir um chatBOT que conhece os documentos da sua empresa. Novamente, não está offline, mas você poderia hospedar todas as partes no Azure ou em conexões locais de modo que o sistema não dependa da internet pública ou de serviços multi-inquilino. Se for necessário estar completamente offline temporariamente, você poderia armazenar em cache alguns desses dados ou executar consultas antecipadamente, mas, em geral, o Azure OpenAI ainda precisa dessa conexão.

Contêineres Azure AI Edge

A Microsoft também começou a oferecer Azure AI em contêineres para uso offline (em pré-visualização, para certos serviços cognitivos). Um Especialista Técnico da Microsoft destacou que “os Contêineres Azure AI Offline são cruciais para implementar soluções de IA em ambientes com conectividade limitada ou inexistente,” empacotando modelos para serem executados localmente em dispositivos de borda ou em servidores locais . Estes atualmente incluem coisas como conversão de fala em texto, tradução de idiomas e outros Serviços Cognitivos que podem ser contêinerizados. O benefício é claro: sem dependência da nuvem – o contêiner tem o modelo e o tempo de execução necessários, então você pode implementá-lo em um laboratório desconectado, por exemplo. No entanto, os contêineres Azure OpenAI (modelos GPT) não estavam geralmente disponíveis nesta forma no início de 2024. O programa de contêineres offline é limitado a clientes estratégicos e certos casos de uso. Isso sugere que a Microsoft está trabalhando para tornar mais serviços de IA disponíveis em forma totalmente offline para aqueles que realmente precisam (por exemplo, clientes de defesa do governo). É plausível que, no futuro, uma versão contêinerizada de um modelo semelhante ao GPT-4 possa ser oferecida a clientes grandes específicos que tenham o hardware necessário. Isso permitiria essencialmente que uma empresa executasse um “cérebro Copilot” localmente, completamente offline, embora provavelmente a um custo elevado (exigindo racks de GPUs ou NPUs especializadas).

Os principais benefícios dos contêineres de IA offline são descritos como continuidade operacional, privacidade de dados, baixa latência, etc. – exatamente as razões que discutimos pelas quais as empresas desejam um Copilot offline. A Microsoft está ciente disso e está abordando essas questões em outros domínios de IA. Até agora, os LLMs continuam a ser um desafio devido ao seu tamanho, mas é uma questão de tempo e otimização.

LLMs de código aberto locais

Se as ofertas oficiais da Microsoft ainda não estão disponíveis, algumas organizações estão experimentando grandes modelos de linguagem de código aberto que podem ser executados localmente ou até mesmo em máquinas individuais. Nos últimos anos, houve uma proliferação de modelos como LLaMA 2 da Meta, que, nas suas versões de 7B ou 13B parâmetros, podem ser executados em um único servidor de alto desempenho (ou até mesmo em um laptop poderoso com GPU) – e na forma de 65B pode ser executado em um servidor multi-GPU robusto. Esses modelos podem ser ajustados com dados da empresa e servir como um Copilot básico para uso interno. Para assistência em codificação, modelos como StarCoder ou Code Llama têm sido usados para construir funcionalidades semelhantes ao Copilot sem serviços em nuvem. Existem projetos de código aberto que incorporam esses modelos no VS Code, por exemplo, permitindo a conclusão de código offline (embora com menos precisão do que as sugestões baseadas em GPT-4 do GitHub Copilot).

A troca com modelos abertos é qualidade e manutenção. Eles frequentemente ficam atrás do estado da arte em coerência e precisão. Dito isso, a diferença tem diminuído: um modelo de 70B parâmetros ajustado pode ter um desempenho notavelmente bom em muitas tarefas – embora ainda possa ter dificuldades com raciocínio complexo ou amplitude de conhecimento em que o GPT-4 se destaca. Além disso, executar esses modelos requer alocar recursos de TI (GPUs, armazenamento, etc.) e expertise em ML para configurar e atualizar continuamente os modelos. Torna-se um projeto interno para “possuir” a IA. Para algumas grandes empresas e agências governamentais, isso é aceitável (até preferido). Para outras, é uma barreira muito alta, e prefeririam esperar que a Microsoft ou outro fornecedor fornecesse uma solução gerida localmente.

Implementações híbridas com conectividade periódica

Outra abordagem é operar em um modo “conectado às vezes”. Talvez o seu ambiente esteja offline na maior parte do tempo, mas pode se conectar durante janelas programadas (digamos, sincronizações diárias ou semanais). Nesses casos, poderia-se usar o Copilot em lotes – por exemplo, quando conectado, fazer com que o Copilot gere uma série de conteúdos ou análises que você sabe que precisará, e depois usar essas saídas offline até a próxima sincronização. Isso não é uso em tempo real do Copilot, mas é aproveitar a nuvem quando disponível para beneficiar os períodos offline. Um exemplo: uma equipe de submarinos emerge e se conecta uma vez por semana; durante esse tempo, eles podem fornecer ao Copilot todos os relatórios e dados que coletaram e pedir que ele produza análises, que eles então usam enquanto estão submersos sem conexão. Isso requer planejamento e não é tão elegante quanto tê-lo sob demanda, mas é uma solução criativa para certos fluxos de trabalho.

Resumindo as possibilidades locais

Executar o seu próprio “Copilot” local é viável para propósitos específicos e restritos hoje (com modelos de código aberto), mas para a experiência completa do Copilot com inteligência ao nível do GPT-4 em vários domínios, ainda estamos amplamente dependentes da nuvem. A Microsoft está a mover-se na direção certa com opções de rede privada e tempos de execução de borda. Em Q&A, a Microsoft sugeriu que “pode lançar uma versão local no futuro” para o Azure OpenAI, mas sem cronograma. Eles incentivam os clientes que precisam disso a manifestar-se através de canais de feedback – portanto, está no radar deles. Dadas as rápidas inovações, não é descabido que, dentro de alguns anos, a Microsoft possa oferecer um modelo de IA reduzido, mas implantável localmente para certas funcionalidades do Copilot – especialmente à medida que NPUs e hardware especializado se tornam comuns (tornando economicamente viável distribuir modelos para serem executados nas máquinas dos clientes em vez de apenas nos datacenters da Microsoft).

Por enquanto, as empresas que devem evitar a nuvem têm estas opções: usar a abordagem de nuvem privada do Azure (mantendo-a dentro do seu inquilino sem exposição pública), ou investir em implementações de IA alternativas (soluções de código aberto ou de terceiros locais) entendendo as limitações. Muitas estão adotando uma abordagem de esperar para ver – adiando o Copilot por agora, mas monitorando atualizações da Microsoft que se aproximam dos seus requisitos. E aqueles que podem tolerar alguma nuvem estão talvez experimentando ao habilitar o Copilot para usuários menos sensíveis, ou em um ambiente de sandbox, para avaliar os benefícios.

Estratégias para Ambientes com Conectividade Limitada: Obtendo Valor do Copilot

Embora o uso totalmente offline do Copilot seja atualmente limitado, existem estratégias para maximizar os benefícios do Copilot em configurações de baixa conectividade ou alta segurança:

1. Use o Copilot em uma Zona de Rede Controlada

Se o uso da internet for proibido, considere configurar uma zona ou terminal controlado que tenha acesso ao Copilot. Por exemplo, algumas organizações têm uma “estação de trabalho de pesquisa” que é permitida a conectar-se (através de canais monitorados) enquanto os PCs regulares não são. Um analista poderia usar o Copilot nessa estação para obter assistência de IA, sem expor toda a rede. Isso não é offline, mas compartimentaliza o risco. Pense nisso como ter uma sala segura onde o Copilot pode funcionar, e você traz dados para dentro/fora de forma gerida (assegurando que nenhum dado verdadeiramente sensível seja alimentado a ele, ou talvez usando apenas dados substitutos). Isso pode ser combinado com Bing Chat Enterprise, que é outra oferta de IA da Microsoft: é essencialmente o chat Bing GPT-4, mas com garantias de que seus prompts não são armazenados ou usados para treinar a IA e os dados permanecem dentro dos limites da sua organização. O Bing Chat Enterprise pode ser usado por equipes jurídicas ou de RH para consultas gerais com contexto sensível, porque a Microsoft não registra esses dados além de fornecer a resposta. Ainda é nuvem, mas com maior privacidade.

2. Aproveitar Links Privados e VPNs

Como discutido, configure conectividade privada com a nuvem da Microsoft para serviços do Copilot. Usando Azure ExpressRoute ou túneis VPN, você pode garantir que todo o tráfego do Copilot passe pela sua rede segura diretamente para a Microsoft, e não pela internet aberta. Isso aborda preocupações de interceptação ou exposição. Isso efetivamente torna o serviço Microsoft 365 ou Azure uma extensão da sua intranet. Juntamente com a criptografia de dados (sempre ativada por padrão) e os acordos empresariais da Microsoft, isso muitas vezes satisfaz as necessidades de conformidade. É uma implementação técnica que não altera a natureza em nuvem do Copilot, mas a torna aceitável em mais cenários.

3. Integrar Dados Locais via Conectores Graph

Já mencionámos isso para o M365 Copilot – se os seus usuários precisarem principalmente que o Copilot trabalhe com documentos internos ou conhecimento que atualmente reside localmente, planeje canalizar esses dados para o Microsoft 365 de forma segura. Conectores Graph para compartilhamentos de arquivos, bancos de dados locais, wikis, etc., podem ser configurados para que o Copilot possa responder a perguntas com esses dados. Dessa forma, mesmo que a fonte da verdade esteja localmente, a IA não precisa acessar sua rede dinamicamente (o que não pode); em vez disso, as informações relevantes foram indexadas na nuvem com antecedência. É uma forma de armazenar em cache o conhecimento da sua empresa na nuvem. Você vai querer abordar o ajuste de segurança (assegurando que o Copilot mostre apenas informações para pessoas que devem vê-las) – a Pesquisa/Graph da Microsoft cuida disso se configurado corretamente. O benefício é que os usuários obtêm respostas ricas do Copilot que incluem conteúdo dos seus arquivos privados locais – algo que eles perderiam de outra forma. O custo é a configuração inicial e um processo de sincronização contínua.

4. Educar e Criar Sandbox para Dados Sensíveis

Uma parte importante da implementação do Copilot em qualquer configuração é a educação do usuário sobre o que deve ou não ser compartilhado com a IA. Mesmo que você não tenha intenção de uso offline, para conformidade você pode instruir os usuários, por exemplo, “Faça...

não cole conteúdo secreto/classificado nos prompts do Copilot” até que um modelo totalmente privado esteja disponível. Algumas organizações têm políticas internas agora para IA generativa. Ao orientar os utilizadores, você reduz o risco de que eles enviem inadvertidamente algo sensível para uma IA na nuvem. Em projetos extremamente sensíveis, os utilizadores podem operar sem o Copilot para esses (da maneira antiga), mas usar o Copilot para tarefas menos sensíveis. Com o tempo, à medida que a confiança aumenta ou mais opções offline surgem, estas diretrizes podem adaptar-se.

5. Monitorizar e Iterar

Ative qualquer registo ou auditoria disponível. Para o Microsoft 365 Copilot, você pode usar as ferramentas Microsoft Purview para ver a utilização do Copilot e garantir que não está a expor dados de forma incorreta. No GitHub Copilot para Empresas, você pode obter telemetria sobre sugestões. A monitorização ajuda a construir confiança de que o Copilot pode ser usado de forma segura, mesmo que seja na nuvem – e os dados da monitorização também podem informar onde uma solução offline é realmente necessária em comparação com onde a versão na nuvem é aceitável. Você pode descobrir, por exemplo, que o Copilot nunca tenta usar um certo tipo de dados sensíveis, ou que certas equipas o utilizam intensamente enquanto outras (talvez em segmentos seguros) não o fazem – isso pode focar os seus esforços em encontrar alternativas para essas equipas.

6. Avaliar Hardware Copilot+ para Uso em Campo

Se você tem colaboradores frequentemente offline (consultores a viajar para locais de clientes com Wi-Fi fraco, técnicos em áreas remotas), considere equipá-los com os novos PCs Copilot+ ou dispositivos com NPUs à medida que se tornem disponíveis. As funcionalidades de IA local nestes dispositivos podem ajudar significativamente na produtividade em campo. Por exemplo, um consultor num voo (sem internet) ainda poderia usar as capacidades offline do Copilot para organizar notas (via Recall), gerar imagens para um relatório ou transcrever uma reunião anterior – tarefas que anteriormente precisariam de IA na nuvem. Quando se reconectarem, podem sincronizar e usar o Copilot completo para tarefas mais complexas. A Microsoft e os OEMs provavelmente irão comercializar fortemente estes PCs de IA para empresas em 2025; os líderes de TI devem testá-los e ver se oferecem benefícios tangíveis de IA offline que justifiquem atualizações. É essencialmente trazer parte da inteligência da nuvem para o ponto final – uma jogada inteligente para certos papéis.

7. Planejar para Futuros Desdobramentos Híbridos

À medida que você elabora sua estratégia de TI e investimentos em nuvem, mantenha um olho no roteiro do Copilot da Microsoft. A tendência é em direção à flexibilidade: talvez o Azure Stack (Azure local) um dia hospede modelos de IA que o Copilot possa usar, ou haverá um “Appliance Copilot” para grandes empresas. A Microsoft também está a permitir o Copilot Studio, onde as organizações podem construir os seus próprios mini copilotos (com plugins e prompts personalizados) – atualmente dentro do ecossistema da nuvem, mas pode-se imaginar que esses possam ser implementados em nuvens privadas eventualmente. O ponto é, garantir que a sua arquitetura (identidade, rede, hardware) esteja pronta para integrar estas soluções de IA híbridas. Por exemplo, investir em dispositivos com NPUs, ou garantir que o seu ambiente Azure esteja configurado com links privados, ou treinar a sua equipa em como lidar com modelos de IA – tudo isso pode posicioná-lo para aproveitar as funcionalidades do Copilot offline ou semi-offline assim que chegarem.

Roteiro da Microsoft: Rumo a um Copilot Opcional na Nuvem?

A mensagem da Microsoft em torno do Copilot tem sido “IA em todo o lado”, e cada vez mais, “em todo o lado” inclui a borda, dispositivos e todos os ambientes de nuvem. Vemos passos concretos: Windows a aproveitar IA local, Microsoft 365 Copilot a expandir-se para nuvens governamentais, Azure a oferecer endpoints de modelos privados, e a menção de possibilidades on-premises no futuro.

Vale a pena notar a visão de Satya Nadella – ele fala frequentemente sobre computação distribuída e como a IA será parte de cada plataforma que usamos. Parte dessa distribuição é provavelmente “IA na borda”, significando que a IA não vive apenas em grandes datacenters, mas também no seu telefone, no seu laptop, no seu servidor local. Os investimentos da Microsoft em NPUs (por exemplo, o Surface Pro com processadores SQ, parcerias com Qualcomm e Intel em chips de IA) mostram que estão a apostar que as cargas de trabalho de IA ocorrerão em dispositivos locais. A parceria com a Meta para trazer o LLaMA 2 para o Azure e o suporte a modelos abertos também pode desempenhar um papel: a Microsoft pode incorporar modelos abertos menores para certas tarefas do Copilot que podem ser executadas localmente ou até permitir que os clientes conectem o seu próprio modelo em alguns casos.

Devemos moderar as expectativas...

As melhores capacidades do Copilot ainda dependem de modelos muito grandes que são impraticáveis de executar totalmente on-prem para a maioria dos clientes em 2025. Isso provavelmente não mudará imediatamente. O que mudará é a mistura de processamento na nuvem vs local e as opções de onde esse processamento acontece (nuvem pública vs privada). O Microsoft 365 Copilot ainda usará algo como o GPT-4 hospedado no Azure – mas talvez você consiga escolher hospedar a instância no datacenter do seu país, ou em um servidor isolado dedicado à sua empresa. O GitHub Copilot pode permanecer um serviço de nuvem multi-inquilino por um tempo, mas talvez o Azure DevOps introduza uma IA semelhante que você possa hospedar. Já temos Azure DevOps Services vs. Server como uma analogia – talvez um “addon de IA” para o Azure DevOps Server possa surgir, treinado no seu código, executando nos seus servidores. Estas são especulações, mas alinham-se com a forma como o software empresarial frequentemente evolui (nuvem primeiro, depois opções on-prem quando amadurecidas).

A própria resposta de Q&A da Microsoft sobre IA on-prem (Azure OpenAI) é reveladora: “trabalhando continuamente para melhorar… pode lançar uma versão on-prem no futuro.”​. Eles estão certamente cientes de que os concorrentes podem atender à demanda on-prem. Empresas como a IBM, por exemplo, promovem suas soluções de IA que podem ser executadas no seu datacenter. O CodeWhisperer da Amazon (um serviço AWS semelhante ao Copilot) também não tem uma versão on-prem, mas a AWS poderia mudar para oferecer modelos no AWS Outposts (hardware on-prem). A Microsoft não quer perder grandes clientes que insistem em soluções não baseadas na nuvem, então a pressão aumentará para oferecer algo.

Em conclusão, a trajetória é clara: a Microsoft está gradualmente a reduzir a dependência do Copilot em nuvem da Microsoft, permitindo que sua nuvem ou seus dispositivos suportem mais do trabalho. Passamos de “Copilot = apenas nuvem” no início de 2023 para “Copilot pode aceder a 40 modelos locais num PC” até ao final de 2024. Não é inconcebível que até ao final de 2025, ouçamos sobre Copilot para Azure Stack (apenas hipotético) ou uma expansão de contentores offline para incluir certos modelos de linguagem. As empresas devem envolver a Microsoft através das suas equipas de conta para expressar interesse nessas capacidades – frequentemente, funcionalidades (como a pré-visualização de contentores offline) são oferecidas a clientes estratégicos que mais precisam delas​. Se a sua organização se enquadra nessa categoria (por exemplo, infraestrutura crítica, defesa, etc.), pode haver programas iniciais para trazer IA semelhante ao Copilot para o seu ambiente mais cedo.

Conclusão: Preparando-se para um Futuro de IA Híbrida

Hoje, o Microsoft Copilot – seja no Office, GitHub ou Windows – ainda depende fortemente da IA baseada na nuvem, o que significa que uma conexão à internet e confiança na segurança da nuvem são pré-requisitos. O uso completamente offline do Copilot não está geralmente disponível neste momento, exceto por capacidades emergentes em dispositivos Windows especializados. Organizações com políticas rigorosas de não-nuvem ainda não podem implementar o Copilot amplamente em seu ambiente.

No entanto, a Microsoft está ativamente a preencher a lacuna entre a nuvem e o on-prem. Através de implementações de nuvem privada, execução de IA local em dispositivos e potenciais ofertas futuras on-premises, a dependência da nuvem está gradualmente a diminuir. Enquanto isso, as empresas podem adotar uma abordagem híbrida: manter fluxos de trabalho menos sensíveis na nuvem para aproveitar todo o poder do Copilot, enquanto usam soluções alternativas (ou ferramentas alternativas) para ajudar os utilizadores que estão offline ou em zonas seguras. Mesmo o uso parcial do Copilot pode proporcionar ganhos de produtividade notáveis – por exemplo, trabalhadores de escritório podem usar o Copilot para automatizar tarefas de documentação (nuvem), enquanto engenheiros de campo usam uma IA local reduzida para transcrições (borda).

É também importante pesar o valor comercial que o Copilot fornece contra os desafios da dependência da nuvem. Muitas organizações descobriram que o aumento de produtividade proporcionado pelo Copilot – redigir conteúdo em segundos, acelerar a codificação, descobrir insights a partir de dados – é significativo. Isso cria um impulso interno para encontrar uma forma de adotar o Copilot de forma segura em vez de rejeitá-lo completamente. Os líderes de TI estão na posição de equilibrar inovação e risco. A boa notícia é que os compromissos de nível empresarial da Microsoft (privacidade, conformidade, ferramentas) fizeram com que muitos CIOs se sentissem confortáveis para pelo menos testar o Copilot de forma controlada. À medida que esses testes demonstram valor, podem expandir os limites ainda mais, talvez levando a uma adoção mais ampla ou exigindo mais capacidades offline da Microsoft.

Ao planejar o Copilot na sua organização, considere:

  • Casos de uso: Identifique quais tarefas o Copilot poderia revolucionar (por exemplo, geração de relatórios, revisões de código, perguntas e respostas de base de conhecimento) e note os requisitos de conectividade dessas tarefas.
  • Conectividade: Melhore os caminhos de rede para a nuvem da Microsoft (largura de banda, baixa latência, links privados) para que, quando o Copilot for utilizado, seja de forma fluida e segura. Uma conexão rápida e fiável pode mitigar muita frustração dos utilizadores e preocupações de segurança.
  • Políticas: Desenvolva diretrizes claras para o uso de IA. Isso não apenas previne abusos, mas também sinaliza aos colaboradores que a organização está a abraçar a IA de forma ponderada, não imprudente. Isso constrói confiança entre TI, conformidade e utilizadores.
  • Formação: Assim como a configuração técnica, treine a sua equipa sobre como usar efetivamente o Copilot e também como lidar com situações em que ele não está disponível (por exemplo, “Se você estiver offline, aqui está o que o Copilot pode/não pode fazer…”).
  • Monitorização do ROI: Acompanhe o tempo economizado ou as melhorias de qualidade devido ao Copilot. Isso ajudará a justificar investimentos adicionais, como a aquisição de dispositivos Copilot+ ou o financiamento de uma iniciativa de IA on-prem.

O panorama da IA empresarial está a evoluir rapidamente. O Microsoft Copilot, a partir de abril de 2025, está na vanguarda da integração da IA generativa no trabalho diário. Embora tenha começado firmemente na nuvem, é claro que a visão do Copilot da Microsoft não se limita a cenários sempre online. Estamos a caminho de um mundo onde copilotos de IA são ubíquos – disponíveis na sua mesa, no seu laptop numa montanha, ou num bunker sem ligação externa, trabalhando ao seu lado. Alcançar essa ubiquidade de forma responsável é o próximo desafio. A abordagem híbrida da Microsoft indica que eles reconhecem que um único tamanho (nuvem) não servirá para todos.

Por agora, a maioria das organizações experienciará o Copilot como um serviço na nuvem, mas deve começar a preparar o terreno (técnica e politicamente) para implementações mais flexíveis. Esses esforços valerão a pena à medida que a Microsoft lançar mais capacidades amigáveis ao offline. Ao manter-se informado sobre as últimas atualizações do Copilot e envolver-se com o roteiro da Microsoft, os profissionais de TI podem garantir que estão prontos para entregar os benefícios do Copilot aos seus utilizadores – na nuvem, na borda, ou em qualquer lugar entre os dois.