News

O Copilot para Microsoft 365 pode aumentar a produtividade se você sobreviver ao campo minado da conformidade

A Microsoft publicou uma Nota de Transparência para o Copilot para Microsoft 365, alertando as empresas para garantir que os direitos de acesso do usuário sejam gerenciados corretamente antes de implementar a tecnologia.

Preocupações com a governança de dados suspenderam alguns projetos do Copilot enquanto clientes empresariais consideram a melhor forma de integrar o serviço em suas organizações, e a Nota de Transparência da Microsoft alerta que os administradores devem verificar se o acesso do usuário está configurado corretamente antes de implementar qualquer coisa.

O observação deixa claro: “O Copilot para Microsoft 365 acessa apenas dados aos quais um usuário individual tem acesso existente, com base, por exemplo, nos controles de acesso baseados em funções do Microsoft 365 existentes.”

O Copilot para Microsoft 365 é um complemento para o qual a Microsoft espera US$ 30 por usuário por mês, com uma assinatura anual. Ele usa modelos de linguagem grandes (LLMs) e integra dados com aplicativos e serviços do Microsoft Graph e do Microsoft 365 para resumir, prever e gerar conteúdo.

À primeira vista, o serviço é inócuo o suficiente. Ele recebe a entrada de um usuário em um aplicativo, como o Word. Esse prompt do usuário é então analisado para melhorar as chances de obter algo útil do serviço e, em seguida, enviado ao LLM para processamento. O que sai do LLM é pós-processado antes de ser devolvido ao usuário.

De acordo com a Microsoft: “Esse pós-processamento inclui outras chamadas de aterramento para o Microsoft Graph, verificações de IA responsáveis, como classificadores de conteúdo, verificações de segurança, conformidade e privacidade, e geração de comandos.”

Além de garantir que o acesso do usuário esteja configurado corretamente, a Nota de Transparência alerta as organizações para que considerem questões legais e de conformidade ao usar o serviço, principalmente em setores regulamentados.

“A Microsoft está examinando os requisitos regulatórios que se aplicam à Microsoft como fornecedora da tecnologia e abordando-os no produto por meio de um processo de melhoria contínua”, afirma o documento.

Depois, há a recomendação de permitir que o Copilot para Microsoft 365 faça referência ao conteúdo da web do Bing para melhorar “a qualidade, precisão e relevância” de suas respostas. Permitir que o Microsoft Graph seja estendido com fontes como sistemas de CRM, repositórios de arquivos externos e outros dados organizacionais é outra recomendação que exigirá que as empresas analisem a governança de forma longa e rigorosa.

A Nota de Transparência da Microsoft para o Copilot para Microsoft 365 é um documento útil, destacando que as empresas devem considerar as implicações da implantação do serviço.

No mês passado, Jack Berkowitz, diretor de dados da Securiti, nos contou que grandes corporações estavam interrompendo as implantações do Copilot porque a ferramenta estava acessando dados e “resumindo agressivamente informações” às quais certos funcionários não deveriam ter acesso — salários, por exemplo.

“Agora, talvez se você configurasse um ambiente Microsoft totalmente limpo desde o primeiro dia, isso seria aliviado”, ele disse. “Mas ninguém tem isso. As pessoas implementaram esses sistemas ao longo do tempo, particularmente empresas realmente grandes. E você obtém essas autorizações conflitantes ou acesso conflitante aos dados.”

Os tão alardeados ganhos de produtividade do serviço de IA precisam ser equilibrados por seus riscos – até mesmo a Microsoft observa que “os usuários devem sempre ter cautela e usar seu melhor julgamento ao usar saídas do Copilot para Microsoft 365” – e as preocupações com conformidade e governança de dados devem ser abordadas antes de liberar o serviço em uma organização. ®

Source

Related Articles

Leave a Reply

Your email address will not be published. Required fields are marked *

Back to top button