Cada vez mais empresas adotam ferramentas de inteligência artificial (IA) para garantir eficiência e produtividade. É importante, nesse cenário, tomar precauções para garantir a segurança de dados, especialmente porque algumas ferramentas não atendem integralmente à LGPD (Lei Geral de Proteção de Dados).
Uma pesquisa da FGV avaliou 7 ferramentas reconhecidas de inteligência artificial generativa com base em critérios básicos da LGPD e de outras normas da ANPD (Autoridade Nacional de Proteção de Dados). O resultado foi preocupante:
Dos 14 critérios estabelecidos, apenas 2 são atendidos por todas as tecnologias analisadas – e nenhuma delas cumpre todos os requisitos.
A IA generativa (popularizada por ferramentas como Chat GPT, Gemini, e Copilot) vem sendo utilizada em massa para gerar imagens, vídeos, textos, e até análises ou revisões de documentos, dentro e fora das empresas.
Se utilizada corretamente, a IA tem a capacidade de otimizar processos e facilitar as tarefas no trabalho. Uma organização pode usar essas ferramentas para revisar textos, obter insights sobre processos, e até gerar modelos de documentos.
No entanto, o uso inadequado pode resultar no vazamento de informações confidenciais e comprometer dados pessoais de funcionários ou de clientes.
As Inteligências Artificiais Generativas são ferramentas para criação de conteúdo (imagens, vídeos, códigos ou documentos) a partir de informações já existentes (em fontes públicas ou no banco de dados da própria IA).
Em resumo, são tecnologias capazes de atender comandos e produzir novos conteúdos de acordo com especificações fornecidas. Isso é feito com base na identificação de padrões de grandes bancos de dados.
Exemplo do funcionamento da Inteligência Artificial Generativa.
Vazamentos de dados confidenciais são uma preocupação para as empresas, já que as punições e os danos podem ser graves. Agora, com as ferramentas de IA, o receio tem se intensificado.
O registro e a divulgação de casos de exposição de informações podem se tornar uma dor de cabeça para organizações que falham em adotar controles adequados:
Em 2025, o número médio mensal de incidentes de segurança de dados relacionados ao IA generativa aumentou 2,5 vezes, representando agora 14% de todos os incidentes de segurança de dados.
Dados da UNIT 42, equipe de pesquisa de ameaças, resposta a incidentes e consultoria em segurança da Palo Alto Networks — companhia global de cibersegurança.
O estudo compilou registros históricos de tráfego do ano de 2024 de 7.051 clientes globais da empresa.
Algumas das ferramentas, como o Chat GPT, informam que as mensagens dos usuários — que contêm as informações cedidas por eles — não são vendidas, compartilhadas, ou mostradas para outros usuários.
No entanto, na maioria dos casos, a única fonte de respaldo técnico e jurídico é a Política de Privacidade disponível no site das IAs.
É importante lembrar que os repositórios das IAs podem ser alvo de invasões de hackers e ataques de engenharia social, o que compromete a segurança dos dados que os usuários fornecem quando usam essas ferramentas.
Não compartilhe dados pessoais internos ou de clientes – jamais forneça informações pessoais — seja de funcionários, clientes ou fornecedores — em plataformas de terceiros sem a devida autorização dos titulares dos dados. A destinação incorreta de dados confidenciais pode provocar sanções severas à organização e colocar em risco a segurança de outras pessoas.
Não forneça informações estratégicas da empresa - não informe dados sigilosos ou compartilhe arquivos/textos que contenham informações estratégicas (como lançamentos de produtos novos), pois o conteúdo pode ser acessado por pessoas e empresas concorrentes.
Não compartilhe relatórios sigilosos – a inserção de planilhas, registros, e outros documentos com números e análises internas — e de clientes — pode provocar danos à saúde financeira e operacional da empresa ou expor informações como problemas financeiros e crises.
Não compartilhe senhas ou credenciais de acesso - não informe ou compartilhe documentos com senhas e demais credenciais de acesso, pois estas podem ser utilizadas por pessoas mal-intencionadas e para fins potencialmente criminosos.
Leia as políticas de segurança e privacidade de dados - analise as políticas das ferramentas de inteligência artificial utilizadas pela empresa, para verificar se elas estão em conformidade com as normas aplicáveis ao tema (como a LGPD) e com as especificações contratuais de sua empresa com terceiros (clientes, prestadores de serviço, e funcionários).
Prepare a empresa para lidar com a IA – criar treinamentos internos sobre o funcionamento das IAs generativas e a forma mais adequada de utilizá-las pode evitar transtornos futuros. Nem todos os funcionários — incluindo gestores(as) — estão familiarizados com os riscos do uso indevido delas.
Defina limites para uso da IA – é crucial que a empresa mapeie e documente quais recursos e ferramentas de IA são utilizados internamente. A partir disso, identifique os riscos associados a elas e estruture formas de evitá-los (ou de mitigar danos, em caso de incidentes).
Monitore e faça auditorias internas – estabeleça controles (especialmente aqueles que envolvem software de detecção de ameaças) e audite a empresa continuamente. Assim, há mais certeza de que as medidas estabelecidas estão sendo seguidas.
As ferramentas de inteligência artificial personalizadas (ou proprietárias), desenvolvidas para atender a cada software ou ferramenta individualmente, são uma alternativa que confere mais segurança às empresas.
É o caso das IAs com banco de dados e APIs próprios, que funcionam integradas a uma estrutura exclusiva de armazenamento e comunicação.
Essa configuração garante maior controle sobre o fluxo de informações e reduz drasticamente o risco de vazamento de dados pessoais, estratégias de negócio, códigos, e documentos confidenciais.
A IA generativa proprietária pode ser treinada com informações internas e específicas da empresa, oferecendo respostas mais precisas e relevantes para a realidade do negócio.
Isso gera ganhos de produtividade, melhora na tomada de decisão, e garante maior confiabilidade nas interações. Esses benefícios acontecem porque a inteligência artificial passa a refletir o conhecimento e as necessidades reais da organização.
Outro ganho importante está na independência tecnológica. Ao utilizar uma IA com API e banco de dados dedicados, a empresa não depende de mudanças unilaterais de plataformas externas nem fica exposta a oscilações de custo e disponibilidade.
Além disso, a integração direta com sistemas internos — como ERPs, CRMs e ferramentas de compliance — confere mais fluidez operacional e contribui para uma governança digital mais sólida.
Em um cenário em que a proteção de dados e a reputação corporativa são ativos cada vez mais valiosos, investir em IAs generativas próprias deixa de ser apenas uma inovação tecnológica para se tornar um pilar de sustentabilidade e competitividade.
Organizações que adotam esse caminho reforçam a confiança de clientes e parceiros, reduzem riscos de não-conformidades, e constroem uma base segura para crescer com responsabilidade.
A adoção da Inteligência Artificial (IA) no ambiente corporativo traz inúmeras vantagens, mas exige atenção redobrada à LGPD e às normas de proteção de dados.
O uso inadequado pode expor informações sensíveis. Empresas que buscam evitar riscos devem buscar soluções bem estruturadas — como IAs personalizadas integradas a sistemas de compliance — que garantem segurança, confiabilidade e vantagem competitiva.
Investir em ferramentas que unem IA segura e gestão da conformidade legal é o caminho para proteger dados, fortalecer a reputação da empresa, e conduzir os negócios de forma sustentável e responsável.
O Greenlegis Conformidade Legal também apoia sua empresa na gestão da legislação de segurança da informação, seja qual for a sua atividade.
Conheça todos os benefícios do Sistema Conformidade Legal