OpenAI Lança Filtro de Privacidade para Deteção e Redação de PII
Caroline Bishop 24 de abr de 2026 15:27
OpenAI apresenta o Filtro de Privacidade, um modelo para detetar e redigir PII com precisão de ponta. Disponível agora para programadores.
A OpenAI apresentou o Filtro de Privacidade, um novo modelo de IA de pesos abertos concebido para detetar e redigir informações pessoais identificáveis (PII) em texto. Lançada a 23 de abril de 2026, a ferramenta oferece precisão de ponta para fluxos de trabalho de privacidade, estabelecendo um novo referencial para a proteção de dados sensíveis.
O Filtro de Privacidade tem como objetivo resolver desafios persistentes na deteção de PII, indo além dos sistemas tradicionais baseados em regras. Ao contrário de ferramentas mais antigas que dependem de padrões determinísticos para formatos como números de telefone ou endereços de e-mail, este modelo utiliza uma compreensão avançada da linguagem para analisar texto não estruturado e tomar decisões conscientes do contexto. Por exemplo, consegue distinguir entre informações públicas e privadas, uma capacidade crucial em cenários de privacidade complexos.
Uma das suas funcionalidades de destaque é a capacidade de operar localmente, o que significa que os dados sensíveis podem ser processados diretamente na máquina do utilizador sem serem enviados para servidores externos. Este design reduz o risco de exposição de dados e é particularmente valioso para aplicações sensíveis à privacidade em setores como a saúde, as finanças e os serviços jurídicos.
O modelo é otimizado para uso em produção, com eficiência como elemento central. Consegue processar até 128 000 tokens de contexto numa única passagem, mantendo altas taxas de precisão e retirada. No benchmark PII-Masking-300k amplamente utilizado, o Filtro de Privacidade alcançou uma pontuação F1 de 96%, subindo para 97,43% numa versão corrigida do conjunto de dados. Estas pontuações destacam a sua capacidade de detetar violações de privacidade subtis e complexas, minimizando os falsos positivos.
A OpenAI disponibilizou o modelo sob uma licença Apache 2.0 através de plataformas como o Hugging Face e o GitHub, incentivando os programadores a experimentar, ajustar e implementá-lo de acordo com as suas necessidades específicas. O modelo suporta oito categorias de PII, incluindo private_person, private_address, private_email e account_number. É configurável para diversos fluxos de trabalho, permitindo aos utilizadores equilibrar a precisão e a retirada com base nas suas prioridades operacionais.
Apesar das suas capacidades, a OpenAI reconhece que o Filtro de Privacidade não é uma solução autónoma para conformidade regulatória ou revisão de políticas. É uma ferramenta concebida para complementar estratégias mais amplas de privacidade por design. O modelo pode necessitar de avaliação ou ajuste fino adicional específico do domínio para se adaptar a diferentes setores, idiomas e convenções de nomenclatura.
Este lançamento faz parte do esforço mais amplo da OpenAI para melhorar as proteções de privacidade impulsionadas por IA. A empresa sublinhou que o objetivo é que os sistemas de IA aprendam a partir de dados sem comprometer a privacidade individual. Ao disponibilizar o Filtro de Privacidade em código aberto, a OpenAI pretende capacitar programadores e organizações para integrarem salvaguardas de privacidade robustas nos seus fluxos de trabalho.
O Filtro de Privacidade representa um avanço significativo na tecnologia de privacidade, especialmente à medida que o setor de IA enfrenta um escrutínio crescente em torno da segurança de dados e das práticas éticas. Para programadores e empresas que procuram reforçar as suas capacidades de tratamento de PII, a disponibilidade do modelo marca uma oportunidade crucial para adotar ferramentas de vanguarda que priorizam a privacidade do utilizador.
Fonte da imagem: Shutterstock- ai
- privacy
- openai
- pii
- data security








