O relatório, publicado a 27 de fevereiro, lança luz sobre o trabalho humano oculto por trás do impulso da Meta na inteligência artificial vestível e levanta novas questõesO relatório, publicado a 27 de fevereiro, lança luz sobre o trabalho humano oculto por trás do impulso da Meta na inteligência artificial vestível e levanta novas questões

Trabalhadores quenianos que treinam os óculos de IA da Meta dizem que veem os momentos mais íntimos dos utilizadores

2026/03/04 17:01
Leu 4 min
Para enviar feedbacks ou expressar preocupações a respeito deste conteúdo, contate-nos em crypto.news@mexc.com

Uma investigação dos jornais suecos Svenska Dagbladet e Göteborgs-Posten revelou que trabalhadores contratados no Quénia pela Sama—uma empresa queniana de outsourcing que fornece serviços de anotação de dados—para ajudar a treinar os sistemas de IA da Meta Platforms estão profundamente expostos a imagens e vídeos pessoais captados por utilizadores dos óculos inteligentes Ray-Ban da empresa.

O relatório, publicado a 27 de fevereiro, lança luz sobre o trabalho humano oculto por trás do impulso da Meta na inteligência artificial vestível, e levanta novas questões sobre proteção de dados, transferências transfronteiriças de dados e o impacto psicológico nos moderadores de conteúdo que trabalham para a Sama em Nairobi.

Os óculos inteligentes Ray-Ban da Meta, desenvolvidos em parceria com a EssilorLuxottica, são comercializados como um assistente impulsionado por IA que pode traduzir idiomas, descrever ambientes, captar fotografias e vídeos mãos-livres e responder a perguntas sobre o que um utilizador está a ver.

No entanto, para além da proposta futurista, entrevistas com funcionários atuais e antigos da Sama e da Meta pelo Svenska Dagbladet revelaram que as gravações feitas através dos óculos acabam a milhares de quilómetros de distância no Quénia, onde anotadores de dados as reveem e etiquetam para melhorar o desempenho do sistema.

Privacidade, silenciosamente quebrada

Vários trabalhadores quenianos disseram ao jornal sueco que encontram regularmente material sensível no decorrer do seu trabalho, incluindo cenas domésticas comuns a momentos íntimos que os utilizadores podem não ter percebido que estavam a ser captados.

Em alguns casos, disseram os trabalhadores, as gravações incluem informações financeiras como cartões bancários visíveis na imagem, ou gravações feitas em espaços privados como quartos e casas de banho.

"Em alguns vídeos, pode-se ver alguém a ir à casa de banho ou a despir-se", disse um trabalhador da Sama aos repórteres. "Não creio que eles saibam, porque se soubessem, não estariam a gravar."

Outro contratado afirmou ter revisto gravações que mostravam o utilizador dos óculos a pousá-los numa mesa de cabeceira, apenas para a sua mulher entrar no quarto e despir-se, presumivelmente sem saber que estava a ser observada. Outras gravações supostamente mostravam o utilizador a ver pornografia ou até a gravar-se a fazer sexo.

De acordo com a investigação, havia pouca transparência para os dispositivos vestíveis. Os retalhistas na Europa supostamente forneceram informações inconsistentes sobre se os dados captados pelos óculos permanecem no dispositivo ou são transmitidos para os servidores da Meta. Testes independentes citados no relatório indicaram que muitas das funcionalidades de IA dos óculos requerem conectividade à nuvem, o que significa que imagens e entradas de voz podem ser processadas remotamente em vez de localmente no dispositivo.

A ligação à Sama

A Sama, anteriormente Samasource, fornece serviços de anotação de dados a grandes empresas de tecnologia como Meta e OpenAI. A empresa foi acusada no passado de violações laborais em alguns dos seus contratos, particularmente com a OpenAI.

A Sama exige acordos de confidencialidade rigorosos que limitam o que os funcionários podem divulgar publicamente. Mas os relatos publicados pelos jornais suecos sugerem que a promessa de IA sem fricções é alimentada por um sistema laboral em que revisores humanos examinam grandes volumes de dados brutos e não filtrados para que os algoritmos possam aprender a reconhecer objetos, ambientes e contexto.

A Meta declara nas suas políticas de privacidade que o conteúdo do utilizador pode estar sujeito a revisão humana para melhorar produtos e garantir segurança. Para utilizadores europeus, a subsidiária irlandesa da empresa é responsável pela conformidade com o Regulamento Geral de Proteção de Dados (RGPD) da UE.

No entanto, a investigação levanta questões sobre como os dados recolhidos na Europa ou nos Estados Unidos são transferidos e processados em países como o Quénia, que não têm uma decisão de adequação da UE a reconhecer os seus regimes de proteção de dados como equivalentes ao RGPD.

Embora a anotação de dados, a moderação de conteúdo e o treino de IA se tenham tornado críticos para as ambições tecnológicas de Nairobi, estes empregos—principalmente para estudantes universitários e jovens licenciados—vêm com baixos salários, cargas de trabalho pesadas e exposição a material perturbador.

A Meta defendeu as suas práticas em declarações públicas anteriores, afirmando que investe em salvaguardas de privacidade e minimiza a quantidade de dados utilizados para treino. Ainda assim, os relatos publicados pelos jornais suecos sugerem que a linha entre inteligência automatizada e supervisão humana é mais ténue do que muitos consumidores assumem.

Oportunidade de mercado
Logo de CROSS
Cotação CROSS (CROSS)
$0.0856
$0.0856$0.0856
-14.80%
USD
Gráfico de preço em tempo real de CROSS (CROSS)
Isenção de responsabilidade: Os artigos republicados neste site são provenientes de plataformas públicas e são fornecidos apenas para fins informativos. Eles não refletem necessariamente a opinião da MEXC. Todos os direitos permanecem com os autores originais. Se você acredita que algum conteúdo infringe direitos de terceiros, entre em contato pelo e-mail crypto.news@mexc.com para solicitar a remoção. A MEXC não oferece garantias quanto à precisão, integridade ou atualidade das informações e não se responsabiliza por quaisquer ações tomadas com base no conteúdo fornecido. O conteúdo não constitui aconselhamento financeiro, jurídico ou profissional, nem deve ser considerado uma recomendação ou endosso por parte da MEXC.