Uma investigação dos jornais suecos Svenska Dagbladet e Göteborgs-Posten revelou que trabalhadores contratados no Quénia pela Sama—uma empresa queniana de outsourcing que fornece serviços de anotação de dados—para ajudar a treinar os sistemas de IA da Meta Platforms estão profundamente expostos a imagens e vídeos pessoais captados por utilizadores dos óculos inteligentes Ray-Ban da empresa.
O relatório, publicado a 27 de fevereiro, lança luz sobre o trabalho humano oculto por trás do impulso da Meta na inteligência artificial vestível, e levanta novas questões sobre proteção de dados, transferências transfronteiriças de dados e o impacto psicológico nos moderadores de conteúdo que trabalham para a Sama em Nairobi.
Os óculos inteligentes Ray-Ban da Meta, desenvolvidos em parceria com a EssilorLuxottica, são comercializados como um assistente impulsionado por IA que pode traduzir idiomas, descrever ambientes, captar fotografias e vídeos mãos-livres e responder a perguntas sobre o que um utilizador está a ver.
No entanto, para além da proposta futurista, entrevistas com funcionários atuais e antigos da Sama e da Meta pelo Svenska Dagbladet revelaram que as gravações feitas através dos óculos acabam a milhares de quilómetros de distância no Quénia, onde anotadores de dados as reveem e etiquetam para melhorar o desempenho do sistema.
Vários trabalhadores quenianos disseram ao jornal sueco que encontram regularmente material sensível no decorrer do seu trabalho, incluindo cenas domésticas comuns a momentos íntimos que os utilizadores podem não ter percebido que estavam a ser captados.
Em alguns casos, disseram os trabalhadores, as gravações incluem informações financeiras como cartões bancários visíveis na imagem, ou gravações feitas em espaços privados como quartos e casas de banho.
"Em alguns vídeos, pode-se ver alguém a ir à casa de banho ou a despir-se", disse um trabalhador da Sama aos repórteres. "Não creio que eles saibam, porque se soubessem, não estariam a gravar."
Outro contratado afirmou ter revisto gravações que mostravam o utilizador dos óculos a pousá-los numa mesa de cabeceira, apenas para a sua mulher entrar no quarto e despir-se, presumivelmente sem saber que estava a ser observada. Outras gravações supostamente mostravam o utilizador a ver pornografia ou até a gravar-se a fazer sexo.
De acordo com a investigação, havia pouca transparência para os dispositivos vestíveis. Os retalhistas na Europa supostamente forneceram informações inconsistentes sobre se os dados captados pelos óculos permanecem no dispositivo ou são transmitidos para os servidores da Meta. Testes independentes citados no relatório indicaram que muitas das funcionalidades de IA dos óculos requerem conectividade à nuvem, o que significa que imagens e entradas de voz podem ser processadas remotamente em vez de localmente no dispositivo.
A Sama, anteriormente Samasource, fornece serviços de anotação de dados a grandes empresas de tecnologia como Meta e OpenAI. A empresa foi acusada no passado de violações laborais em alguns dos seus contratos, particularmente com a OpenAI.
A Sama exige acordos de confidencialidade rigorosos que limitam o que os funcionários podem divulgar publicamente. Mas os relatos publicados pelos jornais suecos sugerem que a promessa de IA sem fricções é alimentada por um sistema laboral em que revisores humanos examinam grandes volumes de dados brutos e não filtrados para que os algoritmos possam aprender a reconhecer objetos, ambientes e contexto.
A Meta declara nas suas políticas de privacidade que o conteúdo do utilizador pode estar sujeito a revisão humana para melhorar produtos e garantir segurança. Para utilizadores europeus, a subsidiária irlandesa da empresa é responsável pela conformidade com o Regulamento Geral de Proteção de Dados (RGPD) da UE.
No entanto, a investigação levanta questões sobre como os dados recolhidos na Europa ou nos Estados Unidos são transferidos e processados em países como o Quénia, que não têm uma decisão de adequação da UE a reconhecer os seus regimes de proteção de dados como equivalentes ao RGPD.
Embora a anotação de dados, a moderação de conteúdo e o treino de IA se tenham tornado críticos para as ambições tecnológicas de Nairobi, estes empregos—principalmente para estudantes universitários e jovens licenciados—vêm com baixos salários, cargas de trabalho pesadas e exposição a material perturbador.
A Meta defendeu as suas práticas em declarações públicas anteriores, afirmando que investe em salvaguardas de privacidade e minimiza a quantidade de dados utilizados para treino. Ainda assim, os relatos publicados pelos jornais suecos sugerem que a linha entre inteligência automatizada e supervisão humana é mais ténue do que muitos consumidores assumem.


A narrativa dominante sobre envelhecimento, que seria uma trajetória de declínio gradual e inescapável, não corresponde à realidade vivida por milhões de p
