Óculos da Meta AI é acusado de vazar vídeos íntimos e dados pessoais
Escrito por Mariana Silva
AtualizadoUma denúncia recente aponta que os óculos inteligentes da Meta AI podem ter exposto vídeos íntimos e dados pessoais de usuários a moderadores humanos responsáveis por revisar conteúdos usados no treinamento de sistemas de inteligência artificial.
Segundo a reportagem investigativa publicada pelos jornais suecos Svenska Dagbladet e Göteborgs-Posten, as gravações captadas pelos dispositivos podem ser enviadas para análise manual, o que levanta preocupações sobre privacidade e segurança das informações registradas pelos aparelhos.
Ray-Ban Meta de 2ª geração — Foto: Divulgação/Meta
A denúncia envolve os óculos inteligentes desenvolvidos pela Meta AI em parceria com a marca Ray-Ban, conhecidos como Ray-Ban Meta Smart Glasses. Os dispositivos permitem gravar vídeos, tirar fotos, fazer transmissões ao vivo e interagir com recursos de inteligência artificial diretamente pelos óculos.
Leia Também: Saiba quais informações que você não deve compartilhar com IAs
Como os vídeos acabam sendo analisados
Parte dos conteúdos captados pelos óculos pode ser utilizada para melhorar os sistemas de inteligência artificial da empresa. Para isso, algumas gravações são encaminhadas para revisão de moderadores humanos, que analisam os materiais para ajudar no treinamento dos algoritmos.
O problema é que, de acordo com a denúncia, entre esses conteúdos podem estar vídeos gravados em ambientes privados, situações íntimas ou dados pessoais, o que levanta preocupações sobre a forma como os dados são coletados, armazenados e revisados.
Mark Zuckerberg durante o Meta Connect em setembro de 2025 — Foto: REUTERS/Carlos Barria
Preocupação com a privacidade e a segurança digital
Especialistas em privacidade digital alertam que dispositivos vestíveis com câmeras e recursos de inteligência artificial ampliam os riscos de exposição involuntária de dados sensíveis. Como esses aparelhos podem registrar o ambiente ao redor do usuário de forma rápida e discreta, existe a possibilidade de capturar momentos pessoais sem que outras pessoas presentes saibam que estão sendo filmadas.
Além disso, quando essas gravações são utilizadas para treinar sistemas de IA, elas podem passar por análises humanas, o que aumenta o risco de acesso indevido a conteúdos privados ou informações pessoais.
Entre as principais preocupações apontadas por especialistas estão:
- Captação de imagens em ambientes privados, como casas, reuniões familiares ou encontros pessoais.
- Registro de terceiros sem consentimento, já que pessoas ao redor podem não perceber que estão sendo filmadas.
- Uso das gravações para treinamento de IA, o que pode envolver análise humana de conteúdos potencialmente sensíveis.
- Armazenamento e compartilhamento de dados, que podem aumentar o risco de vazamentos ou uso indevido das informações.
- Falta de transparência para os usuários, que nem sempre sabem como os conteúdos captados podem ser utilizados pelas plataformas.
Debate sobre o uso de dados pessoais
O caso reacende discussões sobre transparência no uso de dados por empresas de tecnologia. Especialistas afirmam que dispositivos com câmeras e inteligência artificial, como óculos inteligentes, ampliam os desafios de privacidade e consentimento dos usuários.
O que diz a Meta sobre o caso?
A Meta afirma que parte dos conteúdos pode passar por revisão humana quando usuários optam por compartilhar dados para melhorar os sistemas de inteligência artificial da empresa. Segundo a companhia, esse processo está previsto em suas políticas de uso e inclui medidas para reduzir a exposição de dados pessoais durante a análise.
Mesmo diante dessas medidas, a empresa está sofrendo processo judicial nos Estados Unidos acusada de que os óculos foram vendidos como um produto que garante a privacidade dos usuários e a Meta não cumpriu com esse requisito.
O caso reforça o debate sobre segurança digital e privacidade. Especialistas destacam que o avanço da IA exige regras claras sobre coleta, armazenamento e uso de dados, para preservar a autonomia e a segurança dos usuários com a inteligência artificial.

