inteligência jurídica /

Risco à privacidade: Imagens de crianças e adolescentes de 10 estados brasileiros estão sendo utilizadas por IA

A Human Rights Watch alertou recentemente que fotos pessoais de crianças e adolescentes brasileiros estão sendo utilizadas para treinar ferramentas de inteligência artificial (IA) sem o conhecimento ou o consentimento de seus responsáveis legais. Essas fotos estariam sendo coletadas da internet e inseridas em grandes conjuntos de dados usados por empresas para desenvolver suas tecnologias de IA. Como resultado, outras pessoas podem acabar usando essas ferramentas para criar deepfakes maliciosos, colocando as crianças em maior risco de exploração e danos.

Uma análise da Human Rights Watch revelou que o conjunto de dados LAION-5B, usado para treinar diversas ferramentas populares de IA, contém links para fotos identificáveis de crianças brasileiras. Algumas dessas fotos incluem nomes nas legendas ou na URL onde estão armazenadas, facilitando a identificação das crianças e de detalhes como local e data em que foram tiradas.

Ao todo, foram encontradas 170 fotos de crianças de, pelo menos, 10 estados brasileiros no LAION-5B, mas acredita-se que este número seja muito menor do que a quantidade total de dados pessoais de crianças contidos nesse conjunto de dados, que possui 5,85 bilhões de imagens e legendas.

Muitas dessas fotos capturam momentos íntimos da infância e da adolescência, desde bebês sendo segurados por médicos até adolescentes participando de eventos como o Carnaval. Originalmente, algumas dessas fotos foram compartilhadas em blogs pessoais ou sites de compartilhamento de fotos pelos próprios responsáveis ou pessoais vinculadas à elas, expondo a fragilidade da expectativa de privacidade que redes sociais e outras plataformas submetem seus usuários.

Sobre o treinamento de IA com essas fotos, a violação da privacidade das crianças é uma realidade, pois modelos de IA têm sido conhecidos por vazar informações privadas e reproduzir cópias realistas do material em que foram treinados. Esses riscos à privacidade também aumentam a possibilidade de danos maiores, já que plataformas de IA treinados com dados de crianças podem ser usados para criar deepfakes, que são imagens falsas e manipuladas de crianças, muitas vezes de conteúdo adulto, gerando sérios impactos emocionais e psicológicos para as vítimas.

Em resposta às descobertas da Human Rights Watch, a LAION, organização sem fins lucrativos que gerencia o LAION-5B, comprometeu-se a remover as fotos pessoais de crianças identificadas no conjunto de dados. No entanto, ela argumenta que a responsabilidade de remover fotos pessoais da internet recai sobre as crianças e seus responsáveis, o que nem sempre é prático ou eficaz para proteger a privacidade.

Com essa demonstração, é essencial que o governo brasileiro fortaleça a legislação de proteção de dados, implementando medidas específicas para salvaguardar as informações das crianças, e incentive os responsáveis para que observem o impacto do vazamento e do compartilhamento inadequado da imagem de seus filhos.

Para que isso ocorra, é necessário suscitar a proibição da coleta não autorizada de dados pessoais de crianças para treinamento de inteligência artificial ou para qualquer uso estatístico comercial, além da criação de mecanismos eficazes que permitam às vítimas buscarem reparação por danos decorrentes do uso indevido de suas informações. Essas ações são fundamentais para proteger os segmentos mais vulneráveis da sociedade contra potenciais abusos, violações de privacidade e disseminação descontrolada de informações falsas que possam prejudicar a liberdade informativa e individual.

Fonte: Human Rights Watch.

Por:

Luiza Gabbi Biesdorf – OAB/RS 124.380

Filtrar por categoria

Categorias

Veja também

Em recente julgamento, a 3ª Turma do STJ estabeleceu que a proprietária de um hotel no Rio Grande do Sul não possui responsabilidade civil por