Nesta segunda-feira (10/06), a ONG Human Rights Watch divulgou que fotos pessoais de crianças do Ceará e de outros nove estados brasileiros foram usadas sem consentimento. Essas imagens foram utilizadas em bancos de imagem para o aperfeiçoamento de ferramentas de inteligência artificial (IA).
Nesse sentido, a organização elaborou um relatório que afirma que foram identificadas pelo menos 170 fotos online vinculadas ao conjunto de dados conhecido como LAION-5B. Segundo o documento, a plataforma possui 5,85 bilhões de imagens, sendo que as imagens verificadas representam apenas 0,0001% desse total. Essas fotografias podem ter sido publicadas pelas crianças, pelos pais ou até mesmo por escolas, antes mesmo da plataforma ter início.
As imagens foram coletadas de crianças do Ceará, Alagoas, Bahia, Mato Grosso do Sul, Minas Gerais, Paraná, Rio de Janeiro, Rio Grande do Sul, Santa Catarina e São Paulo. Conforme a Human Rights Watch, cerca de 85 meninas afirmaram ter sofrido assédio por parte de colegas de classe, que utilizaram ferramentas de IA para criar deepfakes com conteúdo sexual explícito contra elas.
Nesse cenário, a expectativa é que o Marco Legal da
Inteligência Artificial seja votado no Senado nesta quarta-feira (12/06). O
relator da proposta, Eduardo Gomes (PL-TO), se utilizou da realização de uma
audiência pública no Conselho de Comunicação Social (CCS) para confirmar a
informação.
ANC
0 Comentários