Um grupo com 20 grandes empresas globais de tecnologia -que inclui a OpenAI, criadora do ChatGPT, o Google, o X (ex-Twitter), o Tik Tok e a Meta (dona de Facebook, Instagram e WhatsApp)- anunciou na sexta-feira (16) a assinatura de um acordo para evitar que conteúdos enganosos gerados por inteligência artificial tenham interferência em eleições pelo mundo em 2024.
As big techs firmaram o compromisso de "trabalhar colaborativamente em ferramentas para detectar e abordar a distribuição online desse conteúdo de IA, conduzir campanhas educacionais e fornecer transparência, entre outras medidas concretas".
Empresas que gerem as redes sociais entram em acordo para combater fake news com origem em programas de inteligência artificial | (reprodução).
Segundo nota da assessoria de
imprensa das companhias, as big techs firmaram o compromisso de "trabalhar
colaborativamente em ferramentas para detectar e abordar a distribuição online
desse conteúdo de IA, conduzir campanhas educacionais e fornecer transparência,
entre outras medidas concretas".
O acordo foi divulgado em uma
conferência de segurança em Munique, Alemanha, e teve as assinaturas das
companhias Adobe, Amazon, Anthropic, Arm, ElevenLabs, Google, IBM, Inflection
AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap Inc., Stability AI,
TikTok, Trend Micro, Truepic e X.
O documento com três páginas traz
metas e princípios genéricos, como desenvolver a tecnologia para mitigar
riscos, procurar detectar a distribuição de conteúdo enganoso e fornecer
transparência ao público sobre a abordagem das empresas ao tema.
O acordo não faz citação a nenhum
país e menciona que a preocupação é com mais de 40 países com mais de 40
bilhões de pessoas que terão eleições em 2024.
No Brasil, onde não há uma lei
específica sobre o tema, a questão da inteligência artificial na campanha
eleitoral deste ano deverá ser abordada em resolução do TSE (Tribunal Superior
Eleitoral).
Uma minuta elaborada pela
vice-presidente da corte, a ministra Cármen Lúcia, e que ainda deve passar por
análise do plenário, indica que será obrigatório que os usuários informem o uso
de inteligência artificial para geração de conteúdos.
O ministro do TSE Floriano de
Azevedo Marques Neto afirmou em meados de janeiro que a principal preocupação
do tribunal brasileiro é com o falseamento de imagens e vozes de pessoas, nas
chamadas deepfakes. "O fato é que a IA foi pouco presente no pleito de
2022 e quase nada em 2020", disse.
Anna Makanju, vice-presidente de
Assuntos Globais da OpenAI, disse que a companhia está comprometida "em
proteger a integridade das eleições através da implementação de políticas que
previnam abusos e melhorem a transparência em torno do conteúdo gerado por
IA", de acordo com a nota.
"Estamos ansiosos para
colaborar com parceiros da indústria, líderes da sociedade civil e governos ao
redor do mundo para ajudar a proteger as eleições do uso enganoso de IA",
completou.
O executivo do Tik Tok Theo
Bertram afirmou que "é crucial para a indústria trabalhar em conjunto para
proteger as comunidades contra IA enganosa neste ano eleitoral histórico".
"Não podemos permitir que o
abuso digital ameace a oportunidade geracional da IA de melhorar nossas
economias, criar novos empregos e impulsionar o progresso na saúde e na
ciência", disse o presidente de Assuntos Globais do Google, Kent Walker,
segundo a assessoria.
Nick Clegg, presidente de
Assuntos Globais da Meta, afirmou que "este trabalho é maior do que
qualquer empresa e exigirá um esforço enorme em toda a indústria, governo e
sociedade civil".
No Brasil, as últimas eleições já
foram marcadas pelo desafio de combater as fake news, que por vezes envolviam
meramente informações descontextualizadas.
Para especialistas, embora a
desinformação associada à política não seja novidade, a dificuldade de lidar
com o problema pode se ampliar com o avanço da tecnologia, capaz de deixar um
número maior de eleitores em dúvida sobre o que é mentira ou verdade.
Autor:(Folhapress)
0 Comentários