não mexer

header ads

Big techs anunciam acordo contra fakes de IA nas eleições.

Um grupo com 20 grandes empresas globais de tecnologia -que inclui a OpenAI, criadora do ChatGPT, o Google, o X (ex-Twitter), o Tik Tok e a Meta (dona de Facebook, Instagram e WhatsApp)- anunciou na sexta-feira (16) a assinatura de um acordo para evitar que conteúdos enganosos gerados por inteligência artificial tenham interferência em eleições pelo mundo em 2024.

As big techs firmaram o compromisso de "trabalhar colaborativamente em ferramentas para detectar e abordar a distribuição online desse conteúdo de IA, conduzir campanhas educacionais e fornecer transparência, entre outras medidas concretas".

Empresas que gerem as redes sociais entram em acordo para combater fake news com origem em programas de inteligência artificial | (reprodução).

Segundo nota da assessoria de imprensa das companhias, as big techs firmaram o compromisso de "trabalhar colaborativamente em ferramentas para detectar e abordar a distribuição online desse conteúdo de IA, conduzir campanhas educacionais e fornecer transparência, entre outras medidas concretas".

O acordo foi divulgado em uma conferência de segurança em Munique, Alemanha, e teve as assinaturas das companhias Adobe, Amazon, Anthropic, Arm, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap Inc., Stability AI, TikTok, Trend Micro, Truepic e X.

O documento com três páginas traz metas e princípios genéricos, como desenvolver a tecnologia para mitigar riscos, procurar detectar a distribuição de conteúdo enganoso e fornecer transparência ao público sobre a abordagem das empresas ao tema.

O acordo não faz citação a nenhum país e menciona que a preocupação é com mais de 40 países com mais de 40 bilhões de pessoas que terão eleições em 2024.

No Brasil, onde não há uma lei específica sobre o tema, a questão da inteligência artificial na campanha eleitoral deste ano deverá ser abordada em resolução do TSE (Tribunal Superior Eleitoral).

Uma minuta elaborada pela vice-presidente da corte, a ministra Cármen Lúcia, e que ainda deve passar por análise do plenário, indica que será obrigatório que os usuários informem o uso de inteligência artificial para geração de conteúdos.

O ministro do TSE Floriano de Azevedo Marques Neto afirmou em meados de janeiro que a principal preocupação do tribunal brasileiro é com o falseamento de imagens e vozes de pessoas, nas chamadas deepfakes. "O fato é que a IA foi pouco presente no pleito de 2022 e quase nada em 2020", disse.

Anna Makanju, vice-presidente de Assuntos Globais da OpenAI, disse que a companhia está comprometida "em proteger a integridade das eleições através da implementação de políticas que previnam abusos e melhorem a transparência em torno do conteúdo gerado por IA", de acordo com a nota.

"Estamos ansiosos para colaborar com parceiros da indústria, líderes da sociedade civil e governos ao redor do mundo para ajudar a proteger as eleições do uso enganoso de IA", completou.

O executivo do Tik Tok Theo Bertram afirmou que "é crucial para a indústria trabalhar em conjunto para proteger as comunidades contra IA enganosa neste ano eleitoral histórico".

"Não podemos permitir que o abuso digital ameace a oportunidade geracional da IA de melhorar nossas economias, criar novos empregos e impulsionar o progresso na saúde e na ciência", disse o presidente de Assuntos Globais do Google, Kent Walker, segundo a assessoria.

Nick Clegg, presidente de Assuntos Globais da Meta, afirmou que "este trabalho é maior do que qualquer empresa e exigirá um esforço enorme em toda a indústria, governo e sociedade civil".

No Brasil, as últimas eleições já foram marcadas pelo desafio de combater as fake news, que por vezes envolviam meramente informações descontextualizadas.

Para especialistas, embora a desinformação associada à política não seja novidade, a dificuldade de lidar com o problema pode se ampliar com o avanço da tecnologia, capaz de deixar um número maior de eleitores em dúvida sobre o que é mentira ou verdade.

Autor:(Folhapress)

Postar um comentário

0 Comentários