Um grupo com 20 grandes empresas globais de tecnologia — que inclui a OpenAI, criadora do ChatGPT, o Google, o X (ex-Twitter), o Tik Tok e a Meta (dona de Facebook, Instagram e WhatsApp) — anunciou na sexta-feira (16) a assinatura de um acordo para evitar que conteúdos enganosos gerados por inteligência artificial tenham interferência em eleições pelo mundo em 2024.
Segundo nota da assessoria de imprensa das companhias, as big techs firmaram o compromisso de “trabalhar colaborativamente em ferramentas para detectar e abordar a distribuição online desse conteúdo de IA, conduzir campanhas educacionais e fornecer transparência, entre outras medidas concretas”. As informações são da Folha de São Paulo.
Leia maisO acordo foi divulgado em uma conferência de segurança em Munique, Alemanha, e teve as assinaturas das companhias Adobe, Amazon, Anthropic, Arm, ElevenLabs, Google, IBM, Inflection AI, LinkedIn, McAfee, Meta, Microsoft, Nota, OpenAI, Snap Inc., Stability AI, TikTok, Trend Micro, Truepic e X.
O documento com três páginas traz metas e princípios genéricos, como desenvolver a tecnologia para mitigar riscos, procurar detectar a distribuição de conteúdo enganoso e fornecer transparência ao público sobre a abordagem das empresas ao tema.
O acordo não faz citação a nenhum país e menciona que a preocupação é com mais de 40 países com mais de 4 bilhões de pessoas que terão eleições em 2024.
No Brasil, onde não há uma lei específica sobre o tema, a questão da inteligência artificial na campanha eleitoral deste ano deverá ser abordada em resolução do TSE (Tribunal Superior Eleitoral).
Uma minuta elaborada pela vice-presidente da corte, a ministra Cármen Lúcia, e que ainda deve passar por análise do plenário, indica que será obrigatório que os usuários informem o uso de inteligência artificial para geração de conteúdos.
As big techs, porém, insistiram, em audiência pública no TSE, que a responsabilidade pela identificação do uso de IA é dos candidatos e partidos, e não das empresas.
As empresas estabeleceram regras de uso exigindo a rotulagem de anúncios políticos que usam IA e proibindo conteúdo sintético que interfira no processo democrático ou questione a integridade do sistema eleitoral. Não há, porém, fiscalização sobre a aplicação das regras.
O ministro do TSE Floriano de Azevedo Marques Neto afirmou em meados de janeiro que a principal preocupação do tribunal brasileiro é com o falseamento de imagens e vozes de pessoas, nas chamadas deepfakes. “O fato é que a IA foi pouco presente no pleito de 2022 e quase nada em 2020”, disse.
No Brasil, as últimas eleições já foram marcadas pelo desafio de combater as fake news, que por vezes envolviam meramente informações descontextualizadas.
Para especialistas, embora a desinformação associada à política não seja novidade, a dificuldade de lidar com o problema pode se ampliar com o avanço da tecnologia, capaz de deixar um número maior de eleitores em dúvida sobre o que é mentira ou verdade.
Anna Makanju, vice-presidente de Assuntos Globais da OpenAI, disse que a companhia está comprometida “em proteger a integridade das eleições através da implementação de políticas que previnam abusos e melhorem a transparência em torno do conteúdo gerado por IA”, de acordo com a nota.
“Estamos ansiosos para colaborar com parceiros da indústria, líderes da sociedade civil e governos ao redor do mundo para ajudar a proteger as eleições do uso enganoso de IA”, completou.
O executivo do Tik Tok Theo Bertram afirmou que “é crucial para a indústria trabalhar em conjunto para proteger as comunidades contra IA enganosa neste ano eleitoral histórico”.
“Não podemos permitir que o abuso digital ameace a oportunidade geracional da IA de melhorar nossas economias, criar novos empregos e impulsionar o progresso na saúde e na ciência”, disse o presidente de Assuntos Globais do Google, Kent Walker, segundo a assessoria.
Nick Clegg, presidente de Assuntos Globais da Meta, afirmou que “este trabalho é maior do que qualquer empresa e exigirá um esforço enorme em toda a indústria, governo e sociedade civil”.
De acordo com um levantamento da Freedom House, em 2023, a inteligência artificial generativa foi usada em pelo menos 16 países para criar vídeos, imagens ou áudios com o objetivo de “semear dúvidas, difamar opositores ou influenciar o debate público”.
Leia menos