Por Rudolfo Lago – Correio da Manhã
O Tribunal Superior Eleitoral (TSE) começou, ontem, um ciclo de audiências públicas para debater as resoluções que guiarão as eleições de outubro. A grande preocupação, sem dúvida, está no uso de inteligência artificial (IA) para produzir informação falsa, as chamadas fake news. Embora isso já existisse nas eleições de 2022, não atingia o nível de sofisticação que acontecerá agora, e que já impactou eleições em outros países.
Há um ponto, porém, que talvez ainda não esteja no radar do TSE. E que é, na avaliação do jornalista, consultor de gestão estratégica e especialista em IA Mário Salimon, o ponto mais grave: a forma como a máquina será capaz de falar pessoalmente com cada eleitor.
Leia maisA grande preocupação é a disseminação de fake news de forma massificada. Mas o que acontecerá, de fato, é que a tecnologia hoje já será capaz de enviar informações direcionadas a cada eleitor individualmente. É como se agora não haja mais alguém que espalhará uma informação falsa para milhões de pessoas. Mas, digamos, um “personal fake”, que irá produzir a falsificação direcionada a cada um, de forma individual.
Salimon exemplifica com a clássica propaganda de cigarros de antigamente. Geralmente, ela era direcionada para um consumidor homem, heterossexual, associando o consumo de cigarros com certo charme e masculinidade. Mas homossexuais também fumavam. Mulheres também fumavam. Esses anúncios não alcançavam diretamente esse público. “Cada vez mais há a possibilidade de fazer com que essa interação entre a máquina e o homem seja individual”, explica Mário Salimon. É a propaganda diferente para cada cliente.
É muito provável que os candidatos venham a usar isso. Especialmente aqueles que dominam melhor as novas ferramentas tecnológicas. “Como a Justiça Eleitoral irá fiscalizar uma interação nesse nível entre o homem e a máquina?”, questiona Salimon. “A Justiça Eleitoral não terá elementos para normatizar relações”. E é disso que se trata: a máquina hoje conversa com cada usuário.
“As novas tecnologias permitem que a máquina tenha com cada usuário diferente uma relação pessoal de interatividade”, explica Salimon. “Esse grau de intimidade vai impactar fortemente na formação de opinião e de comportamento de cada eleitor, sem condições de ser acompanhado”.
“Votar é, ao final, uma demonstração de comportamento”, diz o especialista. “Essa demonstração de comportamento deverá ser moldada por uma buzinação constante em microespaços privados, que serão usados massivamente”. Para Salimon, caso se amplie, decreta a morte da democracia.
“Democracia é ágora”, lembra o especialista. A ágora era o espaço de debate da democracia direta na Grécia antiga, o local onde os cidadãos debatiam e chegavam às soluções a partir desse diálogo, respeitando a vontade da maioria. Ao individualizar a mensagem política, a nova situação elimina o debate.
“Não se trata apenas de estarmos vivendo uma época polarizada”, considera Salimon. “Nós estamos é à mercê de um modelo de comunicação que é polarizador”. Os algoritmos que vão limitando o acesso das pessoas somente àquilo que elas querem ver retiram o acesso delas a outras ideias e propostas que gerariam o debate.
Tal modelo, entende Mário Salimon, leva ao triunfo da autocracia. Porque começa a conseguir estabelecer que só se leva em conta a vontade da maioria, sem considerar as posições das minorias. O modelo inviabiliza as minorias. Ou as deixa limitadas aos seus nichos. Sem interação, congela as posições onde estão.
Como mostrou o Correio esta semana, já estamos em um tempo em que é possível falsificar um empréstimo para produzir um crédito falso. Bem mais fácil é falsificar informação. Pode ser que ainda não seja possível levar tal distorção a um nível tão privado e individual. Mas cada vez mais isso será possível.
Leia menos


















