Empresas de tecnologia assinam acordo para combater conteúdo gerado por inteligência artificial que possa interferir nas eleições

Imagem por memyselfaneye de Pixabay
Um grupo de grandes empresas de tecnologia, incluindo Adobe, Amazon, Google, IBM, Meta, Microsoft, OpenAI e TikTok, anunciou na sexta-feira (14) um novo acordo voluntário para adotar “precauções razoáveis” para evitar que ferramentas de inteligência artificial (IA) sejam usadas para perturbar as eleições democráticas em todo o mundo.
O acordo visa combater os chamados “deepfakes”, que são imagens, áudios e vídeos falsos ou alterados por IA que enganam os eleitores sobre a aparência, a voz ou as ações de candidatos, autoridades eleitorais e outras partes interessadas em uma eleição democrática, ou que fornecem informações falsas aos eleitores sobre quando, onde e como eles podem votar legalmente.
As empresas não se comprometem a banir ou remover os deepfakes, mas sim a tentar detectar e rotular o conteúdo enganoso gerado por IA quando ele for criado ou distribuído em suas plataformas. Elas também prometem compartilhar as melhores práticas entre si e fornecer “respostas rápidas e proporcionais” quando esse conteúdo começar a se espalhar.
O acordo é em grande parte simbólico, mas aborda um problema crescente e preocupante para o campo da democracia digital, que enfrenta o desafio de lidar com uma tecnologia cada vez mais realista e sofisticada que pode manipular a percepção e a opinião pública.
A iniciativa das empresas de tecnologia é louvável, mas não suficiente para garantir a integridade e a transparência das eleições em um cenário de desinformação e polarização. É preciso também que os governos, os órgãos eleitorais, os partidos políticos, os candidatos, a mídia e a sociedade civil atuem de forma coordenada e responsável para fiscalizar, denunciar e combater as tentativas de interferência eleitoral por meio da IA.
Além disso, é necessário questionar se a IA já não teria comprometido as eleições em países que adotam o método eletrônico há anos, como o Brasil. Será que os sistemas de votação e apuração são seguros e auditáveis o suficiente para evitar a fraude ou a manipulação por IA? Será que os eleitores estão conscientes e preparados para identificar e rejeitar os conteúdos falsos ou distorcidos por IA que circulam nas redes sociais e nos aplicativos de mensagens? Será que os órgãos de justiça e controle têm capacidade e agilidade para investigar e punir os crimes eleitorais envolvendo IA?
Essas são questões que devem ser debatidas e respondidas com urgência, antes que a IA se torne uma ameaça à democracia e à soberania popular.
Fonte: ABC NEWS
(Com opinião do editor).