IA generativa, ética e as eleições de 2024

 

Luiz Scarpino

As tecnologias estão assombrando os mais tradicionalistas, empolgando entusiastas contemporâneos, porém decididamente traça novas perspectivas em tantas áreas do conhecimento: já se fala do “fim” de certas posições no mercado de trabalho, por exemplo.

Na ecosfera do mundo político-eleitoral possibilita novas formas de comunicação com o eleitorado e no modo de produzir campanhas.

A “conquista” do voto, a construção de respostas ao eleitorado, os mecanismos para gerar apoio, antipatia ou reforçar sentimentos pré-concebidos, como as ideologias totalitárias, encontra na IA (Inteligência Artificial) generativa novos meios para ocorrer.

Atentos a tais instrumentos, cabe ponderar alguns limites ético-jurídicos sobre como a IA pode se posicionar como instrumento tecnocientífico “a serviço” dos mais elevados padrões do desenvolvimento democrático.

É o caso de, em primeiro lugar, reconhecer as vulnerabilidades e os grupos vulneráveis a ataques. Crianças e idosos, por exemplo, são grupos populacionais mais suscetíveis de serem enganados em golpes ou manipulações que, na IA foram turbinados.

Os riscos advindos da IA devem ser mapeados e a partir do nível de interação em áreas sensíveis aos direitos humanos, responsabilidades maiores ou menores devem ser dirigidas às empresas que disponibilizam tais ferramentas. Imagine uma empresa que crie um chatbot para interagir com humanos: é preciso que tal mecanismo não predisponha ou induza uma pessoa a sofrimento psicológico ou propicie uma fúria violenta diante de uma indignação induzida ou reforçada!

Também uma preocupação clara é de conter a posição abusiva das plataformas que podem trazer danos tanto ao mercado (concentração excessiva que inibe surgimento de novas companhias) e principalmente dos usuários, aos quais são bombardeados com conteúdos não desejados porém induzidos pelos algoritmos. Nesse sentido uma maior transparência e abertura para auditorias independentes e a estudiosos são ferramentas justas para equilíbrio das relações sociais.

Dentre tantas medidas, preventivas (como educação midiática e inoculação para preparar para desinformação) se faz crescente o foco na responsabilização dos produtores de conteúdos de razoável alcance, como os influenciadores digitais; atualmente a notoriedade para atingir o grande público saltou da centralidade no passado das mídias tradicionais (rádio, TV, jornais e revistas) para a dispersão de celebridades digitais.

O ser humano deve ser em todas as medidas o centro para o qual deve convergir as preocupações e não no mercado ou na tecnologia em si.

Cite-se dois cenários: uma envolvendo a União Europeia e outra, sobre algumas condições para as eleições de 2024 aprovadas pelo Tribunal Superior Eleitoral que impactará as campanhas municipais.

Recentemente a União Europeia(UE) baseada em sua sólida estruturação jurídica que visa conciliar a proteção da liberdade de expressão com a garantia dos mais valiosos direitos humanos, considerando a Lei dos Serviços Digitais (DSA- “Digital Service Act”) pediu esclarecimentos às “big techs” (Meta, Google dentre outros), sobre o uso da IA generativa nas eleições, especialmente com as “alucinações”, informações falsas sem escrúpulos, além da disseminação viral das deepfakes. Também na UE chegou-se a um novo acordo político para regulamentar a transparência da propaganda política mirando as eleições para o Europarlamento, como parte das ações para proteger a integridade eleitoral e apoiar um debate democrático aberto. Estipulou-se que os anúncios políticos terão de ser claramente identificados, bem como os dados do contratante e indicação do público-alvo a quem direcionada, de modo a dar clareza aos usuários da diferença de conteúdos orgânicos daqueles que são impulsionados com fins políticos, inclusive com um repositório de anúncios. Vale ressaltar a estrutura protetiva da UE quanto a proteção de dados pessoais assegura que apenas usuários que tenham consentido poderão receber anúncios direcionados e amplificados, sendo proibido o uso de dados pessoais sensíveis (aqueles ligados a raça, religião, orientação sexual) para fins eleitorais.

Em sentido semelhante ao da Europa é seguida pelo Brasil a partir das inovações da Resolução da propaganda eleitoral em 2024 aprovadas pelo TSE (Resolução 23.732/24). Além dos pontos de transparência nos anúncios e do repositório, novas situações relacionadas ao uso de IA nas propagandas foram introduzidas.

Chatbots estão proibidos e também o uso de técnicas realísticas como deepfake, seja para propaganda propositiva e principalmente naquela negativa (que endereça críticas a adversários). Porém o uso de IA para produção de conteúdos é lícita desde que seja rotulada (inserção de marca d’água) para não confundir o eleitor. A preocupação crescente com a desinformação e os ataques aos valores democráticos encontra respaldo na proteção da integridade e da normalidade do processo eleitoral.

Infrações menores certamente ocorrerão e para tanto, multas devem bastar, embora situações mais graves devam receber respostas duras, como o reconhecimento de abuso de poder, com potencial cassação da candidatura, perda do cargo e inelegibilidade.

Afinal, a política serve para tocar nas principais feridas da sociedade, pois só assim se pode discutir os reais problemas, as possíveis e cabíveis soluções diante de propostas críveis e adequadas para cada cidadão.

A liberdade do eleitor depende de eleições livres de manipulações e o uso ético da IA é um imperativo.

______

Luiz Scarpino, advogado, especialista em Direito Digital, Público e Eleitoral

 

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Rolar para cima