Fonte da imagem: Kandinsky

Deepfakes políticos acabam sendo a área mais popular de abuso de IA

Publicidade

Um estudo do Google DeepMind descobriu que o abuso de inteligência artificial (IA) na forma de deepfakes – imagens falsas realistas de políticos e celebridades ou seus vídeos e áudio – supera em muito o uso de IA para ataques cibernéticos.

Publicidade

Fonte da imagem: Kandinsky

De acordo com uma análise realizada em conjunto com o braço de investigação do grupo Jigsaw, o objetivo mais comum de abuso da IA ​​generativa era moldar ou influenciar a opinião pública, sendo responsável por 27% de todos os casos de inteligência artificial, informa a Ars Technica.

Publicidade

Esses dados levantam sérias preocupações entre os especialistas sobre o impacto dos deepfakes nas próximas eleições em muitos países ao redor do mundo em 2024. Note-se que nos últimos meses, deepfakes do primeiro-ministro britânico Rishi Sunak e de outros líderes mundiais apareceram nas redes sociais, como como TikTok, X e Instagram✴. Os eleitores do Reino Unido vão às urnas já na próxima semana e há preocupações de que, apesar dos esforços das plataformas de redes sociais para rotular ou remover tal conteúdo, o público possa não reconhecê-lo como falso, potencialmente influenciando as decisões dos eleitores.

Ardi Janjeva, pesquisador do Instituto Alan Turing, observa que a proliferação de conteúdo gerado por IA poderia “distorcer nossa compreensão coletiva da realidade sociopolítica”, o que representa riscos de longo prazo para os processos democráticos, mesmo que o impacto direto no comportamento dos eleitores tenha ainda não foi comprovado.

À medida que produtos generativos de IA, como o ChatGPT da OpenAI e o Gemini do Google, crescem em popularidade, as empresas de IA estão começando a examinar mais de perto o conteúdo potencialmente prejudicial ou antiético gerado por suas ferramentas. Por exemplo, em maio, a OpenAI publicou um estudo que mostra a utilização das suas ferramentas para criar e difundir desinformação relacionada com a Rússia, a China, o Irão e Israel.

A segunda motivação mais comum para o abuso foi a procura de ganhos financeiros, por exemplo, através da oferta de serviços deepfake, incluindo a criação de imagens de pessoas reais, ou a utilização de IA generativa para criar artigos de notícias falsos.

O estudo mostrou que a maioria dos incidentes utiliza ferramentas de fácil acesso que não exigem conhecimento técnico profundo, o que por sua vez só pode aumentar o crescimento do número de invasores no ambiente de IA.

Ao mesmo tempo, os resultados do estudo Google DeepMind influenciarão as ações das empresas de IA para testar modelos de segurança e avaliar não apenas os benefícios, mas também os potenciais danos da utilização de IA generativa.

Se você notar um erro, selecione-o com o mouse e pressione CTRL+ENTER.

Posts Similares

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *