array(31) {
["id"]=>
int(176459)
["title"]=>
string(78) "Proliferação de deepfakes com IA exige cautela redobrada em ano de eleição"
["content"]=>
string(9474) "Desconfie e verifique
Um vídeo viral nas redes sociais alerta para o risco de deepfakes impulsionados por inteligência artificial nas eleições de 2026. Publicado esta semana pelo perfil @petersonsouza.ai no Instagram, o conteúdo acumula mais de 4 milhões de visualizações ao mostrar o presidente Lula e o ex-presidente Jair Bolsonaro realizando gestos e expressões faciais idênticos e sincronizados, demonstrando o potencial de manipulação digital.
O criador, Peterson Souza, que se apresenta como especialista em IA e automação, acompanha a demonstração com um alerta direto:“Eleições 2026. Cuidado com o que você irá assistir e ouvir. Nem tudo que você verá será real.” Nos comentários, o vídeo recebeu elogios pela transparência em ilustrar os perigos do mau uso da tecnologia durante o período eleitoral, incentivando a conscientização sobre conteúdos falsos que podem viralizar e influenciar a opinião pública.
A tecnologia de deepfakes — vídeos, áudios ou imagens manipulados por inteligência artificial para simular pessoas reais de forma hiper-realista — está se popularizando rapidamente no Brasil. Ferramentas como o modelo Kling 2.6 Motion Control, por exemplo, permitem criar conteúdos falsos com qualidade impressionante, sem necessidade de atores ou maquiagem. O que antes parecia ficção de Hollywood agora é acessível a qualquer pessoa com um computador.
Deepfakes são convincentes e representam um perigo para a democracia
Em 2026, ano de eleições presidenciais e gerais no país, o risco de uso malicioso desses conteúdos cresce exponencialmente. Vídeos falsos de políticos, celebridades ou figuras públicas podem espalhar desinformação em grupos de WhatsApp, redes sociais e plataformas como Instagram, TikTok e X (antigo Twitter), influenciando opiniões e até alterando resultados eleitorais.
Vídeos falsos por IA
Outro alerta recente veio do criador de conteúdo Lucas Rocha (@lucasrochaator), especialista em IA e criação digital. Em um Reels no Instagram, ele demonstra um vídeo gerado por IA e alerta: “Essa tecnologia tá avançando rápido demais. [...] Ano que vem é ano de eleição no Brasil. E a gente sabe como os grupos de WhatsApp ficam. Hoje já dá pra criar vídeos falsos com rostos e vozes que parecem reais. Por isso é importante preparar quem tá perto de você desde agora. Mostra esse vídeo pros seus pais, pros seus avós, e pra quem ainda acredita em tudo que vê na internet só porque 'parece real'.”
Outros perfis e influenciadores também estão reforçando essa mensagem de desconfiança. Criadores de conteúdo sobre tecnologia, como Bruno Sartori (conhecido por produzir deepfakes "do bem" para conscientização) e veículos de checagem como Agência Lupa, Aos Fatos e Comprova, frequentemente publicam alertas sobre manipulações digitais. No TikTok e Instagram, contas alinhadas a checagem de fatos alertam para deepfakes que simulam apoio político de celebridades, como casos recentes envolvendo falsos vídeos de Lionel Messi e Bruna Marquezine endossando candidatos.
Nas eleições municipais de 2024, a proliferação já foi notável:
- Deepfakes de teor sexual contra candidatas, levando a investigações criminais.
- Vídeos manipulados de candidatos "ressuscitando" padrinhos políticos falecidos para declarar apoio.
- Edições de telejornais falsos ou áudios simulando confissões de corrupção.
- Casos em cidades como São Paulo, onde deepfakes de prefeitos foram derrubados pela Justiça Eleitoral.
O número de processos na Justiça Eleitoral sobre deepfakes saltou de 3 (em 2022) para 109 (em 2024), segundo dados do TSE.
Como o TSE vai combater as fake news e deepfakes em 2026
O Tribunal Superior Eleitoral (TSE) antecipou-se e aprovou regras rigorosas desde 2024, que serão plenamente aplicadas nas eleições gerais de 2026. A Resolução nº 23.732/2024 proíbe terminantemente os deepfakes em propagandas eleitorais (conteúdos manipulados para simular falas ou situações inexistentes).
Principais medidas:
- Proibição explícita de deepfakes, com pena de cassação de registro ou mandato para candidatos que os utilizarem.
- Obrigação de aviso em conteúdos gerados por IA (ex.: "Conteúdo criado por inteligência artificial").
- Responsabilização das plataformas (big techs como Meta, Google e X): devem remover imediatamente conteúdos com desinformação, discurso de ódio, deepfakes ou incitação antidemocrática, sob pena de sanções.
- Restrição a robôs que simulam diálogos com eleitores.
- Poder de polícia dos juízes eleitorais para remover conteúdos e suspender perfis.
- Centro Integrado de Enfrentamento à Desinformação (CIEDDE) do TSE, que monitora e atua rapidamente contra manipulações.
Especialistas, como a ministra Cármen Lúcia (presidente do TSE) e Alexandre de Moraes, destacam que essas normas são "das mais modernas do mundo" no combate à desinformação e ao uso ilícito da IA.
Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia
Então, desconfie e verifique
A IA democratiza a criação de conteúdo, mas também amplia riscos à democracia. Como alertam influenciadores como Lucas Rocha, o segredo é não acreditar em tudo que parece real. Verifique fontes confiáveis, cheque em veículos de jornalismo e use ferramentas de detecção de deepfakes. Em 2026, a vigilância coletiva será essencial para preservar a integridade das eleições.
"
["author"]=>
string(23) "Carlos Altman/em.com.br"
["user"]=>
NULL
["image"]=>
array(6) {
["id"]=>
int(633646)
["filename"]=>
string(22) "bomzululaabracados.jpg"
["size"]=>
string(6) "127877"
["mime_type"]=>
string(10) "image/jpeg"
["anchor"]=>
NULL
["path"]=>
string(3) "as/"
}
["image_caption"]=>
string(158) "Imagens de Bolsonaro e Lula geradas por IA viralizam no X e aumentam o alerta para riscos de desinformação /crédito: Reprodução X de imagem gerada por IA"
["categories_posts"]=>
NULL
["tags_posts"]=>
array(0) {
}
["active"]=>
bool(true)
["description"]=>
string(205) "A Inteligência Artificial democratiza a criação, mas também ameaça a democracia. Criadores de conteúdo alertam: "Não acredite em tudo que parece real"
"
["author_slug"]=>
string(23) "carlos-altman-em-com-br"
["views"]=>
int(145)
["images"]=>
NULL
["alternative_title"]=>
string(0) ""
["featured"]=>
bool(false)
["position"]=>
int(0)
["featured_position"]=>
int(0)
["users"]=>
NULL
["groups"]=>
NULL
["author_image"]=>
NULL
["thumbnail"]=>
NULL
["slug"]=>
string(74) "proliferacao-de-deepfakes-com-ia-exige-cautela-redobrada-em-ano-de-eleicao"
["categories"]=>
array(1) {
[0]=>
array(9) {
["id"]=>
int(431)
["name"]=>
string(9) "Política"
["description"]=>
NULL
["image"]=>
NULL
["color"]=>
string(7) "#a80000"
["active"]=>
bool(true)
["category_modules"]=>
NULL
["category_models"]=>
NULL
["slug"]=>
string(8) "politica"
}
}
["category"]=>
array(9) {
["id"]=>
int(431)
["name"]=>
string(9) "Política"
["description"]=>
NULL
["image"]=>
NULL
["color"]=>
string(7) "#a80000"
["active"]=>
bool(true)
["category_modules"]=>
NULL
["category_models"]=>
NULL
["slug"]=>
string(8) "politica"
}
["tags"]=>
NULL
["created_at"]=>
object(DateTime)#539 (3) {
["date"]=>
string(26) "2025-12-28 19:26:46.000000"
["timezone_type"]=>
int(3)
["timezone"]=>
string(13) "America/Bahia"
}
["updated_at"]=>
object(DateTime)#546 (3) {
["date"]=>
string(26) "2025-12-29 20:00:44.000000"
["timezone_type"]=>
int(3)
["timezone"]=>
string(13) "America/Bahia"
}
["published_at"]=>
string(25) "2025-12-29T09:20:00-03:00"
["group_permissions"]=>
array(4) {
[0]=>
int(1)
[1]=>
int(4)
[2]=>
int(2)
[3]=>
int(3)
}
["image_path"]=>
string(25) "as/bomzululaabracados.jpg"
}
Desconfie e verifique
Um vídeo viral nas redes sociais alerta para o risco de deepfakes impulsionados por inteligência artificial nas eleições de 2026. Publicado esta semana pelo perfil @petersonsouza.ai no Instagram, o conteúdo acumula mais de 4 milhões de visualizações ao mostrar o presidente Lula e o ex-presidente Jair Bolsonaro realizando gestos e expressões faciais idênticos e sincronizados, demonstrando o potencial de manipulação digital.
O criador, Peterson Souza, que se apresenta como especialista em IA e automação, acompanha a demonstração com um alerta direto:“Eleições 2026. Cuidado com o que você irá assistir e ouvir. Nem tudo que você verá será real.” Nos comentários, o vídeo recebeu elogios pela transparência em ilustrar os perigos do mau uso da tecnologia durante o período eleitoral, incentivando a conscientização sobre conteúdos falsos que podem viralizar e influenciar a opinião pública.
A tecnologia de deepfakes — vídeos, áudios ou imagens manipulados por inteligência artificial para simular pessoas reais de forma hiper-realista — está se popularizando rapidamente no Brasil. Ferramentas como o modelo Kling 2.6 Motion Control, por exemplo, permitem criar conteúdos falsos com qualidade impressionante, sem necessidade de atores ou maquiagem. O que antes parecia ficção de Hollywood agora é acessível a qualquer pessoa com um computador.
Deepfakes são convincentes e representam um perigo para a democracia
Em 2026, ano de eleições presidenciais e gerais no país, o risco de uso malicioso desses conteúdos cresce exponencialmente. Vídeos falsos de políticos, celebridades ou figuras públicas podem espalhar desinformação em grupos de WhatsApp, redes sociais e plataformas como Instagram, TikTok e X (antigo Twitter), influenciando opiniões e até alterando resultados eleitorais.
Vídeos falsos por IA
Outro alerta recente veio do criador de conteúdo Lucas Rocha (@lucasrochaator), especialista em IA e criação digital. Em um Reels no Instagram, ele demonstra um vídeo gerado por IA e alerta: “Essa tecnologia tá avançando rápido demais. [...] Ano que vem é ano de eleição no Brasil. E a gente sabe como os grupos de WhatsApp ficam. Hoje já dá pra criar vídeos falsos com rostos e vozes que parecem reais. Por isso é importante preparar quem tá perto de você desde agora. Mostra esse vídeo pros seus pais, pros seus avós, e pra quem ainda acredita em tudo que vê na internet só porque 'parece real'.”
Outros perfis e influenciadores também estão reforçando essa mensagem de desconfiança. Criadores de conteúdo sobre tecnologia, como Bruno Sartori (conhecido por produzir deepfakes "do bem" para conscientização) e veículos de checagem como Agência Lupa, Aos Fatos e Comprova, frequentemente publicam alertas sobre manipulações digitais. No TikTok e Instagram, contas alinhadas a checagem de fatos alertam para deepfakes que simulam apoio político de celebridades, como casos recentes envolvendo falsos vídeos de Lionel Messi e Bruna Marquezine endossando candidatos.
Nas eleições municipais de 2024, a proliferação já foi notável:
- Deepfakes de teor sexual contra candidatas, levando a investigações criminais.
- Vídeos manipulados de candidatos "ressuscitando" padrinhos políticos falecidos para declarar apoio.
- Edições de telejornais falsos ou áudios simulando confissões de corrupção.
- Casos em cidades como São Paulo, onde deepfakes de prefeitos foram derrubados pela Justiça Eleitoral.
O número de processos na Justiça Eleitoral sobre deepfakes saltou de 3 (em 2022) para 109 (em 2024), segundo dados do TSE.
Como o TSE vai combater as fake news e deepfakes em 2026
O Tribunal Superior Eleitoral (TSE) antecipou-se e aprovou regras rigorosas desde 2024, que serão plenamente aplicadas nas eleições gerais de 2026. A Resolução nº 23.732/2024 proíbe terminantemente os deepfakes em propagandas eleitorais (conteúdos manipulados para simular falas ou situações inexistentes).
Principais medidas:
- Proibição explícita de deepfakes, com pena de cassação de registro ou mandato para candidatos que os utilizarem.
- Obrigação de aviso em conteúdos gerados por IA (ex.: "Conteúdo criado por inteligência artificial").
- Responsabilização das plataformas (big techs como Meta, Google e X): devem remover imediatamente conteúdos com desinformação, discurso de ódio, deepfakes ou incitação antidemocrática, sob pena de sanções.
- Restrição a robôs que simulam diálogos com eleitores.
- Poder de polícia dos juízes eleitorais para remover conteúdos e suspender perfis.
- Centro Integrado de Enfrentamento à Desinformação (CIEDDE) do TSE, que monitora e atua rapidamente contra manipulações.
Especialistas, como a ministra Cármen Lúcia (presidente do TSE) e Alexandre de Moraes, destacam que essas normas são "das mais modernas do mundo" no combate à desinformação e ao uso ilícito da IA.
Siga nosso canal no WhatsApp e receba notícias relevantes para o seu dia
Então, desconfie e verifique
A IA democratiza a criação de conteúdo, mas também amplia riscos à democracia. Como alertam influenciadores como Lucas Rocha, o segredo é não acreditar em tudo que parece real. Verifique fontes confiáveis, cheque em veículos de jornalismo e use ferramentas de detecção de deepfakes. Em 2026, a vigilância coletiva será essencial para preservar a integridade das eleições.