array(31) {
["id"]=>
int(137944)
["title"]=>
string(66) "Deepfakes com Lula, Moro e Dilma alertam para risco nas eleições"
["content"]=>
string(5503) "Cada vez mais sofisticadas, técnicas de deepfake e deepdubs colocam na boca de pré-candidatos à Presidência frases que, na verdade, eles nunca proferiram. Muitas vezes, em lugares onde eles também não estiveram. Exemplo recente é um vídeo do ex-presidente Luiz Inácio Lula da Silva (PT) dizendo amar paçoca e abrindo um pote do doce, conteúdo que ganhou projeção nas redes nesta quinta-feira, 24. O "detalhe", como a própria postagem explica, é que o líder petista não falou nada daquilo, e tudo não passou de uma farsa criada em computador.
O criador da peça, o jornalista e pesquisador de deepfake Bruno Sartori, relata na publicação ter usado a tecnologia para inserir o rosto de Lula no corpo de outra pessoa e transferir o timbre de sua voz para a fala original. Ele já compartilhou outros exemplos em seu perfil, como um vídeo que simula o pré-candidato Sérgio Moro (Podemos) recitando um poema satírico e um homem falando com a exata voz da ex-presidente Dilma Rousseff. Procurado pela reportagem, Sartori não quis se manifestar.
Deepfakes, como o nome sugere - algo como "mentira profunda", em tradução livre -, é uma categoria de farsa que vai além das fake news tradicionais. Diferentemente do que ocorre nas montagens tradicionais, os personagens retratados aparecem em vídeos e podem gesticular, falar e inclusive imitar a voz das vítimas - nesse caso, a técnica se chama deepdub.
Os conteúdos são feitos por meio de inteligência artificial. Para desavisados, é muito difícil distinguir o que é real do que é falso - uma dica é se atentar para certa estranheza nas expressões faciais, discrepâncias no tom da pele, entre outras minúcias.
Segundo o pesquisador Anderson Soares, chefe do centro de inteligência artificial da Universidade Federal de Goiás (UFG), dois fatores criam o ambiente perfeito para a disseminação de deepfakes. Primeiro, o avanço das ferramentas digitais e o amadurecimento da tecnologia nos últimos anos. Segundo, o fato de haver vídeos e áudios disponíveis em abundância para que o computador recolha os dados de aparência e voz de que precisa.
Soares afirma que a tendência é que a técnica se popularize e passe a estar disponível mesmo para quem não trabalha com tecnologia nos próximos anos. Via aplicativo de celular, por exemplo - alguns já existem, como o Reface App. "Em breve, qualquer pessoa vai conseguir produzir um vídeo ou voz falsa, é questão de pouco tempo".
Entretanto, o pesquisador argumenta que o melhor caminho não é proibir o uso da ferramenta. Ela pode ser útil para melhorar a dublagem de filmes, por exemplo, e bani-la afetaria a competitividade do Brasil no ramo da tecnologia. "O caminho é que os órgãos competentes tenham agilidade para coibir práticas antiéticas, sobretudo no que diz respeito às eleições, e a sociedade precisa ser educada para reconhecer vídeos falsos", afirma.
Na campanha eleitoral de 2018, o então candidato a governador João Doria (PSDB) foi alvo de uma deepfake. À época, passou a circular nas redes um vídeo com cenas de sexo envolvendo seis mulheres e um homem, que na gravação foi identificado como sendo o tucano. O material foi explorado por adversários para enfraquecê-lo na disputa.
"Hoje eu vi um vídeo vergonhoso nas redes sociais, que foi produzido por alguém que só quer o meu mal e o mal da minha família. Uma produção grotesca. Fake news. Pedi a um perito criminal que verificasse essas imagens. Pedi também medidas judiciais e criminais contra os autores desse vídeo. Lamento muito que a campanha em São Paulo tenha chegado a esse nível de ferir a nossa família", disse o tucano naquela ocasião.
Não é difícil, hoje, encontrar esse tipo de montagem envolvendo políticos na internet. Um caso famoso foi o que simulou o presidente Jair Bolsonaro (PL) elogiando as vacinas. Outro mostra o rosto do presidente no personagem mexicano Chapolim Colorado. Também há um exemplo em que o chefe do Executivo canta a canção "Admirável Gado Novo", de Zé Ramalho; Silvio Santos já apresentou o Jornal Nacional; Lula já cantou uma música de Pabllo Vittar; e até o ex-presidente americano Donald Trump já chamou Bolsonaro de "Bolsolino".
Questiona sobre como se prepara para enfrentar vídeos falsos, a equipe de Lula afirmou que não comenta estratégias de comunicação.
"
["author"]=>
string(15) "Agência Estado"
["user"]=>
NULL
["image"]=>
array(6) {
["id"]=>
int(589344)
["filename"]=>
string(45) "luis-inacio-lula-da-silva-1-33762-7488682.jpg"
["size"]=>
string(5) "30702"
["mime_type"]=>
string(10) "image/jpeg"
["anchor"]=>
NULL
["path"]=>
string(9) "marquivo/"
}
["image_caption"]=>
string(33) "(crédito: MAURO PIMENTEL / AFP))"
["categories_posts"]=>
NULL
["tags_posts"]=>
array(0) {
}
["active"]=>
bool(true)
["description"]=>
string(282) "O criador da peça, o jornalista e pesquisador de deepfake Bruno Sartori, relata na publicação ter usado a tecnologia para inserir o rosto de Lula no corpo de outra pessoa e transferir o timbre de sua voz para a fala original.
"
["author_slug"]=>
string(14) "agencia-estado"
["views"]=>
int(208)
["images"]=>
NULL
["alternative_title"]=>
string(0) ""
["featured"]=>
bool(false)
["position"]=>
int(0)
["featured_position"]=>
int(0)
["users"]=>
NULL
["groups"]=>
NULL
["author_image"]=>
NULL
["thumbnail"]=>
NULL
["slug"]=>
string(63) "deepfakes-com-lula-moro-e-dilma-alertam-para-risco-nas-eleicoes"
["categories"]=>
array(1) {
[0]=>
array(9) {
["id"]=>
int(431)
["name"]=>
string(9) "Política"
["description"]=>
NULL
["image"]=>
NULL
["color"]=>
string(7) "#a80000"
["active"]=>
bool(true)
["category_modules"]=>
NULL
["category_models"]=>
NULL
["slug"]=>
string(8) "politica"
}
}
["category"]=>
array(9) {
["id"]=>
int(431)
["name"]=>
string(9) "Política"
["description"]=>
NULL
["image"]=>
NULL
["color"]=>
string(7) "#a80000"
["active"]=>
bool(true)
["category_modules"]=>
NULL
["category_models"]=>
NULL
["slug"]=>
string(8) "politica"
}
["tags"]=>
NULL
["created_at"]=>
object(DateTime)#539 (3) {
["date"]=>
string(26) "2022-02-28 23:51:55.000000"
["timezone_type"]=>
int(3)
["timezone"]=>
string(13) "America/Bahia"
}
["updated_at"]=>
object(DateTime)#546 (3) {
["date"]=>
string(26) "2022-02-28 23:51:55.000000"
["timezone_type"]=>
int(3)
["timezone"]=>
string(13) "America/Bahia"
}
["published_at"]=>
string(25) "2022-02-28T23:50:00-03:00"
["group_permissions"]=>
array(4) {
[0]=>
int(1)
[1]=>
int(4)
[2]=>
int(2)
[3]=>
int(3)
}
["image_path"]=>
string(54) "marquivo/luis-inacio-lula-da-silva-1-33762-7488682.jpg"
}
Cada vez mais sofisticadas, técnicas de deepfake e deepdubs colocam na boca de pré-candidatos à Presidência frases que, na verdade, eles nunca proferiram. Muitas vezes, em lugares onde eles também não estiveram. Exemplo recente é um vídeo do ex-presidente Luiz Inácio Lula da Silva (PT) dizendo amar paçoca e abrindo um pote do doce, conteúdo que ganhou projeção nas redes nesta quinta-feira, 24. O "detalhe", como a própria postagem explica, é que o líder petista não falou nada daquilo, e tudo não passou de uma farsa criada em computador.
O criador da peça, o jornalista e pesquisador de deepfake Bruno Sartori, relata na publicação ter usado a tecnologia para inserir o rosto de Lula no corpo de outra pessoa e transferir o timbre de sua voz para a fala original. Ele já compartilhou outros exemplos em seu perfil, como um vídeo que simula o pré-candidato Sérgio Moro (Podemos) recitando um poema satírico e um homem falando com a exata voz da ex-presidente Dilma Rousseff. Procurado pela reportagem, Sartori não quis se manifestar.
Deepfakes, como o nome sugere - algo como "mentira profunda", em tradução livre -, é uma categoria de farsa que vai além das fake news tradicionais. Diferentemente do que ocorre nas montagens tradicionais, os personagens retratados aparecem em vídeos e podem gesticular, falar e inclusive imitar a voz das vítimas - nesse caso, a técnica se chama deepdub.
Os conteúdos são feitos por meio de inteligência artificial. Para desavisados, é muito difícil distinguir o que é real do que é falso - uma dica é se atentar para certa estranheza nas expressões faciais, discrepâncias no tom da pele, entre outras minúcias.
Segundo o pesquisador Anderson Soares, chefe do centro de inteligência artificial da Universidade Federal de Goiás (UFG), dois fatores criam o ambiente perfeito para a disseminação de deepfakes. Primeiro, o avanço das ferramentas digitais e o amadurecimento da tecnologia nos últimos anos. Segundo, o fato de haver vídeos e áudios disponíveis em abundância para que o computador recolha os dados de aparência e voz de que precisa.
Soares afirma que a tendência é que a técnica se popularize e passe a estar disponível mesmo para quem não trabalha com tecnologia nos próximos anos. Via aplicativo de celular, por exemplo - alguns já existem, como o Reface App. "Em breve, qualquer pessoa vai conseguir produzir um vídeo ou voz falsa, é questão de pouco tempo".
Entretanto, o pesquisador argumenta que o melhor caminho não é proibir o uso da ferramenta. Ela pode ser útil para melhorar a dublagem de filmes, por exemplo, e bani-la afetaria a competitividade do Brasil no ramo da tecnologia. "O caminho é que os órgãos competentes tenham agilidade para coibir práticas antiéticas, sobretudo no que diz respeito às eleições, e a sociedade precisa ser educada para reconhecer vídeos falsos", afirma.
Na campanha eleitoral de 2018, o então candidato a governador João Doria (PSDB) foi alvo de uma deepfake. À época, passou a circular nas redes um vídeo com cenas de sexo envolvendo seis mulheres e um homem, que na gravação foi identificado como sendo o tucano. O material foi explorado por adversários para enfraquecê-lo na disputa.
"Hoje eu vi um vídeo vergonhoso nas redes sociais, que foi produzido por alguém que só quer o meu mal e o mal da minha família. Uma produção grotesca. Fake news. Pedi a um perito criminal que verificasse essas imagens. Pedi também medidas judiciais e criminais contra os autores desse vídeo. Lamento muito que a campanha em São Paulo tenha chegado a esse nível de ferir a nossa família", disse o tucano naquela ocasião.
Não é difícil, hoje, encontrar esse tipo de montagem envolvendo políticos na internet. Um caso famoso foi o que simulou o presidente Jair Bolsonaro (PL) elogiando as vacinas. Outro mostra o rosto do presidente no personagem mexicano Chapolim Colorado. Também há um exemplo em que o chefe do Executivo canta a canção "Admirável Gado Novo", de Zé Ramalho; Silvio Santos já apresentou o Jornal Nacional; Lula já cantou uma música de Pabllo Vittar; e até o ex-presidente americano Donald Trump já chamou Bolsonaro de "Bolsolino".
Questiona sobre como se prepara para enfrentar vídeos falsos, a equipe de Lula afirmou que não comenta estratégias de comunicação.