O Assunto - Inteligência Artificial e o Colapso do que Parece Real
Data: 2 de fevereiro de 2026
Host: Rafael Colombo
Convidados: David Nemer (antropólogo da tecnologia e professor na Universidade da Virgínia) e Rony Domingos (repórter do Fato ou Fake do G1)
Visão Geral do Episódio
Este episódio discute o impacto massivo da inteligência artificial generativa na dissolução das fronteiras entre o real e o falso. Rafael Colombo conduz conversas profundas com especialistas sobre o crescimento desenfreado dos vídeos sintéticos, a popularização das deepfakes, as consequências sociais, políticas e legais desse fenômeno — com especial atenção para desinformação em época eleitoral, reforço de estereótipos e riscos à privacidade.
Principais Pontos e Insights
1. A Ascensão dos Vídeos Sintéticos e o Fim do “Ver para Crer”
- Exemplos de vídeos impactantes criados por IA são apresentados logo de início — prédios cobertos de neve, pessoas sendo presas, um bebê salvo por um cachorro, todos fabricados digitalmente para viralizar (00:03).
- O lançamento de ferramentas como o Viu3 (Véu3) e Sora projetou a criação de vídeos realistas a qualquer comando de texto, revolucionando o acesso e qualidade desses conteúdos (00:58).
- “O Viu3... é um marco na história da qualidade de geração de vídeos.” – David Nemer (00:58)
- Termos como "Slop" (entulho ou sobra digital) emergiram para nomear o excesso e a baixa qualidade de vídeos gerados por IA (01:26).
- A IA já produz 20% dos vídeos exibidos para novos usuários no YouTube (01:35, referenciando reportagem do The Guardian).
- Há um impacto brutal na confiança coletiva nas imagens e vídeos: “Ver para crer já não basta.” – Rafael Colombo (02:14)
2. O Salto Tecnológico e a Perfeição Massificada
- A virada ocorreu entre 2023 e 2025 com a combinação de modelos transformadores (como o GPT) com redes de difusão, permitindo à IA “compreender” não só imagens, mas movimentos físicos, reflexos de luz, gravidade etc. O custo da produção caiu e o acesso popularizou-se (04:18).
- “Antes, a IA entendia a imagem, mas não a física do movimento.” – David Nemer (04:27)
- As plataformas digitais potencializam o fenômeno premiando conteúdos emocionais, criativos, chocantes e descartáveis, acentuando a crise de confiança nas imagens (05:30).
3. Quem Está Por Trás?
David Nemer identifica três grandes grupos que impulsionam o fenômeno (06:19):
-
Fazendas de conteúdo: Monetizam com vídeos virais e podem vender contas populares, especialmente em períodos eleitorais.
-
Operadores políticos/campanhas de influência: Criam vídeos manipuladores, deepfakes, ataques à reputação de adversários e instituições.
-
Cibercriminosos: Praticam extorsão sexual (sex-extorsão), criam vídeos pornográficos falsos de adultos e crianças, aumentando riscos para mulheres e menores.
“A segurança vai embora, a privacidade vai embora e tudo que a gente posta na internet fica sob risco de ser usado para esses treinamentos.” — David Nemer (07:57)
4. O “Inofensivo” Nem Sempre É
Colombo questiona se vídeos fofos de animais/crianças, criados por IA, são mesmo inofensivos (08:29).
Nemer alerta para um risco importante:
- Normalização: Compartilhar esses conteúdos torna o público mais receptivo aos vídeos sintéticos, mesmo sem origem ou verificação. Isso pode ser porta para manipulação futura e desinformação (09:24).
- “Ao normalizar o consumo desse conteúdo, onde não há qualquer informação sobre fonte... as pessoas começam a confiar em qualquer tipo de conteúdo ali compartilhado. Esse é o grande perigo.” – David Nemer (09:39)
- Esses vídeos também podem reforçar estereótipos negativos, como o recente uso de IA em vídeos preconceituosos envolvendo idosos ou pessoas negras (10:35).
- “Os estereótipos nunca são bem-vindos... mostrando aí um claro ato de racismo, porque traz, através da IA, o reforço de estereótipos.” – David Nemer (11:10)
5. Proteção Jurídica e Direitos das Vítimas
- Há proteção legal no Brasil: Constituição, Código Penal, Lei Maria da Penha, Marco Civil da Internet e LGPD podem ser acionados quando imagens reais são manipuladas ou utilizadas abusivamente por IA, especialmente para fins sexuais (12:20).
- “É preciso ter muita cautela ao utilizar essas imagens das pessoas, porque... já temos leis que protegem as pessoas dessas violações.” – David Nemer (13:53)
- Mulheres seguem como principais vítimas desses abusos digitais (14:06).
6. Uso Político – O Fantasma das Eleições
- A ministra Carmen Lúcia e o TSE estão atentos à ameaça. Deepfakes são proibidos em campanhas oficiais e materiais devem ser sinalizados, mas o judiciário e as plataformas são incapazes de conter o volume de desinformação produzido (15:00).
- “O nosso sistema judiciário e nem as plataformas conseguem conter.” – David Nemer (15:03)
- Falta de interesse das plataformas, que lucram com o engajamento gerado pela desinformação, torna o cenário ainda mais difícil (15:52).
7. O Que as Plataformas Podem (mas Não Fazem)
-
Responsabilização dos perfis: Checar quem está postando conteúdos sintéticos, se há autorização do uso de imagem de terceiros (16:55).
-
Falta fiscalização efetiva do cumprimento dos próprios termos de uso das plataformas (17:10).
-
Marcadores de conteúdo sintético (aviso de “feito com IA”) são discretos demais; o público não percebe facilmente (17:49).
-
Recomendações para o usuário:
- Desconfiar de vídeos que causam choque imediato ou fortes emoções
- Procurar sempre a fonte original e triangulação de informações
- Cenas perfeitas demais merecem suspeita
- A confiança deve se deslocar para instituições e jornalistas de credibilidade
“No mundo desses vídeos sintéticos, a confiança volta a estar nas instituições, nos jornalistas, nos processos de apuração.” – David Nemer (18:56)
8. A Rotina dos Fact-Checkers e Dicas para o Público
Evolução do Fato ou Fake (com Rony Domingos)
- O volume e sofisticação dos vídeos a serem checados aumentou exponencialmente após IA generativa (20:22).
- “De 2023 para cá a gente começou a receber cada vez mais vídeos produzidos por inteligência artificial... o grau de sofisticação e o volume aumentaram exponencialmente.” – Rony Domingos (20:22)
- Fact-checkers hoje precisam de várias ferramentas tecnológicas — que são imperfeitas e complementadas com apuração jornalística clássica e consulta a especialistas (21:41).
Conselhos para os Ouvintes:
- Prestar atenção aos detalhes: IA ainda deixa rastros, pequenas imperfeições (23:34).
- Checar comentários e perfis: Muitas vezes, há sinalização de que o conteúdo é criado por IA.
- Desconfiar do surreal e de emoções extremas: Quanto mais inusitado ou emocional, mais cautela.
- Alerta para milagres: Cuidado com promessas de produtos ou soluções milagrosas associadas aos vídeos.
- “Se essas imagens forem surreais demais... vale a pena sempre colocar cautela na mesma proporção do quanto aquilo é inusitado.” – Rony Domingos (24:19)
- “Ter cuidado com as emoções. Alguma coisa que fica inspirando medo, que fica inspirando ódio... precisa ser olhada com bastante cautela.” – Rony Domingos (24:41)
Notáveis Quotes & Momentos
- “A realidade ainda existe, mas agora, encontrá-la exige mais contexto, mais verificação e mais atenção.” – Rafael Colombo (02:43)
- “Hoje a gente vive uma revolução por dia.” – David Nemer (01:26)
- “Ao normalizar o consumo desse conteúdo... as pessoas começam a confiar em qualquer tipo de conteúdo ali compartilhado. Esse é o grande perigo.” – David Nemer (09:39)
- “O nosso sistema judiciário e nem as plataformas conseguem conter.” – David Nemer (15:03)
- “A confiança volta a estar nas instituições, nos jornalistas, nos processos de apuração.” – David Nemer (18:56)
- “De 2023 para cá a gente começou a receber cada vez mais vídeos produzidos por inteligência artificial... o grau de sofisticação e o volume aumentaram exponencialmente.” – Rony Domingos (20:22)
Timestamps de Segmentos Importantes
- 00:03 – Exemplos de vídeos falsos virais produzidos por IA
- 00:58 – Lançamento de Viu3 marca salto na qualidade
- 04:18 – David Nemer detalha revolução tecnológica e seu impacto
- 06:19 – Três grupos por trás do fenômeno dos vídeos sintéticos
- 09:24 – O perigo da normalização de vídeos fofos/surpreendentes de IA
- 12:20 – Panorama legal: direitos das vítimas de deepfakes e manipulações
- 15:00 – Desinformação eleitoral, TSE e limitações da Justiça
- 16:55 – Responsabilidade das plataformas e recomendações para o usuário
- 20:22 – Rony Domingos compara antes e depois da IA nas checagens
- 23:34 – Dicas práticas para identificar vídeos falsos
Conclusão
O episódio evidencia o dilema central dos tempos atuais: a democratização da produção de vídeos sintéticos mina a confiança básica no que se vê e ouve na internet. O desafio vai muito além da tecnologia — envolve cultura digital, educação midiática, leis e, principalmente, o papel das empresas de tecnologia. O ouvinte sai convencido da necessidade de apuração, responsabilidade nas redes e de uma postura crítica diante do digital.
