Loading summary
BBC Narrator
Este podcast da BBC é apoiado pelas redes sociais fora do Reino Unido. O melhor marketing B2B fica desperdiçado nas pessoas erradas. Então, quando você quer alcançar os profissionais certos, use as redes sociais do LinkedIn. O LinkedIn cresceu em uma rede de mais de um bilhão de profissionais, incluindo 130 milhões de decisões. E é aí que ele se distingue dos outros adbys. Você pode alcançar seus compradores pelo título de trabalho, indústria, companhia, papel, senioridade, habilidades, renda da empresa. Assim, você pode parar de desperdiçar dinheiro na audiência errada. É por isso que a LinkedIn Ads gera o maior retorno B2B de adesivos de grandes redes de adesivos. Gaste 250 dólares na sua primeira campanha no LinkedIn Ads e ganhe 250 dólares de crédito para a próxima. Apenas vá para linkedin.com.com.br. É linkedin.com.com.br. Termos e condições aplicam.
Podcast Host 1
O que eles ultimamente estão tentando criar vai mudar os humanos.
Podcast Host 2
O que está fazendo é queimar o interior do seu cérebro.
Podcast Host 3
Este poderia ser um ponto de virada na história da mídia social.
Podcast Host 1
Bem-vindos ao Interface, o show que explora como a tecnologia está reabrindo sua semana e seu mundo.
Podcast Host 3
No próximo episódio, olharemos as reuniões secretas no maior sumite de AI do mundo, a verdade sobre o mistério de uma arma que esquece o cérebro, e o julgamento que poderia mudar o futuro da mídia social. Ouçam no bbc.com ou em qualquer lugar onde vocês recebem seus programas.
Narrator Silvia Salek
A brasileira que viraliza traduzindo o caos da inteligência artificial. As pessoas estão perdidas. Reportagem de Luiz Fernando Toledo, publicada em 1º de dezembro de 2025. Lida por Thomas Papon. Você sabe reconhecer se uma imagem foi criada por inteligência artificial? Sabe como se proteger de golpes que usam esse tipo de tecnologia? E entende os riscos de participar de trends de inteligência artificial, como aqueles em que pessoas geram versões animadas de si mesmas, no estilo do estúdio Ghibli? Temas como esses poderiam parecer ficção há poucos anos, mas hoje fazem parte das discussões públicas sobre tecnologia e segurança digital. Uma das vozes que tem se destacado nesse debate é a da brasileira Catarina Doria, especialista em letramento de inteligência artificial, que viralizou nas redes ao publicar vídeos explicando, de forma acessível, como se proteger e entender os riscos da inteligência artificial. Em menos de um ano, ela conquistou mais de 300 mil seguidores no Instagram e alguns de seus vídeos ultrapassam a marca de um milhão de visualizações. A saga começou quando ela publicou um vídeo em que provoca o espectador a descobrir qual vídeo foi gerado por inteligência artificial e qual é real. Parece fácil, mas é muito difícil, diz ela na publicação, que mostra vídeos curtos de uma youtuber, uma cantora e um streamer de games, todos falsos. Você precisa treinar seu cérebro para se proteger dessa tecnologia, alerta ela na postagem. O primeiro vídeo, que virou uma série, teve mais de 60 mil visualizações. Fiz o vídeo para poder adicionar senso crítico na cabeça das pessoas de que vários vídeos que estamos vendo online são feitos com inteligência artificial e como eles conseguem detectar que foi feito por inteligência artificial, disse Dória, a BBC News Brasil. Em outro vídeo mais recente, ela alerta para os riscos de privacidade que existem ao usar robôs aspiradores que podem coletar dados pessoais dos usuários e até captar imagens. Nunca confie no seu aspirador robô. Talvez nada aconteça, mas talvez aconteça. E tenha certeza de que você não quer ser a pessoa cuja foto no banheiro vaza, diz ela em uma publicação em inglês. Esse tema, aliás, do robô aspirador espião, também já foi tratado em reportagem da BBC News Brasil no ano passado. A seguir, os principais trechos da entrevista com Catarina Doria. As respostas são lidas por Silvia Salek. Como começou o seu trabalho com inteligência artificial?
Catarina Doria
Na hora de escrever meu trabalho de conclusão de curso em comunicação, a minha professora me deu um livro que mudou a minha vida. Algorithms of Oppression. Algoritmos da opressão, em tradução literal, da Safia Noble. Ela fala sobre como o Google é enviesado e como ele não funciona da mesma maneira para todo mundo. Se você é uma pessoa branca, funciona de uma maneira. Se é uma pessoa preta, funciona de uma maneira completamente diferente. E a maneira como as pessoas pretas eram representadas no Google dez anos atrás era extremamente racista. Eu li aquele livro e quando eu terminei eu falei, é isso, eu vou mudar de carreira, eu quero trabalhar com inteligência artificial e ter a certeza de que essas tecnologias estão funcionando para todo mundo. Eu terminei minha faculdade, ganhei prêmio de melhor tese e fui fazer um mestrado em ciência de dados. Eu fiz um ano de mestrado e graduei com honra. Para mim era muito importante não só falar da tecnologia, mas conseguir destrinchar por dentro e entender como funciona. Eu chorei todos os dias? Chorei. Mas eu aprendi a como pegar uma machine learning pipeline, que são as etapas necessárias para treinar um sistema de inteligência artificial, e fazer um algoritmo. Assim que eu me graduei, eu entendi que a parte com a qual eu mais queria trabalhar era a área de governança e igualdade no algoritmo. E eu comecei a trabalhar para uma empresa americana de governança de inteligência artificial. Eu viajei o mundo inteiro e aprendi muito com ele sobre como pegar a inteligência artificial e ativamente transformá-la em algo positivo. E como criar guardrails, ou salvaguardas, para que ela não seja danosa. Mas aí aconteceu uma coisa importante. Eu entendi que as conversas que aconteciam na indústria eram super avançadas. Estávamos falando de Open AI, Antropic, Estados Unidos fazendo novas leis, etc. Mas quando eu conversava com a minha mãe ao telefone, ela não entendia o que é inteligência artificial, que golpes estavam acontecendo, ou como aqueles vídeos que ela via no Instagram, na verdade, eram inteligência artificial e não reais. Eu comecei a ver que as conversas que a indústria e a galera da academia estavam tendo, elas não estavam sendo traduzidas para pessoas normais. Eu decidi então que eu seria a pessoa que fala com as pessoas no dia a dia. Eu vou criar conteúdo sobre isso. Eu comecei a fazer isso há quatro meses e nesse tempo eu ganhei quase 200 mil seguidores. Isso mostra várias coisas, que as pessoas estão entendendo que a inteligência artificial está aqui e que a inteligência artificial está sendo muito prejudicial a elas em certas instâncias. Eu recebo muitas mensagens de pessoas dizendo que assistem aos meus vídeos com os filhos antes de dormir. A recepção está sendo maravilhosa.
Narrator Silvia Salek
E você continuou trabalhando para a empresa?
Catarina Doria
Não, eu saí há um ano. Eu estou escrevendo dois livros. Hoje em dia, o que eu faço 24 horas por dia é criação de conteúdo de letramento de inteligência artificial, falando sobre inteligência artificial ética.
Narrator Silvia Salek
Como você escolhe os assuntos dos vídeos?
Catarina Doria
Eu ainda estou aprendendo a melhor maneira de encontrar os temas. Para mim, o mais importante são meus pilares. Um deles é o que a gente chama de AI Safety, a segurança da inteligência artificial. Por exemplo, o vídeo da Roomba, que é o robô aspirador. ou vídeos sobre não postar fotos nessas trends de inteligência artificial. Para mim, isso é muito importante, porque as pessoas estão adotando a inteligência artificial de uma maneira um pouco irresponsável, ou pelo menos sem entender como aquilo pode ser prejudicial. Eu também acho interessante comentar notícias recentes, por exemplo, o vídeo da Taylor Swift. Ela nunca falou abertamente se aquilo, que foi um vídeo divulgado para promover o trabalho da cantora, que segundo críticos teria feito uso de inteligência artificial, se aquilo foi inteligência artificial ou não. Eu assisti aos vídeos, eu não posso afirmar que são, mas pela minha opinião eu acho que sim, foram feitos com inteligência artificial. Eu não quero ser só a pessoa que fala de regrinha, que tem que fazer isso ou aquilo, eu quero participar da conversa de cultura pop que está acontecendo. Outra situação, o caso Robin Williams. Criaram conteúdos de inteligência artificial com ele morto. A filha dele fez um post enorme pedindo para as pessoas não usarem inteligência artificial para representar o pai dela. Eu achei um tema muito importante, pouco discutido na mídia, que é a importância de não representar pessoas já falecidas com inteligência artificial. Eu fiz um vídeo explicando três motivos pelos quais isso é errado. Eu tento ser muito didática, porque esse tema é complexo e difícil. Não adianta chegar e falar um monte de terminologia para parecer inteligente. Eu tento ser o mais pé no chão possível, o mais sorridente possível, realmente chamar o público para perto. Eu sei que é um tema difícil e complexo e que ninguém precisa de mais um professor. As pessoas precisam de um amigo que ajude a entender esse tema.
Narrator Silvia Salek
Quem é a maior vítima da inteligência artificial hoje em dia? Idosos? Crianças? Todo mundo?
Catarina Doria
Quem está mais vulnerável é todo mundo. No último mês, eu tive cerca de 7 milhões de visualizações nos meus vídeos e centenas de milhares de comentários. Eu vejo que não tem idade, não tem faixa etária. Tem gente de 16, 17, tem gente de 50, de 70. Está todo mundo perdido. Dizer que existe um único grupo demográfico mais perdido seria errado, porque o letramento em inteligência artificial não está acontecendo para ninguém. Eu tenho amigos de 27, 28 que me mandam mensagem dizendo, Cata, eu não fazia ideia de como distinguir se um vídeo era inteligência artificial ou não. Eu aprendi com os seus vídeos. São pessoas que acabaram de sair da faculdade com um letramento altíssimo em outros temas, mas que não entendem de inteligência artificial. É um problema que está acontecendo com todo mundo e que é muito assustador. Falamos de um problema que afeta a população inteira, não só a brasileira. Meus conteúdos são bilingues, eu faço em inglês e em português. Hoje em dia, mais em inglês com legenda em português. Mas meus stories também são em português, eu faço uma mistura. Meus seguidores são brasileiros, norte-americanos, espanhóis, alemães. Tem gente do mundo todo. Muitos indianos também. Está todo mundo perdido, independentemente da nacionalidade e da idade. Eu acho que é por isso que o meu conteúdo funciona. Eu não falo só com mães, nem só com jovens. Eu falo com todo mundo. E todo mundo é bem-vindo nessa conversa.
Narrator Silvia Salek
Por que as pessoas estão perdidas? É pela rápida evolução da tecnologia ou falta de transparência por parte das empresas?
Catarina Doria
Vários motivos diferentes, um deles é a rapidez da adoção da inteligência artificial. Do nada, as pessoas começaram a falar de inteligência artificial, a indústria abraçou essa tecnologia como se fosse a salvadora da pátria, algo que ajudaria todo mundo a otimizar processos e a maneira de trabalhar. E essa adoção aconteceu de maneira muito rápida e sem o letramento. Eu converso muito com empresas que basicamente disseram, gente, vamos começar a usar o chat GPT, toma aqui a ferramenta. Ninguém explicou o que era o chat GPT, ninguém explicou quais são os problemas, ninguém explicou que hoje em dia a Open AI está sendo processada pelo jornal New York Times, que todos os chat logs que são os históricos de conversa, são salvos e nada é deletado. Ninguém explicou que não se pode colocar informação privada no chat porque isso pode ser usado para treinar modelos de inteligência artificial. As empresas não fizeram isso. O que eu vejo como profissional é que disseram, bora usar a inteligência artificial porque isso vai ajudar a gente, mas o letramento de como usar não ocorreu. As pessoas começaram a usar de maneira errada, vários probleminhas apareceram e as conversas começaram a surgir. Hoje nós temos um algoritmo que define o que você vai ver ou não. Ninguém sentou com os usuários para explicar como esse algoritmo funciona. Ninguém explicou para os usuários que se você tem um perfil aberto na meta, que é a dona do Facebook e Instagram, provavelmente suas fotos podem estar sendo usadas para treinar um algoritmo. Essa transparência não existe e isso acontece por vários motivos, inclusive porque a transparência assusta. Se os usuários entenderem que todas as fotos postadas nas redes podem ser usadas para treinar algoritmos, eles vão se perguntar o que isso significa, que problemas isso traz. Eu vejo que muitas empresas internacionais têm medo de ter essa conversa, medo de serem transparentes e da reação da população. Eu acho isso um grande erro. Quanto mais transparentes e verdadeiras as empresas forem, talvez mais abertas as pessoas estejam para compartilhar seus dados. Se existisse um letramento que dissesse, gente, a inteligência artificial está sendo usada para isso. para aquilo, funciona assim, assado. Se vocês quiserem que seus dados não sejam usados para treinar a inteligência artificial, cliquem aqui e saiam do treinamento. Se não se importarem, porque estamos cuidando dos dados de vocês, podem deixar aberto. Eu acho que essa relação seria outra. As empresas estão falhando muito em comunicar de forma transparente os riscos e a forma como lidam com os dados.
Narrator Silvia Salek
Esse letramento virá das próprias empresas ou do Estado, dos comunicadores? Quem vai ocupar esse espaço?
Catarina Doria
Cabe a todo mundo. Todo mundo é responsável, mas sabemos a realidade. Trabalhando muitos anos com governança de inteligência artificial, eu vejo que muitas vezes essas empresas não são transparentes se não houver uma lei exigindo transparência. Eu não sou advogada, mas eu trabalhei bastante nesse meio. Por exemplo, na Europa, nós temos hoje uma lei nova conhecida como EUAI Act. que pede mais transparência dependendo do caso de uso de inteligência artificial que as empresas estão utilizando e mesmo assim há uma fricção enorme para adotarem essas regulamentações. Mesmo com lei já é difícil, sem lei eu considero impossível que grandes corporações adotem por vontade própria uma versão mais transparente, correta da inteligência artificial. Por isso é tão importante que estados, países e órgãos reguladores trabalhem conjuntamente para criar leis que protejam a população, porque sem elas as empresas não vão fazer isso por conta própria. Todas as empresas que conseguirem levantar a mão e dizer eu posso ajudar vocês nesse caos de informação que está acontecendo vão se destacar positivamente nos próximos dez anos. Quem fizer diferente vai se dar bem.
Narrator Silvia Salek
E como fazer essa comunicação e não assustar as pessoas?
Catarina Doria
O que eu acho interessante, só fazendo um parêntese, é que no lado dos chamados tech bros, que são as pessoas que dizem que a inteligência artificial é maravilhosa, inteligente, perfeita, muitos falam que as pessoas vão perder os trabalhos por causa da inteligência artificial e, ao mesmo tempo, dizem para os jovens não irem mais para a universidade, não irem mais para a escola porque a inteligência artificial vai ser mais inteligente. A inteligência artificial vai afetar alguns trabalhos, mas ainda estamos longe dela substituir as pessoas de maneira total. Sobre o alarmismo, eu considero muito importante transformar medo em conhecimento. Se eu faço um vídeo dizendo, gente, Isso aqui está dando tudo errado. Fiquem morrendo de medo. Quando a pessoa sai do vídeo, ela sai com medo, estressada. Então, quando eu crio um vídeo, eu explico quais são os problemas e por que devem se preocupar e sempre tento terminar com o que a pessoa pode fazer para se empoderar, se proteger. Isso transforma o medo em conhecimento. Quando alguém diz, Catarina, esse vídeo tá assustando as pessoas, eu me pergunto, sou eu que tô assustando ou é a situação atual que é assustadora? Eu estou assustando quando eu digo que um robô na casa pode ser usado pra gravar você. Ou a situação de ter um robozinho que pode ser hackeado é por si só assustadora. Temos que ter essa perspectiva. Primeiro, será que por ninguém falar dos problemas, quando eu apareço e digo, opa, tem um problema, sou eu que estou deixando tudo assustador? Ou é porque todo mundo passou pano antes? Segundo, por isso eu vejo como minha responsabilidade, como alguém que trabalha com ética e inteligência artificial e letramento, nunca terminar o vídeo no alarmismo. e sim com conhecimento, ajudando as pessoas a entender o que está acontecendo e como podem transformar aquilo na vida delas, como podem se proteger.
Narrator Silvia Salek
Essa foi Silvia Salek, lendo as respostas da especialista em letramento de inteligência artificial Catarina Doria, em entrevista à BBC. Você ouviu a reportagem, a brasileira que viraliza traduzindo o caos da inteligência artificial. As pessoas estão perdidas. Publicada pela BBC News Brasil em 1º de dezembro de 2025.
Podcast Host 1
o que eles estão ultimamente tentando criar vai reemplaçar os humanos.
Podcast Host 2
O que está fazendo é queimar o interior do seu cérebro.
Podcast Host 3
Isso poderia ser um ponto de virada na história da mídia social.
Podcast Host 1
Bem-vindos ao Interface, o show que explora como a tecnologia está reabrindo sua semana e seu mundo.
Podcast Host 3
Coming up next in our latest episode, we look at the secret meetings at the world's biggest AI summit, the truth about the mystery of a brain-melting weapon, and the lawsuit that could shift the future of social media. Listen on BBC.com or wherever you get your podcasts.
Podcast: BBC Lê — BBC Brasil
Episode Date: February 26, 2026
Topic: The rise of Catarina Doria, her viral work on AI literacy, and the urgent need to demystify artificial intelligence for the general public.
This episode features a profile and interview with Catarina Doria, a Brazilian AI literacy specialist who has gained prominence on social media for her approachable, educational content on the risks, ethics, and realities of artificial intelligence. The discussion explores how widespread confusion and misinformation about AI transcends age and geography, and highlights Doria's mission to bridge the knowledge gap for ordinary people who feel left behind by the pace of technological change.
"Eu li aquele livro e quando eu terminei eu falei, é isso, eu vou mudar de carreira, eu quero trabalhar com inteligência artificial..." ([04:28])
"Eu tento ser o mais pé no chão possível, o mais sorridente possível... As pessoas precisam de um amigo que ajude a entender esse tema." ([08:11])
"Nunca confie no seu aspirador robô... você não quer ser a pessoa cuja foto no banheiro vaza." ([03:36])
"Está todo mundo perdido. Dizer que existe um único grupo demográfico mais perdido seria errado..." ([10:23])
"A adoção aconteceu de maneira muito rápida e sem o letramento. [...] Ninguém sentou com os usuários para explicar como esse algoritmo funciona." ([12:03])
"Cabe a todo mundo. Todo mundo é responsável, mas sabemos a realidade... mesmo com lei já é difícil, sem lei eu considero impossível que grandes corporações adotem por vontade própria uma versão mais transparente..." ([14:58])
"Eu considero muito importante transformar medo em conhecimento. [...] Eu explico quais são os problemas e por que devem se preocupar e sempre tento terminar com o que a pessoa pode fazer para se empoderar..." ([16:22])
"Sou eu que tô assustando ou é a situação atual que é assustadora?" ([16:22])
On why her work is needed:
"As pessoas começaram a usar [inteligência artificial] de maneira errada, vários probleminhas apareceram e as conversas começaram a surgir. Hoje nós temos um algoritmo que define o que você vai ver ou não." – Catarina Doria ([12:03])
On the collective nature of the problem:
"Está todo mundo perdido, independentemente da nacionalidade e da idade. Eu acho que é por isso que o meu conteúdo funciona." – Catarina Doria ([10:23])
On the need for regulation:
"Mesmo com lei já é difícil, sem lei eu considero impossível que grandes corporações adotem por vontade própria uma versão mais transparente, correta da inteligência artificial." – Catarina Doria ([14:58])
This episode is a compelling portrait of how ordinary users can become informed digital citizens in a fast-changing technological world—if given the right tools and voices to guide them.