Loading summary
A
Este podcast é apoiado pelas redes sociais fora do Reino Unido. Você já investiu em algo que parecia incrível no começo, mas não viveu até o hype? Como aquelas rosas de 5 dólares em uma estação de gás? Ou um pedaço de tecnologia de segunda mão que quebra nos primeiros 10 minutos? Os mercadores conhecem essa sensação. Optimizamos para números que parecem ótimos, impressões, alcance e reações, mas quando não mostram renda, Bem, essa é uma conversa não tão ótima com o CFO. O LinkedIn tem uma palavra para isso. Bullspend. Agora você pode investir no que parece bom para o seu CFO. O LinkedIn Ads gera o maior ROAS de todas as redes de adesões maiores. Você alcança os bons compradores, porque você pode alcançar por companhia, indústria, título de trabalho e mais. Então corte o bullspend. Advertir no LinkedIn. A rede que funciona para você. BBC, lê.
B
Seis conselhos de especialistas sobre como falar com a inteligência artificial para obter as melhores respostas. Reportagem de Thomas Germain, da BBC Future, publicada pela BBC News Brasil em 18 de março de 2026. Lida por Thomas Papon. Quando um grupo de pesquisadores decidiu testar se o pensamento positivo tornava os chatbots de inteligência artificial mais precisos, os resultados foram surpreendentes. Ao fazer perguntas a vários chatbots, eles faziam elogios chamando-os de inteligentes, incentivando-os a pensar com cuidado e até terminavam as perguntas com, isso vai ser divertido. Nada disso fez diferença de forma consistente, mas uma técnica se destacou. Quando pediram que a inteligência artificial fingisse estar em Star Trek e Jornada nas Estrelas, ela passou a se sair melhor em matemática básica. As pessoas usam todo tipo de estratégia curiosa para tentar obter respostas melhores de grandes modelos de linguagem, os LLNs na sigla em inglês, a tecnologia de inteligência artificial, por trás de ferramentas como o chat GPT. Alguns juram que a inteligência artificial responde melhor se for ameaçada. Outros acreditam que os chatbots são mais cooperativos quando os tratamos com educação. e há quem peça aos robôs que interpretem um papel de especialistas no tema sobre o qual estão trabalhando. A lista é interminável. Isso faz parte da mitologia em torno da engenharia de prompts ou engenharia de contexto, diferentes maneiras de estruturar instruções para que a inteligência artificial produza resultados melhores. Especialistas dizem que muito do que se acredita sobre como formular prompts simplesmente não funciona. Ainda assim, a forma como você fala com um chatbot importa, e algumas técnicas realmente fazem diferença. Muitas pessoas acreditam que há uma combinação mágica de palavras capaz de fazer os LLMs resolverem um problema, afirma Jules White, professor de ciência da computação que pesquisa inteligência artificial generativa na Universidade Vanderbilt, nos Estados Unidos. Mas a questão não é a escolha das palavras, e sim a maneira como você formula o que está tentando fazer, diz ele. Os grandes modelos de linguagem funcionam dividindo suas palavras em pequenos blocos, chamados tokens, antes de analisá-los com base em estatísticas para gerar uma resposta adequada. Isso significa que cada detalhe do que você escreve, da escolha das palavras a uma vírgula extra, pode influenciar a forma como a inteligência artificial responde. O problema é que isso é extremamente difícil de prever. Diversos estudos já tentaram identificar padrões em pequenas mudanças nos prompts usados com inteligência artificial, mas muitas das evidências são contraditórias ou inconclusivas. Por exemplo, um estudo de 2024 constatou que LLMs deram respostas melhores e mais precisas quando as perguntas eram feitas de forma educada, em vez de apenas como comandos. De forma ainda mais curiosa, houve diferenças culturais. Em comparação com o chinês e o inglês, chatbots que se comunicavam em japonês tiveram um desempenho ligeiramente pior quando o usuário era excessivamente educado. Mas não saia correndo para ser gentil com a inteligência artificial. Um pequeno teste mostrou que uma versão anterior do chat GPT era, na verdade, mais precisa quando recebia insultos. E, no geral, ainda não há pesquisa suficiente sobre o tema para conclusões definitivas. Além disso, empresas de tecnologia atualizam constantemente seus chatbotes, o que faz com que os resultados de estudos fiquem rapidamente desatualizados. Especialistas afirmam que os modelos de inteligência artificial evoluíram drasticamente em poucos anos, tornando estratégias como bajular, ser educado, insultar ou mesmo ameaçar praticamente uma perda de tempo se o objetivo for obter respostas mais precisas. Era 100% um tiro no escuro naquela época", diz Rick Battle, engenheiro de aprendizado de máquina aplicado da Broadcom e coautor do estudo sobre Star Trek. Embora o estudo tenha sido realizado em 2024, as coisas já mudaram. Hoje, Rick Battle e outros especialistas afirmam que os modelos de inteligência artificial mais recentes, encontrados em produtos populares como o chat GPT, Gemini ou Cloud, conseguem identificar melhor as partes mais importantes do prompt. provavelmente não serão influenciados por pequenas mudanças na linguagem, pelo menos não de forma consistente que possa ser explorada. A conclusão é inquietante à sua maneira. Empresas projetam inteligências artificiais, como o chat GPT ou o Gemini do Google, para se comportarem como pessoas, por isso, às vezes, parecem ter humores que podem ser administrados ou personalidades que podem ser direcionadas. Mas não se engane, ferramentas de inteligência artificial são imitadoras, não seres vivos. Elas apenas simulam o comportamento humano. Se você quer respostas melhores, pare de tratar a inteligência artificial como uma pessoa e comece a tratá-la como uma ferramenta. Existem problemas reais relacionados à inteligência artificial, desde preocupações éticas até o impacto ambiental que ela pode causar. Algumas pessoas preferem não usar essa tecnologia, mas se você vai utilizar modelos de LLMs, aprender a conseguir o que quer de forma mais rápida e eficiente pode ser melhor para você e também para o consumo de energia. Essas seis dicas podem ajudar. Primeira, peça várias opções. A primeira coisa que digo às pessoas é, não peça apenas uma resposta, peça três ou cinco, afirma Jules White. Se você quer ajuda com um texto, por exemplo, peça que a inteligência artificial apresente várias opções que variem em algum aspecto importante. Isso faz com que a pessoa volte a se envolver e pense sobre o que gosta e por quê. Segunda dica, dê exemplos. Sempre que possível, forneça um exemplo para a inteligência artificial. Por exemplo, vejo pessoas pedirem a um LLM para escrever um e-mail e depois ficarem frustradas porque dizem, isso não soa nada como eu, diz White. O impulso natural é responder com uma lista de instruções de faça isso ou não faça aquilo. White afirma que é muito mais eficaz dizer, aqui estão 10 e-mails que enviei no passado, use meu estilo de escrita. Terceira dica, peça uma entrevista. Digamos que você queira criar uma descrição de vaga de emprego. Diga à inteligência artificial, quero que você me faça perguntas, uma de cada vez, até reunir informações suficientes para escrever um anúncio de emprego convincente, diz Jules White. Fazendo isso, pergunta por pergunta, ela pode se adaptar às suas respostas. Quarta dica, tenha cuidado com encenações de papel. Antes, havia a ideia de que se você dissesse à inteligência artificial que ela seria, por exemplo, um professor de matemática, ela teria mais precisão ao responder perguntas de matemática, afirma Sander Schulhof, empreendedor e pesquisador que ajudou a popularizar o conceito de engenharia de prompts. Mas se você está buscando uma informação ou quer fazer uma pergunta com uma única resposta correta, Schulhof e outros especialistas dizem que esse tipo de encenação pode tornar os modelos de inteligência artificial menos precisos. Isso pode até ser perigoso, afirma Rick Battle. Você está incentivando a chamada alucinação, porque diz ao sistema que ele é um especialista e deve confiar em seu conhecimento interno parametrizado. Em essência, isso pode fazer a inteligência artificial parecer excessivamente confiante. Por outro lado, para tarefas abertas, sem uma única resposta correta, a encenação pode ser eficaz, como em pedidos de conselho, sessões de brainstorming ou na resolução criativa de problemas. Se você está nervoso com entrevistas de emprego, pedir a um chatbot que emite um recrutador pode ser um bom treino, embora seja importante consultar outras fontes também. Quinta dica, mantenha a neutralidade. Não conduza a resposta, diz Rick Battle. Se você está tentando decidir entre dois carros, por exemplo, não diga que está inclinado a escolher um Toyota. Caso contrário, essa provavelmente será a resposta que você vai receber. Sexta dica, por favor e obrigado. Segundo uma pesquisa do Peel Research Center de 2019, mais da metade dos americanos diz por favor ao falar com seus assistentes de voz. Essa tendência parece ter continuado. Um levantamento de 2025 da editora Future mostrou que 70% das pessoas são educadas com a inteligência artificial quando a utilizam. A maioria afirma que age assim simplesmente porque é o correto a fazer, embora 12% digam que fazem isso para se proteger no caso de uma revolta de robôs. Ser educado talvez não proteja ninguém de robôs furiosos, nem torne os LLMs mais precisos, mas há outros motivos para continuar agindo assim. Para mim, o principal é que dizer por favor e obrigado pode fazer com que você se sinta mais confortável ao interagir com a inteligência artificial", diz Sander Schulhof. Isso não melhora o desempenho do modelo, mas se ajuda você a usar o sistema com mais frequência porque se sente mais à vontade, então é útil. Também é preciso considerar a própria natureza humana. O filósofo Immanuel Kant argumentava que uma das razões para não sermos cruéis com os animais é que isso também nos prejudica. Em essência, agir de forma hostil com qualquer coisa pode tornar a pessoa mais dura. Você não pode ferir os sentimentos de uma inteligência artificial porque ela não tem sentimentos. Ainda assim, talvez valha a pena ser educado. É um hábito que pode trazer benefícios para outras áreas da sua vida. Você ouviu a reportagem Seis conselhos de especialistas sobre como falar com a inteligência artificial para obter as melhores respostas Publicada pela BBC News Brasil em 18 de março de 2026
Podcast: BBC Lê
Host: BBC Brasil
Episode: 6 conselhos de especialistas sobre como falar com a IA para obter as melhores respostas
Date: April 21, 2026
Read by: Thomas Papon (from a report by Thomas Germain, BBC Future)
This episode dives into expert-backed tips on how best to interact with artificial intelligence (AI), particularly large language models (LLMs), to get the most accurate and useful responses. While many popular beliefs about “hacking” AI prompts abound, the episode explores which strategies actually work—backed by both research and expert opinion. The key takeaway: treat AI as a tool, not as a human, and tailor your approach accordingly.
“Muitas pessoas acreditam que há uma combinação mágica de palavras capaz de fazer os LLMs resolverem um problema... Mas a questão não é a escolha das palavras, e sim a maneira como você formula o que está tentando fazer.” (05:16)
"Era 100% um tiro no escuro naquela época." (10:43)
“A primeira coisa que digo às pessoas é, não peça apenas uma resposta, peça três ou cinco.” (12:54)
“Aqui estão 10 e-mails que enviei no passado, use meu estilo de escrita.” (14:15)
“Quero que você me faça perguntas, uma de cada vez, até reunir informações suficientes...” (15:37)
“...se você está buscando uma informação... esse tipo de encenação pode tornar os modelos... menos precisos.” (17:23)
“Isso pode até ser perigoso... incentivar a chamada alucinação...” (18:10)
“Não conduza a resposta... caso contrário, essa provavelmente será a resposta que você vai receber.” (20:31)
“Para mim, o principal é que dizer por favor e obrigado pode fazer com que você se sinta mais confortável ao interagir com a inteligência artificial.” (22:12)
“Os grandes modelos de linguagem funcionam dividindo suas palavras em pequenos blocos, chamados tokens... cada detalhe... pode influenciar.” (06:13)
“Chatbots que se comunicavam em japonês tiveram um desempenho ligeiramente pior quando o usuário era excessivamente educado…” (07:59)
“Você está incentivando a chamada alucinação, porque diz ao sistema que ele é um especialista e deve confiar em seu conhecimento interno parametrizado.” (18:13)
“Você não pode ferir os sentimentos de uma inteligência artificial porque ela não tem sentimentos. Ainda assim, talvez valha a pena ser educado...” (23:05)
The episode debunks many of the myths around “prompt engineering” for AI and suggests practical, evidence-based strategies to interact with language models. Rather than relying on tricks or trying to “game” the AI, experts urge users to be clear, systematic, and to treat the AI as a tool—using thoughtful, example-rich prompts, multiple-choice requests, and neutral language. Being polite may not boost AI accuracy, but it’s still good for you. If you use these strategies, you’re more likely to get what you want from AI—while maintaining your own best habits in the process.