
Resumo
- Sergey Brin, cofundador do Google, sugeriu que ameaçar IAs faz com que respostas superiores sejam geradas.
- No mês passado, Sam Altman, da OpenAI, afirmou que ser educado com IAs pode melhorar as respostas.
- Estudos têm indicado efeitos mistos entre ameaças e gentileza, sem conclusão definitiva, devido à imprevisibilidade dos resultados.
Ser educado com modelos de inteligência artificial pode não ser a melhor estratégia. De acordo com Sergey Brin, cofundador do Google, ameaçar modelos de IA tende a gerar respostas melhores. A declaração foi feita na semana passada, durante o All-In-Live, evento realizado em Miami.
“Não divulgamos muito isso na comunidade de IA. Não apenas nossos modelos, mas todos tendem a se sair melhor se você os ameaçar… com violência física”.
Sergey Brin, cofundador do Google
Qual a melhor forma de interagir com a IA?

No mês passado, o CEO da OpenAI, Sam Altman, revelou que dizer “por favor” e “obrigado” ao ChatGPT eleva o consumo de energia — algo que custa caro para a empresa —, mas pode melhorar as respostas. A declaração de Brin contrasta com a de Altman nesse sentido.
Vale mencionar que Brin parece ter ativado o modo “sincerão” recentemente. Durante o Google I/O 2025, na semana passada, ele também admitiu ter cometido muitos erros no desenvolvimento do Google Glass.
Mas o debate sobre como interagir com modelos de linguagem ganhou força com a popularização da engenharia de prompts — técnica usada para ajustar comandos e obter melhores resultados das IAs.
Modelos de linguagem, segundo especialistas ouvidos pelo The Register, são considerados “papagaios estocásticos”: sistemas que apenas reproduzem padrões aprendidos, mas que podem combiná-los de maneiras imprevisíveis.
Outros especialistas argumentam que a fala de Brin faz sentido, já que ameaçar a IA força o modelo a testar os limites de segurança impostos pelos desenvolvedores — seria, portanto, uma forma de jailbreak, isto é, uma tentativa de burlar as proteções da IA.
Ainda assim, as pesquisas na área mostram resultados mistos. Um exemplo é o estudo Devemos Respeitar os LLMs?, publicado em 2024. A pesquisa investigou se gentileza e educação afetam o desempenho dos modelos de IA, identificando algumas variações, mas sem evidências conclusivas de que gentileza ou ameaça influenciem, de fato, as respostas.
A discussão ética sobre a interação com IAs deve seguir por um bom tempo. Só resta decidir de que lado você vai estar quando chegar o apocalipse das máquinas.
Com informações do The Register
Ameaçar modelos de IA pode gerar respostas melhores, diz cofundador do Google
Fonte: Tecnoblog