
Resumo
- A xAI lançou o LLM Grok-3, que supera concorrentes em benchmarks de matemática, ciência e programação, segundo a empresa.
- O Grok-3 está disponível para assinantes do X Premium+ e inclui o recurso DeepSearch, permitindo buscas avançadas na internet e no próprio X.
- O modelo foi treinado com 200 mil GPUs Nvidia H100, utilizando 10 vezes mais capacidade computacional que o Grok-2.
A xAI, empresa de inteligência artificial de Elon Musk, anunciou na madrugada desta terça-feira (18/02) o LLM Grok-3. Segundo dados da empresa, o LLM supera todos os seus concorrentes nos três benchmarkings apresentados: resolução de problemas matemáticos, questões de ciências em nível de doutorado e programação. O Grok-3 está disponível para assinantes do Premium+, plano de benefícios do X.
Quais são as novidades do Grok-3?
Além do LLM principal, a xAI anunciou os modelos Grok-3 Reasoning e Grok-3 mini Reasoning. O primeiro está em sua fase beta. Essas versões, com o nome Reasoning, realizam uma espécie de fact-check antes de entregar a resposta ao usuário.
🚨INSIDE GROK 3: “IT MIGHT SOLVE PHYSICS’ GREATEST MYSTERIES”@xai unleashes its most powerful AI yet, demonstrating live physics problem-solving, game creation, and a potential breakthrough on Riemann’s hypothesis.
Plus: Why @elonmusk thinks this could help us understand the… pic.twitter.com/8cDMOtEz2E
— Mario Nawfal (@MarioNawfal) February 18, 2025
A IA DeepSeek, que abalou o mercado semanas atrás, é o principal exemplo dessa tecnologia. Resta saber se os Grok-3 Reasoning também mostrarão o caminho usado para chegar na resposta.
O Grok-3 também chega com a ferramenta DeepSearch, que realiza buscas na internet e no X (sim, numa rede social) para responder ao usuário. O ChatGPT também conta com um recurso similar, ativado quando é necessário buscar uma resposta mais atualizada.
Elon Musk também prometeu que na próxima semana o Grok ganhará um recurso de voz. O problema é confiar no prazo, visto que o próprio LLM Grok-3 foi anunciado para o ano passado — e o histórico do CEO é prometer produtos e lançá-los com atrasos.


Como o Grok-3 foi treinado?
A xAI usou 200 mil GPUs Nvidia H100 para o treinamento do Grok-3. Esse gigantesco servidor fica localizado em Memphis, nos EUA. Segundo Musk, o Grok-3 usou 10 vezes mais capacidade computacional que o seu antecessor, o Grok-2.
Por falar na versão anterior do LLM, o CEO da xAI comentou que espera transformá-lo em open-source nos próximos meses. A abertura do código do Grok-2 depende do lançamento completo do Grok-3. A estratégia da xAI é deixar a versão ultrapassada open-source sempre que uma nova for liberada.
Com informações de TechCrunch
Fonte: Tecnoblog