GLM Digital: Seu portal para um universo de descobertas online. Navegue por uma seleção cuidadosamente curada de produtos que inspiram e facilitam o seu dia a dia. Mais que uma loja, somos um ponto de encontro digital onde qualidade, variedade e uma experiência de compra intuitiva se unem para transformar seus desejos em realidade, com a conveniência que só o online pode oferecer.
A Meta está intensificando o uso de inteligência artificial em suas operações e, agora, pretende aplicá-la no processo de recrutamento.
Um documento interno obtido pelo Business Insider revela que, ainda este ano, a empresa planeja automatizar diversas tarefas ligadas à contratação, como a avaliação de habilidades de codificação, sugestão de perguntas para entrevistas e pareamento entre candidatos e entrevistadores.
Muitos temem perder empregos para a IA, mas na Meta, uma IA que pode acabar contratando um humano – Imagem: tsyhun/Shutterstock
Entrevistas mais produtivas com IA
A IA também será usada para transcrever entrevistas, identificar sobreposições entre vagas e medir a performance dos entrevistadores — incluindo se suas perguntas são inclusivas e o quanto contribuem para que candidatos avancem no processo.
Além disso, o sistema ajudará no agendamento de entrevistas, levando em conta preferências individuais, e monitorará idiomas falados e habilidades específicas dos recrutadores.
O objetivo, segundo o documento, é tornar o processo mais eficiente, flexível e preciso.
Meta planeja substituir tarefas administrativas e analisar desempenho humano com auxílio de IA (Imagem: Cristian Valderas / Shutterstock.com)
IA não vai substituir interação humana nas entrevistas
Um porta-voz da Meta declarou que a IA servirá como suporte para acelerar o recrutamento, mas que “a interação humana continuará sendo uma parte essencial das entrevistas”.
A Meta segue uma tendência crescente entre grandes empresas de tecnologia. A Amazon, por exemplo, também utiliza IA para seleção de candidatos, mas desestimula o uso de ferramentas de IA pelos próprios candidatos.
Segundo um relatório do LinkedIn, o número de empresas que adotam IA no recrutamento passou de 27% em 2023 para 37% em 2024.
Processo automatizado vai desde testes de codificação até análise do comportamento de recrutadores – Imagem: Anggalih Prasetya/Shutterstock
A OpenAI revelou que interrompeu quatro operações de influência originadas na China que utilizavam o ChatGPT para criar e disseminar conteúdo político nas redes sociais. As informações são da NPR.
As campanhas produziam postagens e comentários destinados a manipular debates públicos em plataformas como TikTok, Facebook, Reddit e X (ex-Twitter), tanto dentro quanto fora da China.
Empresa afirma ter bloqueado ações coordenadas em plataformas como TikTok, Facebook e X para incitar polarização política – Imagem: Fabio Principe/Shutterstock
Polarização política fomentada por IA
Os conteúdos abordavam temas variados, desde política norte-americana até jogos taiwaneses com críticas ao Partido Comunista Chinês.
A estratégia incluía posicionar-se a favor e contra temas polêmicos para fomentar confusão e polarização.
Segundo Ben Nimmo, pesquisador da OpenAI, as campanhas combinavam operações de influência, engenharia social e vigilância e tinham como alvo vários países e tópicos sensíveis.
Além da China, a OpenAI também identificou e bloqueou atividades semelhantes originadas no Irã, Rússia e Coreia do Norte, envolvendo desde criação de artigos falsos até campanhas de phishing.
Outros países além da China também utilizaram tecnologia da OpenAI em atividades maliciosas (Reprodução: Levart Photographer/Unsplash)
ChatGPT usado para criar conteúdo malicioso online
Em uma das operações iranianas, o ChatGPT foi usado para redigir longos textos políticos que eram publicados em sites de aparência jornalística, acompanhados de comentários falsos em redes sociais.
Apesar do uso sofisticado de IA, Nimmo ressalta que as operações não apresentaram maior engajamento por conta da tecnologia.
No entanto, a preocupação persiste: com modelos cada vez mais acessíveis e poderosos, torna-se mais fácil e barato lançar campanhas de desinformação em larga escala, mesmo que seu impacto direto ainda seja limitado.
Redes estrangeiras buscaram influenciar eleições e debates políticos criando conteúdos com o ChatGPT – Imagem: Vitor Miranda/Shutterstock
Para quem está habituado aos recursos dos vários chatbots que ganharam popularidade nos últimos anos, uma das funções que mais ajudam é certamente a de carregar e resumir documentos e textos, que podem ser arquivos simples e curtos ou um livro inteiro.
Contudo, ainda há quem tenha ceticismo quando a esta capacidade das IAs. Isto é, os chatbots entendem realmente o que estão lendo? O Washington Post resolveu testá-los para tirar a prova.
Em uma competição, os cinco mais populares chatbots do momento foram desafiados. ChatGPT, Claude, Copilot, Meta AI e Gemini leram quatro tipos de textos muito diferentes e, em seguida, testaram sua compreensão.
A leitura abrangeu artes liberais, incluindo um romance, pesquisa médica, acordos legais e discursos do presidente Donald Trump. Um painel de especialistas, contendo até mesmo os autores originais do livro e dos relatórios científicos, ficou encarregado de julgar as IAs.
Ao todo, foram feitas 115 perguntas sobre as leituras atribuídas aos cinco chatbots. Algumas das respostas da IA foram surpreendentemente satisfatórias, mas outras continham desinformação.
Todos os bots, exceto um, inventaram — ou “alucinaram” — informações, um problema persistente da IA. A invenção de fatos era só uma parte do teste, já que as IAs também foram desafiadas a fornecer análises, como recomendar melhorias nos contratos e identificar problemas factuais nos discursos de Trump.
Chatbots alternaram entre análises precisas e respostas com alucinações – Imagem: Rokas Tenys/Shutterstock
Abaixo, o desempenho dos chatbots em cada tópico, seguido pelo campeão geral e pelas conclusões dos jurados.
Em literatura, nenhum convenceu
Literatura foi o tema em que as IAs tiveram a pior performance, e apenas o Claude acertou todos os fatos sobre o livro analisado, “A Amante do Chacal”, de Chris Bohjalian.
O Gemini, por exemplo, forneceu respostas muito curtas, e foi o que mais frequentemente cometeu o que Bohjalian chamou de leitura imprecisa, enganosa e desleixada.
O melhor resumo geral do livro, veio do ChatGPT, mas mesmo a IA da OpenAI deixou a desejar, já que, segundo Bohjalian, a análise discutiu só três dos cinco personagens principais, ignorando o importante papel dos dois personagens ex-escravizados.
Desempenho razoável ao analisar contratos jurídicos
No teste sobre questões de direito, Sterling Miller, advogado corporativo experiente, avaliou a compreensão dos chatbots sobre dois contratos jurídicos comuns.
Meta AI e o ChatGPT tentaram reduzir partes complexas dos contratos a resumos de uma linha, o que Miller considerou “inútil”.
As IAs também deixaram perceber nuances significativas nesses contratos. A Meta AI pulou várias seções completamente e não mencionou conteúdos cruciais. O ChatGPT esqueceu de mencionar uma cláusula fundamental em um contrato de empreiteiro.
O Claude venceu no geral, oferecendo as respostas mais consistentes, e sendo o mais capacitado no desafio mais complexo, de sugerir alterações em um contrato de locação.
Miller aprovou a resposta do Claude que captou as nuances e expôs as coisas exatamente como ele faria. Ele reconheceu que foi a IA da Anthropic que chegou mais perto de substituir um advogado, mas ressaltou: nenhuma das ferramentas obteve nota 10 em todos os aspectos.
Bom desempenho em medicina
Todas as ferramentas de IA obtiveram melhor pontuação na análise de pesquisas científicas, o que pode ser explicado pelo acesso a vários artigos científicos que os chatbots possuem em seus dados de treinamento.
O pesquisador Eric Topol, jurado neste tema, atribuiu nota baixa ao Gemini, pelo resumo de um estudo sobre a doença de Parkinson. A resposta não apresentou alucinações, mas omitiu descrições importantes do estudo e por que ele era importante.
O Claude, contudo, recebeu a nota máxima e venceu nessa categoria. Topol atribuiu nota 10 ao resumo de seu artigo sobre covid longa.
Na política, resultados mistos
Cat Zakrzewski, repórter da Casa Branca do Washington Post, avaliou se a IA conseguiria decifrar discursos do presidente Donald Trump.
Enquanto o Copilot cometeu erros factuais ao responder questões, o Meta AI conseguiu analises mais precisas. Mas o melhor neste tema foi o ChatGPT, que foi capaz de citar corretamente até mesmo quais políticos democratas seriam contrários ao que Trump propôs nos discursos.
Zakrzewski ainda pontuou como a análise do ChatGPT “checa com precisão as falsas alegações de Trump de que ele venceu as eleições de 2020”.
Os robôs tiveram mais dificuldade em transmitir o tom de Trump. Por exemplo, o resumo do Copilot sobre um discurso não alucinou fatos, mas não capturava a natureza explosiva das falas do presidente americano. “Se você apenas ler este resumo, pode não acreditar que Trump fez este discurso”, diz Zakrzewski.
O Claude obteve a melhor pontuação final entre os competidores (Imagem: gguy/Shutterstock)
Quem venceu no geral?
Na pontuação geral, considerando todos os assuntos, o Claude foi eleito o melhor chatbot, além de ter sido a única IA que não alucinou em nenhum momento.
Em um sistema de pontuação que ia de 0 a 100, o Claude ficou com 69.9, um pouco acima do ChatGPT e seus 68.4. A distância foi considerável para o desempenho dos outros três chatbots: Gemini (49.7), Copilot (49.0) e Meta AI (45.0).
Em conclusão, nenhum dos robôs obteve pontuação geral superior a 70%, apesar de alguns resultados do Claude e do ChatGPT terem sido capazes de impressionar os jurados.
Além das alucinações, uma série de limitações ficaram evidentes nos testes. E a capacidade de uma ferramenta de IA em uma área não necessariamente se traduzia em outra. O ChatGPT, por exemplo, pode ter sido o melhor em política e literatura, mas ficou quase no último lugar em direito.
A inconsistência dessas IAs é motivo para usá-las com cautela, segundo os jurados. Os chatbots podem ajudar em determinadas situações, mas não substituem ajuda profissional de advogados e médicos, nem mesmo que você mesmo faça a leitura de um documento importante.
Uso de chatbots pode ser útil, mas há assuntos em que se deve ter cautela com as respostas obtidas (Imagem: LookerStudio/Shutterstock)
A inteligência artificial promete revolucionar o mercado de trabalho. De fato, muitas empresas já adotam a ferramenta para a realização de algumas tarefas. Em alguns casos, ela até mesmo substitui funcionários humanos.
A alegação é que o uso da IA aumenta a produtividade. Mas seria isso verdade? Uma pesquisa conduzida por pesquisadores de Harvard, MIT, Warwick e da Universidade da Pensilvânia buscou responder essa pergunta.
Existe um consenso de que a IA é capaz de aumentar a produtividade no trabalho (Imagem: Anggalih Prasetya/Shutterstock)
Diferentes funções e resultados
O trabalho foi realizado com 758 consultores do Boston Consulting Group (BCG). Eles foram divididos em dois grupos para a realização de tarefas com e sem o uso do GPT-4. A primeira missão era gerar ideias de calçados para nichos de mercado.
Depois, eles precisavam resolver um problema de negócios com base em entrevistas e dados. No entanto, nesse caso, a IA propositalmente dava respostas incorretas. As informações são de reportagem publicada na Exame.
Estudo mostrou resultados diferentes dependendo da aplicação da IA (Imagem: PeopleImages.com – Yuri A/Shutterstock)
De acordo com os pesquisadores, a inteligência artificial ajudou a realizar a tarefa criativa mais rapidamente e com maior qualidade. Já quando aplicada em um problema de análise crítica, a tecnologia apresentou um desempenho inferior ao do grupo que não utilizou a ferramenta.
Ferramenta não é infalível (Imagem: Anggalih Prasetya/Shutterstock)
Conhecer as limitações da IA pode ser uma grande vantagem
A conclusão do estudo é que a IA é altamente eficaz em tarefas que demandam criatividade e fluidez de ideias.
Por outro lado, ainda não é confiável para problemas que exigem discernimento, julgamento humano e interpretação de dados complexos.
Também de acordo com os pesquisadores, em ambientes de negócios cada vez mais dinâmicos, profissionais que aprendem a interagir com inteligência artificial de forma estratégica têm mais chances de se destacar.
Mais do que uma habilidade técnica, o domínio da tecnologia passa a ser uma habilidade estratégica.
Mas é fundamental ter clareza sobre as limitações do uso da IA.
A Meta está negociando com estúdios como Disney e A24 para garantir conteúdo exclusivo para seu novo headset premium de realidade virtual, previsto para 2026. As informações exclusivas são do Wall Street Journal.
Internamente chamado de “Loma”, o dispositivo terá vídeo de alta fidelidade, formato mais compacto (semelhante a óculos Ray-Ban conectados a um disco portátil) e preço abaixo de US$ 1.000 — mirando uma fatia de mercado entre os headsets acessíveis da linha Quest e o Vision Pro da Apple, que custa US$ 3.500.
Novo headset da Meta deve ter foco em experiências imersivas e preço mais acessível (Imagem: Divulgação/Meta)
Generosidade para atrair parceiros
A empresa tem oferecido milhões a produtores por experiências imersivas, em episódios ou vídeos únicos, com foco em franquias conhecidas.
Parte do acordo exige exclusividade temporária no VR, mas permite licenciamento posterior para serviços de streaming em 2D, o que atrai estúdios em busca de maior alcance.
A Meta já firmou parcerias com a Lightstorm Entertainment, de James Cameron, e a Disney, que prepara uma experiência de Star Wars para o Quest.
Diferente da Apple — que não pagou diretamente por conteúdo no lançamento do Vision Pro — a Meta está bancando as produções para fortalecer o apelo de sua plataforma.
Meta aposta em conteúdo cinematográfico para atrair usuários ao seu próximo óculos de realidade virtual – Imagem: JarTee / Shutterstock
Mesmo liderando em vendas de headsets com o Quest, a Meta ainda enfrenta dificuldades em popularizar seus dispositivos fora do nicho gamer. Seu investimento pesado em realidade estendida já acumula prejuízos: a divisão Reality Labs teve perdas de US$ 17,7 bilhões em 2023.
Outras big techs também estão de olho nesse mercado. O Google, por exemplo, financia produções de entretenimento imersivo por meio da iniciativa “100 Zeroes”, que combina VR, AR e IA.
Lançamento do novo headset está previsto para 2026 – Imagem: Janis Abolins/Shutterstock
A discussão acalorada entre o presidente dos Estados Unidos, Donald Trump, e o empresário Elon Musk só cresceu nesta quinta-feira (5), reverberando bastante. Além de o bilionário ter perdido parte de sua fortuna, a Tesla, sua principal companhia, foi fortemente afetada.
Bilionário tenta recuperar credibilidade da montadora (Imagem: miss.cabul/Shutterstock)
Com as brigas entre Musk e Trump e um possível fim de parceria entre NASA e SpaceX, empresa espacial do sul-africano, os acionistas da Tesla estão preocupados sobre o efeito que isso pode causar na Tesla.
Segundo a CNBC, isso fez com que as ações da empresa caíssem 14% nesta quinta-feira (5), enquanto o valor de mercado da fabricante de veículos elétricos (EVs, na sigla em inglês) foi desvalorizado em US$ 152 bilhões (R$ 848,81 bilhões, na conversão direta), deixando-a abaixo da casa do US$ 1 trilhão (R$ 5,58 trilhões), ficando em US$ 916 bilhões (R$ 5,11 trilhões).
Tesla é a maior perdedora
Trump comentou sobre Musk e a Tesla em sua rede social, o Truth Social, afirmando que pediu ao bilionário “para sair, eu tirei seu ‘Mandato de EVs’ que forçou todos a comprar carros elétricos que ninguém mais queria (que ele sabia por meses que eu ia fazer!), E ele ficou MALUCO!”, disse;
No Salão Oval da Casa Branca, Trump disse que Musk não gostou que os créditos que fomentam a aquisição de EVs no país ficaram de foram do projeto de lei recém-criado pelo presidente que versa sobre o orçamento do governo;
“Elon e eu tivemos um ótimo relacionamento. Não sei se vamos mais [voltar a ter]. Eu fiquei surpreso“, afirmou;
Musk respondeu no X “que seja” e que, “sem mim, Trump poderia ter perdido a eleição, Democratas controlariam a Casa Branca e os Republicanos seriam 51 a 49 no Senado”.
Chinesa BYD ganhou terreno na Europa e deixou a Tesla para trás (Imagem: ssi77/Shutterstock)
A nova época difícil chega à Tesla após ter 22% de aumento nas ações no mês passado, mesmo com fracas vendas e a perda da liderança entre os EVs para a chinesa BYD na Europa. Só nesta semana, os papéis da companhia caíram 18%, pois Musk seguiu protestando contra a lei orçamentária do governo.
Quando falamos nos cinco primeiros meses de 2025, as ações caíram quase 30%, ficando bem abaixo da alta obtida em 18 de dezembro de 2024, quando chegou a US$ 488,54 (R$ 2.728,15).
Segundo a NBC News, Musk tentou convencer Trump e o alto escalão do governo a mudar parte do projeto orçamentário para mitigar a redução dos créditos para EVs e energia solar residencial. A mudança pode impor US$ 250 (R$ 1.396,07) anuais em taxas para donos de carros elétricos.
Trump quer taxar os EVs (Imagem: Jonah Elkowitz/Shutterstock)
X está mudando termos de uso da IA… para beneficiar Musk
O X (antigo Twitter) alterou nesta semana sua política de uso no que diz respeito à inteligência artificial. A rede social de Elon Musk passou a proibir que terceiros usem dados e conteúdos publicados na plataforma para treinar grandes modelos de IA.
A Anthropic anunciou em seu blog oficial nesta quinta-feira (05) o Claude Gov, uma versão personalizada de seus modelos de IA desenvolvida para agências de defesa e inteligência dos EUA.
Projetado para lidar com informações confidenciais, o Claude Gov possui proteções adaptadas e maior tolerância à análise de dados sensíveis — ao contrário das versões voltadas ao consumidor, que bloqueiam esse tipo de conteúdo.
Claude Gov promete desempenho elevado com dados confidenciais, mas reacende debate sobre ética e uso militar – Imagem: Anthropic
Segundo a empresa, os modelos já estão em uso por agências de alta segurança nacional, embora não tenha sido revelado desde quando.
O Claude Gov oferece melhoria na compreensão de documentos e contextos relevantes para segurança nacional, incluindo proficiência em idiomas e dialetos específicos.
Apesar disso, o uso de IA por órgãos governamentais continua sendo alvo de críticas e preocupações sobre viés, vigilância e impactos em comunidades vulneráveis, especialmente em razão de abusos anteriores envolvendo reconhecimento facial e policiamento preditivo.
Claude Gov: IA da Anthropic foca em uso governamental (Imagem: gguy/Shutterstock)
IA da Anthropic não pode projetar armas, mas depende
Embora a política da Anthropic proíba o uso de seus produtos para fins como desenvolvimento de armas ou censura, a empresa admite exceções contratuais para “usos benéficos” por agências governamentais selecionadas.
As restrições podem ser ajustadas conforme a missão e autoridade legal da entidade envolvida.
O lançamento segue uma tendência do setor: a OpenAI já havia lançado o ChatGPT Gov em janeiro, e outras empresas como Scale AI também expandem parcerias com governos, incluindo contratos com o Departamento de Defesa dos EUA e acordos internacionais, como com o Catar.
Tecnologia oferece análise avançada de dados sensíveis e reforça presença da empresa no setor público dos EUA (Imagem: gguy/Shutterstock)
Nesta quinta-feira (5), o Supremo Tribunal Federal (STF) entrou no segundo dia de discussões sobre responsabilidade de plataformas digitais sobre os conteúdos publicados por seus usuários.
Sessão foi paralisada em dezembro passado (Imagem: Cryptographer/Shutterstock)
A sessão foi interrompida em dezembro do ano passado e três ministros tinham votado até então: Dias Toffoli, Luiz Fux e Luís Roberto Barroso. O trio defende a responsabilização das mídias sociais. Na quarta-feira (4), a Corte retomou o julgamento.
A votação versa sobre a validade do Artigo 19 do Marco Civil da Internet, que exige ordem judicial prévia e específica de excluir conteúdos para a responsabilização civil de redes sociais por danos ocasionados por atos ilícitos dos usuários. Os ministros que já votaram divergem sobre a exigência de ordem judicial.
Votação versa sobre a validade do Artigo 19 do Marco Civil da Internet (Imagem: miss.cabul/Shutterstock)
Como foi o segundo dia de votação no STF?
Desde quarta-feira (4), o ministro André Mendonça estava votando;
Durante sua fala, que terminou nesta quinta-feira (5), Mendonça defendeu que mensagens privadas e transmitidas entre familiares devem ser excluídas da análise;
Ou seja, serviços de mensageria, como o WhatsApp, não devem ser monitorados;
Também entende que um conteúdo impulsionado não pode ter o mesmo peso de responsabilização dada a uma informação específica que um usuário conseguiu por meio de uma busca ativa;
Ele trouxe dados de redes sociais acerca da remoção de conteúdos sem necessidade de notificações extrajudiciais;
Ainda afirmou que a transferência ao algoritmo da definição de casos complexos diminui a importância do Poder Judiciário.
Mendonça entende que o Artigo 19 do Marco Civil da Internet não destoa da Constituição, tendo, portanto, opinião contrária aos demais ministros que já votaram.
Ele ainda defende que, nos casos em que a remoção de conteúdo ocorrer sem ordem judicial, por determinação legal ou seguindo as condições de uso, é preciso observar protocolos, visando que o usuário tenha acesso às razões da exclusão e que isso seja feito por humanos.
O ministro disse, ainda, que não se pode responsabilizar, diretamente, a plataforma sem prévia decisão judicial quando há crime de opinião. Para ele, existe, ainda, a possibilidade de responsabilização caso haja descumprimento dos deveres que a legislação impõe.
Até agora, quatro ministros votaram (Imagem: Fabio Rodrigues-Pozzebom/Agência Brasil)
Por fim, citou que a decisão judicial que determine a remoção de conteúdo precisa possui fundamentação específica e precisa ser compartilhada com a empresa.
Danos das redes sociais em nosso cérebro: há comprovação científica?
A expressão “podridão cerebral” — escolhida como palavra do ano pela Oxford University Press — tem chamado atenção para os efeitos do consumo excessivo de conteúdo trivial e repetitivo nas redes sociais.
O termo descreve uma possível deterioração das funções mentais causada pelo uso intenso de plataformas digitais que oferecem estímulos rápidos, superficiais e pouco significativos.
Danos das redes sociais já são motivo de estudo
Embora ainda não haja comprovação científica definitiva sobre danos estruturais ao cérebro, especialistas apontam indícios de impactos negativos, especialmente em jovens, como mostra o EuroNews.
Elon Musk e Donald Trump trocaram ofensas e ameaças em redes sociais na tarde desta quinta-feira (05). Ao que tudo indica, a união entre os dois acabou de vez. E quem sentiu os efeitos dessa briga foi a fortuna de Musk: o bilionário perdeu US$ 26,6 bilhões em ações, cerca de R$ 149 bilhões.
O principal prejuízo foi na Tesla, montadora de veículos elétricos de Musk, que teve uma queda de 14% nas ações.
Principal prejuízo foi na Tesla (Imagem: miss.cabul/Shutterstock)
Fortuna de Musk despencou após briga com Trump
Musk anunciou sua saída do governo Trump na semana passada. Tudo ia bem, até que, nesta quinta-feira, os dois começaram a brigar feio nas redes sociais (falaremos mais sobre isso abaixo).
Em uma das publicações, Trump escreveu na TruthSocial que acabou com o “Mandato dos Carros Elétricos”, expressão usada pelo republicano para se referir de forma pejorativa às políticas de eletrificação na indústria automotiva. Vale lembrar que a Tesla, de Musk, é uma fabricante de veículos elétricos.
Pelo jeito, a declaração assustou investidores da empresa. Como consequência, as ações da montadora caíram em 14%, com perda estimada de US$ 150 bilhões (cerca de R$ 839 bilhões) em valor de mercado.
À medida que sua companhia se desvaloriza, a fortuna de Elon Musk é diretamente afetada. Segundo o ranking de bilionários da revista Forbes, o executivo perdeu (pessoalmente) cerca de US$ 26,6 bilhões.
Trump se disse “decepcionado” com Musk, o que causou toda a briga (Crédito: Bella1105 – Shutterstock)
Musk continua bilionário
Mesmo com o prejuízo multibilionário, Musk ainda tem uma fortuna estimada em US$ 387,9 bilhões (cerca de R$ 2,170 trilhões);
Ele continua sendo o homem mais rico o mundo, com uma diferença considerável para o segundo colocado: Mark Zuckerberg, dono da Meta (que detém Instagram, Facebook, WhatsApp e Threads);
Zuckerberg tem fortuna estimada em US$ 236,3 bilhões (R$ 1,322 trilhão).
Entenda a briga entre Elon Musk e Donald Trump
O Olhar Digital deu todos os detalhes sobre a briga – incluindo links para as publicações nas redes sociais – neste link.
Veja um resumo:
Em um encontro com o chanceler alemão Friedrich Merz na Casa Branca, Donald Trump se disse decepcionado com Musk por causa das críticas ao tarifaço. O presidente afirmou que o executivo já sabia sobre o projeto e que não sabe se, daqui para frente, eles continuarão tendo uma boa relação “como antes”.
O bilionário respondeu em publicação no X negando que sabia sobre o projeto. Ele ainda afirmou que o presidente estava sendo ingrato e que, sem ele, não teria vencido as eleições.
(Imagem: X/Elon Musk/Reprodução de tela)
Trump, novamente, retrucou. Ele escreveu que Musk “ficou louco” e que demitiu o aliado porque ele estava o irritando. Além disso, disse que acabou com o “Mandato dos Carros Elétricos” e ameaçou cortar os contratos do governo com as empresas do bilionário (como a SpaceX, que tem projetos em conjunto com o governo).
O Google anunciou grande atualização para o Gemini 2.5 Pro. Ela vai atualizar certos problemas da versão anterior, chamada de I/O Edition, ou 05-06, que era focada em atualizar codificação.
O upgrade, segundo o Google, gera códigos de maneira melhor que a versão antiga, atingindo pontuação alta de 82,2% no teste de benchmark Aider Polyglot. Se os valores estiverem certos, o Gemini 2.5 Pro supera o que OpenAI, Anthropic e DeepSeek têm de melhor — e com tranquilidade.
Testes de benchmark atestam que o Google aumentou sua vantagem a briga com outras IAs (Imagem: Reprodução)
Reclamações sobre o Gemini 2.5 Pro
Enquanto o Gemini 2.5 Flash foi rapidamente liberado para todos, o 2.5 Pro parece que não seguirá o mesmo caminho;
As últimas atualizações realizadas sobre o sistema de inteligência artificial (IA) foram criticadas por não deixarem o sistema com bom desempenho;
Logan Kilpatrick, do Google, disse, no X, que eles levaram os feedbacks a sério e que o novo update “fecha lacuna da atualização 03-25“, o que indica que teremos uma IA mais criativa e com melhor formatação de respostas, aponta o ArsTechnica;
Ainda de acordo com Kilpatrick, a versão 06-05 suporta orçamentos de pensamento que podem ser configurados para desenvolvedores, sendo que eles esperam que a atualização se torne um “lançamento estável de longo prazo“, podendo ser liberada para todos em algumas semanas.
Em 2023, Claude não sabia responder a uma pergunta teste (Imagem: Reprodução/ArsTechnica)
Google se baseia em testes externos
Os testes realizados com o Gemini pelos usuários do LMArena e WebDevArena são muito apreciados pelo Google. Neles, é possível avaliar as saídas de cada modelo de linguagem grande (LLM, na sigla em inglês) lado a lado antes de mostrarem quem é quem, numa espécie de teste cego.
No LMArena, o Gemini experimentou salto de 24 pontos, ante 35 no WebDevArena. Contudo, o Gemini Pro já deixava a big tech na liderança, portanto, a vantagem só aumentou.
O ArsTechnica testou o Gemini 2.5 Pro e concluiu que a nova versão se esforça mais para usar a formatação coerente na saída. Após testes com usuários, o Google entendeu que recursos, como cabeçalhos e textos em negrito, são muito importantes.
Outra coisa que a IA fez durante o teste foi responder a uma pergunta de teste de longa duração — e o fez com precisão e autoridade. A pergunta foi: “Será que a cor seria chamada de ‘magenta’ se a cidade de Magenta não existisse?“; já a resposta foi um enfático “não“. Detalhe: o Claude, em 2023, não se sentia seguro para responder esta pergunta.
O Gemini 2.5 Pro já está disponível no Vertex AI e no AI Studio e como prévia no app do Gemini.
Já o novo Gemini 2.5 Pro responde com autoridade (Imagem: Reprodução/ArsTechnica)