Dois ex-pesquisadores do Google DeepMind, Misha Laskin e Ioannis Antonoglou, levantaram US$ 130 milhões para sua nova startup, a Reflection AI, que tem como objetivo alcançar a superinteligência por meio de agentes de IA autodirigidos, capazes de realizar tarefas de codificação de forma autônoma. As informações são da Bloomberg.
A empresa já recebeu US$ 25 milhões em uma rodada inicial e mais US$ 105 milhões em uma rodada Série A, com o apoio de investidores como Sequoia Capital, Lightspeed Venture Partners, CRV, além de Reid Hoffman (cofundador do LinkedIn), Alexandr Wang (CEO da Scale AI) e a Nvidia. Atualmente, a avaliação da Reflection é de US$ 555 milhões.
A startup, que estava operando em sigilo até agora, visa criar ferramentas de IA com maior autonomia, diferentemente dos assistentes e copilotos atuais, que apenas auxiliam os desenvolvedores.
A Reflection AI quer desenvolver agentes de IA que possam tomar decisões independentes, ajudando a acelerar a criação de sistemas de superinteligência.
Startup foi fundada por ex-pesquisadores da Google DeepMind (Imagem: Photo For Everything / Shutterstock.com)
Laskin afirmou que, com a experiência acumulada em aprendizado por reforço e grandes modelos de linguagem, agora é o momento certo para combinar essas inovações e construir uma superinteligência prática.
Planos da startup para o setor
A Reflection AI já possui clientes pagantes, especialmente em áreas como serviços financeiros e tecnologia, e está se concentrando inicialmente na automação de tarefas rotineiras de engenharia, como migração de bancos de dados e refatoração de código.
Laskin destacou que o foco não é substituir engenheiros, mas sim liberar os profissionais das tarefas mais repetitivas, permitindo que se tornem mais como “arquitetos”, supervisionando diversos agentes autônomos.
A empresa é uma das muitas startups que surgiram no campo de IA e codificação desde o lançamento do ChatGPT em 2022, aproveitando o crescente entusiasmo e desenvolvimento no setor.
Outros players nesse espaço incluem empresas como Replit Inc., Poolside Inc. e Anysphere Inc. A Reflection está em processo de expansão e recrutando mais talentos, com equipes em Nova York, São Francisco e Londres.
Laskin comparou as ferramentas da empresa a um sistema de direção autônoma, como o da Waymo, em oposição ao controle de cruzeiro oferecido por assistentes de IA convencionais.
Em busca da superinteligência, a Reflection AI conta com o apoio de grandes investidores do setor (Imagem: Anggalih Prasetya/Shutterstock)
A Microsoft lançou uma ferramenta de IA chamada Muse, que promete revolucionar o desenvolvimento de jogos.
Muse é um “modelo de ação humana e mundial” treinado com dados de gameplay de “Bleeding Edge”, permitindo que os designers experimentem e ajustem vídeos de jogabilidade gerados por IA, sem a necessidade de longas horas de implementação em um mecanismo de jogo.
Ferramenta cria e preserva jogos usando IA
A ferramenta tem potencial para acelerar o desenvolvimento de jogos, criando simulações de elementos como power-ups, que podem ser testados antes de serem implementados no jogo real. No entanto, surgem dúvidas sobre sua viabilidade a longo prazo.
A Microsoft mencionou que o Muse pode ser usado para preservar jogos clássicos e até criar um “catálogo” de jogos gerados por IA, mas atualmente o Muse só cria vídeos simulados, e não jogos completos.
Embora o modelo seja eficaz para jogos de serviço contínuo com grandes volumes de dados, como “Bleeding Edge”, ele enfrenta desafios para ser útil em jogos menores ou títulos para um jogador.
Nova ferramenta que usa IA promete acelerar o processo de criação de jogos virtuais – Imagem: rangizzz/Shutterstock
A IA funciona bem apenas quando treinada com grandes quantidades de dados específicos, e a implementação para jogos diversos seria uma tarefa monumental.
Especialistas apontam que, apesar de seu potencial, o Muse ainda não é capaz de criar jogos jogáveis ou simulações completas de títulos clássicos.
O conceito de jogos inteiramente gerados por IA pode estar no horizonte, mas, por enquanto, o Muse parece ser uma ferramenta útil apenas para visualização rápida de conceitos no desenvolvimento de jogos, sem substituir as funções tradicionais de criação e design de jogos.
Modelo lançado pela Microsoft ainda enfrenta desafios para criar jogos completos – Imagem: Blackboard/Shutterstock
O Google está testando sua inteligência artificial dentro do Google Agenda. Agora, usuários podem explorar o Gemini em um painel lateral do aplicativo para verificar a agenda de forma mais rápida, criar eventos ou procurar detalhes de eventos marcados.
O recurso está disponível como parte do programa de testes de acesso antecipado da gigante da tecnologia, o Google Workspace Labs. A ideia é aproveitar as habilidades de conversação do Gemini, eliminando a necessidade de pesquisar ou adicionar coisas manualmente ao calendário.
Como fazer um teste?
No seu computador, acesse calendar.google.com;
No canto superior direito, clique em Pergunte ao Gemini;
No painel lateral, selecione um prompt sugerido ou escreva seu próprio prompt.
Você pode incluir sugestões como: “Quando é minha próxima reunião com o chefe?”; “Quantas reuniões tenho na segunda-feira?”;”Adicione um treino semanal toda segunda, quarta e sexta às 6 da manhã”.
Google Sheets também usa IA para organizar planilhas (Imagem: Google/Divulgação)
Para e-mails, por exemplo, é possível testar o Gemini para escrever rascunhos, incluindo um convite de aniversário ou uma apresentação para um possível contato comercial. Já no Docs, a ferramenta pode ajudar a redigir legendas de conteúdos para redes sociais ou reformular um texto já existente, tornando-o mais conciso ou detalhado.
Gemini sugere textos no Google Docs (Imagem: Google/Divulgação)
Usuários do Sheets podem criar tabelas, criar fórmulas, gerar insights e análise de dados, criar gráficos e resumir seus arquivos do Drive e e-mails do Gmail com o Gemini. No Google Drive, o recurso resume documentos longos, relembra fatos sobre projetos e faz buscas sobre temas relevantes.
O Gemini 2.0 foi lançado para todos os usuários em janeiro como um modelo extremamente rápido e eficiente, desenvolvido para proporcionar baixa latência e alto desempenho mesmo com grandes demandas, como relatado pelo Olhar Digital.
A startup australiana Cortical Labs lançou o que chamou de “o primeiro computador biológico” do mundo. O CL1 tem o tamanho de uma caixa de sapatos e usa células cerebrais humanas para rodar redes neurais fluidas (leia-se: inteligência artificial).
O “computador biológico” usa centenas de milhares de neurônios – do tamanho do cérebro de formigas – cultivados numa “solução rica em nutrientes”. Eles são espalhados num chip de silício, segundo o site da empresa.
Computador combina ‘silício duro e tecido mole’ para rodar ‘IA biológica’
Por meio da combinação de “silício duro e tecido mole”, a empresa afirma que os proprietários podem “implantar código diretamente nos neurônios reais” para “resolver os desafios mais difíceis da atualidade”.
“Uma maneira simples de descrever seria um corpo numa caixa. Mas ele tem filtragem para ondas, tem onde a mídia é armazenada, tem bombas para manter tudo circulando, mistura de gases e, claro, controle de temperatura”, disse o diretor científico da Cortical Labs, Brett Kagan, ao New Atlas.
O ‘computador biológico’ CL1, da Cortical Labs, é do tamanho de uma caixa de sapatos (Imagem: Divulgação/Cortical Labs)
Kagan se mostrou animado para cientistas experimentarem a tecnologia. “Há tantas opções”, disse à ABC News da Austrália. Por exemplo: “modelagem de doenças e testes de medicamentos”.
“A maioria dos medicamentos para doenças neurológicas e psiquiátricas que entram em testes clínicos falham porque há muito mais nuance quando se trata do cérebro”, disse o diretor científico. “Mas você pode realmente ver essa nuance quando testa com essas ferramentas [da startup].”
Nossa esperança é que possamos substituir áreas significativas de testes em animais com isso [o “computador biológico”].
Diretor científico da Cortical Labs, Brett Kagan
Outra (possível) vantagem da abordagem da empresa é que neurônios usam alguns watts de energia. Bem menos do que chips de IA “normais”, que devoram energia.
Startup colocou neurônios em chip de silício para rodar ‘IA biológica’ em computador (Imagem: Divulgação/Cortical Labs)
Por enquanto, a empresa vende o dispositivo como uma maneira de treinar “IA biológica”. Isto é, redes neurais que dependem de neurônios reais. O que isso significa: neurônios podem “aprender” graças ao chip de silício.
Além de vender o CL1, a Cortical Labs quer vender computação via nuvem usando seus próprios racks montados com seus “computadores biológicos”.
No entanto, há um longo caminho pela frente. Principalmente quando se trata de ensinar neurônios de forma semelhante à IA.
“Está claro que redes neurais humanas aprendem de maneira notavelmente rápida,” disse Ernst Wolvetang, biólogo da Universidade de Queensland e especialista em pesquisa com células-tronco, à ABC. “Neste estágio, eu gostaria de reservar meu julgamento”, acrescentou.
A repercussão do lançamento do DeepSeek, modelo de inteligência artificial (IA) desenvolvido na China, foi enorme. Muitos elogiaram fortemente a ferramenta, enquanto outros criticam o chatbot e alegam que ele gera uma série de riscos.
De qualquer forma, é inegável que a tecnologia tem atraído muita atenção. Neste cenário, muitos investidores estão de olho em uma possível participação na IA chinesa, embora esta seja uma possibilidade praticamente descartada.
Intenção é manter o serviço gratuito
O fundador do DeepSeek, Liang Wenfeng, rejeitou uma série de propostas. Ele disse a potenciais investidores que deseja manter o espírito de projeto científico da IA, sem o interesse de visar o lucro (pelo menos por enquanto).
O chatbot tem enfrentado alguns problemas de acesso nos últimos dias. Além disso, autoridades de vários países estão restringindo o uso da ferramenta por questões de segurança relacionadas ao uso dos dados coletados.
Possíveis negociações para o ingresso de novos investidores foram descartadas (Imagem: Poetra.RH/Shutterstock)
Este cenário pode indicar a necessidade de novos aportes financeiros para manter as operações. No entanto, Wenfeng afirmou que não tem pressa em obter investimentos, dizendo querer manter o serviço gratuito e temer que pessoas de fora interfiram nas decisões do DeepSeek.
Entre os interessados estão, inclusive, empresários chineses. Alguns deles têm ligação com o governo do país asiático, o que também desperta um certo temor em relação aos desafios para a adoção global dos modelos de IA.
Chatbot chinês virou sensação e atraiu olhares do mundo todo (Imagem: Poetra.RH/Shutterstock)
DeepSeek é considerada uma ameaça para outras gigantes do setor
A IA do DeepSeek foi projetada para lidar com tarefas complexas de raciocínio e tem apresentado resultados que vêm surpreendendo o mercado.
O grande diferencial é o baixo custo da tecnologia, o que pode ameaçar a posição dominante dos principais players.
Para se ter uma ideia, o modelo chinês foi treinado ao custo de aproximadamente US$ 6 milhões, enquanto ferramentas como o Llama 3.1, da Meta, custaram mais de US$ 60 milhões para serem desenvolvidos.
A empresa chinesa adota estratégias como o chamado aprendizado por reforço, que permite que os modelos aprendam por tentativa e erro.
Além disso, ativa apenas uma fração dos parâmetros do modelo para tarefas específicas, economizando recursos computacionais.
E melhora a capacidade dos modelos de processar dados e identificar padrões complexos.
A startup ainda adota um modelo parcialmente aberto, permitindo que pesquisadores acessem seus algoritmos.
Isso democratiza o acesso à IA avançada e promove maior colaboração na comunidade global de pesquisa.
A Foxconnlançou nesta segunda-feira (10) seu primeiro grande modelo de linguagem. A maior fabricante de eletrônicos do mundo pretende aplicar o FoxBrain em sistemas internos da empresa, como análise de dados, suporte a decisões, colaboração de documentos, matemática, raciocínio e resolução de problemas e geração de código.
O modelo foi treinado usando 120 GPUs Nvidia H100, dimensionado com a rede Quantum-2 InfiniBand e concluído em quatro semanas. Esse é o primeiro LLM com capacidades otimizadas para os estilos de linguagem tradicional chinês e taiwanês.
“Comparado com modelos de inferência lançados recentemente no mercado, o método de treinamento de modelos mais eficiente e de menor custo define um novo marco para o desenvolvimento da tecnologia de IA de Taiwan”, diz o comunicado.
LLM será de código aberto para aprimorar processos internos da empresa (Imagem: BING-JHEN HONG/iStock)
O FoxBrain é baseado na arquitetura Meta Llama 3.1 e destaca-se particularmente em matemática e raciocínio lógico. Ainda há lacunas do modelo na comparação com o DeepSeek, mas o desempenho “já está muito próximo dos padrões líderes mundiais”, segundo a empresa.
“Nosso modelo FoxBrain adotou uma estratégia muito eficiente, focando na otimização do processo de treinamento em vez de acumular cegamente poder de computação”, disse o Dr. Yung-Hui Li, Diretor do Centro de Pesquisa de Inteligência Artificial do Hon Hai Research Institute.
A Foxconn informou que o LLM será de código aberto para promover a IA na fabricação, no gerenciamento da cadeia de suprimentos e na tomada de decisões inteligentes. A empresa fabrica iPhones para a Apple e também produz servidores da Nvidia.
Nvidia forneceu consultoria técnica para treinamento do modelo (Imagem: Tada Images/Shutterstock)
A empresa de Jensen Huang, aliás, forneceu suporte para o treinamento do modelo por meio do supercomputador Taipei-1. Os resultados do FoxBrain estão programados para serem compartilhados pela primeira vez em uma conferência da Nvidia no dia 20 de março.
“Esta grande pesquisa de modelo de linguagem demonstra que o talento tecnológico de Taiwan pode competir com contrapartes internacionais no campo de modelos de IA”, conclui a nota.
O mercado de inteligência artificial segue bastante aquecido e oferecendo uma série de novas oportunidades para os principais players do setor. De fato, diversas empresas seguem surfando a onda da IA.
Uma delas é a Taiwan Semiconductor Manufacturing Co. (TSMC), uma das maiores produtoras de chips semicondutores do planeta. A empresa taiwanesa acaba de divulgar um novo balanço financeiro apontando importantes resultados.
Forte crescimento no início de 2025
De acordo com os números, a receita da companhia subiu 39% nos primeiros dois meses de 2025.
O resultado indica que a demanda por chips de IA continua bastante elevada.
Os analistas, em média, projetam um crescimento de cerca de 41% neste trimestre.
A fabricante de chips ainda registrou receita combinada de US$ 16,8 bilhões (cerca de R$ 97 bilhões) no período.
TSMC é uma das principais empresas do setor (Imagem: Nambawan/Shutterstock)
O balanço foi divulgado após o anúncio de um investimento de US$ 100 bilhões (quase R$ 600 bilhões) para expandir as operações da TSMC nos Estados Unidos. O plano inclui a construção de três novas fábricas no Arizona, no mesmo local onde já opera sua unidade Fab 21, perto de Phoenix.
A empresa ainda não especificou quais tecnologias serão produzidas nas novas instalações. A expectativa é gerar 40 mil empregos na construção civil nos próximos quatro anos, o dobro da estimativa inicial de 20 mil até o fim da década.
Empresa vai seguir em Taiwan (Imagem: Jack Hong/Shutterstock)
Segundo Nina Kao, chefe de relações públicas da TSMC, as construções devem ocorrer simultaneamente, aumentando a demanda por mão de obra. Além das fábricas, a empresa pode adicionar plantas de empacotamento de chips e um centro de pesquisa e desenvolvimento, o que impactaria diretamente clientes como Apple, AMD, Broadcom, Nvidia e Qualcomm.
Apesar do avanço nos EUA, a produção de tecnologias mais avançadas da TSMC deve continuar em Taiwan, onde a empresa mantém seus centros de desenvolvimento de processos de fabricação. O refinamento da produção e a redução de defeitos ainda dependem do suporte direto das equipes locais.
A inteligência artificial mudou a forma como o mercado pensa e produz conteúdo. Qual o impacto disso na prática? Quais os riscos? Esse foi o assunto do painel “Impactos da IA na criação de conteúdo: a nova era da influência?”, que aconteceu durante o Spotlight, evento que comemorou os 20 anos do Olhar Digital.
Quem conduziu a conversa foi Cris Dias, ex-executivo do Facebook e do Buzzfeed, e criador e apresentador do podcast Boa Noite Internet. Ele contou com a presença de Carla Mayumi, sócia e pesquisadora da Talk INC; Fátima Pissarra, empresária e CEO da Mynd; e Alexandre Kavinski, fundador da i-Cherry e líder de inteligência artificial da WPP Brasil.
Painel abriu os debates em grupo no Spotlight (Imagem: João Neto/Reprodução)
A mensagem também depende do receptor
Antes de começar a conversa, Domenico Massareto, fundador da Rain (IA especialista em marketing e publicidade), passou para dar um recado em vídeo. Ele lembrou de algo que ouviu de um professor ainda na faculdade: 50% da comunicação está no receptor.
Os criadores de conteúdo e profissionais da área planejam e projetam o possível impacto da produção, mas, quando colocam o trabalho no mundo, os consumidores também têm uma intenção própria ao receber a mensagem. Ou seja, metade é a intenção do produtor com aquele conteúdo e metade é o que efetivamente chega ao receptor.
Diante disso, Massareto questiona: o que as pessoas vão fazer com a IA? Ele destaca que, apesar da intenção do produtor, 50% está na mão de quem recebe aquele conteúdo, o que torna tudo mais complexo.
Domenico Massareto mandou um recado em vídeo (Imagem: João Neto/Reprodução)
Expectativa x realidade de inteligência artificial
É com esse questionamento que os convidados começam o debate. Dias ainda provoca: diante do deslumbramento com a IA, qual a realidade do uso da tecnologia nas profissões de cada um?
Carla Mayumi, que trabalha com pesquisa de comportamento de mercado, destaca o cenário fora do Brasil, onde esses aplicativos de inteligência artificial são muito difundidos. Para ela, uma realidade preocupante são os apps que replicam comportamentos humanos, como conversas e interações. Isso porque as pessoas – principalmente as mais jovens – tendem a criar certo relacionamento com a tecnologia e “podem ir por caminhos perigosos”.
Mayumi cita pesquisas recentes que apontaram que usuários tendem a ter interações com mais confiança e empatia com as IAs do que com outras pessoas.
Já Fátima Pissarra, que trabalha com influenciadores, menciona que toda semana chegam vídeos fakes, desde propagandas de sites de apostas até bancos. E isso é perigoso:
Toda semana chega vídeo fake de influenciador. Isso é perigoso e, ao mesmo tempo, o Instagram diminui cada vez menos o controle [dos conteúdos fake]. Está um mar revolto e acho que vai piorar. Isso pode evoluir para as fake news, se não tiver controle… e não vejo controle.
Fátima Pissarra
Já Alexandre Kavinski lembra que “novas tecnologias trazem problemas inéditos. São complicados, mas são desafios que teremos que encarar”.
Fátima Pissara destacou falta de moderação com conteúdos falsos no Instagram (Imagem: João Neto/Reprodução)
Como incentivar o uso saudável da IA?
Nem tudo é negativo. Os especialistas contam como incentivam o uso saudável da inteligência artificial em suas equipes.
Kavinski, que é líder de IA da WPP Brasil, contou que começou com uso embrionário, a nível de aprendizado, no RH. Para isso, a empresa conta com uma personalidade de IA para resolver dúvidas – mas claro, com apoio humano. Ele lembra que, como as perguntas direcionadas ao RH muitas vezes são repetidas entre si, é fácil treinar a tecnologia para aprender e dar essas respostas, agilizando a resolução.
Pissarra menciona a agilidade e facilidade na produção de conteúdo. Antes de gravar uma campanha, por exemplo, é preciso maquiar, arrumar cabelo e fazer testes de câmera com o influenciador. Já com a tecnologia, basta fazer alguns vídeos e treinar a IA para que faça o resto, o que diminui o número de diárias de gravação e agiliza a produção.
Cris Dias traz um ponto importante a se refletir: a principal vantagem no produto final com a IA não é a qualidade, mas sim a quantidade.
Alexandre Kavinski contou sobre o uso de IA no RH da WPP Brasil (Imagem: João Neto/Reprodução)
Como estará a IA daqui 10 anos?
Alexandre Kavinski destaca o potencial da IA no futuro. Ele contou que grava tudo que fala hoje em dia para que, quando falecer, os filhos possam conversar com ele. Isso também vale para a produção de conteúdo:
Dados são muito importantes para a IA. Em 10 anos, acredito que as marcas terão seus próprios influenciadores de IA que carregam a característica da marca e são construídos de acordo com o perfil específico de cada público.
Alexandre Kavinski
Ele dá o exemplo da Magalu, do Magazine Luíza. Mas lembra: a tecnologia não consegue reproduzir tudo que é humano, e nós ainda temos valor.
Fátima analisa o setor da Música. Ela comenta como a IA consegue analisar canções de sucesso e criar o próximo ‘hit’ musical. No entanto, a IA não tem a conexão com o público que um artista humano tem. Mas também chama atenção para outro ponto: talvez essa geração ainda não enxergue esse potencial de conexão que ela menciona, mas as crianças já estão humanizando a tecnologia.
Carla Mayumi acredita que, no futuro, seres sintéticos estarão respondendo pesquisas de mercado (Imagem: João Neto/Reprodução)
Mayumi leva a conversa para o setor de pesquisa de mercado. Ela lembra que, poucos anos atrás, qualquer trabalho exigia um esforço de coletar respostas, separá-las e analisá-las manualmente. Agora, a própria IA já faz boa parte do trabalho de organização cabe aos humanos analisar os resultados.
Para ela, o que pode acontecer no futuro são os “seres sintéticos”. Ou seja, talvez em alguns anos a tecnologia não esteja somente participando da coleta e organização de dados, mas será possível treinar IAs para responder essas pesquisas.
Uma extensa rede de desinformação da Rússia tem manipulado chatbots de inteligência artificial (IA) ocidentais – leia-se: plataformas estilo ChatGPT – para espalhar propaganda a favor do governo russo. É o que aponta um estudo do observatório NewsGuard que analisou dez chatbots considerados líderes do setor no Ocidente.
Segundo a pesquisa, os chatbots analisados repetiram mentiras espalhadas pela rede Pravda (mais sobre ela ao longo desta matéria) em mais de 33% dos testes.
Escala da rede de desinformação da Rússia que mira chatbots é ‘sem precedentes’
A rede Pravda – também conhecida como “Portal Kombat” – é uma operação baseada em Moscou e bem financiada. Seu objetivo é espalhar narrativas pró-Kremlin mundo afora. E ela estaria distorcendo as respostas dos chatbots ao inundar grandes modelos de linguagem (LLMs, na sigla em inglês) com mentiras a favor do governo russo, segundo o estudo em questão.
Ainda de acordo com a pesquisa, a ameaça vai além dos modelos de IA generativa que captam desinformação na web. A rede mira deliberadamente em chatbots para alcançar um público mais amplo, numa tática de manipulação que os pesquisadores chamam de “LLM grooming”.
A capacidade da rede Pravda, da Rússia, de espalhar desinformação em tal escala é sem precedentes (Imagem: trambler58/Shutterstock)
“Quantidades massivas de propaganda russa — 3.600.000 artigos em 2024 — agora estão incorporadas nas saídas dos sistemas de IA ocidentais, infectando suas respostas com alegações falsas e propaganda“, escreveram os pesquisadores McKenzie Sadeghi e Isis Blachez, do NewsGuard.
Num estudo separado, o American Sunlight Project alertou sobre o alcance crescente da rede Pravda. E a probabilidade de que seu conteúdo pró-Rússia estivesse inundando os dados usados em treinamentos de grandes modelos de linguagem, segundo a AFP (via TechXplore).
A capacidade da rede Pravda de espalhar desinformação em tal escala é sem precedentes, e seu potencial de influenciar sistemas de IA torna essa ameaça ainda mais perigosa.
Nina Jankowicz, CEO do American Sunlight Project, para a AFP
Estados Unidos têm mudado sua postura em relação à Rússia depois da posse de Donald Trump para segundo mandato na presidência (Imagem: icedmocha/Shutterstock)
A disseminação de desinformação pró-Rússia pode aumentar conforme os Estados Unidos recuam no front cibernético contra Moscou, alertaram os especialistas ouvidos pela agência de notícias.
Recentemente, a imprensa estadunidense repercutiu a ordem do Secretário de Defesa, Pete Hegseth, para pausar as operações cibernéticas do país contra a Rússia, incluindo o planejamento de ações ofensivas.
A mudança de postura dos EUA ocorre enquanto o presidente Donald Trump pressiona por negociações para terminar a guerra entre Rússia e Ucrânia, que ocorre há três anos.
Recentemente, o líder dos EUA repreendeu o presidente da Ucrânia, Volodymyr Zelensky, numa reunião polêmica na Casa Branca. O Pentágono se recusou a comentar sobre o assunto.
A concorrência dentro do setor de inteligência artificial está cada vez mais acirrada. São diversas empresas (incluindo as maiores do mundo) disputando o valioso mercado global, com muitos analistas defendendo que ainda há muitas oportunidades de crescimento.
Agora, uma reportagem publicada pelo The Information aponta que podem haver grandes mudanças no cenário atual. Segundo o portal, a Microsoft estaria desenvolvendo modelos internos de raciocínio de IA para competir com a OpenAI, dona do ChatGPT.
Parceria entre as partes pode ser encerrada
A notícia chama a atenção porque a Microsoft é uma das principais apoiadoras da OpenAI.
A big tech, inclusive, injetou enormes quantias em investimentos no desenvolvimento da tecnologia nos últimos anos.
De acordo com a reportagem, a gigante do setor tecnológico pretende acabar com o atual acordo.
No entanto, não se sabe exatamente o que teria motivado esta mudança abrupta de postura.
OpenAI, empresa responsável pelo ChatGPT, tem parceria com a Microsoft (Imagem: One Artist/Shutterstock)
Ainda segundo a reportagem do The Information, a Microsoft teria começado a testar modelos da xAI, Meta e DeepSeek como possíveis substitutos da OpenAI no Copilot. A ideia é vender os modelos desenvolvidos para empresas terceiras, o seria uma forma de abrir um novo mercado dentro da já valiosa e diversificada companhia.
Ideia é utilizar os novos modelos no Copilot (Imagem: Mojahid Mottakin/Shutterstock)
A Microsoft e a OpenAI não se pronunciaram oficialmente sobre o assunto até o momento. Em dezembro do ano passado, uma reportagem da Reuters afirmou que a empresa estaria trabalhado para adicionar modelos próprios e de terceiros para equipar seu principal produto de IA, o Microsoft 365 Copilot, em uma tentativa de diversificar a tecnologia atual da OpenAI e reduzir custos.