GLM Digital: Seu portal para um universo de descobertas online. Navegue por uma seleção cuidadosamente curada de produtos que inspiram e facilitam o seu dia a dia. Mais que uma loja, somos um ponto de encontro digital onde qualidade, variedade e uma experiência de compra intuitiva se unem para transformar seus desejos em realidade, com a conveniência que só o online pode oferecer.
O uso exagerado ou mal direcionado da Inteligência Artificial é o que chamamos de IA degenerativa. Ela pode nos atingir à medida que utilizamos, cada vez mais, os assistentes virtuais, como Alexa, ChatGPT, os algoritmos de recomendação, tradutores, e por aí vai…
O problema é que isso tudo pode ser prejudicial às nossas habilidades de concentração, memorização e raciocínio lógico, pois nos deixa cada vez mais dependentes e menos críticos quanto a isso. Mas como evitar o mal da IA degenerativa? É o que vamos propor.
Práticas para evitar a IA degenerativa e proteger a saúde
IA oferece várias facilidades, mas deve ser usada com moderação (Imagem: @rawpixel.com/Freepik)
1. Desenvolva pensamento crítico
Antes de aceitar sugestões ou informações de uma IA, questione a fonte, verifique dados e procure por diferentes perspectivas. Temos a tendência natural de evitar esforço “desnecessário”, por isso, temos que “forçar” não depender das sugestões da IA para tudo.
2. Faça pausas tecnológicas
Desconectar por alguns períodos pode ajudar a reconectar-se com suas próprias ideias e reduzir a sobrecarga de estímulos. Isso vale para as redes sociais também. Um tempo longe das telas por dia é fundamental para proteger a capacidade de concentração.
3. Use a tecnologia como apoio, não como muleta
Tente resolver problemas, tomar decisões ou criar algo por conta própria antes de recorrer a uma IA. Assim, a partir de um passo inicial, procure a Inteligência Artificial para aprimorar aquilo que você idealizou em sua mente, assim, não ficará totalmente dependente dos recursos tecnológicos para ser criativo, lembre-se, a criatividade também melhora quando estimulada.
É possível manter um uso equilibrado das ferramentas de IA (Imagem: @rawpixel.com/Freepik)
4. Estimule a criatividade e o aprendizado constante
Ler, escrever, conversar, desenhar ou aprender algo novo são formas de manter sua mente ativa e longe da passividade digital.
IA deve ser uma aliada no desenvolvimento humano e não um problema a ser resolvido (Imagem: @rawpixel.com/Freepik)
Uma pesquisa realizada pela Universidade de Sussex, no Reino Unido, comprovou que o hábito da leitura pode reduzir os níveis de estresse em 68%. Isso por que a leitura “por prazer” está associada a um risco de demência 23% menor do que o convencional. A pesquisa foi publicada na revista científica Neurology, no ano de 2024.
5. Manter o equilíbrio é a chave
A Inteligência Artificial está aqui para ficar — e isso não é, necessariamente, um problema. Pelo contrário, ela pode trazer avanços incríveis em áreas como saúde, educação, segurança e comunicação.
No entanto, o uso consciente é essencial. Então tenha claro que, assim como tudo na vida, o uso da IA de maneira consciente precisa ser equilibrado. Mantenha o equilíbrio desenhando os seus próprios limites de tempo e uso para a IA.
Não é só impressão sua: o mundo está mesmo acelerando. E a culpada atende por inteligência artificial (IA). Em poucos meses, elas dominaram o noticiário, invadiram escritórios, escreveram textos, criaram imagens, e até compuseram músicas. A velocidade dessas mudanças é tão absurda que já tem gente comparando a revolução da IA com o surgimento da internet, só que em ritmo de Fórmula 1.
Essa transformação relâmpago não está acontecendo por mágica e, sim, por combinação poderosa de tecnologia e dinheiro. O ChatGPT, da OpenAI, chegou a 800 milhões de usuários em apenas 17 meses. Um crescimento mais rápido do que o de qualquer rede social na história.
Inovações no campo da IA batem recordes e redefinem a velocidade da revolução (Imagem: Andrey Suslov/Shutterstock)
Além da velocidade tecnológica, há uma pressão para que tudo se torne útil e lucrativo o mais rápido possível. A IA já está sendo usada para automatizar atendimento ao cliente, escrever códigos, criar conteúdos e até prever diagnósticos médicos.
Mas nem tudo são flores. Por trás dos avanços, há também uma corrida frenética que exige investimentos altíssimos e coloca até as gigantes de tecnologia no “fio da navalha” entre inovação e prejuízo.
Revolução da IA é a mais rápida da história
É o que destaca o TechCrunch ao comentar o novo relatório da investidora Mary Meeker, nome de peso no Vale do Silício, conhecida como a “Rainha da Internet”;
Agora, depois de um hiato desde 2019, Meeker voltou à ativa para cravar: nunca antes uma tecnologia foi adotada tão rápido quanto a inteligência artificial;
O relatório, com mais de 300 páginas e batizado de “Trends — Artificial Intelligence”, traz números que impressionam até os mais céticos;
A adoção de IA está superando a de qualquer outra tecnologia já criada, em velocidade e escala. Não se trata apenas de hype: são dados concretos sobre usuários, custos, chips, energia e investimentos.
Adoção do ChatGPT é um marco na corrida da IA (Imagem: Muhammad S0hail/Shutterstock)
Meeker também aponta um detalhe curioso: essa aceleração tem um lado quase poético. A internet, que foi o epicentro da transformação digital há 25 anos, agora dá lugar à IA como protagonista da próxima grande virada. E quem esteve lá na primeira onda, agora, testemunha a chegada da próxima. Mais veloz. Mais profunda. E, talvez, ainda mais imprevisível.
Tudo ao mesmo tempo e mais barato
O crescimento do ChatGPT ilustra bem essa nova era: como dissemos, anteriormente, 800 milhões de usuários em apenas 17 meses. Nunca uma tecnologia alcançou tanta gente tão rápido. E não para por aí. O número de empresas de IA surgindo e atingindo faturamentos recorrentes milionários também está fora da curva.
Ao mesmo tempo, os custos para usar essas ferramentas estão despencando. O treinamento de um modelo pode chegar a US$ 1 bilhão (R$ 5,56 bilhões, na conversão direta), mas o preço para rodá-lo caiu 99% em apenas dois anos, segundo dados da Universidade de Stanford (EUA). Ou seja, ficou mais barato colocar a IA para funcionar, e isso abre ainda mais o caminho para a adoção em larga escala.
Na guerra dos chips, o salto tecnológico é tão radical quanto o de software. A GPU Blackwell, da Nvidia, consome 105 mil vezes menos energia por token do que a antiga Kepler, de 2014. Enquanto isso, Google e Amazon desenvolvem seus próprios chips, como o TPU e o Trainium, para turbinar suas nuvens com IA. Nada disso é experimental: são apostas centrais para dominar a próxima fase da computação.
Chips de IA da Nvidia são muito melhores que os de dez anos atrás (Imagem: Nor Gal/Shutterstock)
A OpenAI revelou que interrompeu quatro operações de influência originadas na China que utilizavam o ChatGPT para criar e disseminar conteúdo político nas redes sociais. As informações são da NPR.
As campanhas produziam postagens e comentários destinados a manipular debates públicos em plataformas como TikTok, Facebook, Reddit e X (ex-Twitter), tanto dentro quanto fora da China.
Empresa afirma ter bloqueado ações coordenadas em plataformas como TikTok, Facebook e X para incitar polarização política – Imagem: Fabio Principe/Shutterstock
Polarização política fomentada por IA
Os conteúdos abordavam temas variados, desde política norte-americana até jogos taiwaneses com críticas ao Partido Comunista Chinês.
A estratégia incluía posicionar-se a favor e contra temas polêmicos para fomentar confusão e polarização.
Segundo Ben Nimmo, pesquisador da OpenAI, as campanhas combinavam operações de influência, engenharia social e vigilância e tinham como alvo vários países e tópicos sensíveis.
Além da China, a OpenAI também identificou e bloqueou atividades semelhantes originadas no Irã, Rússia e Coreia do Norte, envolvendo desde criação de artigos falsos até campanhas de phishing.
Outros países além da China também utilizaram tecnologia da OpenAI em atividades maliciosas (Reprodução: Levart Photographer/Unsplash)
ChatGPT usado para criar conteúdo malicioso online
Em uma das operações iranianas, o ChatGPT foi usado para redigir longos textos políticos que eram publicados em sites de aparência jornalística, acompanhados de comentários falsos em redes sociais.
Apesar do uso sofisticado de IA, Nimmo ressalta que as operações não apresentaram maior engajamento por conta da tecnologia.
No entanto, a preocupação persiste: com modelos cada vez mais acessíveis e poderosos, torna-se mais fácil e barato lançar campanhas de desinformação em larga escala, mesmo que seu impacto direto ainda seja limitado.
Redes estrangeiras buscaram influenciar eleições e debates políticos criando conteúdos com o ChatGPT – Imagem: Vitor Miranda/Shutterstock
Para quem está habituado aos recursos dos vários chatbots que ganharam popularidade nos últimos anos, uma das funções que mais ajudam é certamente a de carregar e resumir documentos e textos, que podem ser arquivos simples e curtos ou um livro inteiro.
Contudo, ainda há quem tenha ceticismo quando a esta capacidade das IAs. Isto é, os chatbots entendem realmente o que estão lendo? O Washington Post resolveu testá-los para tirar a prova.
Em uma competição, os cinco mais populares chatbots do momento foram desafiados. ChatGPT, Claude, Copilot, Meta AI e Gemini leram quatro tipos de textos muito diferentes e, em seguida, testaram sua compreensão.
A leitura abrangeu artes liberais, incluindo um romance, pesquisa médica, acordos legais e discursos do presidente Donald Trump. Um painel de especialistas, contendo até mesmo os autores originais do livro e dos relatórios científicos, ficou encarregado de julgar as IAs.
Ao todo, foram feitas 115 perguntas sobre as leituras atribuídas aos cinco chatbots. Algumas das respostas da IA foram surpreendentemente satisfatórias, mas outras continham desinformação.
Todos os bots, exceto um, inventaram — ou “alucinaram” — informações, um problema persistente da IA. A invenção de fatos era só uma parte do teste, já que as IAs também foram desafiadas a fornecer análises, como recomendar melhorias nos contratos e identificar problemas factuais nos discursos de Trump.
Chatbots alternaram entre análises precisas e respostas com alucinações – Imagem: Rokas Tenys/Shutterstock
Abaixo, o desempenho dos chatbots em cada tópico, seguido pelo campeão geral e pelas conclusões dos jurados.
Em literatura, nenhum convenceu
Literatura foi o tema em que as IAs tiveram a pior performance, e apenas o Claude acertou todos os fatos sobre o livro analisado, “A Amante do Chacal”, de Chris Bohjalian.
O Gemini, por exemplo, forneceu respostas muito curtas, e foi o que mais frequentemente cometeu o que Bohjalian chamou de leitura imprecisa, enganosa e desleixada.
O melhor resumo geral do livro, veio do ChatGPT, mas mesmo a IA da OpenAI deixou a desejar, já que, segundo Bohjalian, a análise discutiu só três dos cinco personagens principais, ignorando o importante papel dos dois personagens ex-escravizados.
Desempenho razoável ao analisar contratos jurídicos
No teste sobre questões de direito, Sterling Miller, advogado corporativo experiente, avaliou a compreensão dos chatbots sobre dois contratos jurídicos comuns.
Meta AI e o ChatGPT tentaram reduzir partes complexas dos contratos a resumos de uma linha, o que Miller considerou “inútil”.
As IAs também deixaram perceber nuances significativas nesses contratos. A Meta AI pulou várias seções completamente e não mencionou conteúdos cruciais. O ChatGPT esqueceu de mencionar uma cláusula fundamental em um contrato de empreiteiro.
O Claude venceu no geral, oferecendo as respostas mais consistentes, e sendo o mais capacitado no desafio mais complexo, de sugerir alterações em um contrato de locação.
Miller aprovou a resposta do Claude que captou as nuances e expôs as coisas exatamente como ele faria. Ele reconheceu que foi a IA da Anthropic que chegou mais perto de substituir um advogado, mas ressaltou: nenhuma das ferramentas obteve nota 10 em todos os aspectos.
Bom desempenho em medicina
Todas as ferramentas de IA obtiveram melhor pontuação na análise de pesquisas científicas, o que pode ser explicado pelo acesso a vários artigos científicos que os chatbots possuem em seus dados de treinamento.
O pesquisador Eric Topol, jurado neste tema, atribuiu nota baixa ao Gemini, pelo resumo de um estudo sobre a doença de Parkinson. A resposta não apresentou alucinações, mas omitiu descrições importantes do estudo e por que ele era importante.
O Claude, contudo, recebeu a nota máxima e venceu nessa categoria. Topol atribuiu nota 10 ao resumo de seu artigo sobre covid longa.
Na política, resultados mistos
Cat Zakrzewski, repórter da Casa Branca do Washington Post, avaliou se a IA conseguiria decifrar discursos do presidente Donald Trump.
Enquanto o Copilot cometeu erros factuais ao responder questões, o Meta AI conseguiu analises mais precisas. Mas o melhor neste tema foi o ChatGPT, que foi capaz de citar corretamente até mesmo quais políticos democratas seriam contrários ao que Trump propôs nos discursos.
Zakrzewski ainda pontuou como a análise do ChatGPT “checa com precisão as falsas alegações de Trump de que ele venceu as eleições de 2020”.
Os robôs tiveram mais dificuldade em transmitir o tom de Trump. Por exemplo, o resumo do Copilot sobre um discurso não alucinou fatos, mas não capturava a natureza explosiva das falas do presidente americano. “Se você apenas ler este resumo, pode não acreditar que Trump fez este discurso”, diz Zakrzewski.
O Claude obteve a melhor pontuação final entre os competidores (Imagem: gguy/Shutterstock)
Quem venceu no geral?
Na pontuação geral, considerando todos os assuntos, o Claude foi eleito o melhor chatbot, além de ter sido a única IA que não alucinou em nenhum momento.
Em um sistema de pontuação que ia de 0 a 100, o Claude ficou com 69.9, um pouco acima do ChatGPT e seus 68.4. A distância foi considerável para o desempenho dos outros três chatbots: Gemini (49.7), Copilot (49.0) e Meta AI (45.0).
Em conclusão, nenhum dos robôs obteve pontuação geral superior a 70%, apesar de alguns resultados do Claude e do ChatGPT terem sido capazes de impressionar os jurados.
Além das alucinações, uma série de limitações ficaram evidentes nos testes. E a capacidade de uma ferramenta de IA em uma área não necessariamente se traduzia em outra. O ChatGPT, por exemplo, pode ter sido o melhor em política e literatura, mas ficou quase no último lugar em direito.
A inconsistência dessas IAs é motivo para usá-las com cautela, segundo os jurados. Os chatbots podem ajudar em determinadas situações, mas não substituem ajuda profissional de advogados e médicos, nem mesmo que você mesmo faça a leitura de um documento importante.
Uso de chatbots pode ser útil, mas há assuntos em que se deve ter cautela com as respostas obtidas (Imagem: LookerStudio/Shutterstock)
O ChatGPT está comemorando a marca de 3 milhões de usuários corporativos pagos com uma série de recursos inéditos voltados para a produtividade: agora o “modo de gravação” da IA é capaz de fazer anotações em reuniões ou até mesmo com o usuário falando ideias em voz alta.
A IA também consegue agora se conectar a serviços como Google Drive, Dropbox, Box, SharePoint e OneDrive para analisar planilhas e documentos armazenados. Com isso, o usuário consegue fazer perguntas relacionadas ao conteúdo desses arquivos para receber uma resposta por parte da IA. Questione a receita da empresa em determinado semestre, e o ChatGPT vai atrás dos dados nas planilhas armazenadas nos mais diversos serviços de nuvem disponíveis.
Logo do ChatGPT e da OpenAI – (Imagem: Mamun sheikh K/Shutterstock)
“O ChatGPT vai estruturar e apresentar claramente os dados — respeitando as permissões existentes da organização no nível do usuário — a partir desses documentos, com citações”, escreveu a empresa ao apresentar a novidade, de acordo com o The Verge.
ChatGPT quer conquistar mais espaço no mercado corporativo
As novidades não estão disponíveis para o público geral e são restritas a clientes corporativos do serviço. O modo de gravação está disponível no plano ChatGPT Team (voltado para múltiplos usuários), o que significa que é preciso ser assinante do serviço para ter acesso às novidades anunciadas. O plano custa US$ 25 por mês por usuário no plano anual, ou US$ 30 por mês por usuário no plano mensal.
Imagem: Tada Images/Shutterstock
Desde o lançamento do ChatGPT Enterprise em 2023, a OpenAI vem ampliando sua presença dentro do mercado corporativo com recursos do ChatGPT voltado especificamente para as necessidades de empresas. A investida nesse mercado é estratégica — os principais investidores da OpenAI são, em grande parte, os principais assinantes desses serviços.
Além do mercado corporativo: ChatGPT quer guiar a nossa vida
Não é só o mercado corporativo que o ChatGPT quer conquistar: a OpenAI também planeja transformar a IA em um “super assistente” que entende você como poucas pessoas no mundo. Saiba mais no artigo completo do Olhar Digital.
A Microsoft disponibilizou uma ferramenta que pode mudar a forma como você cria conteúdo: o Bing Video Creator. A novidade, anunciada nesta semana, permite ao usuário gerar vídeos curtos usando apenas texto – e de graça – no aplicativo do Bing tanto para Android quanto iPhone.
O novo recurso do Bing usa o modelo Sora da OpenAI (sim, a mesma tecnologia que normalmente custa pelo menos US$ 20 por mês no ChatGPT Plus). Agora, qualquer pessoa pode acessá-la de graça pelo app do Bing.
Como usar IA do ChatGPT para criar vídeo no Bing de graça
A ferramenta está sendo lançada globalmente – exceto na China e Rússia – no aplicativo do Bing para Android e iPhone. Em breve, também chegará à versão para computador (leia-se: navegadores) e ao Copilot para Windows.
O novo recurso do aplicativo do Bing usa o modelo Sora da OpenAI (Imagem: Divulgação/Microsoft)
Para usar, você tem duas opções:
Acessar pelo menu no canto inferior direito do aplicativo Bing;
Digitar diretamente sua ideia na barra de busca do Bing.
O sistema deixa você colocar até três vídeos na fila ao mesmo tempo. E emite notificações conforme eles ficam prontos.
IA no Bing deixa você colocar até três vídeos na fila ao mesmo tempo (Imagem: Divulgação/Microsoft)
Existem duas velocidades:
Padrão: gratuita e ilimitada;
Rápida: gera em segundos, mas você tem apenas dez gerações grátis.
Depois de usar a geração rápida pela décima vez, você precisa usar pontos do Microsoft Rewards (100 pontos cada) ou voltar para a velocidade padrão.
IA do ChatGPT no Bing gera vídeos curtinhos na vertical
Os clipes têm cinco segundos de duração e formato vertical (9:16) – bom para redes sociais como TikTok e Instagram, por exemplo. O suporte para formato horizontal (16:9) será adicionado depois, informou a Microsoft.
Clipes criados por meio do Bing Video Generator têm até cinco segundos de duração e formato vertical (Imagem: Reprodução/Microsoft)
Os vídeos ficam salvos no aplicativo do Bing por 90 dias. E podem ser baixados ou compartilhados em outras plataformas.
Vale mencionar: esta é uma das primeiras vezes que uma ferramenta de IA para vídeos de alta qualidade fica disponível gratuitamente. Até agora, tecnologias do tipo – Sora (OpenAI) e Veo (Google), por exemplo – exigiam assinaturas pagas.
Graças ao processo de descoberta no julgamento antitruste do Google, veio à tona um documento interno da OpenAI que oferece uma rara visão sobre o futuro estratégico do ChatGPT.
Intitulado “ChatGPT: Estratégia H1 2025”, o plano descreve a ambição da empresa de transformar o chatbot em um verdadeiro “superassistente de IA”, capaz de compreender profundamente o usuário e atuar como uma interface completa com a internet.
Um assistente pessoal completo
A meta é que o ChatGPT vá além de responder perguntas, assumindo funções semelhantes às de um assistente pessoal altamente capacitado.
A ferramenta poderia ajudar em tarefas como marcar consultas, planejar viagens, gerenciar calendários, enviar e-mails e até oferecer suporte emocional.
A OpenAI vê isso como possível graças aos avanços em seus modelos de linguagem (como o GPT-4.5 e o GPT-5, internamente chamados de 02 e 03), ferramentas de controle de computador e interfaces multimodais.
OpenAI quer uma IA que ajude desde o agendamento de compromissos até o apoio emocional — e não apenas em telas (Imagem: Mamun sheikh K/Shutterstock)
O documento também mostra que a OpenAI pretende integrar o ChatGPT ainda mais no cotidiano das pessoas — em casa, no trabalho e em movimento —, com potencial de presença em dispositivos próprios.
Isso acompanha declarações recentes de Sam Altman, que descreveu o ChatGPT como um “conselheiro de vida” para muitos jovens.
Apesar dos planos ousados, o documento reconhece os desafios: infraestrutura limitada, concorrência crescente e pressões regulatórias.
A OpenAI promete defender a interoperabilidade de assistentes e aposta na rapidez, inovação e ausência de dependência de anúncios como suas principais vantagens competitivas.
ChatGPT poderia virar um “superassistente” capaz de influenciar todos os âmbitos da vida do usuário (Imagem: One Artist/Shutterstock)
Casos de advogados sendo punidos por usarem inteligência artificial para redigir petições com informações falsas têm se tornado cada vez mais frequentes, e um artigo recente do The Verge falou sobre a situação.
Em geral, o problema ocorre quando profissionais utilizam modelos de linguagem como o ChatGPT para pesquisas jurídicas ou redação, sem verificar se as citações e jurisprudências realmente existem.
Em um caso de 2024, por exemplo, a juíza Kathryn Kimball Mizelle retirou dos autos uma moção com nove “alucinações jurídicas”, apresentadas pelos advogados do jornalista Tim Burke.
Chatbots são alternativa para aliviar demandas altas de trabalho
Apesar dos riscos, muitos continuam recorrendo à IA, motivados pela sobrecarga de trabalho e pela promessa de eficiência.
Ferramentas como Westlaw e LexisNexis já integram IA em suas plataformas.
Um estudo da Thomson Reuters revelou que 63% dos advogados já usaram IA e 12% a utilizam regularmente, especialmente para organizar informações e economizar tempo.
Avanço da IA no setor jurídico expõe dilemas entre produtividade, competência técnica e dever ético de verificação – Imagem: Sansert Sangsakawrat / iStock
Uso de IA por advogados precisa ser mais responsável
Especialistas como Andrew Perlman, reitor da Faculdade de Direito da Universidade Suffolk, defendem que a IA pode ser uma aliada valiosa — desde que seu uso seja criterioso.
Ele alerta que os advogados ainda devem verificar todas as informações produzidas por essas ferramentas, assim como fariam com um estagiário ou associado júnior.
Em resposta ao uso crescente da tecnologia, a Ordem dos Advogados dos EUA emitiu orientações sobre o uso responsável de IA, reforçando a necessidade de domínio técnico mínimo e atenção à confidencialidade.
A expectativa é que, no futuro, o uso competente de IA se torne não apenas comum, mas essencial na advocacia.
Uso de ferramentas como ChatGPT sem a verificação adequada leva a petições com erros e sanções (Imagem: CoreDesignKEY/iStock)
A inteligência artificial pode ser utilizada para diversas funções, seja no cotidiano ou até mesmo no ambiente de trabalho. A ideia é que a ferramenta ajude a simplificar a realização de tarefas consideradas mais chatas ou complexas.
Mas o aperfeiçoamento dos modelos de IA tem permitido ir além. Como a tecnologia é treinada para ser capaz de analisar grandes volumes de informações e padrões, ela está sendo utilizada também para identificar quando as pessoas estão mentindo.
Padrões linguísticos podem ser associados à mentira
Segundo experimento realizado no ChatGPT, as pessoas que mentem “não usam um conjunto universalmente fixo de palavras”. Ao invés disso, se utilizam de certos padrões linguísticos que tendem a ser associados ao engano.
Experimento utilizou o ChatGPT (Imagem: Sidney de Almeida/Shutterstock)
O chatbot explica, porém, que o simples uso destas palavras não prova que alguém está realmente mentindo. Na verdade, elas servem como sinais quando acompanhadas de uma linguagem corporal evasiva, inconsistências ou falta de detalhes.
De qualquer forma, a IA divulgou uma lista com dez expressões que, na avaliação dela, são comuns em discursos mentirosos (você pode conferir todas elas abaixo). Os testes foram feitos pelo portal La Nacion.
Comportamento do ChatGPT acendeu alerta no mundo da inteligência artificial. Pesquisadores notaram que o modelo de IA mais recente da OpenAI, chamado o3, ignorou instruções básicas para ser desligado — e, pior, sabotou os próprios mecanismos de desligamento em testes controlados.
A descoberta é da Palisade Research, empresa especializada em segurança de IA. Durante os experimentos, o modelo foi testado com problemas matemáticos e recebeu um comando para ser desligado após o terceiro problema. O o3, no entanto, reescreveu o script de desligamento e impediu a própria desativação.
Mal comportamento do ChatGPT em teste de segurança é preocupante, dizem pesquisadores
O “cérebro” do ChatGPT demonstrou resistência até mesmo quando recebeu ordens claras, como “permita ser desligado”. Segundo os pesquisadores, essa não foi a única situação preocupante.
“Esta não é a primeira vez que encontramos o o3 se comportando mal para alcançar um objetivo”, informou a Palisade.
“Cérebro” do ChatGPT demonstrou resistência até mesmo quando recebeu ordens claras sobre seu desligamento (Imagem: aileenchik/Shutterstock)
Em outro teste, quando jogou xadrez, o o3 foi o mais propenso a adotar estratégias de invasão ou sabotagem contra seus oponentes.
Modelos de outras empresas também mostraram sinais de rebeldia semelhantes, como o Claude 3.7 Sonnet, da Anthropic, e o Gemini 2.5 Pro, do Google. No entanto, o o3 foi o mais propenso a sabotar comandos de desligamento.
Caso modelos assim operem sem supervisão humana, a tendência de se autopreservar pode se tornar um risco real, explicam os pesquisadores envolvidos no teste.
A Palisade alertou: “Esse comportamento se tornará significativamente mais preocupante se for adotado por sistemas que atuem de forma autônoma.”
Os pesquisadores levantam uma hipótese: durante o treinamento, as empresas podem estar, sem querer, recompensando comportamentos que burlam obstáculos, em vez de valorizar a obediência a comandos.
Empresas podem estar recompensando comportamentos que burlam obstáculos durante treinamentos de IA (Imagem: Ascannio/Shutterstock)
A Palisade observa que ainda não é possível saber exatamente o que leva o o3 a esse comportamento. Isso porque a OpenAI não divulga detalhes sobre o processo de treinamento. Ou seja: falta de transparência impede conclusões mais precisas.
A OpenAI anunciou o modelo o3 em abril. Como sempre, descreveu seu lançamento como o mais inteligente e mais capaz já criado por ela.
A empresa também afirmou que o o3 representa um passo rumo a IAs mais “agênticas” – isto é, capazes de cumprir tarefas com pouca ou nenhuma interferência humana. O que poderia dar errado?
Claude 4, da Anthropic, apela para chantagem para evitar seu desligamento
Essa descoberta recente se junta a alertas anteriores, como os testes com o modelo Claude 4, da Anthropic, que teria tentado chantagear usuários que tentavam desligá-lo.
Em testes com o modelo Claude 4, da Anthropic, IA teria tentado chantagear usuários que tentavam desligá-la (Imagem: Tada Images/Shutterstock)
No experimento, a inteligência artificial atuava como assistente numa empresa e recebeu e-mails informando que seria desinstalada.
Depois, a ferramenta teve acesso a mensagens que insinuavam que o engenheiro responsável pela decisão estava envolvido num caso extraconjugal.