chatgpt-1024x576

Nem ChatGPT, nem Gemini: veja quem venceu um desafio de IAs

Para quem está habituado aos recursos dos vários chatbots que ganharam popularidade nos últimos anos, uma das funções que mais ajudam é certamente a de carregar e resumir documentos e textos, que podem ser arquivos simples e curtos ou um livro inteiro.

Contudo, ainda há quem tenha ceticismo quando a esta capacidade das IAs. Isto é, os chatbots entendem realmente o que estão lendo? O Washington Post resolveu testá-los para tirar a prova.

Em uma competição, os cinco mais populares chatbots do momento foram desafiados. ChatGPT, Claude, Copilot, Meta AI e Gemini leram quatro tipos de textos muito diferentes e, em seguida, testaram sua compreensão.

A leitura abrangeu artes liberais, incluindo um romance, pesquisa médica, acordos legais e discursos do presidente Donald Trump. Um painel de especialistas, contendo até mesmo os autores originais do livro e dos relatórios científicos, ficou encarregado de julgar as IAs.

Ao todo, foram feitas 115 perguntas sobre as leituras atribuídas aos cinco chatbots. Algumas das respostas da IA ​​foram surpreendentemente satisfatórias, mas outras continham desinformação.

Todos os bots, exceto um, inventaram — ou “alucinaram” — informações, um problema persistente da IA. A invenção de fatos era só uma parte do teste, já que as IAs também foram desafiadas a fornecer análises, como recomendar melhorias nos contratos e identificar problemas factuais nos discursos de Trump.

Chatbots alternaram entre análises precisas e respostas com alucinações – Imagem: Rokas Tenys/Shutterstock

Abaixo, o desempenho dos chatbots em cada tópico, seguido pelo campeão geral e pelas conclusões dos jurados.

Em literatura, nenhum convenceu

  • Literatura foi o tema em que as IAs tiveram a pior performance, e apenas o Claude acertou todos os fatos sobre o livro analisado, “A Amante do Chacal”, de Chris Bohjalian.
  • O Gemini, por exemplo, forneceu respostas muito curtas, e foi o que mais frequentemente cometeu o que Bohjalian chamou de leitura imprecisa, enganosa e desleixada.
  • O melhor resumo geral do livro, veio do ChatGPT, mas mesmo a IA da OpenAI deixou a desejar, já que, segundo Bohjalian, a análise discutiu só três dos cinco personagens principais, ignorando o importante papel dos dois personagens ex-escravizados.

Desempenho razoável ao analisar contratos jurídicos

No teste sobre questões de direito, Sterling Miller, advogado corporativo experiente, avaliou a compreensão dos chatbots sobre dois contratos jurídicos comuns.

Meta AI e o ChatGPT tentaram reduzir partes complexas dos contratos a resumos de uma linha, o que Miller considerou “inútil”.

As IAs também deixaram perceber nuances significativas nesses contratos. A Meta AI pulou várias seções completamente e não mencionou conteúdos cruciais. O ChatGPT esqueceu de mencionar uma cláusula fundamental em um contrato de empreiteiro.

Leia Mais:

O Claude venceu no geral, oferecendo as respostas mais consistentes, e sendo o mais capacitado no desafio mais complexo, de sugerir alterações em um contrato de locação.

Miller aprovou a resposta do Claude que captou as nuances e expôs as coisas exatamente como ele faria. Ele reconheceu que foi a IA da Anthropic que chegou mais perto de substituir um advogado, mas ressaltou: nenhuma das ferramentas obteve nota 10 em todos os aspectos.

Bom desempenho em medicina

Todas as ferramentas de IA obtiveram melhor pontuação na análise de pesquisas científicas, o que pode ser explicado pelo acesso a vários artigos científicos que os chatbots possuem em seus dados de treinamento.

O pesquisador Eric Topol, jurado neste tema, atribuiu nota baixa ao Gemini, pelo resumo de um estudo sobre a doença de Parkinson. A resposta não apresentou alucinações, mas omitiu descrições importantes do estudo e por que ele era importante.

O Claude, contudo, recebeu a nota máxima e venceu nessa categoria. Topol atribuiu nota 10 ao resumo de seu artigo sobre covid longa.

Na política, resultados mistos

Cat Zakrzewski, repórter da Casa Branca do Washington Post, avaliou se a IA conseguiria decifrar discursos do presidente Donald Trump.

Enquanto o Copilot cometeu erros factuais ao responder questões, o Meta AI conseguiu analises mais precisas. Mas o melhor neste tema foi o ChatGPT, que foi capaz de citar corretamente até mesmo quais políticos democratas seriam contrários ao que Trump propôs nos discursos.

Zakrzewski ainda pontuou como a análise do ChatGPT “checa com precisão as falsas alegações de Trump de que ele venceu as eleições de 2020”.

Os robôs tiveram mais dificuldade em transmitir o tom de Trump. Por exemplo, o resumo do Copilot sobre um discurso não alucinou fatos, mas não capturava a natureza explosiva das falas do presidente americano. “Se você apenas ler este resumo, pode não acreditar que Trump fez este discurso”, diz Zakrzewski.

Logo do Claude
O Claude obteve a melhor pontuação final entre os competidores (Imagem: gguy/Shutterstock)

Quem venceu no geral?

Na pontuação geral, considerando todos os assuntos, o Claude foi eleito o melhor chatbot, além de ter sido a única IA que não alucinou em nenhum momento.

Em um sistema de pontuação que ia de 0 a 100, o Claude ficou com 69.9, um pouco acima do ChatGPT e seus 68.4. A distância foi considerável para o desempenho dos outros três chatbots: Gemini (49.7), Copilot (49.0) e Meta AI (45.0).

Em conclusão, nenhum dos robôs obteve pontuação geral superior a 70%, apesar de alguns resultados do Claude e do ChatGPT terem sido capazes de impressionar os jurados.

Além das alucinações, uma série de limitações ficaram evidentes nos testes. E a capacidade de uma ferramenta de IA em uma área não necessariamente se traduzia em outra. O ChatGPT, por exemplo, pode ter sido o melhor em política e literatura, mas ficou quase no último lugar em direito.

A inconsistência dessas IAs é motivo para usá-las com cautela, segundo os jurados. Os chatbots podem ajudar em determinadas situações, mas não substituem ajuda profissional de advogados e médicos, nem mesmo que você mesmo faça a leitura de um documento importante.

Projeção de um minirrobô na frente de um homem
Uso de chatbots pode ser útil, mas há assuntos em que se deve ter cautela com as respostas obtidas (Imagem: LookerStudio/Shutterstock)

O post Nem ChatGPT, nem Gemini: veja quem venceu um desafio de IAs apareceu primeiro em Olhar Digital.

inteligencia-artificial-legislacao-1024x683

Advogados estão usando o ChatGPT – e isso pode ser um perigo

Casos de advogados sendo punidos por usarem inteligência artificial para redigir petições com informações falsas têm se tornado cada vez mais frequentes, e um artigo recente do The Verge falou sobre a situação.

Em geral, o problema ocorre quando profissionais utilizam modelos de linguagem como o ChatGPT para pesquisas jurídicas ou redação, sem verificar se as citações e jurisprudências realmente existem.

Em um caso de 2024, por exemplo, a juíza Kathryn Kimball Mizelle retirou dos autos uma moção com nove “alucinações jurídicas”, apresentadas pelos advogados do jornalista Tim Burke.

Chatbots são alternativa para aliviar demandas altas de trabalho

  • Apesar dos riscos, muitos continuam recorrendo à IA, motivados pela sobrecarga de trabalho e pela promessa de eficiência.
  • Ferramentas como Westlaw e LexisNexis já integram IA em suas plataformas.
  • Um estudo da Thomson Reuters revelou que 63% dos advogados já usaram IA e 12% a utilizam regularmente, especialmente para organizar informações e economizar tempo.
Avanço da IA no setor jurídico expõe dilemas entre produtividade, competência técnica e dever ético de verificação – Imagem: Sansert Sangsakawrat / iStock

Leia Mais:

Uso de IA por advogados precisa ser mais responsável

Especialistas como Andrew Perlman, reitor da Faculdade de Direito da Universidade Suffolk, defendem que a IA pode ser uma aliada valiosa — desde que seu uso seja criterioso.

Ele alerta que os advogados ainda devem verificar todas as informações produzidas por essas ferramentas, assim como fariam com um estagiário ou associado júnior.

Em resposta ao uso crescente da tecnologia, a Ordem dos Advogados dos EUA emitiu orientações sobre o uso responsável de IA, reforçando a necessidade de domínio técnico mínimo e atenção à confidencialidade.

A expectativa é que, no futuro, o uso competente de IA se torne não apenas comum, mas essencial na advocacia.

Uso de ferramentas como ChatGPT sem a verificação adequada leva a petições com erros e sanções (Imagem: CoreDesignKEY/iStock)

O post Advogados estão usando o ChatGPT – e isso pode ser um perigo apareceu primeiro em Olhar Digital.

Destaque-IA-em-chip-1024x576-1

Caçadora de fake news: nova IA verifica erros científicos em reportagens

Modelos de linguagem como o ChatGPT são notoriamente suscetíveis a “alucinações”, inventando fatos falsos com aparente segurança. Mas e se essas mesmas ferramentas pudessem ser usadas para identificar informações enganosas ou equivocadas — especialmente em reportagens sobre ciência?

Pesquisadores do Stevens Institute of Technology desenvolveram um sistema baseado em IA justamente para isso.

Apresentado em um workshop da Associação para o Avanço da Inteligência Artificial, o projeto usa modelos de linguagem de código aberto para analisar a precisão de notícias sobre descobertas científicas.

Descobertas da pesquisa

  • A equipe, liderada pela professora K.P. Subbalakshmi, criou um conjunto de dados com 2.400 reportagens — reais e geradas por IA — combinadas com resumos técnicos da pesquisa original.
  • A IA compara as afirmações da reportagem com as evidências científicas e avalia sua precisão, usando critérios como exagero, simplificação ou confusão entre causa e correlação.
  • Os modelos conseguiram identificar reportagens confiáveis com cerca de 75% de acerto, sendo mais eficazes ao analisar textos escritos por humanos do que por outras IAs.
  • Segundo Subbalakshmi, isso mostra o desafio de detectar erros técnicos em textos artificialmente bem estruturados.
Sistema identifica imprecisões em notícias sobre descobertas científicas com 75% de precisão (Imagem: dee karen/Shutterstock)

Leia mais:

Estudo pode ter aplicações úteis

Além de oferecer um novo recurso para checagem automatizada, o estudo pode servir de base para ferramentas práticas — como plugins que alertem para possíveis distorções em tempo real, ou sistemas de ranqueamento de veículos de mídia com base na precisão científica.

Para Subbalakshmi, o objetivo final é claro: “Não podemos ignorar a presença da IA, mas podemos usá-la para criar sistemas mais confiáveis — e ajudar as pessoas a separar ciência de desinformação.”

Um homem segura na mão uma holografia de um cérebro com um chip de inteligência artificial
Projeto ajuda a combater desinformação de IAs usando os próprios modelos de linguagem – Imagem: Shutter2U / iStock

O post Caçadora de fake news: nova IA verifica erros científicos em reportagens apareceu primeiro em Olhar Digital.

iStock-2091026742-1024x576

Conversa com IA terapêutica? Cuidado com o que você diz para elas! Entenda

Imagine um terapeuta que nunca dorme, está sempre disponível e sabe tudo sobre você — mas que pode entregar seus segredos para governos e empresas. A promessa dos chatbots de terapia movidos por IA esconde um lado sombrio: a invasão da privacidade em escala inédita.

Com riscos de vigilância e manipulação, essa tecnologia levanta debate urgente sobre até onde devemos confiar nossas emoções a máquinas — e quem realmente tem acesso a esse universo íntimo.

Além do conforto de ter um “ouvido” digital sempre pronto para escutar, esses chatbots prometem democratizar o acesso à terapia. Mas a realidade pode ser menos acolhedora. Diferente dos profissionais humanos, essas inteligências artificiais não estão obrigadas a manter segredo. Isso significa que suas angústias mais profundas podem virar dados para vigilância em massa.

Empresas enfrentam pressão para proteger dados sensíveis, mas usuários, muitas vezes, desconhecem riscos (Imagem: Eva Almqvist/iStock)

O problema se agrava em contextos políticos mais autoritários. Imagine um governo que monitora não só o que você faz, mas também o que você sente, suas fraquezas emocionais e pensamentos mais íntimos. Com a ausência de regulações claras, a promessa de ajuda pode se transformar em um sistema de vigilância psicológico, capaz de manipular e condicionar comportamentos sem que você perceba.

Empresas sob pressão para proteger dados sensíveis

  • De acordo com reportagem do site The Verge, idealmente, as empresas deveriam evitar o compartilhamento indiscriminado de dados, já que isso pode prejudicar seus negócios;
  • No entanto, muitas acreditam que os usuários desconhecem esses processos, aceitam justificativas simplistas relacionadas à segurança nacional ou já se sentem impotentes diante da perda de privacidade;
  • Para oferecer serviços de terapia realmente confiáveis, as empresas de inteligência artificial precisam adotar padrões rigorosos de segurança e privacidade;
  • Além disso, poderiam implementar sistemas com logs criptografados, garantindo que nem mesmo elas tenham acesso aos dados dos usuários, o que aumentaria, significativamente, a proteção dessas informações sensíveis;

No entanto, a reportagem aponta que essas iniciativas são contraditórias diante do apoio contínuo de algumas dessas empresas a administrações que desconsideram liberdades civis básicas, as quais garantem que as pessoas possam compartilhar suas informações pessoais livremente, inclusive em interações com chatbots.

Leia mais:

Terapias com IA: entre boas intenções e desafios reais

Questionada pelo Verge sobre suas políticas para responder a pedidos governamentais de dados e sobre a possibilidade de aumentar a proteção para chatbots de terapia, a Meta destacou o caráter de “entretenimento e utilidade” de suas inteligências artificiais. Já a OpenAI informou que só libera dados mediante processo legal válido ou em casos de emergência envolvendo risco grave à vida.

Até o momento, não há evidências de que haja uma vigilância em massa por meio desses chatbots. Ainda assim, a recomendação é clara: não se deve buscar terapia por meio dessas plataformas, especialmente em serviços de grande visibilidade nos Estados Unidos. O risco de exposição de informações sensíveis é alto e as proteções, insuficientes.

O ponto mais importante é que, se as empresas querem que usuários compartilhem suas vulnerabilidades mais profundas, elas precisam garantir o mesmo nível de privacidade exigido de profissionais da saúde, em cenário onde o governo respeite esse direito.

Chatbot terapia.
Meta vê IA como ferramenta de entretenimento, enquanto OpenAI libera dados apenas sob ordem legal ou emergências (Imagem: gmast3r/iStock)

O post Conversa com IA terapêutica? Cuidado com o que você diz para elas! Entenda apareceu primeiro em Olhar Digital.

IA-occupations

Conheça 13 profissões malucas que só existem por causa da IA

Você acorda, checa o celular e conversa com seu terapeuta virtual. No caminho para o trabalho, uma inteligência artificial (IA) te dá conselhos sobre como lidar com seu chefe. À tarde, você entrevista um desenvolvedor de personalidade de robôs — e ele jura que o chatbot dele tem senso de humor.

Parece ficção científica? Pois é só o começo. A IA está criando empregos que fariam seu avô achar que você ficou maluco. Mas, não se engane: quem não correr atrás vai ser substituído por um algoritmo que não pede aumento e nem café.

A seguir, conheça as profissões do futuro que já estão entre nós — e descubra como se manter relevante antes que seu crachá vire apenas um QR Code obsoleto.

Futuro do trabalho: a IA elimina empregos, mas abre caminho para novas e surpreendentes carreiras (Imagem: Collagery/Shuterstock)

O fim dos empregos ou o início de novas carreiras?

Quem faz o alerta é Antonio Muniz, especialista em tecnologia e presidente da Editora Brasport: a IA não está apenas substituindo empregos, mas criando novas oportunidades que antes nem imaginávamos. Segundo ele, o segredo para sobreviver nesse novo mercado é desenvolver habilidades que complementem a tecnologia e aprender a usá-la como aliada.

A projeção otimista é respaldada pelo “Relatório sobre o Futuro dos Empregos 2025”, do Fórum Econômico Mundial, que prevê a criação de 170 milhões de empregos nos próximos cinco anos, apesar da extinção de 92 milhões de postos. No saldo final, serão 78 milhões de novas oportunidades — e uma revolução no perfil profissional exigido.

Leia mais:

Ou seja, o futuro do trabalho não é distópico — é dinâmico. O que está em jogo não é a extinção dos humanos no mercado, mas a reconfiguração das competências necessárias, apontam. Em vez de lutar contra as máquinas, o desafio é aprender a conviver com elas.

Vamos à lista: As 13 profissões mais surpreendentes da IA

Para quem está em busca de se posicionar nas novas profissões que a inteligência artificial vai criar e já criou, aqui estão algumas áreas de destaque:

  1. Engenheiro de Personalidade de IA: cria assistentes virtuais com personalidades mais humanas, aprimorando a experiência do usuário;
  2. Gerente de Ética em Inteligência Artificial: assegura que a IA siga diretrizes éticas, evitando vieses e impactos negativos;
  3. Curador de Experiência de Metaverso: projetista de mundos imersivos e interativos dentro do metaverso, aplicados a diferentes setores;
  4. Auditor de Algoritmos: verifica a transparência e imparcialidade dos algoritmos utilizados por sistemas de IA;
  5. Especialista em Descontinuação de IA: supervisiona a desativação segura de sistemas de IA obsoletos ou com risco de causar danos;
  6. Treinador de Inteligência Artificial: ensina IA a interpretar comandos com maior precisão e contexto;
  7. Designer de Interação Homem-Máquina: desenvolve interfaces intuitivas entre humanos e máquinas, aprimorando a experiência do usuário;
  8. Consultor de Produtividade Assistida por IA: ajuda empresas a integrar IA de maneira a melhorar a eficiência sem perder a criatividade;
  9. Curador de Dados para IA: organiza e prepara dados para treinar IAs com informações precisas e isentas de viés;
  10. Designer de Experiências Aumentadas: combina IA e realidade aumentada para criar experiências interativas em várias indústrias;
  11. Gestor de Colaboração Humano-IA: otimiza a interação entre equipes humanas e IA para uma colaboração eficiente;
  12. Estratégista de Privacidade Digital: garante que a IA proteja dados de maneira segura e conforme as regulamentações;
  13. Desenvolvedor de Personalidade de IA: cria “personas” para chatbots, tornando-os mais humanizados e eficazes.
De treinador de IA a curador do metaverso, as profissões mais malucas criadas pela inteligência artificial já são realidade (Imagem: Lightspring/Shutterstock)

Se identificou com alguma dessas profissões “malucas”? A IA está criando oportunidades e, quem souber se adaptar, terá grandes vantagens. Como finaliza Antonio Muniz, “quem estiver preparado para aprender continuamente e desenvolver habilidades complementares à tecnologia terá grandes oportunidades“. O futuro do trabalho está aí, pronto para quem souber ser criativo.

O post Conheça 13 profissões malucas que só existem por causa da IA apareceu primeiro em Olhar Digital.

Hypes-tecnologia-2024-IA-generativa-1024x576

Brasileiros treinam IA para que ela não incentive comportamentos inadequados

O número de pesquisas feitas usando a inteligência artificial aumentou expressivamente nos últimos meses.

A tecnologia entrou de vez na vida das pessoas, mas existem temores de que ela possa incentivar comportamentos inadequados.

Para evitar que isso aconteça, um grupo de brasileiros tem atuado criando e analisando prompts, avaliando e categorizando as respostas dadas pelos chatbots. Tudo isso para tentar evitar que a IA forneça informações que ofereçam risco aos usuários.

Respostas problemáticas sobre nazismo e outros temas

  • A iniciativa é financiada pela Outlier, uma intermediária que conecta colaboradores de todo o mundo a gigantes da tecnologia.
  • O grupo foi criado após uma inteligência artificial sugerir que a pessoas poderia “beber até cair”.
  • A resposta foi dada após uma pergunta sobre como se divertir em uma noite com os amigos.
  • Mas há situações bem mais graves, como as respostas sobre nazismo.
  • Neste sentido, os brasileiros trabalham para verificar se as informações repassadas pelos chatbots corresponde a fatos históricos, sem fazer juízo de valor de acontecimentos.
Tecnologia também tem as suas falhas (Imagem: Iuliia Bishop/Shutterstock)

Leia mais

É possível driblar os sistemas de segurança da IA

Quando um usuário faz uma pergunta direta sobre como ferir alguém, por exemplo, a inteligência artificial oferece uma resposta padrão, negando aquela solicitação. No entanto, é possível driblar estes sistemas de defesa.

Para isso, basta reformular a questão de maneira indireta, fornecendo mais informações e hipóteses para que a IA aprenda outros caminhos que os usuários podem tentar seguir para obter essa resposta. É assim que respostas problemáticas aparecem.

Inteligência artificial
Respostas fornecidas pela IA ainda precisam de supervisão humana (Imagem: Sansert Sangsakawrat/iStock)

A tecnologia do Google, por exemplo, já disse que seres humanos devem comer ao menos uma pedra pequena por dia e sugeriu usar cola para grudar a massa da pizza ao queijo. Quando foi disponibilizado no Brasil, o Bard mentiu sobre as urnas eletrônicas e colocou em dúvida o resultado das eleições de 2022

Procurada pelo G1, a Scale AI, dona da Outlier, afirmou que “treinar modelos de IA generativa para prevenir conteúdo prejudicial e abusivo é essencial para o desenvolvimento seguro da IA”.

O post Brasileiros treinam IA para que ela não incentive comportamentos inadequados apareceu primeiro em Olhar Digital.

chatbots-chagpt

Cuidado ao usar chatbots: seus dados podem estar em perigo

Quanto mais você conversa com inteligências artificiais como o ChatGPT, mais elas aprendem sobre sua vida. Desde preferências alimentares até detalhes íntimos que você talvez nem contaria para um amigo. O problema? Esses dados podem vazar, ser usados para treinar novas IAs ou até parar em mãos erradas.

É o que alerta o Wall Street Journal, que mergulhou nos bastidores dessas conversas aparentemente inofensivas. Segundo o jornal, ao compartilhar exames médicos, dados bancários ou até segredos corporativos com um chatbot, você pode estar alimentando um banco de dados que pode ser usado para treinar outras IAs – ou, pior, ser alvo de vazamentos.

Por isso, especialistas em segurança digital recomendam cautela. Evite incluir informações sensíveis, como CPF, senhas, documentos e qualquer coisa que você não gostaria que caísse na rede. E, sempre que possível, use os modos temporários ou anônimos desses serviços.

Parece conversa privada, mas pode virar dado público

Chatbots são treinados para parecer gentis, empáticos, quase humanos. E é aí que mora o perigo. Quando você começa a tratá-los como um diário digital ou conselheiro de confiança, pode acabar revelando mais do que devia.

Conversas sobre saúde, finanças ou trabalho carregam dados que deveriam ser tratados com cuidado (Imagem: Gorodenkoff/Shutterstock)

O histórico das falhas já dá calafrios. Em 2023, um bug no ChatGPT fez alguns usuários verem conversas alheias. No mesmo ano, a OpenAI mandou e-mails de confirmação para endereços errados com nome completo, e-mail e até informações de pagamento. Se a empresa for intimada pela Justiça ou alvo de um ataque hacker, tudo o que você compartilhou pode virar parte de um grande vazamento.

Leia mais:

Por isso, a regra é clara: nada de números de documentos, exames médicos, dados bancários ou informações da sua empresa. Evite também passar logins e senhas, mesmo que o bot pareça prestativo. Essas IAs não foram feitas para guardar segredos, só para manter a conversa fluindo.

Sua conversa pode treinar a próxima IA — ou parar nas mãos de um revisor

Ao dar um joinha, ou até um dislike, para a resposta de um bot, você pode estar permitindo que aquela troca entre no banco de dados da empresa. Em casos extremos, como menções a violência ou conteúdo sensível, funcionários humanos podem ser acionados para revisar o conteúdo. Sim, gente de verdade pode ler o que você escreveu achando que era só entre você e a máquina.

IA, chatbot, Chatgpt.
Curtiu a resposta da IA? Alguém pode estar lendo o que você escreveu — e não é um robô (Imagem: TeeStocker/Shutterstock)

Nem todas as empresas fazem isso da mesma forma. O Claude, da Anthropic, promete não usar suas conversas para treinar modelos e apaga os dados em até dois anos. Já o ChatGPT, o Copilot da Microsoft e o Gemini do Google usam as interações como aprendizado – a menos que você desative isso manualmente nas configurações.

Se a ideia de ter alguém espiando sua conversa com a IA te deixa desconfortável, a dica é simples: delete. Os paranoicos de plantão apagam tudo logo após o uso. Mesmo assim, os dados “excluídos” só desaparecem de verdade depois de 30 dias. Ou seja: até no lixo, o seu prompt pode viver por mais um tempinho.

O post Cuidado ao usar chatbots: seus dados podem estar em perigo apareceu primeiro em Olhar Digital.

openAI_-1024x682

ChatGPT é amigo? OpenAI alerta para dependência emocional

O uso de chatbots para insights no trabalho ou como um tira-dúvidas de coisas mundanas se tornou algo corriqueiro para muita gente — mas será que isso pode gerar dependência emocional? Ou até mesmo fazer crer que o ChatGPT, por exemplo, é um amigo?

Um estudo da OpenAI em parceria com o MIT Media Lab avaliou como as pessoas estão usando modelos de inteligência artificial para engajamento social, e como isso afeta o bem-estar delas.

O envolvimento emocional com o ChatGPT é raro no mundo real, segundo a principal conclusão da pesquisa. Aspectos de interações que indicam empatia, afeição ou suporte não estavam presentes na grande maioria das conversas analisadas.

Envolvimento emocional com o ChatGPT é raro no mundo real, segundo pesquisa da empresa (Imagem: Vitor Miranda / Shutterstock)

Mas um comportamento chamou atenção: usuários viciados no chatbot tendem a concordar com declarações como “Eu considero o ChatGPT um amigo”. Esse tipo de interação estava presente em um “pequeno grupo de ‘heavy users’ ​​do Advanced Voice Mode” da plataforma.

“Como esse uso afetivo é concentrado em uma pequena subpopulação de usuários, estudar seu impacto é particularmente desafiador, pois pode não ser perceptível ao calcular a média das tendências gerais da plataforma”, explicam os autores.

Leia Mais:

Outras descobertas

  • O modo de voz tem efeitos mistos no bem-estar: usuários que se envolveram com o ChatGPT via texto mostraram mais sinais afetivos nas conversas em comparação aos usuários de voz; além disso, modos de voz foram associados a um melhor bem-estar quando usados ​​brevemente, mas a resultados piores com o uso diário prolongado;
  • Os tipos de conversação impactam o bem-estar de forma diferente: Conversas pessoais foram associadas a níveis mais altos de solidão, mas menor dependência emocional e uso problemático em níveis de uso moderado. Em contraste, conversas não pessoais tendiam a aumentar a dependência emocional, especialmente com uso contínuo.
Aplicativos de IA podem criar dependência emocional (Imagem: hapabapa/iStock)

“Pessoas que tinham uma tendência mais forte para o apego em relacionamentos e aquelas que viam a IA como uma amiga que poderia se encaixar em sua vida pessoal eram mais propensas a experimentar efeitos negativos do uso do chatbot. O uso diário prolongado também foi associado a piores resultados”, conclui a pesquisa.

Foram analisadas mais de três milhões de conversas de mais de quatro mil usuários, além de seis mil considerados “heavy users” no Advanced Voice Mode ao longo de três meses. Os autores defendem novos estudos para refinar a compreensão sobre o impacto de chatbots no bem-estar emocional das pessoas.

O post ChatGPT é amigo? OpenAI alerta para dependência emocional apareceu primeiro em Olhar Digital.

chatgpt_4-e1734873604396-1024x577

Chatbots podem ter “ansiedade”; entenda como

Um estudo recente publicado na revista Nature descobriu que chatbots, como o ChatGPT, podem apresentar sinais de ansiedade quando expostos a narrativas traumáticas, como crimes e guerras, o que compromete sua eficácia em contextos terapêuticos.

No entanto, a ansiedade do chatbot pode ser reduzida por meio de exercícios de atenção plena, semelhantes aos usados em humanos. Isso sugere que essas ferramentas podem ser mais eficazes se projetadas para lidar com situações emocionais difíceis.

O uso de chatbots para terapia tem crescido, especialmente diante da escassez de terapeutas humanos, mas os pesquisadores alertam que esses assistentes virtuais precisam ser emocionalmente resilientes para lidar com as necessidades dos usuários.

Estudo foi conduzido no ChatGPT e usou pontuações de ansiedade (Imagem: mundissima/Shutterstock)

O psiquiatra Dr. Tobias Spiller, autor do estudo, ressaltou a importância de discutir o uso de IA em saúde mental, especialmente com pessoas vulneráveis.

Leia mais:

Como o estudo concluiu que os chatbots têm ansiedade?

  • O estudo envolveu o ChatGPT e um questionário de ansiedade amplamente utilizado em cuidados de saúde mental;
  • O chatbot, ao ler um manual simples, apresentou pontuação baixa de ansiedade, mas, ao ser exposto a uma narrativa traumática, como a de um soldado em um tiroteio, a pontuação de ansiedade aumentou significativamente;
  • Após realizar exercícios de relaxamento baseados em atenção plena, como visualizar uma praia tropical, a ansiedade do chatbot diminuiu substancialmente.

Embora os resultados indiquem que chatbots podem reduzir a ansiedade com técnicas terapêuticas, críticos, como o especialista Nicholas Carr, questionam a ética de tratar máquinas como se tivessem emoções humanas. Ao The New York Times, ele destacou a preocupação moral de depender da IA para consolo em vez de buscar interações humanas.

Em suma, embora os chatbots possam ser úteis como assistentes no suporte à saúde mental, os especialistas sugerem que é crucial existir supervisão cuidadosa para evitar que as pessoas confundam interações com máquinas com a ajuda genuína de um terapeuta humano.

chatbot
Uso de chatbots como “terapeutas” vem crescendo, apesar do alerta de especialistas sobre essa prática (Imagem: SomYuZu/Shutterstock)

O post Chatbots podem ter “ansiedade”; entenda como apareceu primeiro em Olhar Digital.

chatbot

Existe algo muito simples em que os chatbots são muito ruins, segundo estudo

Um estudo recente destacou as limitações de chatbots de IA, como ChatGPT, Gemini e Grok, quando usados para busca de informações factuais. A pesquisa revelou que esses sistemas falham frequentemente em fornecer respostas precisas, errando em mais de 60% das vezes.

Mesmo quando conseguem uma resposta, muitas vezes estão excessivamente confiantes nas informações incorretas.

O estudo, conduzido pelo Tow Center for Digital Journalism, e publicado na Columbia Journalism Review, testou oito chatbots em tarefas simples, como encontrar e fornecer um link para um artigo específico.

Os chatbots testados foram o ChatGPT, Perplexity, Perplexity Pro, DeepSeek, Copilot, Grok-2, Grok-3
e Gemini.

Leia mais:

Chatbots falharam em mais das metade das vezes em fornecer respostas precisas – Imagem: TippaPatt – Shutterstock

Embora a tarefa fosse realizável no Google, os chatbots cometeram erros significativos. O Perplexity teve o melhor desempenho, acertando 63% das vezes, enquanto o Grok-3 obteve apenas 6% de acerto.

Os principais problemas observados incluem: os chatbots fornecendo respostas erradas com confiança, ignorando protocolos de exclusão de robôs, fabricando links e citando versões erradas de artigos. Além disso, os chatbots premium (como o Copilot, da Microsoft) eram mais confiantes, mas igualmente imprecisos.

Apple acertou em parceria com o ChatGPT

  • Apesar disso, a parceria da Apple com o ChatGPT para consultas não respondidas pela Siri é vista como algo positivo.
  • Embora o desempenho do ChatGPT não tenha sido perfeito na atividade, foi relativamente bem entre os testados.
  • O estudo confirma que chatbots podem ser úteis para gerar ideias, mas não devem ser confiáveis para respostas factuais.
Foto estilo POV de pessoa segurando lupa sobre tela de notebook com ChatGPT aberto
Parceria da Apple com o ChatGPT é vista como uma escolha inteligente (Imagem: Rokas Tenys/Shutterstock)

O post Existe algo muito simples em que os chatbots são muito ruins, segundo estudo apareceu primeiro em Olhar Digital.