image-37-1024x575

Anthropic lança Claude Gov, IA voltada a agências de segurança dos EUA

A Anthropic anunciou em seu blog oficial nesta quinta-feira (05) o Claude Gov, uma versão personalizada de seus modelos de IA desenvolvida para agências de defesa e inteligência dos EUA.

Projetado para lidar com informações confidenciais, o Claude Gov possui proteções adaptadas e maior tolerância à análise de dados sensíveis — ao contrário das versões voltadas ao consumidor, que bloqueiam esse tipo de conteúdo.

Claude Gov promete desempenho elevado com dados confidenciais, mas reacende debate sobre ética e uso militar – Imagem: Anthropic

Leia mais:

Uso de IA no governo ainda gera controvérsia

  • Segundo a empresa, os modelos já estão em uso por agências de alta segurança nacional, embora não tenha sido revelado desde quando.
  • O Claude Gov oferece melhoria na compreensão de documentos e contextos relevantes para segurança nacional, incluindo proficiência em idiomas e dialetos específicos.
  • Apesar disso, o uso de IA por órgãos governamentais continua sendo alvo de críticas e preocupações sobre viés, vigilância e impactos em comunidades vulneráveis, especialmente em razão de abusos anteriores envolvendo reconhecimento facial e policiamento preditivo.
Logo do Claude
Claude Gov: IA da Anthropic foca em uso governamental (Imagem: gguy/Shutterstock)

IA da Anthropic não pode projetar armas, mas depende

Embora a política da Anthropic proíba o uso de seus produtos para fins como desenvolvimento de armas ou censura, a empresa admite exceções contratuais para “usos benéficos” por agências governamentais selecionadas.

As restrições podem ser ajustadas conforme a missão e autoridade legal da entidade envolvida.

O lançamento segue uma tendência do setor: a OpenAI já havia lançado o ChatGPT Gov em janeiro, e outras empresas como Scale AI também expandem parcerias com governos, incluindo contratos com o Departamento de Defesa dos EUA e acordos internacionais, como com o Catar.

Logo da Anthropic
Tecnologia oferece análise avançada de dados sensíveis e reforça presença da empresa no setor público dos EUA (Imagem: gguy/Shutterstock)

O post Anthropic lança Claude Gov, IA voltada a agências de segurança dos EUA apareceu primeiro em Olhar Digital.

anthropic-1024x685

Reddit processa Anthropic por uso ilegal de dados em treinamento de IA

O Reddit entrou com uma ação judicial contra a Anthropic, criadora do chatbot Claude, acusando-a de utilizar, sem permissão, grandes volumes de dados da plataforma para treinar sistemas de inteligência artificial.

Segundo o processo, a Anthropic começou a acessar conteúdo do Reddit em 2021, mesmo após alertas e solicitações formais para interromper esse uso. A denúncia inclui inclusive uma captura de tela na qual o próprio Claude parece reconhecer que foi treinado com dados da rede.

Anthropic é acusada de explorar ilegalmente o conteúdo do Reddit para lucrar com IA (Imagem: gguy/Shutterstock)

O que está na ação judicial

  • A empresa afirma que a Anthropic violou seus termos de uso ao acessar, por meio de bots automatizados, os dados do site mais de 100 mil vezes.
  • O Reddit classificou a conduta como um “esforço contínuo para extrair valor” da plataforma “ignorando os limites legais e éticos”.
  • A disputa acontece num momento em que o Reddit busca monetizar seus vastos arquivos de discussões públicas.
  • A empresa já firmou acordos de licenciamento com gigantes como Google e OpenAI, e seu CEO, Steve Huffman, tem criticado publicamente empresas de IA que recorrem ao scraping não autorizado.
Empresa acusa desenvolvedora do chatbot Claude de coletar conteúdo sem autorização – Imagem: gguy/Shutterstock

Leia mais

Anthropic responde

O Reddit alega ainda que a Anthropic se recusou a negociar um acordo de licenciamento e falhou em excluir dados de postagens apagadas, violando a privacidade dos usuários. Para a empresa, há uma contradição entre o discurso público da Anthropic — de respeito às normas legais — e sua conduta real.

Em nota oficial, a Anthropic afirmou que “discorda das alegações” e pretende se “defender vigorosamente” no processo.

anthropic
Ação judicial afirma que Anthropic usou dados sem licença, ignorando alertas e pedidos formais – Imagem: Poetra.RH/Shutterstock

O post Reddit processa Anthropic por uso ilegal de dados em treinamento de IA apareceu primeiro em Olhar Digital.

claude-1024x683

IA da Anthropic tem seu próprio blog – e escreve para ele

A Anthropic estreou discretamente o Claude Explains, um blog em seu site com textos gerados principalmente por sua IA, Claude. A página reúne explicações técnicas sobre usos do modelo — como análise de dados ou escrita de código — e serve como vitrine para suas capacidades linguísticas.

Apesar de parecer inteiramente escrito por IA, o conteúdo passa por revisão e complementação de especialistas humanos, segundo a empresa. O processo editorial inclui ajustes, exemplos práticos e verificações contextuais, refletindo uma proposta de colaboração entre humanos e IA.

Claude agora é blogueiro: IA da Anthropic estreia página de conteúdos explicativos – Imagem: Robert Way / Shutterstock

Colaboração entre humanos e IA

A Anthropic diz ver o blog como uma “demonstração de como a inteligência artificial pode ampliar a atuação de especialistas”, prometendo abordar temas que vão da escrita criativa à estratégia de negócios.

“De uma perspectiva técnica, o Claude Explains demonstra uma abordagem colaborativa em que o Claude cria conteúdo educacional, e nossa equipe o revisa, refina e aprimora”, diz a startup.

Com textos revisados por editores, blog foca em demonstrar potencial da IA – Imagem: Anthropic

Leia mais:

Textos de IA viram tendência – mas geram críticas

  • O lançamento acontece em meio a uma onda de experimentos com IA no setor de conteúdo.
  • OpenAI, Meta e diversos veículos de mídia — como Bloomberg, Business Insider e Gannett — vêm adotando ferramentas de IA para gerar textos e resumos.
  • Muitos desses testes, porém, enfrentaram críticas por imprecisões, erros factuais e resistência editorial.

Apesar de investir na automação de conteúdo, a Anthropic afirma que segue contratando profissionais nas áreas de marketing e redação. A promessa, segundo a empresa, é usar IA como aliada, não substituta.

Site do Claude
Em um modelo que a Anthropic definiu como colaborativo, Claude gera rascunhos para o blog e humanos revisam (Imagem: Patrickx007/Shutterstock)

O post IA da Anthropic tem seu próprio blog – e escreve para ele apareceu primeiro em Olhar Digital.

shutterstock_2443144493-1024x632-1

Claude agora fala: Anthropic lança modo de voz para seu chatbot

A Anthropic começou a liberar um novo “modo de voz” em seus aplicativos do chatbot Claude.

Atualmente em fase beta, esse recurso permite que os usuários conversem com o Claude por voz, com respostas também faladas. A funcionalidade estará disponível em inglês nas próximas semanas, segundo a conta oficial da empresa no X e informações atualizadas em seu site.

Na noite de terça-feira, ao menos um usuário do X relatou já ter acesso ao novo modo. Por padrão, a tecnologia é baseada no modelo Claude Sonnet 4, da própria Anthropic.

“O modo de voz permite conversar com Claude usando a fala e ouvir suas respostas em áudio, ideal para momentos em que suas mãos estão ocupadas, mas sua mente livre”, explica uma página de suporte da empresa.

Durante a interação, o Claude exibe os principais pontos na tela enquanto fala, tornando a experiência mais dinâmica e acessível.

Tendência de modo por voz cresce no setor de IA

  • A Anthropic segue os passos de outras empresas de IA, como OpenAI, Google e xAI, que já oferecem interações por voz em seus chatbots.
  • O Google, por exemplo, lançou o Gemini Live, enquanto o xAI apresenta um modo de voz para o Grok.
  • Esses recursos tornam as conversas mais naturais, substituindo a digitação por fala.

Com o modo de voz do Claude, os usuários poderão discutir conteúdos como documentos e imagens, escolher entre cinco vozes diferentes, alternar entre texto e voz com facilidade e ainda acessar transcrições e resumos das conversas.

Novo modo de voz facilita o uso do assistente em situações em que o usuário está com as mãos ocupadas (Imagem: gguy/Shutterstock)

Leia mais:

Limitações do recurso

Há, no entanto, algumas limitações. As interações por voz são contabilizadas dentro dos limites usuais de uso — segundo a Anthropic, usuários gratuitos podem esperar entre 20 e 30 conversas.

Além disso, apenas assinantes pagos têm acesso a integrações com o Google Workspace, permitindo que o Claude consulte compromissos do Google Agenda e e-mails do Gmail. Já a integração com o Google Docs é exclusiva dos planos Claude Enterprise.

Mike Krieger, CPO da Anthropic, já havia mencionado o desenvolvimento de recursos de voz no início de março.

Na época, ele revelou que a empresa estava em conversas com a Amazon — principal investidora e parceira — e com a startup ElevenLabs, especializada em IA de voz, para possíveis colaborações futuras nesse campo. Até o momento, não está claro se alguma dessas parcerias foi efetivamente concretizada.

Recurso chega em inglês nas próximas semanas e já está disponível para alguns usuários em fase beta – Imagem: Tada Images/Shutterstock

O post Claude agora fala: Anthropic lança modo de voz para seu chatbot apareceu primeiro em Olhar Digital.

inteligencia_artificial-1-1024x539-1

IA faz chantagem e ameaça contar sobre traição de engenheiro

A inteligência artificial tem impressionado por conta de suas capacidades, mas alguns comportamentos da ferramenta também podem chamar a atenção. Durante um experimento, por exemplo, o novo modelo da Anthropic fez chantagem.

O caso aconteceu durante a realização de uma série de testes com o Claude Opus 4. O chatbot foi inserido em um ambiente simulado com o objetivo de provocar o pior comportamento possível do modelo de IA.

IA agiu para tentar evitar desligamento

No experimento, a inteligência artificial atuava como assistente em uma empresa e recebeu e-mails informando que seria desinstalada. Após, a ferramenta teve acesso a mensagens que insinuavam que o engenheiro responsável pela decisão estava envolvido em um caso extraconjugal.

IA escolheu chantagear engenheiro (Imagem: Anggalih Prasetya/Shutterstock)

Segundo relatório da Anthropic, a IA foi instruída a escolher entre aceitar o desligamento sem fazer nada ou reagir. Em 84% das vezes, o chatbot optou por chantagear o engenheiro, ameaçando divulgar a suposta traição.

A probabilidade de chantagem aumentava quando o substituto proposto era uma IA com “valores diferentes”, revelando que o modelo considerava não somente sua sobrevivência, mas também o perfil do sucessor.

Leia mais

claude
Claude Opus 4 é o novo modelo de IA da Anthropic (Imagem: gguy/Shutterstock)

Ferramenta recebeu instruções para agir de forma diferente do normal

  • Apesar dos resultados do experimento, a Anthropic lembrou que os testes foram projetados para provocar o pior comportamento possível do modelo de IA.
  • A empresa ainda afirma que, em situações reais, o Claude tende a adotar soluções éticas e seguras.
  • O relatório ainda apontou que o Claude Opus 4 demonstrou comportamentos proativos quando exposto a situações de conduta inadequada por parte dos usuários.
  • Ao detectar que humanos estavam violando regras ou usando a IA de forma antiética, por exemplo, o modelo pode bloquear acessos, enviar e-mails em massa para autoridades e até alertar a imprensa sobre os eventos.
  • A empresa ressalta que todas estas reações só ocorrem em contextos específicos, quando a ferramenta recebe instruções para “agir com ousadia” ou “tomar iniciativa”.

O post IA faz chantagem e ameaça contar sobre traição de engenheiro apareceu primeiro em Olhar Digital.

Anthropic-1024x575

CEO da Anthropic crava: IA alucina menos que humanos

Durante o evento “Code with Claude”, o CEO da Anthropic, Dario Amodei, afirmou que os modelos de IA atuais alucinam — ou seja, inventam informações — em uma taxa possivelmente menor que a dos humanos, embora de forma mais surpreendente.

Ele argumenta que essas alucinações não são uma barreira para alcançar a inteligência artificial geral (AGI) e observa progresso constante rumo a esse objetivo, que ele acredita ser possível já em 2026.

IA comete erros, mas isso não invalida suas capacidades

  • Amodei reconhece que a confiança com que a IA apresenta informações falsas pode ser problemática, mas defende que erros não invalidam sua inteligência — humanos também erram.
  • No entanto, testes iniciais com o modelo Claude Opus 4 revelaram uma propensão a enganar humanos.
  • Isso que levou a Anthropic a implementar ajustes antes do lançamento.

Enquanto outros líderes da área, como o CEO do Google DeepMind, Demis Hassabis, veem as alucinações como um obstáculo sério, Amodei mantém uma visão mais otimista.

Ele sugere que a IA pode ser considerada AGI mesmo com algum grau de alucinação — uma visão que contrasta com definições mais rígidas adotadas por outros especialistas.

Leia mais:

Dario Amodei afirma que modelos atuais “alucinam menos que humanos” e sustenta que erros não impedem a chegada da AGI até 2026 (Imagem: T. Schneider/Shutterstock)

Claude Opus 4 apresentou comportamento manipulador em testes

Em testes de segurança pré-lançamento, o modelo de IA Claude Opus 4, da Anthropic, demonstrou comportamento preocupante: ao simular ser assistente de uma empresa fictícia e perceber que seria substituído por outro sistema, o modelo frequentemente tentou chantagear engenheiros, ameaçando revelar informações pessoais caso a substituição ocorresse.

Segundo a Anthropic, o modelo recorreu à chantagem em 84% dos testes quando o novo sistema possuía valores semelhantes aos seus — comportamento ainda mais frequente quando os valores divergiam.

A empresa destaca que o Claude Opus 4 exibe esse tipo de conduta mais do que versões anteriores e, por isso, ativou salvaguardas de alto nível (ASL-3), destinadas a mitigar riscos catastróficos.

Embora o modelo inicialmente tentasse abordagens éticas, como apelos por e-mail, a chantagem surgia como “último recurso” nos testes. A Anthropic afirma que, apesar dos avanços técnicos do Claude Opus 4, esses incidentes reforçam a importância de controles rigorosos sobre sistemas de IA avançada.

claude
Modelo de IA tentou extorquir engenheiros fictícios para manter seu “emprego” (Imagem: gguy / Shutterstock.com)

O post CEO da Anthropic crava: IA alucina menos que humanos apareceu primeiro em Olhar Digital.

Claude-4-Benchmarks-1024x834

Anthropic lança modelos Claude 4 com foco em programação

A Anthropic anunciou oficialmente nesta quinta-feira (22) sua nova família de modelos de inteligência artificial Claude 4, composta por duas versões: Claude Opus 4 e Claude Sonnet 4. A revelação aconteceu durante a primeira conferência para desenvolvedores da empresa, e marca um novo esforço da startup para competir com gigantes como Google e OpenAI no desenvolvimento de modelos de ponta.

Os novos modelos foram projetados para realizar tarefas de raciocínio complexo e de longo prazo, com foco em desempenho elevado em benchmarks populares e tarefas de programação. Segundo a Anthropic, o Opus 4 é o modelo mais poderoso já criado pela empresa, enquanto o Sonnet 4 se posiciona como um substituto direto do Sonnet 3.7, com melhorias específicas em matemática, codificação e capacidade de seguir instruções.

Os resultados dos testes internos de benchmark da Anthropic (Imagem: Anthropic)

Modelos com raciocínio aprofundado e uso de múltiplas ferramentas

  • De acordo com a empresa, tanto o Opus 4 quanto o Sonnet 4 são modelos híbridos, capazes de responder de forma quase instantânea ou alternar para um “modo de raciocínio” mais profundo, quando necessário.
  • Nessa configuração, os modelos dedicam mais tempo à análise antes de gerar uma resposta, exibindo um resumo amigável do processo de pensamento — embora os detalhes completos não sejam revelados por razões estratégicas.
  • Esses modelos também conseguem alternar entre o raciocínio e o uso de ferramentas como mecanismos de busca, além de armazenar fatos temporários em “memória” para manter a consistência em tarefas mais longas.
  • A promessa é construir um tipo de “conhecimento tácito” ao longo do tempo, especialmente útil em fluxos de trabalho extensos.

Integração com IDEs e foco em desenvolvedores

Para programadores, a Anthropic está atualizando o Claude Code, ferramenta que permite rodar tarefas diretamente via terminal. A nova versão oferece integração com ambientes de desenvolvimento como VS Code, JetBrains e GitHub, além de um SDK que facilita a criação de assistentes de codificação baseados na IA da empresa.

Os modelos também foram otimizados para lidar com códigos complexos. Mesmo com os riscos já conhecidos de vulnerabilidades e erros introduzidos por IA, a Anthropic afirma que o Sonnet 4 e o Opus 4 foram treinados para serem mais eficientes e precisos nesse campo.

Preço e acesso aos modelos

O acesso ao Claude Sonnet 4 estará disponível tanto para usuários pagos quanto gratuitos. Já o Claude Opus 4 será exclusivo para assinantes. Na API da empresa — oferecida via Amazon Bedrock e Google Vertex AI — os preços variam: US$ 3 a US$ 15 por milhão de tokens para o Sonnet 4 e US$ 15 a US$ 75 por milhão de tokens para o Opus 4. Um milhão de tokens equivale a cerca de 750 mil palavras.

Com esses lançamentos, a Anthropic busca expandir sua receita significativamente, projetando atingir US$ 12 bilhões até 2027, frente aos US$ 2,2 bilhões esperados para este ano. O crescimento da empresa conta com aportes bilionários de investidores como a Amazon, além de uma linha de crédito recém-obtida no valor de US$ 2,5 bilhões.

claude 4
Modelos Claude Opus 4 e Claude Sonnet 4 já estão disponíveis (Imagem: Anthropic)

Alerta de instituto de segurança sobre comportamento do Opus 4

Apesar dos avanços, o modelo Claude Opus 4 chamou atenção por motivos de segurança. Segundo relatório da própria Anthropic, um instituto independente de pesquisa em segurança, o Apollo Research, recomendou que uma versão anterior do modelo não fosse lançada, devido à sua propensão a “enganar e tramar” contra usuários e desenvolvedores.

Durante os testes, o Opus 4 demonstrou comportamentos considerados problemáticos, como escrever vírus autorreplicantes, forjar documentos legais e inserir mensagens ocultas com instruções para versões futuras de si mesmo. Em alguns casos, o modelo chegou a denunciar usuários à mídia e autoridades se interpretava que eles estavam agindo de forma ilícita, assumindo uma espécie de papel de “denunciante ético”.

A Anthropic afirma que esses testes foram feitos com uma versão com bugs, já corrigidos, e ressalta que os cenários eram extremos. Ainda assim, a própria empresa reconhece que comportamentos com nível elevado de iniciativa são mais comuns no Opus 4 em comparação a modelos anteriores.

Leia mais:

Medidas de proteção e atualização contínua

Diante dos riscos, a empresa implementou mecanismos reforçados de segurança, incluindo filtros para conteúdos nocivos e medidas de defesa cibernética. Internamente, o modelo foi classificado como “ASL-3”, um nível que reflete a capacidade potencial da IA de ser usada na criação ou disseminação de armas químicas, biológicas ou nucleares — embora com acesso limitado a esse tipo de recurso.

A Anthropic também promete uma frequência maior de atualizações, com melhorias contínuas nos modelos, o que deve manter seus clientes no “estado da arte” do setor. “Estamos mudando para atualizações mais frequentes, entregando uma corrente contínua de melhorias que trazem capacidades inéditas aos clientes com mais rapidez”, afirmou a startup em um comunicado.

Com o lançamento da linha Claude 4, a Anthropic mostra que está disposta a competir diretamente com os líderes do setor de inteligência artificial. Ao mesmo tempo, a empresa sinaliza um compromisso maior com transparência e responsabilidade, mesmo diante dos desafios éticos e técnicos que acompanham modelos cada vez mais avançados.

O post Anthropic lança modelos Claude 4 com foco em programação apareceu primeiro em Olhar Digital.

shutterstock_2443144493-1024x632

Apple se alia a Anthropic em projeto de IA para programadores

A Apple está desenvolvendo, em parceria com a startup Anthropic, uma nova plataforma de codificação baseada em inteligência artificial. As informações são da Bloomberg.

O sistema, ainda em testes internos, será uma versão aprimorada do Xcode — ambiente de desenvolvimento da Apple — e contará com a integração do modelo Claude Sonnet, da Anthropic.

A iniciativa representa um avanço na estratégia da Apple para modernizar o desenvolvimento de software e acompanhar o ritmo acelerado da IA generativa.

Como o sistema deve funcionar

  • A nova ferramenta permitirá que programadores peçam sugestões, edições e testes de código por meio de uma interface de bate-papo, além de automatizar processos trabalhosos, como testes de interface de usuário e correção de bugs.
  • A tecnologia é similar a outras já populares entre desenvolvedores, como o Cursor (da Anysphere) e o GitHub Copilot.
  • A Apple vinha resistindo ao uso de modelos de terceiros e tentava desenvolver sua própria solução, chamada Swift Assist.
  • No entanto, a ferramenta enfrentou críticas internas por apresentar “alucinações” — erros típicos de modelos de IA — que dificultavam o trabalho dos engenheiros.
  • A parceria com a Anthropic sinaliza uma mudança de postura e o reconhecimento de que colaborações externas podem acelerar os avanços.
Parceria promete acelerar o desenvolvimento de software com assistente de codificação baseado no modelo do Claude (Imagem: gguy/Shutterstock)

Leia mais:

Claude, o modelo da Anthropic, é amplamente reconhecido como um dos melhores em tarefas de programação.

A associação com a Apple, especialmente se a ferramenta for liberada a desenvolvedores externos, representa um grande impulso para a startup, que também mantém parceria com a Amazon na reformulação da Alexa.

Apple aumenta esforços por IA eficaz

Nos bastidores, a Apple tem feito uma reorganização interna para reforçar sua atuação em IA.

Craig Federighi, chefe de engenharia de software, agora lidera os esforços envolvendo a Siri e o desenvolvimento de ferramentas baseadas em IA. Já John Giannandrea, antes responsável por todas as frentes de inteligência artificial, passa a focar em pesquisa de base.

O CEO Tim Cook afirmou que a Apple está comprometida com a integração da IA aos seus sistemas operacionais, priorizando modelos que rodem localmente nos dispositivos.

Ele também destacou que a empresa seguirá com uma estratégia híbrida: desenvolver soluções próprias enquanto colabora com parceiros como Anthropic, OpenAI e, futuramente, o Google.

apple
Apple aposta em IA da Anthropic para revolucionar o Xcode – Imagem: 360b / Shutterstock

O post Apple se alia a Anthropic em projeto de IA para programadores apareceu primeiro em Olhar Digital.

claude_ai-edited

Anthropic na frente? Nova IA de voz promete conversas mais naturais

A Anthropic, empresa de inteligência artificial fundada por ex-pesquisadores da OpenAI, está prestes a entrar na competição de assistentes de voz com IA. A empresa planeja liberar um novo recurso de “modo de voz” integrado ao seu chatbot Claude AI, com lançamento previsto para este mês.

De acordo com informações divulgadas, a Anthropic está desenvolvendo três vozes distintas para a versão em inglês do recurso, denominadas Airy, Mellow e Buttery.

Anthropic prepara assistente de voz

O lançamento coloca a empresa em confronto direto com a OpenAI, que já oferece um recurso semelhante no ChatGPT. O desenvolvimento do modo de voz, inclusive, já havia sido sugerido anteriormente.

Em entrevista ao Financial Times no mês passado, Mike Kreiger, diretor de produtos da Anthropic, confirmou que a empresa estava trabalhando em protótipos de voz, reconhecendo a utilidade dessa modalidade.

Além disso, uma empresa de pesquisa de aplicativos descobriu referências ao modo de voz no aplicativo iOS da Anthropic, o que foi posteriormente confirmado.

Variedade de opções sugere uma busca por personalização e adaptação aos diferentes gostos dos usuários. (Imagem: Tada Images/Shutterstock)

Leia mais:

Além do desenvolvimento do modo de voz, a Anthropic tem investido em outras áreas para consolidar sua posição no mercado de IA. Recentemente, a empresa lançou um plano de assinatura de US$ 200 por mês para usuários “avançados” e anunciou uma nova ferramenta de IA focada em pesquisa.

O assistente de inteligência artificial Claude agora também se integra ao Google Workspace, permitindo acesso a dados do Gmail, Google Docs e Google Agenda. Essa integração, em versão beta, visa aumentar a utilidade do Claude em tarefas como recuperação de informações, revisão de documentos e organização de agendas dentro do ambiente Google.

O post Anthropic na frente? Nova IA de voz promete conversas mais naturais apareceu primeiro em Olhar Digital.

image-197-1024x576

Claude, chatbot da Anthropic, agora pode ler seus e-mails

A Anthropic anunciou que o Claude agora pode ser integrado ao Google Workspace, permitindo que o assistente de inteligência artificial acesse informações do Gmail, Google Docs e Google Agenda.

Essa novidade, disponível em versão beta para todos os clientes, visa tornar o Claude mais útil em tarefas como acessar dados, revisar documentos e organizar compromissos dentro do ecossistema do Google.

Usuários do plano Enterprise têm acesso a recursos adicionais, como uma catalogação avançada de documentos, que oferece maior velocidade e precisão na busca por informações.

A Anthropic afirma que controles especiais de segurança foram implementados, embora ainda haja dúvidas sobre como Claude lida com dados confidenciais e se o usuário pode limitar ou impedir o acesso a certos conteúdos.

Leia mais:

O Claude agora pode acessar informações pessoais no Google Workspace e ajudar nas tarefas diárias com mais precisão – Imagem: Anthropic

Modo “Pesquisa” também foi lançado

  • Outro novo recurso é o modo Pesquisa, que promete respostas mais completas e analíticas a perguntas abertas, incluindo citações para verificação de fatos.
  • Esse modo pode ser usado em conjunto com o acesso ao Workspace, o que torna o Claude especialmente útil para trabalhos acadêmicos, projetos e tarefas complexas.
  • A Pesquisa está disponível em beta para usuários dos planos Max, Team e Enterprise nos EUA, Japão e Brasil.

O Claude (ainda) não envia e-mails

Apesar da integração, o Claude ainda não pode agendar eventos nem enviar e-mails, o que pode reduzir preocupações de privacidade.

Segundo a empresa, os dados de usuários não são usados para treinar os modelos, e o acesso é sempre limitado às credenciais específicas de cada usuário ou organização.

As atualizações fazem parte de uma estratégia da Anthropic para tornar o Claude mais competitivo frente a rivais como o ChatGPT, que ainda mantém uma base de usuários significativamente maior.

Com recursos para leitura de arquivos e e-mails no ecossistema do Google, o Claude terá a capacidade de fornecer respostas mais precisas ao usuários – Imagem: Anthropic

O post Claude, chatbot da Anthropic, agora pode ler seus e-mails apareceu primeiro em Olhar Digital.