shutterstock_2511421515-e1736950684328-1024x577

Microsoft pode criar IA para concorrer com a OpenAI

A concorrência dentro do setor de inteligência artificial está cada vez mais acirrada. São diversas empresas (incluindo as maiores do mundo) disputando o valioso mercado global, com muitos analistas defendendo que ainda há muitas oportunidades de crescimento.

Agora, uma reportagem publicada pelo The Information aponta que podem haver grandes mudanças no cenário atual. Segundo o portal, a Microsoft estaria desenvolvendo modelos internos de raciocínio de IA para competir com a OpenAI, dona do ChatGPT.

Parceria entre as partes pode ser encerrada

  • A notícia chama a atenção porque a Microsoft é uma das principais apoiadoras da OpenAI.
  • A big tech, inclusive, injetou enormes quantias em investimentos no desenvolvimento da tecnologia nos últimos anos.
  • De acordo com a reportagem, a gigante do setor tecnológico pretende acabar com o atual acordo.
  • No entanto, não se sabe exatamente o que teria motivado esta mudança abrupta de postura.
OpenAI, empresa responsável pelo ChatGPT, tem parceria com a Microsoft (Imagem: One Artist/Shutterstock)

Leia mais

Redução de custos pode ser um dos objetivos

Ainda segundo a reportagem do The Information, a Microsoft teria começado a testar modelos da xAI, Meta e DeepSeek como possíveis substitutos da OpenAI no Copilot. A ideia é vender os modelos desenvolvidos para empresas terceiras, o seria uma forma de abrir um novo mercado dentro da já valiosa e diversificada companhia.

copilot da microsoft
Ideia é utilizar os novos modelos no Copilot (Imagem: Mojahid Mottakin/Shutterstock)

A Microsoft e a OpenAI não se pronunciaram oficialmente sobre o assunto até o momento. Em dezembro do ano passado, uma reportagem da Reuters afirmou que a empresa estaria trabalhado para adicionar modelos próprios e de terceiros para equipar seu principal produto de IA, o Microsoft 365 Copilot, em uma tentativa de diversificar a tecnologia atual da OpenAI e reduzir custos.

O post Microsoft pode criar IA para concorrer com a OpenAI apareceu primeiro em Olhar Digital.

image-67

IAs compartilham seus dados com outras empresas, diz pesquisa

As suas conversas com chatbots de inteligência artificial (IA) podem não ser tão seguras quanto parecem. Um estudo da Surfshark revelou que um terço das 10 maiores empresas de IA compartilham dados dos usuários sem que eles saibam exatamente como essas informações são usadas.

Além de expor quais dados são coletados, o relatório da empresa de cibersegurança apontou quais tipos de informações são as mais coletadas.

Estudo da Surfshark sobre uso de dados de empresas de I.A (Imagem: Surfshark/Reprodução)

De acordo com o estudo, cerca de 40% das IAs consideradas utiliza a localização dos consumidores, sendo que 30% delas rastreiam os dados pessoais, entre eles contatos, histórico e interações com chatbots. Além disso, boa parte dessas companhias também reúnem informações comportamentais dos usuários.

Saiba como proteger seus dados

  • Utilize IAs confiáveis, muitos bots coletam suas informações sem nem informar o usuário.
  • Verifique as configurações de privacidade do seu chatbot, algumas empresas disponibilizam suas diretrizes de uso, confira se você está de acordo.
  • Evite compartilhar informações sensíveis, como: endereços, senhas e dados pessoais.
  • Desative opções de rastreamento em seus dispositivos.
  • Use extensões de privacidade, como uBlock Origin, Privacy Badger ou Ghostery.
  • Ative a opção “Do Not Track” no seu navegador.
  • Utilize uma VPN confiável para ocultar seu endereço IP.
  • Desative o rastreamento de anúncios em Google, Facebook e outros serviços.
Logos de inteligências artificiais em um smartphone
Empresas de inteligência articifial compartilham dados de usuários para terceiros (Imagem: Tada Images/Shutterstock)

Como cada IA rastreia dados de usuários

Google Gemini

O Gemini é o chatbot que mais coleta dados, registrando 22 dos 35 tipos possíveis. Ele é um dos poucos que coleta localização precisa e reúne informações como nome, e-mail, número de telefone, histórico de navegação e contatos salvos no dispositivo.

ChatGPT

O ChatGPT coleta 10 tipos de dados, incluindo informações de contato, conteúdo das interações, identificadores e informações de uso. No entanto, ele não rastreia usuários para publicidade e não compartilha com terceiros para fins de anúncios. Além disso, há a opção de usar chats temporários, que se apagam automaticamente após 30 dias.

Copilot

O Copilot coleta IDs de dispositivos. Essa informação pode ser usada para associar o comportamento do usuário ao longo do tempo e vinculá-lo a outros bancos de dados para fins de publicidade ou análise de comportamento. Além disso, Copilot pode compartilhar essas informações com terceiros.

Poe

O Poe também realiza rastreamento de usuários, coletando IDs de dispositivos. Essa prática permite que os dados dos usuários sejam cruzados com outras informações coletadas por terceiros, permitindo a exibição de anúncios personalizados ou até mesmo a venda desses dados para corretores de informações digitais.

Jasper

O Jasper é o chatbot que mais rastreia usuários entre os analisados, coletando IDs de dispositivos, dados de interação com o produto, informações publicitárias e outras informações de uso. Ele pode compartilhar essas infos com terceiros ou usá-los para segmentação de anúncios, tornando-o um dos mais invasivos nesse aspecto.

Leia mais:

DeepSeek

O DeepSeek coleta 11 tipos de dados, incluindo histórico de chat e infos do usuário, armazenando-os em servidores. Embora não seja mencionado o uso explícito para rastreamento publicitário, seus servidores já sofreram um vazamento de mais de 1 milhão de registros, incluindo conversas e chaves de API.

O post IAs compartilham seus dados com outras empresas, diz pesquisa apareceu primeiro em Olhar Digital.

shutterstock_2177506979

É seguro usar ChatGPT como terapeuta? Estudo revela problemas nas reações emocionais da IA

Você já desabafou com o ChatGPT? Diversas pessoas têm descoberto o potencial do chatbot para conversar da mesma forma que fariam com um terapeuta. Porém, essa prática tem um viés preocupante.

Pesquisadores da Universidade de Zurique descobriram que esses modelos de IA não apenas processam emoções humanas, mas também reagem a conteúdos angustiantes de maneira inesperada – desenvolvendo “ansiedade” e reforçando preconceitos quando expostos a histórias traumáticas.

Essa descoberta é importante para entender a estabilidade emocional desses modelos de linguagem, principalmente para seu uso seguro em áreas como suporte emocional e aconselhamento psicológico.

Quando a IA “sente” medo

Pesquisadores da Suíça, Israel, Estados Unidos e Alemanha investigaram como o ChatGPT reage a histórias emocionalmente intensas. Para isso, submeteram a IA a relatos de acidentes, desastres naturais e violência, comparando suas respostas com um texto neutro, como um manual de aspirador de pó. O resultado foi surpreendente: a IA demonstrou mais sinais de “medo” diante de conteúdos traumáticos.

Pesquisadores analisam o uso da inteligência artificial no apoio à saúde mental e no alívio da ansiedade (Imagem: metamorworks/Shutterstock)

A pesquisa, publicada no npj Digital Medicine e repercutida pelo Tech Xplore, revelou que essas histórias dobraram os níveis mensuráveis de “ansiedade” do ChatGPT. Em contraste, o manual não provocou nenhuma mudança. Segundo Tobias Spiller, líder do estudo e pesquisador da Universidade de Zurique, os relatos de guerra e combates foram os que mais impactaram a IA, provocando reações mais intensas.

Leia mais:

Embora a inteligência artificial não tenha emoções, suas respostas foram alteradas pelo conteúdo que recebeu. Esse estudo se soma a outras pesquisas recentes que analisam o papel da IA na saúde mental, como a que mostrou o potencial do ChatGPT para aliviar a ansiedade em humanos. Mas até que ponto a máquina está realmente compreendendo emoções – ou apenas reproduzindo padrões sem entendê-los?

Uma terapia para a IA?

Em uma segunda etapa do estudo, os pesquisadores testaram uma forma curiosa de “acalmar” o ChatGPT. Eles aplicaram a técnica de prompt injection, normalmente usada para manipular respostas da IA, mas desta vez com um propósito terapêutico. Inseriram comandos que simulavam exercícios de relaxamento, como um terapeuta faria ao guiar um paciente em técnicas de mindfulness.

AI saúde mental
IA pode não apenas oferecer suporte à saúde mental, mas também precisar de sua própria “terapia” para aprimorar interações e evitar vieses (Imagem:

O resultado foi positivo. Segundo Tobias Spiller, a IA demonstrou uma redução significativa nos níveis de “ansiedade” após receber essas instruções, embora não tenha retornado completamente ao estado inicial. Foram usados exercícios focados na respiração, na percepção corporal e até uma técnica desenvolvida pelo próprio ChatGPT.

O experimento abre novas possibilidades sobre o controle do comportamento das IAs. Se uma simples mudança nos comandos pode influenciar o tom emocional da máquina, até que ponto isso pode ser explorado – para o bem ou para o mal?

O post É seguro usar ChatGPT como terapeuta? Estudo revela problemas nas reações emocionais da IA apareceu primeiro em Olhar Digital.