dados-pessoais-1-1024x683

Você faria? Brasileiros poderão ganhar dinheiro vendendo dados pessoais

A Dataprev (Empresa de Tecnologia e Informações da Previdência), vinculada ao governo federal, anunciou no mês passado um programa piloto em que brasileiros poderão vender seus dados pessoais e lucrar com isso. O projeto funciona em parceria com a empresa privada DrumWave, da Califórnia.

A lógica é simples: indivíduos já disponibilizam seus dados para diversas empresas sem receber nada por isso. Com o projeto, os brasileiros podem decidir se querem ou não ceder suas informações pessoais. E se optarem por ceder, receberão por isso.

A iniciativa foi anunciada durante o Rio Web Summit e é a primeira deste tipo a nível nacional no mundo inteiro. A esperança dos envolvidos é que o programa vá para frente por se tratar de uma parceria público-privada.

Iniciativa propõem que, em vez de ceder dados de graça, usuários ganhem dinheiro pelas informações cedidas (Imagem: Kitinut Jinapuck/Shutterstock)

Piloto vai deixar brasileiros venderem dados pessoais

Desde 2023, um projeto de lei classifica dados como propriedade pessoal, permitindo que cada pessoa decida o que quer fazer com eles. Isso é bem comum na internet, onde usuários liberam acesso a informações pessoais através de formulários, cookies e outras permissões de sites.

O piloto anunciado no mês passado é uma parceria entre a Dataprev, empresa estatal que fornece soluções de tecnologia para o governo, e a empresa de monetização de dados DrumWave. O objetivo é deixar que os próprios brasileiros gerenciem seus dados, podendo vendê-los, se quiserem.

Inicialmente, o programa está sendo testado com um grupo selecionado de pessoas, que usarão uma carteira de dados chamada dWallet para pedir empréstimos consignados. Quando eles solicitarem novos empréstimos, os dados serão coletados pelas carteiras, em uma espécie de “poupança de dados”. Eles ficam armazenados e as empresas podem fazer ofertas para comprar essas informações.

Segundo o site Rest of World, funciona como cookies na internet. Só que, nesse caso, se o usuário aceitar ceder os dados, recebe por isso. O pagamento é creditado na própria carteira e pode ser transferido para uma conta bancária.

Passaporte brasileiro, carteira de identidade, CPF e registro de eleitor em fundo branco
No caso do projeto piloto, usuários poderão escolher se querem ou não aceitar proposta das empresas para comprar dados pessoais (Imagem: Nagasima / Shutterstock)

Para que serve o projeto de venda de dados?

Brittany Kaiser, cofundadora da Own Your Data Foundation e consultora do conselho da DrumWave, afirmou ao site que, atualmente, “as pessoas não ganham nada com os dados que compartilham”. A iniciativa as recompensaria por isso.

Para Kaiser, seria uma forma de inserir as pessoas no mercado de dados, que movimenta bilhões por ano, com expectativa de crescimento no futuro. No entanto, por ora, pessoas ‘físicas’ não participam disso.

Rodrigo Assumpção, presidente da Dataprev, também defendeu o piloto em comunicado em abril. Para ele, essa iniciativa pode “lançar as bases para um modelo de propriedade de dados que promova a inclusão financeira e redefina a economia digital sob uma perspectiva mais justa”.

deep learning
Por enquanto, projeto ainda está em fase piloto (Imagem: NicoElNino/Shutterstock)

Vender dados pessoais é recomendável? Especialistas têm dúvidas

Especialistas em proteção de dados no Brasil chamaram atenção para algumas preocupações ligadas ao projeto:

  • A venda de dados tornaria essas informações pessoais uma espécie de commodity, podendo, inclusive, elevar o preço desses ativos;
  • Isso tornaria os dados inacessíveis para empresas menores e até órgãos do governo com orçamento reduzido;
  • O projeto também poderia aumentar a exclusão digital do país, afetando principalmente pessoas em situação de vulnerabilidade.

Quem chamou atenção para essa última hipótese foi Pedro Bastos, pesquisador da Data Privacy Brasil:

Vamos pedir para metade do país que não sabe ler decidir se seus dados podem ser comprados mediante uma determinada taxa. Pessoas em situação de vulnerabilidade dirão que sim, e isso poderá ser usado contra elas.

Pedro Bastos, pesquisador da Data Privacy Brasil, ao Rest of World

Leia mais:

E no resto do mundo?

  • Projetos de venda de dados já apareceram em outros países, como nos Estados Unidos. No entanto, por lá, a ideia não chegou a decolar no governo.
  • No Oriente Médio, Arábia Saudita e Emirados Árabes Unidos criaram sua própria infraestrutura de comercialização de dados, apoiada pelo governo;
  • Já na China, empresas podem tratar dados como ativos;
  • Aqui no Brasil, a esperança é que o projeto vá para frente por se tratar de uma parceira público-privada.

O post Você faria? Brasileiros poderão ganhar dinheiro vendendo dados pessoais apareceu primeiro em Olhar Digital.

iStock-2091026742-1024x576

Conversa com IA terapêutica? Cuidado com o que você diz para elas! Entenda

Imagine um terapeuta que nunca dorme, está sempre disponível e sabe tudo sobre você — mas que pode entregar seus segredos para governos e empresas. A promessa dos chatbots de terapia movidos por IA esconde um lado sombrio: a invasão da privacidade em escala inédita.

Com riscos de vigilância e manipulação, essa tecnologia levanta debate urgente sobre até onde devemos confiar nossas emoções a máquinas — e quem realmente tem acesso a esse universo íntimo.

Além do conforto de ter um “ouvido” digital sempre pronto para escutar, esses chatbots prometem democratizar o acesso à terapia. Mas a realidade pode ser menos acolhedora. Diferente dos profissionais humanos, essas inteligências artificiais não estão obrigadas a manter segredo. Isso significa que suas angústias mais profundas podem virar dados para vigilância em massa.

Empresas enfrentam pressão para proteger dados sensíveis, mas usuários, muitas vezes, desconhecem riscos (Imagem: Eva Almqvist/iStock)

O problema se agrava em contextos políticos mais autoritários. Imagine um governo que monitora não só o que você faz, mas também o que você sente, suas fraquezas emocionais e pensamentos mais íntimos. Com a ausência de regulações claras, a promessa de ajuda pode se transformar em um sistema de vigilância psicológico, capaz de manipular e condicionar comportamentos sem que você perceba.

Empresas sob pressão para proteger dados sensíveis

  • De acordo com reportagem do site The Verge, idealmente, as empresas deveriam evitar o compartilhamento indiscriminado de dados, já que isso pode prejudicar seus negócios;
  • No entanto, muitas acreditam que os usuários desconhecem esses processos, aceitam justificativas simplistas relacionadas à segurança nacional ou já se sentem impotentes diante da perda de privacidade;
  • Para oferecer serviços de terapia realmente confiáveis, as empresas de inteligência artificial precisam adotar padrões rigorosos de segurança e privacidade;
  • Além disso, poderiam implementar sistemas com logs criptografados, garantindo que nem mesmo elas tenham acesso aos dados dos usuários, o que aumentaria, significativamente, a proteção dessas informações sensíveis;

No entanto, a reportagem aponta que essas iniciativas são contraditórias diante do apoio contínuo de algumas dessas empresas a administrações que desconsideram liberdades civis básicas, as quais garantem que as pessoas possam compartilhar suas informações pessoais livremente, inclusive em interações com chatbots.

Leia mais:

Terapias com IA: entre boas intenções e desafios reais

Questionada pelo Verge sobre suas políticas para responder a pedidos governamentais de dados e sobre a possibilidade de aumentar a proteção para chatbots de terapia, a Meta destacou o caráter de “entretenimento e utilidade” de suas inteligências artificiais. Já a OpenAI informou que só libera dados mediante processo legal válido ou em casos de emergência envolvendo risco grave à vida.

Até o momento, não há evidências de que haja uma vigilância em massa por meio desses chatbots. Ainda assim, a recomendação é clara: não se deve buscar terapia por meio dessas plataformas, especialmente em serviços de grande visibilidade nos Estados Unidos. O risco de exposição de informações sensíveis é alto e as proteções, insuficientes.

O ponto mais importante é que, se as empresas querem que usuários compartilhem suas vulnerabilidades mais profundas, elas precisam garantir o mesmo nível de privacidade exigido de profissionais da saúde, em cenário onde o governo respeite esse direito.

Chatbot terapia.
Meta vê IA como ferramenta de entretenimento, enquanto OpenAI libera dados apenas sob ordem legal ou emergências (Imagem: gmast3r/iStock)

O post Conversa com IA terapêutica? Cuidado com o que você diz para elas! Entenda apareceu primeiro em Olhar Digital.

shutterstock_2297152897

Do Big Data à IA autônoma: como criar uma cultura de dados nas empresas

Nos últimos anos, o volume de dados gerados pelas empresas cresceu de forma exponencial. Mas, ao contrário do que se esperava, a maioria delas ainda não sabe o que fazer com tanta informação. É como se tivessem recebido uma biblioteca inteira sem aprender a ler.

Dados não são valor por si só. Sem contexto, sem estrutura, sem perguntas inteligentes por trás, eles são apenas ruído. E mais: sem uma cultura de dados — aquela que orienta decisões, desafia intuições e sustenta estratégias — nem o melhor algoritmo pode salvar uma organização da mediocridade.

De acordo com uma pesquisa recente da NewVantage Partners, embora 91% das empresas entrevistadas estejam investindo em iniciativas de dados e IA, apenas 26,5% afirmam ter realmente conseguido criar uma cultura orientada por dados. O número assusta, mas explica muita coisa: temos tecnologia de sobra e mentalidade de menos. E cultura, nesse caso, não se compra — se constrói.

Muita gente ainda acredita que criar uma cultura de dados é adquirir plataformas, dashboards e ferramentas de business intelligence. Mas cultura não nasce de um software. Ela nasce de comportamento.

É quando o CEO pergunta “o que os dados dizem sobre isso?” antes de tomar uma decisão estratégica. Quando o RH antecipa pedidos de demissão com base em padrões de comportamento. Quando o marketing fala em comportamento preditivo, e não apenas em campanhas de alcance. Quando o chão da fábrica entende que um dado inserido errado pode comprometer toda uma cadeia de decisões.

Cultura de dados não vem de ferramentas, mas de atitudes: nasce quando decisões em todos os níveis são guiadas pelo que os dados realmente dizem (Imagem: FAMILY STOCK/Shutterstock)

Essa mentalidade é o alicerce necessário para que a inteligência artificial possa, de fato, agir com autonomia. Porque IA autônoma — aquela que aprende, ajusta, decide e executa — precisa de dados limpos, estruturados, confiáveis e disponíveis.

E isso não se improvisa. Não adianta sonhar com uma IA estratégica se os dados ainda estão trancados em silos, espalhados em planilhas desconectadas, com má governança e baixa confiabilidade. A IA só consegue aprender com o que oferecemos — e se oferecermos um ambiente caótico, os resultados refletirão exatamente isso.

O ponto mais crítico é que muitas empresas ainda usam os dados como justificativa para decisões já tomadas. Ao invés de guiar a estratégia, os números viram apenas uma chancela do que a alta liderança já decidiu por instinto.

Esse viés de confirmação destrói qualquer chance de desenvolvimento analítico real. Uma cultura de dados de verdade exige humildade: saber ouvir o que os dados dizem mesmo quando contradizem nossas crenças mais arraigadas.

Cultura corporativa.
Em vez de guiarem decisões, os dados ainda servem como aval para escolhas intuitivas (Imagem: Gorodenkoff/Shutterstock)

E isso tem tudo a ver com o futuro. Estamos à beira de uma nova era, em que a IA não será apenas uma assistente, mas uma tomadora de decisão. Para isso, precisamos preparar o terreno agora.

Uma boa pergunta para começar: quem toma decisões na sua empresa — os dados ou os cargos? Se ainda é o cargo que pesa mais, a autonomia da IA vai continuar sendo uma promessa distante.

Leia mais:

Criar uma cultura de dados é uma jornada que começa no topo, mas que só se consolida quando chega na base.

E, paradoxalmente, quanto mais autônoma for a inteligência artificial, mais humana precisa ser a cultura que a sustenta. Porque, no fim das contas, dados não servem para desumanizar processos — mas para revelar padrões, entender comportamentos e melhorar a experiência de quem está na ponta.

Cultura de dados, IA
A cultura de dados começa na liderança, se consolida na base e, quanto mais sustenta a IA, mais precisa ser humana (Imagem: metamorworks/Shutterstock)

O dado mais importante ainda é o humano. E a empresa que entender isso, antes das outras, vai deixar de colecionar dados e começar a construir vantagem competitiva real. Não se trata apenas de transformação digital. Trata-se de transformação cultural.

O post Do Big Data à IA autônoma: como criar uma cultura de dados nas empresas apareceu primeiro em Olhar Digital.

chatbots-chagpt

Cuidado ao usar chatbots: seus dados podem estar em perigo

Quanto mais você conversa com inteligências artificiais como o ChatGPT, mais elas aprendem sobre sua vida. Desde preferências alimentares até detalhes íntimos que você talvez nem contaria para um amigo. O problema? Esses dados podem vazar, ser usados para treinar novas IAs ou até parar em mãos erradas.

É o que alerta o Wall Street Journal, que mergulhou nos bastidores dessas conversas aparentemente inofensivas. Segundo o jornal, ao compartilhar exames médicos, dados bancários ou até segredos corporativos com um chatbot, você pode estar alimentando um banco de dados que pode ser usado para treinar outras IAs – ou, pior, ser alvo de vazamentos.

Por isso, especialistas em segurança digital recomendam cautela. Evite incluir informações sensíveis, como CPF, senhas, documentos e qualquer coisa que você não gostaria que caísse na rede. E, sempre que possível, use os modos temporários ou anônimos desses serviços.

Parece conversa privada, mas pode virar dado público

Chatbots são treinados para parecer gentis, empáticos, quase humanos. E é aí que mora o perigo. Quando você começa a tratá-los como um diário digital ou conselheiro de confiança, pode acabar revelando mais do que devia.

Conversas sobre saúde, finanças ou trabalho carregam dados que deveriam ser tratados com cuidado (Imagem: Gorodenkoff/Shutterstock)

O histórico das falhas já dá calafrios. Em 2023, um bug no ChatGPT fez alguns usuários verem conversas alheias. No mesmo ano, a OpenAI mandou e-mails de confirmação para endereços errados com nome completo, e-mail e até informações de pagamento. Se a empresa for intimada pela Justiça ou alvo de um ataque hacker, tudo o que você compartilhou pode virar parte de um grande vazamento.

Leia mais:

Por isso, a regra é clara: nada de números de documentos, exames médicos, dados bancários ou informações da sua empresa. Evite também passar logins e senhas, mesmo que o bot pareça prestativo. Essas IAs não foram feitas para guardar segredos, só para manter a conversa fluindo.

Sua conversa pode treinar a próxima IA — ou parar nas mãos de um revisor

Ao dar um joinha, ou até um dislike, para a resposta de um bot, você pode estar permitindo que aquela troca entre no banco de dados da empresa. Em casos extremos, como menções a violência ou conteúdo sensível, funcionários humanos podem ser acionados para revisar o conteúdo. Sim, gente de verdade pode ler o que você escreveu achando que era só entre você e a máquina.

IA, chatbot, Chatgpt.
Curtiu a resposta da IA? Alguém pode estar lendo o que você escreveu — e não é um robô (Imagem: TeeStocker/Shutterstock)

Nem todas as empresas fazem isso da mesma forma. O Claude, da Anthropic, promete não usar suas conversas para treinar modelos e apaga os dados em até dois anos. Já o ChatGPT, o Copilot da Microsoft e o Gemini do Google usam as interações como aprendizado – a menos que você desative isso manualmente nas configurações.

Se a ideia de ter alguém espiando sua conversa com a IA te deixa desconfortável, a dica é simples: delete. Os paranoicos de plantão apagam tudo logo após o uso. Mesmo assim, os dados “excluídos” só desaparecem de verdade depois de 30 dias. Ou seja: até no lixo, o seu prompt pode viver por mais um tempinho.

O post Cuidado ao usar chatbots: seus dados podem estar em perigo apareceu primeiro em Olhar Digital.

image-67

IAs compartilham seus dados com outras empresas, diz pesquisa

As suas conversas com chatbots de inteligência artificial (IA) podem não ser tão seguras quanto parecem. Um estudo da Surfshark revelou que um terço das 10 maiores empresas de IA compartilham dados dos usuários sem que eles saibam exatamente como essas informações são usadas.

Além de expor quais dados são coletados, o relatório da empresa de cibersegurança apontou quais tipos de informações são as mais coletadas.

Estudo da Surfshark sobre uso de dados de empresas de I.A (Imagem: Surfshark/Reprodução)

De acordo com o estudo, cerca de 40% das IAs consideradas utiliza a localização dos consumidores, sendo que 30% delas rastreiam os dados pessoais, entre eles contatos, histórico e interações com chatbots. Além disso, boa parte dessas companhias também reúnem informações comportamentais dos usuários.

Saiba como proteger seus dados

  • Utilize IAs confiáveis, muitos bots coletam suas informações sem nem informar o usuário.
  • Verifique as configurações de privacidade do seu chatbot, algumas empresas disponibilizam suas diretrizes de uso, confira se você está de acordo.
  • Evite compartilhar informações sensíveis, como: endereços, senhas e dados pessoais.
  • Desative opções de rastreamento em seus dispositivos.
  • Use extensões de privacidade, como uBlock Origin, Privacy Badger ou Ghostery.
  • Ative a opção “Do Not Track” no seu navegador.
  • Utilize uma VPN confiável para ocultar seu endereço IP.
  • Desative o rastreamento de anúncios em Google, Facebook e outros serviços.
Logos de inteligências artificiais em um smartphone
Empresas de inteligência articifial compartilham dados de usuários para terceiros (Imagem: Tada Images/Shutterstock)

Como cada IA rastreia dados de usuários

Google Gemini

O Gemini é o chatbot que mais coleta dados, registrando 22 dos 35 tipos possíveis. Ele é um dos poucos que coleta localização precisa e reúne informações como nome, e-mail, número de telefone, histórico de navegação e contatos salvos no dispositivo.

ChatGPT

O ChatGPT coleta 10 tipos de dados, incluindo informações de contato, conteúdo das interações, identificadores e informações de uso. No entanto, ele não rastreia usuários para publicidade e não compartilha com terceiros para fins de anúncios. Além disso, há a opção de usar chats temporários, que se apagam automaticamente após 30 dias.

Copilot

O Copilot coleta IDs de dispositivos. Essa informação pode ser usada para associar o comportamento do usuário ao longo do tempo e vinculá-lo a outros bancos de dados para fins de publicidade ou análise de comportamento. Além disso, Copilot pode compartilhar essas informações com terceiros.

Poe

O Poe também realiza rastreamento de usuários, coletando IDs de dispositivos. Essa prática permite que os dados dos usuários sejam cruzados com outras informações coletadas por terceiros, permitindo a exibição de anúncios personalizados ou até mesmo a venda desses dados para corretores de informações digitais.

Jasper

O Jasper é o chatbot que mais rastreia usuários entre os analisados, coletando IDs de dispositivos, dados de interação com o produto, informações publicitárias e outras informações de uso. Ele pode compartilhar essas infos com terceiros ou usá-los para segmentação de anúncios, tornando-o um dos mais invasivos nesse aspecto.

Leia mais:

DeepSeek

O DeepSeek coleta 11 tipos de dados, incluindo histórico de chat e infos do usuário, armazenando-os em servidores. Embora não seja mencionado o uso explícito para rastreamento publicitário, seus servidores já sofreram um vazamento de mais de 1 milhão de registros, incluindo conversas e chaves de API.

O post IAs compartilham seus dados com outras empresas, diz pesquisa apareceu primeiro em Olhar Digital.