shutterstock_1816844858

O algoritmo nos deixou burros(as). E você ainda curtiu este post

Você lê notícias pelo celular, reproduz o que aquele(a) influenciador(a) diz e acredita que está bem-informado(a), que as suas opiniões são fruto de reflexão própria e crítica. Mas e se grande parte do que você pensa – ou pensa que pensa, tiver sido moldada por sistemas automatizados que conhecem as suas preferências, aversões e o que te faz clicar?

Seja bem-vindo(a) à bolha de informação. Um ambiente confortável, colorido, sedutor e perigosamente eficaz.

Fato que as redes sociais foram projetadas para conectar pessoas. Mas, na prática, tornaram-se máquinas de confirmação: filtram o que você vê, reforçam o que já pensa e silenciam o que te desagrada. Os algoritmos são treinados para maximizar seu tempo de engajamento — não para promover diversidade de ideias, pensamento crítico, aversão, reflexões complexas ou pluralidade de visões.

E sim, isso não é por acaso. É arquitetura.

Um estudo publicado na revista Teknokultura analisou o comportamento de 1361 adolescentes brasileiros e revelou que cerca de 90% utilizam sites de redes sociais como principal fonte de informação, enquanto apenas 3,8% recorrem a meios de comunicação formais.

Além disso, o fenômeno das “câmaras de eco” – espaço que têm o potencial de ampliar as mensagens entregues ali e isolá-las das mensagens que as contradizem – é amplificado por algoritmos que priorizam conteúdo semelhante ao que você já consome, limitando sua exposição a perspectivas divergentes.

Em tempos de hiperconectividade, a manipulação em massa ganhou novas formas — silenciosas, algoritmizadas e invisíveis (Imagem: Branko Devic/Shutterstock)

Nas conhecidas bolhas digitais (assim como existem as bolhas sociais), as ideias não são apenas repetidas — são amplificadas, distorcidas e servidas em eterno loop. A partir do que lhe é apresentado nas redes, você começa a acreditar que todos pensam como você e, quando encontra alguém que discorda, parece estar lidando com um inimigo, alguém que absurdamente não entende nada do seu mundo perfeito, honesto e lógico.

Sendo assim, nesse mundo de bolhas de desinformação, a pluralidade torna-se exceção, o debate desaparece e polarização vira regra.

Leia mais:

Para não me tornar radical, vamos ser um pouco mais críticos e dividir as responsabilidades: o problema não está apenas no algoritmo, mas na ignorância da confiança cega que depositamos nele. Está na ausência de responsabilidade de produtores de conteúdo, na inexistência popular de pensamento crítico, na falta de transparência nas plataformas e na ausência de regulação em um ambiente que influencia eleições, movimentos sociais e até a saúde mental de populações inteiras.

Enquanto a boiada segue, continuamos alimentando sistemas que nos mantêm entretidos, viciados e — mais alarmante — ignorantes multiplicadores desinformados.

Manipulação digital de massas.
Nas bolhas digitais, vemos apenas o que reforça nossas crenças — o diferente é filtrado, o contraditório, silenciado (Imagem: kentoh/Shutterstock)

Para quem deseja tentar furar a bolha, há saída, mas exige esforço: buscar fontes diversas, seguir vozes que pensam diferente, verificar antes de compartilhar e cobrar responsabilidade das big techs. O que é público precisa ser transparente. O que influencia milhões deve ser regulado.

Afinal, se a sua timeline só confirma o que você já pensa, você não está se informando. Está sendo alimentado. E o que é alimentado demais, uma hora é engolido.

O post O algoritmo nos deixou burros(as). E você ainda curtiu este post apareceu primeiro em Olhar Digital.

hackers-e1703599213784-1024x576

Hackers: como lidar com a cibersegurança na era da IA Generativa?

A Inteligência Artificial (IA) Generativa cresce exponencialmente, trazendo benefícios que vão da automatização de processos à geração de insights estratégicos. No entanto, essa expansão também amplia os desafios da segurança cibernética, tornando essencial a adoção de medidas preventivas.

Para se ter uma ideia, a Associação de Defesa de Dados Pessoais e do Consumidor (ADDP) aponta que os crimes cibernéticos aumentaram 45% no Brasil em 2024. Isso significa que uma em cada quatro pessoas são alvos de golpes. Hackers estão se adaptando e usando IA para criar ataques mais sofisticados e difíceis de identificar.

Um dos exemplos é o uso das deepfakes, técnica baseada em IA para criar imagens e áudios falsos que parecem reais. Segundo a Sumsub, plataforma de verificação de identidade, essa prática cresceu 830% no Brasil entre 2022 e 2023. Trata-se de uma tática para manipular informações, explorar a credibilidade de figuras públicas e induzir fraudes. Não à toa, as figuras de famosos e celebridades são muito utilizadas por criminosos nesta abordagem.

Os ataques de phishing também se tornaram mais sofisticados. A consultoria de cibersegurança Redbelt Security estima que mais de 3,5 milhões de brasileiros foram vítimas desses golpes em 2023. O crescimento de dispositivos conectados e da coleta constante de dados sensíveis precisam, mais do que nunca, de uma proteção digital reforçada.

Fortalecendo a segurança digital

Diante dessas ameaças, empresas e usuários precisam reforçar suas estratégias de defesa. O setor de tecnologia tem um papel fundamental na proteção de plataformas e serviços de IA Generativa, garantindo que novas soluções não se tornem ferramentas para ataques cibernéticos. Além do desenvolvimento de tecnologias mais seguras, a educação digital é essencial.

A falta de conscientização sobre práticas básicas de segurança amplia as vulnerabilidades e compromete a confiança na inovação.

Enfatizar a importância de se preocupar com a privacidade, segurança e veracidade das informações nunca é demais.

A falta de conscientização e de práticas adequadas sobre tópicos ligados à cibersegurança não só eleva vulnerabilidades digitais, como também trava o desenvolvimento da IA como uma ferramenta de inovação, que precisa ser uma aliada dos seres humanos na sociedade e no mercado.

Cibersegurança nas empresas deixou de ser opção — é necessidade estratégica (Imagem: shutterstock/Rawpixel.com)

Só com esse olhar proativo sobre a educação digital é que a população estará ciente de assuntos que parecem básicos, mas não são. Um grande exemplo disso é o conhecimento completo dos dados pessoais que estão compartilhando.

Parece “chover no molhado” dizer que não é recomendável abrir informações sensíveis em sites ou formulários suspeitos, ou que a gente precisa usar senhas fortes e diferentes para cada serviço on-line, mas definitivamente essa é uma tecla que deve ser batida constantemente.

Leia mais:

Podemos citar a importância de utilizar fontes confiáveis e reconhecidas no momento de se informar, como portais de notícias estabelecidos e organizações respeitáveis. Principalmente quando entramos no mérito das deepfakes, procurar evidências que corroborem um determinado assunto em mais de um canal e comparar conteúdos não é perda de tempo, mas sim uma forma de certificar que se trata de algo real. Cada vez mais, precisaremos desenvolver um “ceticismo crítico” a respeito das notícias, imagens e vídeos que vemos em aplicativos de mensagens e redes sociais.

Ilustração de deepfake de rosto de mulher
Deepfakes crescem no Brasil e viram arma poderosa para fraudes digitais (Imagem: metamorworks/Shutterstock)

É com esses passos mais “simples” de engenharia social que outras defesas podem ser adotadas. Medidas de proteção como anonimização e criptografia, por exemplo, são ótimas provas de como reduzir riscos e complementar as barreiras contra cibercriminosos.

Lembre-se: a evolução da IA é irreversível. Portanto, sua segurança deve acompanhar esse ritmo. Todos precisam assumir um compromisso contínuo com essa missão e abraçar uma mudança cultural que valoriza o pensamento crítico. Somente assim vamos caminhar para um futuro verdadeiramente inovador.

O post Hackers: como lidar com a cibersegurança na era da IA Generativa? apareceu primeiro em Olhar Digital.