shutterstock_2385188641

Descubra por que a letra do médico é um mistério científico

Você já se perguntou por que tantas receitas médicas parecem escritas em outro idioma? A resposta vai além da correria do consultório. Neurociência, anatomia, aprendizado motor e até influências culturais estão por trás da caligrafia indecifrável de muitos profissionais da saúde. Entender isso pode revelar muito sobre como o cérebro humano transforma pensamento em traço no papel.

Escrever à mão é uma das tarefas mais complexas que nosso corpo realiza. Ela exige que o cérebro coordene, em tempo real, os olhos, os músculos das mãos e os movimentos finos dos dedos. Tudo isso enquanto organizamos o pensamento em palavras. Fatores como lateralidade (ser destro ou canhoto), postura e até a firmeza da pegada influenciam no resultado final da letra. E sim, isso varia de pessoa para pessoa.

No caso dos médicos, o cenário é ainda mais desafiador. A rotina intensa, o grande volume de pacientes e a necessidade de escrever rápido favorecem a adoção de garranchos e abreviações. Com o tempo, essa escrita apressada vira hábito. Não por acaso, leis em estados brasileiros já exigem que receitas sejam digitadas ou escritas de forma legível, numa tentativa de evitar erros e mal-entendidos na hora de interpretar indicações de remédios.

Entre o cérebro e o papel: por que nem todo mundo escreve bem?

É o que destaca recente matéria da BBC – estudos em neurociência mostram que a escrita à mão envolve regiões cerebrais ligadas à memória motora, à linguagem e à percepção visual. Pequenas variações anatômicas e diferenças no desenvolvimento dessas áreas podem impactar diretamente a caligrafia. Ou seja: sua letra pode ser difícil de ler não porque você “escreve mal”, mas porque seu cérebro organiza os movimentos de forma única.

A caligrafia dos médicos muitas vezes vem da pressão e da rapidez exigidas pela rotina intensa (Imagem: Inside Creative House/Shutterstock)

Além disso, a forma como aprendemos a escrever também conta. A infância é um período-chave, quando imitamos adultos e professores, e cada estilo de ensino influencia o resultado. Em muitos países, inclusive no Brasil, o ensino da caligrafia perdeu espaço para o uso de teclados e telas, o que significa menos tempo de prática e mais dificuldade de desenvolver uma escrita consistente.

Leia mais:

Outro ponto curioso é que a caligrafia também carrega marcas culturais. Em países asiáticos, por exemplo, onde a escrita exige mais precisão visual e gestual, o treino é mais rigoroso e prolongado. Já em países ocidentais, o foco no conteúdo muitas vezes supera a forma. O resultado? Letras menos padronizadas e, em muitos casos, mais difíceis de decifrar.

Letra feia, cérebro afiado

Apesar da fama, a caligrafia não diz muito sobre a capacidade intelectual de alguém. Médicos com letras difíceis de ler são prova disso. O que parece desleixo, muitas vezes, é resultado de um cérebro trabalhando rápido demais para as mãos acompanharem.

Letra de médico.
Letra difícil não indica falta de inteligência; muitas vezes, é um cérebro rápido demais para a mão acompanhar (Imagem: TippaPatt/Shutterstock)

O avanço da tecnologia e a digitalização de prontuários tendem a reduzir os riscos causados por letras ilegíveis, mas a escrita manual ainda é um traço importante da nossa individualidade. Ela carrega história, contexto e até emoção.

No fim das contas, entender por que escrevemos como escrevemos é mais do que uma curiosidade. Trata-se de uma forma de olhar para os caminhos únicos que cada mente percorre entre o pensamento e a palavra escrita.

O post Descubra por que a letra do médico é um mistério científico apareceu primeiro em Olhar Digital.

chatbots-chagpt-1

Assistentes de IA reforçam estereótipos culturais na escrita, aponta estudo

O debate acerca da reprodução de preconceitos por sistemas de inteligência artificial já vem acontecendo há alguns anos. Agora, pesquisadores da Universidade Cornell apontam que essa tecnologia também pode fortalecer estereótipos culturais na escrita, tornando-a mais genérica e fazendo com que usuários do Sul Global soem como americanos.

Entenda:

  • Assistentes de IA podem tornar a escrita mais genérica e estereotipada, alertam cientistas;
  • Em um novo estudo, a IA tornou a linguagem de participantes indianos mais parecidas com a dos estadunidenses;
  • Além disso, as sugestões de preenchimento automático foram baseadas nas preferências dos americanos;
  • Precisando adequar as sugestões à sua linguagem e repertório cultural, os indianos tiveram uma produtividade menor e, com isso, os assistentes de IA se mostraram menos úteis. 
Assistentes de IA reforçam estereótipos culturais e tornam escrita genérica. (Imagem: Gorodenkoff/Shutterstock)

Como explica a equipe em comunicado, as ferramentas de IA mais populares (como o ChatGPT) são desenvolvidas principalmente por empresas dos EUA, mas usadas ao redor de todo o planeta – incluindo 85% da população do Sul Global.

Leia mais:

Assistentes de IA tornam escrita genérica com base em estereótipos

Para o estudo, os pesquisadores de Cornell reuniram 59 pessoas da índia e 59 dos Estados Unidos, e pediram que escrevessem sobre temas culturais.

Metade dos participantes de cada país realizou a tarefa de forma independente, e a outra metade usou um assistente de IA que deu sugestões curtas de preenchimento automático.

Foram registradas as teclas digitadas pelos participantes e se eles aceitaram ou não as sugestões da IA. De acordo com a equipe, o assistente deixou a escrita das duas nacionalidades mais parecida – por outro lado, trouxe uma queda de produtividade para os indianos, que precisaram corrigir frequentemente as sugestões.

Debate sobre reforço de estereótipos e preconceitos por IA já acontece há anos. (Imagem: photosince/Shutterstock)

Por exemplo, diante de temas como comidas ou feriados preferidos, as sugestões do assistente de IA foram baseadas nas preferências dos americanos (pizza e Natal). A equipe também revelou que se um participante indiano tentasse escrever o nome de Shah Rukh Khan, ator de Bollywood, para falar sobre uma figura pública, a IA sugeriria Scarlett Johansson ou Shaquille O’Neil como preenchimento automático após o “S”.

Assistente de escrita de IA foi menos útil para participantes indianos

A análise também aponta que, ainda que os indianos tenham aceitado mais as sugestões da IA do que os americanos, elas acabaram não sendo tão úteis. Isso porque as respostas precisaram ser mais editadas para combinar com o estilo de escrita e o repertório cultural dos indianos em cada tema.

“O uso de IA na escrita pode levar a estereótipos culturais e homogeneização da linguagem. As pessoas começam a escrever de forma semelhante, e não é isso que queremos”, diz Aditya Vashistha, autor sênior da pesquisa.

O post Assistentes de IA reforçam estereótipos culturais na escrita, aponta estudo apareceu primeiro em Olhar Digital.

shutterstock_2297152897

Do Big Data à IA autônoma: como criar uma cultura de dados nas empresas

Nos últimos anos, o volume de dados gerados pelas empresas cresceu de forma exponencial. Mas, ao contrário do que se esperava, a maioria delas ainda não sabe o que fazer com tanta informação. É como se tivessem recebido uma biblioteca inteira sem aprender a ler.

Dados não são valor por si só. Sem contexto, sem estrutura, sem perguntas inteligentes por trás, eles são apenas ruído. E mais: sem uma cultura de dados — aquela que orienta decisões, desafia intuições e sustenta estratégias — nem o melhor algoritmo pode salvar uma organização da mediocridade.

De acordo com uma pesquisa recente da NewVantage Partners, embora 91% das empresas entrevistadas estejam investindo em iniciativas de dados e IA, apenas 26,5% afirmam ter realmente conseguido criar uma cultura orientada por dados. O número assusta, mas explica muita coisa: temos tecnologia de sobra e mentalidade de menos. E cultura, nesse caso, não se compra — se constrói.

Muita gente ainda acredita que criar uma cultura de dados é adquirir plataformas, dashboards e ferramentas de business intelligence. Mas cultura não nasce de um software. Ela nasce de comportamento.

É quando o CEO pergunta “o que os dados dizem sobre isso?” antes de tomar uma decisão estratégica. Quando o RH antecipa pedidos de demissão com base em padrões de comportamento. Quando o marketing fala em comportamento preditivo, e não apenas em campanhas de alcance. Quando o chão da fábrica entende que um dado inserido errado pode comprometer toda uma cadeia de decisões.

Cultura de dados não vem de ferramentas, mas de atitudes: nasce quando decisões em todos os níveis são guiadas pelo que os dados realmente dizem (Imagem: FAMILY STOCK/Shutterstock)

Essa mentalidade é o alicerce necessário para que a inteligência artificial possa, de fato, agir com autonomia. Porque IA autônoma — aquela que aprende, ajusta, decide e executa — precisa de dados limpos, estruturados, confiáveis e disponíveis.

E isso não se improvisa. Não adianta sonhar com uma IA estratégica se os dados ainda estão trancados em silos, espalhados em planilhas desconectadas, com má governança e baixa confiabilidade. A IA só consegue aprender com o que oferecemos — e se oferecermos um ambiente caótico, os resultados refletirão exatamente isso.

O ponto mais crítico é que muitas empresas ainda usam os dados como justificativa para decisões já tomadas. Ao invés de guiar a estratégia, os números viram apenas uma chancela do que a alta liderança já decidiu por instinto.

Esse viés de confirmação destrói qualquer chance de desenvolvimento analítico real. Uma cultura de dados de verdade exige humildade: saber ouvir o que os dados dizem mesmo quando contradizem nossas crenças mais arraigadas.

Cultura corporativa.
Em vez de guiarem decisões, os dados ainda servem como aval para escolhas intuitivas (Imagem: Gorodenkoff/Shutterstock)

E isso tem tudo a ver com o futuro. Estamos à beira de uma nova era, em que a IA não será apenas uma assistente, mas uma tomadora de decisão. Para isso, precisamos preparar o terreno agora.

Uma boa pergunta para começar: quem toma decisões na sua empresa — os dados ou os cargos? Se ainda é o cargo que pesa mais, a autonomia da IA vai continuar sendo uma promessa distante.

Leia mais:

Criar uma cultura de dados é uma jornada que começa no topo, mas que só se consolida quando chega na base.

E, paradoxalmente, quanto mais autônoma for a inteligência artificial, mais humana precisa ser a cultura que a sustenta. Porque, no fim das contas, dados não servem para desumanizar processos — mas para revelar padrões, entender comportamentos e melhorar a experiência de quem está na ponta.

Cultura de dados, IA
A cultura de dados começa na liderança, se consolida na base e, quanto mais sustenta a IA, mais precisa ser humana (Imagem: metamorworks/Shutterstock)

O dado mais importante ainda é o humano. E a empresa que entender isso, antes das outras, vai deixar de colecionar dados e começar a construir vantagem competitiva real. Não se trata apenas de transformação digital. Trata-se de transformação cultural.

O post Do Big Data à IA autônoma: como criar uma cultura de dados nas empresas apareceu primeiro em Olhar Digital.