Nos últimos dias o DeepSeek apresentou seu novo modelo de inteligência artificial, o R1-0528. A ferramenta é capaz de executar cálculos matemáticos mais complexos e com uma menor incidência de respostas incorretas.
A empresa chinesa não revelou a fonte dos dados usados durante o treinamento. Para alguns pesquisadores de IA, há evidências de que o chatbot tenha sido treinado a partir de uma tecnologia rival: o Gemini, do Google.
Empresa chinesa já foi acusada de usar ferramentas rivais
De acordo com Sam Paech, desenvolvedor de Melbourne que cria avaliações de “inteligência emocional” para IA, o modelo do DeepSeek prefere palavras e expressões semelhantes às que o Gemini 2.5 Pro utiliza em suas pesquisas. Outro especialista na área, o criador pseudônimo da chamada SpeechMap, observou que os traços do modelo R1-0528 são muito parecidos com os da ferramenta do Google.
Lembrando que a empresa chinesa já foi acusada de treinar seus modelos com dados de IAs rivais. Em dezembro do ano passado, desenvolvedores observaram que o modelo V3 frequentemente se identificava como ChatGPT.

Já no início do ano, a OpenAI disse que encontrou evidências ligando o DeepSeek ao uso de destilação, uma técnica para treinar modelos de IA extraindo dados de modelos maiores e mais capazes. A Microsoft ainda detectou que grandes quantidades de dados estavam sendo transferidas ilegalmente por meio de contas que acredita-se serem ligadas ao DeepSeek.
As informações fazem parte de reportagem do portal TechCrunch. O Google e o DeepSeek foram procurados, mas não se manifestaram oficialmente sobre o assunto até o momento.
Leia mais
- DeepSeek: atualização da IA aumentou censura da China
- DeepSeek: IA chinesa recebe nova atualização
- DeepSeek: atualização melhora raciocínio e faz IA ‘alucinar’ menos
- DeepSeek: segredo da IA chinesa pode estar no seu fundador

Lançamento do DeepSeek foi um marco
- A IA do DeepSeek foi projetada para lidar com tarefas complexas de raciocínio e tem apresentado resultados surpreendentes.
- O grande diferencial é o baixo custo da tecnologia, o que pode ameaçar a posição dominante dos principais players.
- Para se ter uma ideia, o modelo chinês foi treinado ao custo de aproximadamente US$ 6 milhões, enquanto ferramentas como o Llama 3.1, da Meta, custaram mais de US$ 60 milhões para serem desenvolvidos.
- A empresa chinesa adota estratégias como o chamado aprendizado por reforço, que permite que os modelos aprendam por tentativa e erro.
- Além disso, ativa apenas uma fração dos parâmetros do modelo para tarefas específicas, economizando recursos computacionais.
- E melhora a capacidade dos modelos de processar dados e identificar padrões complexos.
- A startup ainda adota um modelo parcialmente aberto, permitindo que pesquisadores acessem seus algoritmos.
- Isso democratiza o acesso à IA avançada e promove maior colaboração na comunidade global de pesquisa.
O post DeepSeek: IA chinesa teria sido treinada com modelo rival apareceu primeiro em Olhar Digital.
Leave A Comment