Pesquisadores treinam modelo de IA rival da OpenAI por menos de US$ 50

Pesquisadores treinam modelo de IA rival da OpenAI por menos de US$ 50

Um grupo de pesquisadores das universidades de Stanford e Washington surpreendeu o mundo da inteligência artificial ao anunciar o desenvolvimento de um modelo de IA chamado “s1”, que apresenta capacidades de raciocínio comparáveis ao modelo “o1” da OpenAI. O detalhe mais impressionante é o custo do treinamento: menos de US$ 50. Esse feito desafia a ideia de que a criação de modelos avançados exige investimentos milionários e abre novas perspectivas para o desenvolvimento acessível de IA.

A estratégia por trás do s1

A chave para essa inovação está na técnica conhecida como destilação de conhecimento. Em vez de desenvolver um modelo do zero — um processo que normalmente custa milhões de dólares e demanda uma infraestrutura computacional robusta — os pesquisadores transferiram o conhecimento de um modelo maior e mais poderoso para um modelo menor e mais eficiente.

Para isso, eles utilizaram o Qwen2.5-32B, um modelo de linguagem de código aberto desenvolvido pelo laboratório chinês Qwen, pertencente ao Alibaba. Além disso, o time de cientistas extraiu as capacidades de raciocínio do modelo experimental Gemini 2.0 Flash Thinking, do Google, refinando-o por meio de um conjunto de apenas 1.000 perguntas e respostas cuidadosamente selecionadas. Isso permitiu ao modelo “s1” aprender a raciocinar de maneira estruturada sem a necessidade de um volume massivo de dados e treinamento.

Treinamento rápido e econômico

Outro fator fundamental para a redução de custos foi a utilização de infraestrutura em nuvem. O treinamento do “s1” levou menos de 30 minutos e foi realizado com apenas 16 GPUs NVIDIA H100 alugadas, um investimento que ficou abaixo de US$ 50. Essas GPUs são extremamente caras — cada unidade custa cerca de US$ 25.000 — mas ao alugar os recursos por um curto período, os pesquisadores conseguiram treinar o modelo com um custo drasticamente reduzido.

Para melhorar a precisão do modelo, os cientistas implementaram um recurso interessante: instruíram o “s1” a “esperar” antes de fornecer uma resposta final. Esse tempo extra permitiu que o modelo revisasse seu próprio raciocínio, resultando em respostas mais precisas e refinadas.

Os desafios do s1

Apesar dos avanços significativos, o modelo “s1” enfrenta alguns desafios. Como ele foi treinado a partir do modelo do Google, surgem dúvidas sobre questões legais e de escalabilidade, caso a empresa decida contestar o uso do seu modelo experimental como base para a nova IA.

Além disso, especialistas questionam se a abordagem pode ser replicada para modelos ainda mais avançados sem comprometer a qualidade dos resultados. Entretanto, o projeto abre um debate importante sobre o desenvolvimento de IA acessível e descentralizada, reduzindo a dependência das gigantes da tecnologia.

O futuro da IA acessível

O “s1” já está disponível no GitHub, permitindo que pesquisadores e desenvolvedores ao redor do mundo explorem suas capacidades e contribuam para o aprimoramento do modelo. Esse avanço pode representar um divisor de águas no setor de inteligência artificial, possibilitando que mais instituições acadêmicas e pequenas empresas entrem no mercado de IA sem precisar de investimentos astronômicos.

O impacto dessa descoberta vai além do custo reduzido. A possibilidade de treinar modelos avançados com um orçamento acessível pode impulsionar a inovação em diversas áreas, desde a automação de tarefas até o desenvolvimento de assistentes inteligentes para empresas e consumidores finais.

Com essa nova abordagem, o futuro da inteligência artificial pode estar mais democrático e descentralizado, trazendo uma concorrência saudável para empresas como OpenAI, Google e outras grandes desenvolvedoras de modelos de linguagem. O “s1” é uma prova de que é possível criar inteligências artificiais poderosas sem precisar de bilhões de dólares — e essa pode ser a chave para o próximo grande avanço tecnológico.

Adicionar aos favoritos o Link permanente.