Do ponto de vista técnico, a contradição mais central que @0G_labs resolve é a contradição entre escalabilidade e descentralização. Olhando para trás, todas as soluções anteriores fizeram compromissos entre essas duas, ou são rápidas mas centralizadas, ou são descentralizadas mas extremamente lentas. A inovação da 0G Labs está no framework DiLoCoX, que conseguiu treinar um modelo de IA com 107 bilhões de parâmetros sob uma largura de banda de 1 Gbps. Esse número pode não parecer muito, mas a realidade é que é exatamente 10 vezes maior que o Intellect-1 da PrimeIntellect! E a largura de banda utilizada é a de um escritório comum. Mais importante ainda, esse avanço tecnológico conecta diretamente o último quilômetro do DeAI. Antes, com base em grandes modelos LLM, a percepção era de que a IA descentralizada era o futuro, mas na prática, treinar grandes modelos LLM ainda dependia de centros de supercomputação. Agora, com dispositivos comuns e distribuídos, isso também pode ser feito, e a eficiência não é ruim. 🌟 Desagregação da arquitetura modular 0G 0G Storage: armazenamento descentralizado 0G DA: camada de disponibilidade de dados 0G Serving: serviço de inferência de IA 0G Chain: rede de consenso de alto desempenho Esse conjunto permite que a taxa de transferência do sistema atinja 50 GB/s, 50 mil vezes mais rápido que os concorrentes atuais, e o custo é 100 vezes mais barato. Um ponto crucial mencionado na reportagem da Forbes: isso não é apenas uma exibição técnica, mas realmente transforma a IA em um bem público. Quando treinar grandes modelos não requer mais uma infraestrutura caríssima, e quando desenvolvedores comuns também podem participar na construção da IA, todo o setor será reconfigurado. E @0G_labs é quem está mudando esse cenário.
36,7K