С технической точки зрения, @0G_labs решает наиболее важный конфликт между масштабируемостью и децентрализацией. Если посмотреть на предыдущие решения, все они делали компромисс между этими двумя аспектами: либо быстро, но централизованно, либо децентрализованно, но ужасно медленно. Прорыв 0G Labs заключается в рамках DiLoCoX, которые успешно обучили AI модель с 10,7 миллиарда параметров на пропускной способности 1 Гбит/с. Эта цифра на первый взгляд может показаться незначительной, но на самом деле она в 10 раз больше, чем у Intellect-1 от PrimeIntellect! И при этом использовалась обычная офисная пропускная способность. Что еще более важно, этот технологический прорыв напрямую решает последнюю милю DeAI. Ранее, основываясь на больших моделях LLM, все считали, что децентрализованный AI — это будущее, но на самом деле обучение больших моделей LLM по-прежнему требует суперкомпьютерных центров. Теперь с помощью распределенных обычных устройств это также возможно, и эффективность не уступает. 🌟Модульная архитектура 0G 0G Storage: децентрализованное хранилище 0G DA: уровень доступности данных 0G Serving: сервис AI вывода 0G Chain: высокопроизводительная сеть консенсуса Этот набор позволяет всей системе достичь пропускной способности 50 ГБ/с, что в 50 000 раз быстрее, чем у существующих конкурентов, и при этом в 100 раз дешевле. В отчете Forbes упоминается очень важный момент: это не просто демонстрация технологий, а действительно превращение AI в общественное благо. Когда обучение больших моделей больше не требует баснословной инфраструктуры, и обычные разработчики могут участвовать в создании AI, вся отрасль будет переосмыслена. А @0G_labs — это тот, кто меняет правила игры.
36,71K