Chủ đề thịnh hành
#
Bonk Eco continues to show strength amid $USELESS rally
#
Pump.fun to raise $1B token sale, traders speculating on airdrop
#
Boop.Fun leading the way with a new launchpad on Solana.
Từ góc độ kỹ thuật, mâu thuẫn cốt lõi mà @0G_labs giải quyết là mâu thuẫn giữa mở rộng và phi tập trung. Nhìn chung, tất cả các giải pháp trước đây đều phải thỏa hiệp giữa hai yếu tố này, hoặc là nhanh nhưng tập trung, hoặc là phi tập trung nhưng chậm đến mức không thể chịu nổi.
Đột phá của 0G Labs nằm ở khung DiLoCoX, đã thành công trong việc huấn luyện mô hình AI với 10,7 tỷ tham số dưới băng thông 1 Gbps. Con số này nhìn qua có vẻ không ấn tượng, nhưng thực tế là nó lớn gấp 10 lần so với Intellect-1 của PrimeIntellect! Hơn nữa, băng thông sử dụng chỉ là băng thông văn phòng thông thường.
Điều quan trọng hơn là, đột phá công nghệ này đã thông suốt "km cuối" của DeAI. Trước đây, dựa trên mô hình LLM lớn, mọi người đều nhận thức rằng AI phi tập trung là tương lai, nhưng thực tế là việc huấn luyện mô hình LLM lớn vẫn phải dựa vào các trung tâm siêu máy tính. Bây giờ, với thiết bị phân tán thông thường cũng có thể làm được việc này, và hiệu suất cũng không tệ.
🌟 Phân tích kiến trúc mô-đun 0G
0G Storage: Lưu trữ phi tập trung
0G DA: Tầng khả dụng của dữ liệu
0G Serving: Dịch vụ suy diễn AI
0G Chain: Mạng đồng thuận hiệu suất cao
Bộ kết hợp này đã giúp toàn bộ hệ thống đạt được thông lượng 50 GB/s, nhanh hơn 50.000 lần so với các đối thủ hiện tại, và chi phí còn rẻ hơn 100 lần.
Bài báo của Forbes đã đề cập đến một điểm rất quan trọng: đây không chỉ là kỹ thuật trình diễn, mà thực sự biến AI thành hàng hóa công cộng. Khi việc huấn luyện mô hình lớn không còn cần cơ sở hạ tầng đắt đỏ, khi các nhà phát triển thông thường cũng có thể tham gia vào việc xây dựng AI, toàn bộ cấu trúc ngành sẽ được tái định hình. Và @0G_labs chính là người thay đổi cấu trúc đó.
36,71K
Hàng đầu
Thứ hạng
Yêu thích