
Subnet 3 của Bittensor, còn gọi là Templar, vừa hoàn thành quá trình huấn luyện mô hình ngôn ngữ lớn phi tập trung lớn nhất lịch sử. Mô hình này mang tên Covenant-72B với 72 tỷ tham số, được huấn luyện bởi hơn 70 nhà đóng góp độc lập sử dụng GPU phổ thông kết nối qua internet gia đình. Không cần trung tâm dữ liệu tập trung, không cần danh sách chấp thuận công ty, không cần ngân sách hạ tầng hàng trăm triệu USD. Kết quả đạt 67.1 điểm trên thang đánh giá MMLU, tương đương Meta Llama 2 70B – một sản phẩm của phòng thí nghiệm AI hàng đầu thế giới.
TAO, token gốc của Bittensor, đã phản ứng rõ rệt. Giá token tăng khoảng 90% chỉ trong tháng 3/2026, hiện giao dịch quanh mức 313 USD với vốn hóa thị trường gần 3,4 tỷ USD. Jensen Huang, CEO Nvidia, gọi mô hình của Bittensor là "phiên bản hiện đại của folding@home" trong podcast All-In, và chỉ trong 48 giờ, thị trường token AI tăng thêm 40,9% trong một ngày.
Dưới đây là những gì Covenant-72B đã thực hiện, kiến trúc subnet của Bittensor cho phép điều đó, và tác động đến holder TAO trong tương lai.
Thành tựu thực tế của Covenant-72B
Huấn luyện một mô hình ngôn ngữ với 72 tỷ tham số rất tốn kém. OpenAI, Google và Anthropic dành hàng chục triệu USD vào các cụm GPU trong trung tâm dữ liệu chuyên dụng để tạo ra các mô hình tiên tiến. Covenant-72B đi theo hướng hoàn toàn khác. Thay vì thuê cụm tính toán tập trung, giao thức Templar điều phối hơn 70 miner toàn cầu, mỗi người đóng góp GPU qua kết nối internet tiêu chuẩn, để cùng xử lý xấp xỉ 1,1 nghìn tỷ token.
Đột phá công nghệ giúp điều này thành hiện thực là SparseLoCo. Kỹ thuật này giảm tải liên lạc giữa các node tới 146 lần bằng cách sử dụng sparsification, lượng tử hóa 2-bit và phản hồi lỗi, nghĩa là các thành viên không cần đường truyền tốc độ cao đắt tiền để đồng bộ hóa quá trình đào tạo. Hệ thống chấm điểm đóng góp Gauntlet đánh giá đầu ra của mỗi node qua loss evaluation và OpenSkill ranking, tất cả được ghi nhận trên blockchain Bittensor. Node đóng góp chất lượng được nhận nhiều TAO hơn; node hoạt động kém bị giảm thưởng.
Kết quả là một mô hình mã nguồn mở hoàn toàn, với weights và checkpoint được phát hành theo giấy phép Apache. Một bài báo trên arXiv tháng 3/2026 xác nhận điểm MMLU zero-shot đạt 67.1, vượt LLaMA-2-70B và chuẩn LLM360 K2. Tuy không đạt hiệu suất hàng đầu như GPT-4, nhưng điều quan trọng là một mạng lưới không cần cấp phép, các thành viên ẩn danh, chỉ phối hợp qua động lực kinh tế và quy tắc giao thức, đã tạo ra một mô hình cạnh tranh với các phòng lab AI trị giá hàng tỷ USD.
Kiến trúc Subnet của Bittensor hoạt động ra sao?
Bittensor không phải một mô hình AI duy nhất, mà là mạng lưới các subnet chuyên biệt, mỗi subnet dành cho một nhiệm vụ học máy khác nhau. Có thể hình dung như một marketplace nơi các dịch vụ AI cạnh tranh nhận thưởng dựa trên chất lượng đầu ra. Subnet 1 xử lý prompt văn bản, Subnet 3 (Templar) lo huấn luyện mô hình phân tán cho Covenant-72B. Các subnet khác tập trung vào tạo ảnh, dự đoán thể thao, an ninh mạng, v.v.
Mỗi subnet gồm miner (tạo đầu ra AI) và validator (đánh giá chất lượng đầu ra). Động lực kinh tế phía dưới là cơ chế Yuma Consensus, phân phối phần thưởng TAO theo giá trị đóng góp của từng thành viên. Miner cạnh tranh để tạo kết quả tốt nhất. Validator stake TAO để có quyền chấm điểm. Kết quả kém bị phạt, kết quả tốt được thưởng tương ứng. Tất cả vận hành mà không có tổ chức trung tâm kiểm soát tiêu chuẩn hay quyền truy cập.
Mạng hiện có 128 subnet hoạt động, dự kiến nâng lên 256 vào cuối 2026. Token subnet, được định giá qua bộ tạo lập thị trường tự động (AMM) sử dụng TAO staking, đóng vai trò đặt cược có đòn bẩy vào một năng lực cụ thể trong hệ sinh thái. Khi Covenant-72B ra mắt, tổng giá trị các token hệ sinh thái Bittensor đạt khoảng $1,5 tỷ, token subnet Templar tăng 194% chỉ trong 7 ngày.
Vì sao sự ủng hộ của Jensen Huang có ý nghĩa
Jensen Huang điều hành công ty 3 ngàn tỷ USD sản xuất GPU cho gần như mọi mô hình AI trên thế giới. Khi ông so sánh Bittensor với folding@home trong cuộc trò chuyện với Chamath Palihapitiya trên All-In Podcast, cộng đồng tiền điện tử chú ý. Nhưng phát biểu của ông còn quan trọng hơn việc nhắc tên. Huang cho biết ngành cần "mô hình như một sản phẩm độc quyền, một sản phẩm cấp cao, cũng như mô hình mã nguồn mở. Hai thứ đó không phải hoặc cái này hoặc cái kia, mà là cả hai".
Nhận định đó xác nhận luận điểm rằng đào tạo AI phi tập trung, mã nguồn mở là bổ sung nghiêm túc cho phương pháp tập trung, chứ không phải chỉ là một thử nghiệm ý thức hệ. Nvidia có lợi khi bất kỳ ai mua GPU, và Huang ủng hộ rõ ràng viễn cảnh AI tập trung và phi tập trung cùng tồn tại. Đối với holder TAO, tín hiệu là CEO chuỗi cung ứng AI quyền lực nhất không coi đào tạo phi tập trung là thứ bên lề. Ông xem đó như một phần thiết yếu trong sản xuất.
Phản ứng thị trường đến ngay lập tức. TAO tăng 17% chỉ vài giờ sau khi podcast phát sóng; toàn bộ nhóm token AI cũng đi lên.
So sánh TAO với các đối thủ AI tập trung
So sánh giữa Bittensor và các phòng lab AI tập trung như OpenAI, Google DeepMind, Anthropic là không tương đồng, đó cũng chính là thông điệp cần nhấn mạnh.
| Chỉ số | Phòng lab tập trung | Bittensor (Covenant-72B) |
| Chi phí huấn luyện | $50M-$100M+ cho mỗi mô hình hàng đầu | Phân bổ cho cộng đồng, không ai chịu toàn bộ |
| Hạ tầng | Cụm GPU độc quyền, kết nối trung tâm dữ liệu | GPU phổ thông, kết nối internet tiêu chuẩn |
| Truy cập | Đóng, chỉ qua API | Mã nguồn mở, giấy phép Apache |
| Điểm MMLU | GPT-4: 86+ | 67.1 (zero-shot) |
| Quản trị | Hội đồng công ty quyết định | Khuyến khích giao thức, ai cũng tham gia |
| Tốc độ huấn luyện | Vài tuần với cụm lớn | Lâu hơn, nhưng cải thiện từng phiên bản |
Các lab tập trung hiện cho hiệu suất tốt hơn. Chưa ai sử dụng Covenant-72B cho các tác vụ sản xuất thay GPT-4. Tuy nhiên, AI tập trung tiềm ẩn rủi ro tập quyền ngày càng được giới đầu tư quan tâm – chỉ một số công ty kiểm soát mô hình mạnh nhất, dữ liệu huấn luyện và chính sách truy cập. Bittensor cung cấp lối đi khác, nơi phát triển mô hình mở, weights công khai, không ai độc quyền cổng truy cập.
Khách quan mà nói, Bittensor giống như Linux năm 1995: sản phẩm thương mại vẫn tốt hơn, nhưng mô hình mở, phân tán sẽ thay đổi toàn ngành về dài hạn.
Động lực ảnh hưởng giá TAO
Đợt tăng 90% tháng 3/2026 của TAO không xuất phát từ một yếu tố riêng lẻ, mà hội tụ từ ba động lực trong cùng khoảng hai tuần, cùng bổ trợ lẫn nhau.
Ra mắt Covenant-72B (10/3). Đội ngũ Templar công bố hoàn thành đợt huấn luyện LLM phi tập trung lớn nhất, bài báo arXiv mang lại uy tín ngoài cộng đồng tiền điện tử. TAO tăng 54,8% sau hai tuần công bố.
Sự ủng hộ của Jensen Huang (18-19/3). Clip podcast lan truyền trong cộng đồng AI và crypto, giá TAO tăng 17% trong 48 giờ.
Mở rộng hệ sinh thái và quan tâm từ tổ chức. Grayscale mở Trust Bittensor cho nhà đầu tư tổ chức đầu 2026, mạng lưới công bố kế hoạch mở rộng từ 128 lên 256 subnet. Khả năng chuyển đổi Trust Grayscale thành ETF giao ngay TAO đang được thảo luận cho cuối 2026, mở cửa cho dòng vốn tổ chức chính thống.
Tổng vốn hóa token hệ sinh thái Bittensor chạm 1,5 tỷ USD cũng thu hút nhiều trader xem token subnet như công cụ đặt cược đòn bẩy vào câu chuyện TAO. Hiện Bittensor là tiền điện tử AI lớn thứ ba theo vốn hóa sau Chainlink và NEAR trong nhóm AI/hạ tầng rộng hơn.
Tuy nhiên, TAO hiện vẫn thấp hơn 59% so với đỉnh lịch sử 757,60 USD, nghĩa là đà tăng còn dư địa nếu có thêm động lực, đồng thời cũng tiềm ẩn rủi ro giảm nếu tâm lý thị trường đảo chiều.
Câu hỏi thường gặp
Covenant-72B của Bittensor là gì?
Covenant-72B là mô hình ngôn ngữ lớn 72 tỷ tham số, được huấn luyện hoàn toàn qua mạng phi tập trung Bittensor bởi hơn 70 nhà đóng góp độc lập sử dụng phần cứng phổ thông. Điểm MMLU đạt 67.1, cạnh tranh với Llama 2 70B của Meta, và toàn bộ weights mô hình đều mã nguồn mở theo giấy phép Apache.
Bittensor có phù hợp đầu tư năm 2026 không?
TAO có động lực câu chuyện mạnh với mốc Covenant-72B, sự ủng hộ của Jensen Huang và kênh Trust Grayscale cho nhà đầu tư tổ chức. Tuy nhiên, token biến động mạnh và vẫn thấp hơn 59% so với đỉnh lịch sử. TAO đóng vai trò như khoản đặt cược rủi ro cao vào hạ tầng AI phi tập trung, không phải nơi lưu trữ giá trị ổn định; nhà đầu tư cần cân nhắc quy mô vị thế tương ứng với rủi ro.
Người tham gia kiếm tiền từ Bittensor như thế nào?
Miner đóng góp tài nguyên tính toán cho các subnet và nhận thưởng TAO tương ứng chất lượng đầu ra AI. Validator stake TAO để chấm điểm miner và nhận chia sẻ phần thưởng. Chủ sở hữu subnet nhận phần trăm TAO phân phối trong subnet của họ. Toàn hệ thống vận hành nhờ động lực giao thức, không có công ty trung tâm thu phí.
Bittensor có cạnh tranh được với OpenAI và Google không?
Hiện chưa về mặt hiệu suất mô hình, vì các lab tập trung có nguồn lực vượt trội và thường cho kết quả tốt hơn. Điểm mạnh của Bittensor là cấu trúc: phát triển AI mở, không điểm kiểm soát tập quyền. Về lâu dài, kỳ vọng đào tạo phi tập trung sẽ bổ sung cho phương pháp tập trung, tương tự cách phần mềm mã nguồn mở trở thành hạ tầng thiết yếu cùng sản phẩm độc quyền.
Kết luận
Covenant-72B là minh chứng thực tế đầu tiên rằng đào tạo AI phi tập trung có thể tạo ra mô hình cạnh tranh với các phòng lab hàng đầu. Điểm MMLU 67.1 chưa phải hiệu suất tối đa, nhưng đạt được mà không cần trung tâm dữ liệu, không ngân sách doanh nghiệp, không phải xin phép ai. Điều này chuyển vấn đề từ "AI phi tập trung liệu có khả thi?" thành "nó sẽ cải thiện tốc độ ra sao?"
TAO ở mức 313 USD với vốn hóa 3,4 tỷ USD phản ánh kỳ vọng lớn, song động lực phía trước vẫn còn nhiều: mở rộng 256 subnet, khả năng chuyển đổi Trust Grayscale thành ETF giao ngay, tiếp tục cải thiện hiệu suất đào tạo phân tán đều nằm trong lộ trình 2026. Rủi ro khá rõ: TAO di chuyển dựa vào câu chuyện thị trường, và câu chuyện AI - crypto có thể biến động mạnh. Token hiện thấp hơn đỉnh 59%, nên đà tăng tiếp theo phụ thuộc khả năng Bittensor thu hẹp khoảng cách hiệu suất với đối thủ tập trung. Theo sát lộ trình mở rộng subnet và cập nhật về ETF Grayscale để theo dõi tín hiệu quan trọng.
Bài viết này chỉ nhằm mục đích cung cấp thông tin, không phải lời khuyên tài chính hoặc đầu tư. Giao dịch tiền điện tử tiềm ẩn nhiều rủi ro. Hãy tự nghiên cứu trước khi quyết định.






