QVAC của Tether ra mắt khung BitNet LoRA đa nền tảng đầu tiên trên thế giới, cho phép huấn luyện và suy luận AI với hàng tỷ tham số trên GPU và điện thoại thông minh dành cho người tiêu dùng.

Bài viết này được dịch máy
Xem bản gốc

Ngày 17 tháng 3 năm 2026 – Tether hôm nay công bố một bước đột phá trong huấn luyện mô hình AI với việc ra mắt khung tinh chỉnh LoRA đa nền tảng đầu tiên trên thế giới dành cho các mô hình BitNet của Microsoft (LLM 1- Bit ). Khả năng mới này, một phần của QVAC Fabric, giúp giảm đáng kể yêu cầu về bộ nhớ và sức mạnh tính toán, cho phép tinh chỉnh các mô hình ngôn ngữ có hàng tỷ tham số trên phần cứng thông thường, bao gồm máy tính xách tay, GPU dành cho người tiêu dùng và điện thoại thông minh hiện đại.

Việc phát triển và duy trì các mô hình AI đòi hỏi các hệ thống NVIDIA cấp doanh nghiệp hoặc cơ sở hạ tầng đám mây, điều này đã trở nên quá đắt đỏ. Kết quả là, việc phát triển AI tiên tiến hầu như chỉ dành riêng cho các tổ chức lớn nhất có quyền truy cập vào phần cứng chuyên dụng và ngân sách đáng kể.

Nền tảng QVAC Fabric LLM của Tether, được tăng cường hơn nữa với khung phần mềm đột phá dựa trên BitNet này, loại bỏ những rào cản đó bằng cách cho phép tinh chỉnh LoRA đa nền tảng và hỗ trợ tăng tốc suy luận trên các GPU tiêu dùng khác nhau, bao gồm chip Intel, AMD, Apple Silicon M và các chip khác. Sự tiến bộ này cho phép người dùng huấn luyện và tùy chỉnh các mô hình AI trực tiếp trên các thiết bị tiêu dùng phổ biến.

Thành tựu này của đội ngũ kỹ thuật Tether đánh dấu lần đầu tiên chứng minh thành công khả năng tinh chỉnh BitNet trên GPU di động, bao gồm Adreno, Mali và Apple Bionic GPU. Người dùng có thể tinh chỉnh các mô hình BitNet 125 triệu tham số trong khoảng 10 phút trên Samsung S25 (GPU Adreno) với bộ dữ liệu y sinh gồm khoảng 300 tài liệu (khoảng 18.000 token). Đối với mô hình 1 tỷ, việc tinh chỉnh cùng bộ dữ liệu y sinh đó hoàn tất trong 1 giờ 18 phút trên thiết bị Samsung S25 và 1 giờ 45 phút trên iPhone 16. Đẩy các thiết bị đến giới hạn của chúng, nhóm của chúng tôi đã có thể tinh chỉnh các mô hình lên đến 13 tỷ trên iPhone 16.

Khung phần mềm này cũng chứng minh khả năng tinh chỉnh các mô hình có kích thước lớn gấp 2 lần trên các thiết bị biên so với các mô hình không phải BitNet của quý 4, cho thấy lợi thế vượt trội về bộ nhớ của kiến ​​trúc BitNet.

Hiệu năng suy luận BitNet cũng được cải thiện đáng kể thông qua QVAC Fabric. Các mô hình thuộc dòng BitNet chạy nhanh hơn đáng kể trên GPU di động. Trên các thiết bị này, hiệu năng GPU nhanh hơn CPU từ hai đến mười một lần , cho thấy rằng GPU di động hiện nay có thể hỗ trợ các tác vụ trước đây đòi hỏi phần cứng chuyên dụng đắt tiền hoặc trung tâm dữ liệu.

Việc tiết kiệm bộ nhớ cũng rất đáng kể. Các bài kiểm tra hiệu năng cho thấy BitNet-1B (TQ1_0) sử dụng ít hơn tới 77,8% VRAM so với Gemma-3-1B (16- Bit) và ít hơn 65,6% so với Qwen3-0.6B (16- Bit) trên cả hai khối lượng công việc suy luận và tinh chỉnh LoRA. Những sự giảm thiểu này tạo ra khoảng trống bộ nhớ đáng kể, cho phép các mô hình lớn hơn và quy trình cá nhân hóa chạy trên phần cứng mà chỉ vài tháng trước đây được coi là không đủ.

Ngoài ra, khung phần mềm này lần đầu tiên cho phép tinh chỉnh LoRA cho LLM 1- Bit trên phần cứng không phải của NVIDIA, mở rộng hỗ trợ cho các GPU của AMD, Intel, Apple Silicon và thiết bị di động. Bằng cách giảm sự phụ thuộc vào phần cứng chuyên dụng và các nhà cung cấp dịch vụ đám mây, hệ thống mở rộng khả năng tiếp cận tinh chỉnh AI trong khi vẫn giữ dữ liệu nhạy cảm cục bộ trên thiết bị. Lợi thế về hiệu quả này cũng giúp cho việc học liên kết trở nên khả thi và thực tế trong tương lai gần, cho phép các bản cập nhật được tinh chỉnh được đào tạo và chia sẻ trên các thiết bị phân tán trong khi vẫn giữ dữ liệu người dùng nhạy cảm cục bộ và giảm sự phụ thuộc vào cơ sở hạ tầng tập trung.

“Trí tuệ nhân tạo sẽ là yếu tố quyết định quan trọng trong tương lai của xã hội. Nó có tiềm năng cải thiện sự ổn định của xã hội, đóng vai trò như chất kết dính, hoặc củng cố thêm quyền lực cho một số ít người. Tương lai của AI cần phải dễ tiếp cận, sẵn có và mở cửa cho mọi người và các nhà phát triển ở khắp mọi nơi, và nó không nên đòi hỏi một lượng tài nguyên khổng lồ chỉ có sẵn cho một số ít nhà cung cấp dịch vụ đám mây,” Paolo Ardoino, Giám đốc điều hành của Tether , cho biết. “Khi việc huấn luyện các mô hình ngôn ngữ quy mô lớn phụ thuộc vào cơ sở hạ tầng tập trung, sự đổi mới sẽ bị trì trệ, hệ sinh thái trở nên mong manh và sự cân bằng xã hội bị đe dọa. Bằng cách cho phép huấn luyện các mô hình quy mô lớn có ý nghĩa trên phần cứng tiêu dùng, bao gồm cả điện thoại thông minh, QVAC của Tether đang chứng minh rằng AI tiên tiến có thể được phân quyền, toàn diện và trao quyền cho tất cả mọi người. Tether sẽ tiếp tục đầu tư nguồn lực và Vốn đáng kể trong những tuần, tháng và năm tới để đảm bảo rằng AI trở nên dễ tiếp cận với mọi người, ở mọi nơi, ngay trên thiết bị của họ. Kỷ nguyên của Trí tuệ Ổn định mới chỉ bắt đầu.”

Thông tin chi tiết về mặt kỹ thuật, bao gồm bài báo, bộ chuyển đổi, điểm chuẩn và các tệp nhị phân đa nền tảng, đều có trên blog của Hugging Face: LoRA Fine-Tuning BitNet b1.58 LLMs on Heterogeneous Edge GPUs via QVAC Fabric.



Giới thiệu về Tether

Tầm nhìn của Tether là thúc đẩy tự do, minh bạch và đổi mới thông qua công nghệ. Sứ mệnh của Tether là cho phép mọi người và các tổ chức kết nối và chia sẻ thông tin trực tiếp, không cần đến các trung gian không cần thiết. Bằng cách tạo ra các hệ thống ngang hàng an toàn, Tether mang đến cho người dùng quyền kiểm soát lớn hơn đối với dữ liệu, thông tin liên lạc và các tương tác kỹ thuật số của họ.

Tether hướng đến việc định nghĩa lại cách thức luồng thông tin trên các mạng bằng cách thay thế các mô hình tập trung bằng cơ sở hạ tầng phi tập trung được thiết kế cho sự riêng tư, hiệu quả và khả năng phục hồi. Mục tiêu của công ty là làm cho kết nối toàn cầu nhanh hơn, an toàn hơn và riêng tư hơn, trao quyền cho cả cá nhân và tổ chức trao đổi thông tin một cách tự do và an toàn.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
64
Thêm vào Yêu thích
14
Bình luận