Meta khám phá sự tích hợp VR và Metaverse vào lớp học
Meta đang khám phá việc tích hợp tai nghe Quest vào môi trường giáo dục được thiết kế cho các cá nhân từ 13 tuổi trở lên.

Tác giả: JacobZhao Nguồn: mirror, zhaotaobo.eth
Trong toàn bộ chuỗi giá trị của AI, đào tạo mô hình là liên kết với mức tiêu thụ tài nguyên lớn nhất và ngưỡng kỹ thuật cao nhất, trực tiếp xác định giới hạn trên của khả năng của mô hình và hiệu ứng ứng dụng thực tế. So với lệnh gọi nhẹ trong giai đoạn suy luận, quá trình đào tạo đòi hỏi đầu tư liên tục vào sức mạnh tính toán quy mô lớn, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, đây chính là "ngành công nghiệp nặng" thực sự để xây dựng các hệ thống AI. Theo quan điểm của mô hình kiến trúc, các phương pháp đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học tập liên bang và đào tạo phi tập trung, đây là trọng tâm của bài viết này.
Đào tạo tập trung là phương pháp truyền thống phổ biến nhất, trong đó một tổ chức duy nhất hoàn thành toàn bộ quá trình đào tạo trong một cụm hiệu suất cao cục bộ. Tất cả các thành phần, từ phần cứng (như NVIDIA GPU), phần mềm cơ bản (CUDA, cuDNN), hệ thống lập lịch cụm (như Kubernetes), đến khuôn khổ đào tạo (như PyTorch dựa trên NCCL backend), đều được phối hợp và vận hành bởi một hệ thống điều khiển thống nhất. Kiến trúc cộng tác sâu sắc này tối ưu hóa hiệu quả chia sẻ bộ nhớ, đồng bộ hóa gradient và cơ chế chịu lỗi, và rất phù hợp để đào tạo các mô hình quy mô lớn như GPT và Gemini. Nó có những ưu điểm là hiệu quả cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng có những vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Đào tạo phân tán là phương pháp chính thống để đào tạo mô hình quy mô lớn hiện nay. Cốt lõi của nó là phân tách tác vụ đào tạo mô hình và phân phối nó cho nhiều máy để thực hiện cộng tác nhằm phá vỡ nút thắt của tính toán và lưu trữ máy đơn. Mặc dù có tính năng "phân tán" về mặt vật lý, toàn bộ vẫn được kiểm soát bởi một tổ chức tập trung để lập lịch và đồng bộ hóa. Nó thường chạy trong môi trường LAN tốc độ cao. Thông qua công nghệ bus kết nối tốc độ cao NVLink, nút chính điều phối tất cả các tác vụ phụ. Các phương pháp chính bao gồm:
Dữ liệu song song: Mỗi nút đào tạo các tham số dữ liệu khác nhau để chia sẻ và trọng số mô hình cần phải được khớp
Mô hình song song: Triển khai các phần khác nhau của mô hình trên các nút khác nhau để đạt được khả năng mở rộng mạnh mẽ;
Pipeline Parallel: Thực hiện tuần tự theo từng giai đoạn để cải thiện thông lượng;
Tensor Parallel: Phân đoạn chi tiết các phép tính ma trận để cải thiện độ chi tiết song song.
Đào tạo phân tán là sự kết hợp giữa "kiểm soát tập trung + thực thi phân tán", tương tự như cùng một ông chủ chỉ đạo từ xa nhiều nhân viên "văn phòng" cộng tác để hoàn thành nhiệm vụ. Hiện tại, hầu hết tất cả các mô hình lớn chính thống (GPT-4, Gemini, LLaMA, v.v.) đều được đào tạo theo cách này.
Đào tạo phi tập trung đại diện cho một con đường tương lai cởi mở hơn và chống kiểm duyệt hơn. Tính năng cốt lõi của nó là nhiều nút không đáng tin cậy (có thể là máy tính gia đình, GPU đám mây hoặc thiết bị biên) cộng tác để hoàn thành nhiệm vụ đào tạo mà không cần điều phối viên trung tâm, thường thông qua phân phối và cộng tác nhiệm vụ theo giao thức, và với sự trợ giúp của các cơ chế khuyến khích mật mã để đảm bảo tính trung thực của các đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Tính không đồng nhất của thiết bị và phân đoạn khó khăn: Các thiết bị không đồng nhất khó phối hợp và hiệu quả phân đoạn tác vụ thấp;
Nút thắt hiệu quả truyền thông: Truyền thông mạng không ổn định và nút thắt đồng bộ hóa gradient rất rõ ràng;
Thiếu thực thi đáng tin cậy: Việc thiếu môi trường thực thi đáng tin cậy khiến việc xác minh xem các nút có thực sự tham gia vào tính toán hay không trở nên khó khăn;
Thiếu phối hợp thống nhất: Không có trình lập lịch trung tâm và cơ chế phân phối tác vụ và khôi phục ngoại lệ rất phức tạp.
Đào tạo phi tập trung có thể được hiểu là: một nhóm tình nguyện viên trên khắp thế giới, mỗi người đóng góp sức mạnh tính toán để đào tạo các mô hình theo phương pháp cộng tác, nhưng "đào tạo phi tập trung thực sự khả thi trên quy mô lớn" vẫn là một thách thức về kỹ thuật có hệ thống, liên quan đến nhiều cấp độ như kiến trúc hệ thống, giao thức truyền thông, bảo mật mật mã, cơ chế kinh tế, xác minh mô hình, v.v., nhưng liệu "sự cộng tác có hiệu quả + các động cơ có trung thực + kết quả có đúng không" vẫn đang trong giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang Là một hình thức chuyển tiếp giữa phân phối và phi tập trung, nó nhấn mạnh vào việc lưu giữ dữ liệu cục bộ và tổng hợp tập trung các tham số mô hình, và phù hợp với các tình huống tập trung vào tuân thủ quyền riêng tư (như y tế và tài chính). Học liên bang có cấu trúc kỹ thuật và khả năng phối hợp cục bộ của đào tạo phân tán, đồng thời có lợi thế phân tán dữ liệu của đào tạo phi tập trung, nhưng nó vẫn dựa vào các điều phối viên đáng tin cậy và không có các đặc điểm là hoàn toàn cởi mở và chống kiểm duyệt. Có thể coi đây là giải pháp "phân quyền có kiểm soát" trong bối cảnh tuân thủ quyền riêng tư. Nó tương đối nhẹ nhàng về mặt nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp, và phù hợp hơn với tư cách là kiến trúc triển khai chuyển tiếp trong ngành.
Theo quan điểm của mô hình đào tạo, đào tạo phi tập trung không áp dụng cho tất cả các loại nhiệm vụ. Trong một số trường hợp, do cấu trúc phức tạp của nhiệm vụ, yêu cầu tài nguyên cực cao hoặc độ khó cao trong cộng tác, nên về bản chất, nó không phù hợp để hoàn thành hiệu quả giữa các nút không đồng nhất và không đáng tin cậy. Ví dụ, đào tạo mô hình lớn thường dựa vào bộ nhớ video cao, độ trễ thấp và băng thông tốc độ cao, khó có thể phân chia và đồng bộ hóa hiệu quả trong mạng mở; các nhiệm vụ có hạn chế nghiêm ngặt về quyền riêng tư và chủ quyền dữ liệu (như dữ liệu y tế, tài chính và bí mật) bị hạn chế bởi tuân thủ pháp lý và ràng buộc về đạo đức và không thể chia sẻ công khai; và các nhiệm vụ không có cơ sở khuyến khích cộng tác (như mô hình nguồn đóng của công ty hoặc đào tạo nguyên mẫu nội bộ) thiếu động lực tham gia bên ngoài. Những ranh giới này cùng nhau tạo nên những hạn chế thực tế hiện tại của đào tạo phi tập trung.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một đề xuất sai lầm. Trên thực tế, đào tạo phi tập trung cho thấy triển vọng ứng dụng rõ ràng trong các loại nhiệm vụ nhẹ, dễ song song và có khuyến khích. Bao gồm nhưng không giới hạn ở: Điều chỉnh LoRA, các nhiệm vụ sau đào tạo căn chỉnh hành vi (như RLHF, DPO), đào tạo và chú thích dữ liệu cộng đồng, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên và các tình huống đào tạo cộng tác liên quan đến các thiết bị biên. Các tác vụ này thường có đặc điểm là tính song song cao, độ liên kết thấp và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để đào tạo cộng tác thông qua mạng P2P, giao thức Swarm, trình tối ưu hóa phân tán, v.v.
Tổng quan về tính phù hợp của tác vụ đào tạo phi tập trung
Hiện nay, trong các lĩnh vực tiên phong của đào tạo phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Theo quan điểm về đổi mới công nghệ và khó khăn về kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đề xuất nhiều khám phá độc đáo về kiến trúc hệ thống và thiết kế thuật toán, đại diện cho hướng đi tiên phong của nghiên cứu lý thuyết hiện tại; trong khi các con đường triển khai của Gensyn và Flock.io tương đối rõ ràng và có thể thấy tiến trình kỹ thuật ban đầu. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và kiến trúc kỹ thuật đằng sau năm dự án này và khám phá thêm sự khác biệt cũng như mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp về điện toán của họ. Prime Intellect hy vọng sẽ xây dựng một hệ thống đào tạo AI phi tập trung có khả năng xác minh, tính cởi mở và cơ chế khuyến khích hoàn chỉnh thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST.
PRIME-RL: Kiến trúc tác vụ học tăng cường không đồng bộ tách rời
PRIME-RL là Prime Intellect, một khuôn khổ mô hình hóa và thực thi tác vụ được tùy chỉnh cho các tình huống đào tạo phi tập trung, được thiết kế cho các mạng không đồng nhất và sự tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng thích ứng ưu tiên, tách rời về mặt cấu trúc các quy trình đào tạo, lý luận và tải trọng số, để mỗi nút đào tạo có thể hoàn thành chu kỳ tác vụ một cách độc lập tại địa phương và cộng tác với cơ chế xác minh và tổng hợp thông qua các giao diện chuẩn hóa. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn với đào tạo đàn hồi trong môi trường không có lịch trình trung tâm, điều này không chỉ làm giảm độ phức tạp của hệ thống mà còn đặt nền tảng cho việc hỗ trợ song song đa tác vụ và phát triển chính sách.
TOPLOC: Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC (Quan sát đáng tin cậy & Kiểm tra vị trí chính sách) là cơ chế cốt lõi của khả năng xác minh đào tạo do Prime Intellect đề xuất, được sử dụng để xác định xem một nút có thực sự hoàn thành việc học chính sách hiệu quả dựa trên dữ liệu đã quan sát hay không. Không giống như các giải pháp nặng như ZKML, TOPLOC không dựa vào tính toán lại toàn bộ mô hình mà hoàn thành xác minh cấu trúc nhẹ bằng cách phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát ↔ cập nhật chính sách". Đây là lần đầu tiên nó chuyển đổi quỹ đạo hành vi của quá trình đào tạo thành một đối tượng có thể xác minh. Đây là một cải tiến quan trọng để đạt được phân phối phần thưởng đào tạo không cần tin cậy và cung cấp một con đường khả thi để xây dựng mạng lưới đào tạo cộng tác phi tập trung có thể kiểm toán và được khuyến khích.
SHARDCAST: Giao thức truyền và tổng hợp trọng số không đồng bộ
SHARDCAST là giao thức truyền và tổng hợp trọng số do Prime Intellect thiết kế, được tối ưu hóa cho môi trường mạng không đồng bộ, hạn chế băng thông và thực tế với trạng thái nút thay đổi. Giao thức này kết hợp cơ chế truyền tin đồn với chiến lược đồng bộ hóa cục bộ để cho phép nhiều nút liên tục gửi các bản cập nhật một phần ở trạng thái không đồng bộ, đạt được sự hội tụ tiến bộ và sự tiến hóa đa phiên bản của trọng số. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST cải thiện đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo phi tập trung và là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và các lần lặp đào tạo liên tục.
OpenDiLoCo: Khung giao tiếp không đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được triển khai độc lập và mã nguồn mở bởi nhóm Prime Intellect dựa trên khái niệm DiLoCo do DeepMind đề xuất. Nó được thiết kế để giải quyết các thách thức như hạn chế băng thông, tính không đồng nhất của thiết bị và tính không ổn định của nút thường gặp trong đào tạo phi tập trung. Kiến trúc của nó dựa trên tính song song dữ liệu. Bằng cách xây dựng các cấu trúc tôpô thưa thớt như Ring, Expander và Small-World, nó tránh được chi phí truyền thông cao của đồng bộ hóa toàn cầu và chỉ dựa vào các nút lân cận cục bộ để hoàn thành đào tạo cộng tác mô hình. Kết hợp với các bản cập nhật không đồng bộ và cơ chế dung sai điểm dừng, OpenDiLoCo cho phép GPU cấp người tiêu dùng và các thiết bị biên tham gia ổn định vào các tác vụ đào tạo, cải thiện đáng kể sự tham gia của đào tạo cộng tác toàn cầu và là một trong những cơ sở hạ tầng truyền thông chính để xây dựng các mạng đào tạo phi tập trung.
PCCL: Thư viện truyền thông cộng tác
PCCL (Prime Collective Communication Library) là một thư viện truyền thông nhẹ được Prime Intellect thiết kế riêng cho các môi trường đào tạo AI phi tập trung, được thiết kế để giải quyết tình trạng tắc nghẽn thích ứng của các thư viện truyền thông truyền thống (như NCCL, Gloo) trong các thiết bị không đồng nhất và mạng băng thông thấp. PCCL hỗ trợ cấu trúc thưa thớt, nén gradient, đồng bộ hóa độ chính xác thấp và khôi phục điểm dừng, đồng thời có thể chạy trên GPU cấp người tiêu dùng và các nút không ổn định. Đây là thành phần cơ bản hỗ trợ khả năng truyền thông không đồng bộ của giao thức OpenDiLoCo. Nó cải thiện đáng kể khả năng chịu đựng băng thông và khả năng tương thích thiết bị của mạng đào tạo, đồng thời mở ra nền tảng giao tiếp "dặm cuối" để xây dựng mạng đào tạo cộng tác thực sự cởi mở và không cần tin cậy.
Prime Intellect đã xây dựng một mạng đào tạo không cần xin phép, có thể xác minh và được khuyến khích về mặt kinh tế, cho phép bất kỳ ai cũng có thể tham gia vào các nhiệm vụ và nhận phần thưởng dựa trên những đóng góp thực sự. Hoạt động của giao thức dựa trên ba vai trò cốt lõi:
Người khởi tạo tác vụ: xác định môi trường đào tạo, mô hình ban đầu, hàm phần thưởng và tiêu chí xác minh
Nút đào tạo: thực hiện đào tạo cục bộ, gửi cập nhật trọng số và quan sát quỹ đạo
Nút xác minh: sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo và tham gia vào tính toán phần thưởng và tổng hợp chiến lược
Quy trình cốt lõi của giao thức bao gồm việc công bố tác vụ, đào tạo nút, xác minh quỹ đạo, tổng hợp trọng số (SHARDCAST) và phát hành phần thưởng, tạo thành một vòng lặp khép kín khuyến khích xung quanh "hành vi đào tạo thực tế".
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo bởi các nút phi tập trung không đồng bộ, không cần tin cậy, với thang tham số là 32B. Mô hình INTELLECT-2 được đào tạo bởi hơn 100 nút không đồng nhất GPU trên ba châu lục, sử dụng kiến trúc hoàn toàn không đồng bộ và thời gian đào tạo hơn 400 giờ, chứng minh tính khả thi và ổn định của các mạng cộng tác không đồng bộ. Mô hình này không chỉ là bước đột phá về hiệu suất mà còn là lần triển khai có hệ thống đầu tiên của mô hình "đào tạo là sự đồng thuận" do Prime Intellect đề xuất. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL (cấu trúc đào tạo không đồng bộ), TOPLOC (xác minh hành vi đào tạo) và SHARDCAST (tổng hợp trọng số không đồng bộ), đánh dấu lần đầu tiên một mạng lưới đào tạo phi tập trung đạt được tính mở, xác minh và vòng lặp khép kín khuyến khích kinh tế trong quá trình đào tạo.
Về hiệu suất, INTELLECT-2 dựa trên đào tạo QwQ-32B và đã thực hiện đào tạo RL đặc biệt về mã và toán học, đi đầu trong các mô hình tinh chỉnh RL nguồn mở hiện tại. Mặc dù vẫn chưa vượt qua các mô hình nguồn đóng như GPT-4 hoặc Gemini, nhưng ý nghĩa thực sự của nó nằm ở chỗ: đây là thử nghiệm mô hình phi tập trung đầu tiên trên thế giới với quy trình đào tạo hoàn chỉnh có thể tái tạo, xác minh và kiểm toán được. Prime Intellect không chỉ mã nguồn mở mô hình mà quan trọng hơn là chính quy trình đào tạo - dữ liệu đào tạo, quỹ đạo cập nhật chiến lược, quy trình xác minh và logic tổng hợp đều minh bạch và có thể theo dõi, xây dựng nguyên mẫu mạng đào tạo phi tập trung mà mọi người đều có thể tham gia, cộng tác đáng tin cậy và chia sẻ lợi ích.
Prime Intellect đã hoàn thành vòng gọi vốn hạt giống trị giá 15 triệu đô la vào tháng 2 năm 2025, do Founders Fund dẫn đầu, với sự tham gia của nhiều nhà lãnh đạo trong ngành bao gồm Menlo Ventures, Andrej Karpathy, Clem Delangue, Dylan Patel, Balaji Srinivasan, Emad Mostaque, Sandeep Nailwal, v.v. Trước đó, dự án đã hoàn thành vòng gọi vốn đầu tiên trị giá 5,5 triệu đô la vào tháng 4 năm 2024, do CoinFund và Distributed Global dẫn đầu, với sự tham gia của Compound VC, Collab + Currency, Protocol Labs, v.v. Cho đến nay, Prime Intellect đã huy động được hơn 20 triệu đô la tiền tài trợ tích lũy.
Những người đồng sáng lập Prime Intellect là Vincent Weisser và Johannes Hagemann. Các thành viên trong nhóm có nền tảng về AI và Web3. Các thành viên cốt cán đến từ Meta AI, Google Research, OpenAI, Flashbots, Stability AI và Ethereum Foundation. Họ có năng lực sâu sắc trong thiết kế kiến trúc hệ thống và triển khai kỹ thuật phân tán. Họ là một trong số rất ít nhóm điều hành đã hoàn thành thành công khóa đào tạo mô hình phi tập trung quy mô lớn thực sự.
Pluralis là một dự án AI Web3 tập trung vào "mạng lưới đào tạo cộng tác đáng tin cậy". Mục tiêu cốt lõi của dự án là thúc đẩy mô hình đào tạo mô hình phi tập trung, có sự tham gia cởi mở và khuyến khích dài hạn. Khác với các con đường đào tạo tập trung hoặc đóng hiện tại, Pluralis đã đề xuất một khái niệm mới có tên là Protocol Learning: quy trình đào tạo mô hình "dựa trên giao thức" và xây dựng một hệ thống đào tạo mở với vòng lặp khép kín khuyến khích nội tại thông qua cơ chế cộng tác có thể xác minh và ánh xạ quyền sở hữu mô hình.
Protocol Learning do Pluralis đề xuất bao gồm ba trụ cột chính:
Mô hình không thể vật chất hóaMô hình được phân phối giữa nhiều nút thành các mảnh và không có nút nào có thể khôi phục toàn bộ trọng số và vẫn là nguồn đóng. Thiết kế này biến mô hình thành một "tài sản trong giao thức" tự nhiên, có thể thực hiện kiểm soát thông tin xác thực truy cập, bảo vệ rò rỉ và ràng buộc phân bổ thu nhập.
Huấn luyện song song mô hình qua Internet Thông qua cơ chế song song mô hình Pipeline không đồng bộ (kiến trúc SWARM), các nút khác nhau chỉ giữ một phần trọng số và hoàn thành quá trình đào tạo hoặc lý luận thông qua sự cộng tác mạng băng thông thấp.
Quyền sở hữu một phần đối với các khoản khuyến khích** Tất cả các nút tham gia đều có được quyền sở hữu một phần đối với mô hình theo đóng góp đào tạo của họ, do đó được hưởng quyền chia sẻ doanh thu trong tương lai và quyền quản lý giao thức.
Mô hình không thể vật chất hóa
Lần đầu tiên được đề xuất một cách có hệ thống trong "Con đường thứ ba: Học giao thức" rằng trọng số mô hình được phân phối dưới dạng các đoạn để đảm bảo rằng "tài sản mô hình" chỉ có thể được lưu trữ trong Mạng Swarm chạy trong mạng, đảm bảo rằng quyền truy cập và thu nhập của nó được kiểm soát bởi giao thức. Cơ chế này là điều kiện tiên quyết để hiện thực hóa cấu trúc khuyến khích bền vững cho đào tạo phi tập trung.
Đào tạo song song mô hình không đồng bộ
Trong "SWARM song song với các bản cập nhật không đồng bộ", Pluralis đã xây dựng một kiến trúc song song mô hình không đồng bộ dựa trên Pipeline và trình diễn nó trên LLaMA-3 lần đầu tiên. Đổi mới cốt lõi là việc giới thiệu cơ chế Nesterov Accelerated Gradient (NAG), cơ chế này hiệu chỉnh hiệu quả các vấn đề về độ trôi gradient và sự mất ổn định hội tụ trong quá trình cập nhật không đồng bộ, giúp việc đào tạo giữa các thiết bị không đồng nhất trở nên thiết thực trong môi trường băng thông thấp.
Phân tán không gian cột
Trong Beyond Top-K, người ta đề xuất thay thế Top-K truyền thống bằng phương pháp nén không gian cột có cấu trúc để tránh phá hủy đường dẫn ngữ nghĩa. Cơ chế này tính đến cả độ chính xác của mô hình và hiệu quả truyền thông. Người ta đã đo được rằng hơn 90% dữ liệu truyền thông có thể được nén trong môi trường song song mô hình không đồng bộ, đây là bước đột phá quan trọng để đạt được hiệu quả truyền thông có cấu trúc.
Pluralis rõ ràng lấy "song song mô hình không đồng bộ" làm hướng cốt lõi, nhấn mạnh rằng nó có những lợi thế sau so với song song dữ liệu:
Hỗ trợ các mạng băng thông thấp và các nút không nhất quán;
Thích ứng với tính không đồng nhất của thiết bị và cho phép GPU cấp người tiêu dùng tham gia;
Tự nhiên sở hữu khả năng lập lịch đàn hồi và hỗ trợ các nút trực tuyến/ngoại tuyến thường xuyên;
Với nén cấu trúc + cập nhật không đồng bộ + không trích xuất được trọng số là ba điểm đột phá chính.
Hiện tại, dựa trên sáu tài liệu blog kỹ thuật được công bố trên trang web chính thức, cấu trúc logic được tích hợp thành ba dòng chính sau:
Triết lý và tầm nhìn: "Con đường thứ ba: Học giao thức" "Tại sao đào tạo phi tập trung lại quan trọng"
Chi tiết về cơ chế kỹ thuật: "SWARM Parallel" "Beyond Top-K" "Cập nhật không đồng bộ"
Khám phá đổi mới thể chế: "Mô hình không thể vật chất hóa" "Giao thức sở hữu một phần"
Hiện tại, Pluralis vẫn chưa ra mắt sản phẩm, mạng thử nghiệm hoặc mã nguồn mở. Lý do là vì con đường kỹ thuật mà nó đã chọn cực kỳ đầy thách thức: cần phải giải quyết các vấn đề cấp hệ thống như kiến trúc hệ thống cơ bản, giao thức truyền thông và trọng số không thể xuất trước khi có thể đóng gói các dịch vụ sản phẩm theo hướng tăng dần.
Trong một bài báo mới do Pluralis Research công bố vào tháng 6 năm 2025, khuôn khổ đào tạo phi tập trung của nó đã được mở rộng từ đào tạo trước mô hình sang tinh chỉnh mô hình, hỗ trợ cập nhật không đồng bộ, giao tiếp thưa thớt và tổng hợp trọng số một phần. So với thiết kế trước đây tập trung vào lý thuyết và đào tạo trước, công trình này chú ý nhiều hơn đến tính khả thi của việc triển khai, đánh dấu sự trưởng thành hơn nữa của nó trong kiến trúc đào tạo toàn chu kỳ.
Pluralis đã hoàn thành vòng tài trợ hạt giống trị giá 7,6 triệu đô la vào năm 2025, do Union Square Ventures (USV) và CoinFund dẫn đầu. Nhà sáng lập Alexander Long có bằng Tiến sĩ về học máy và có nền tảng về cả toán học và nghiên cứu hệ thống. Các thành viên cốt lõi đều là các nhà nghiên cứu học máy có nền tảng tiến sĩ. Đây là một dự án điển hình do công nghệ thúc đẩy với các bài báo mật độ cao và blog kỹ thuật là đường dẫn phát hành chính. Hiện tại, không có nhóm BD/Growth và nhóm này tập trung vào việc khắc phục những khó khăn về cơ sở hạ tầng của mô hình song song không đồng bộ băng thông thấp. Gensyn: Lớp giao thức đào tạo phi tập trung được thúc đẩy bởi quá trình thực thi có thể xác minh Gensyn là một dự án AI Web3 tập trung vào "thực hiện đáng tin cậy các tác vụ đào tạo học sâu". Cốt lõi không phải là tái cấu trúc kiến trúc mô hình hoặc mô hình đào tạo, mà là xây dựng một mạng thực hiện đào tạo phân tán có thể xác minh với toàn bộ quy trình "phân phối tác vụ + thực hiện đào tạo + xác minh kết quả + khuyến khích công bằng". Thông qua thiết kế kiến trúc đào tạo ngoài chuỗi + xác minh trên chuỗi, Gensyn đã thiết lập một thị trường đào tạo toàn cầu hiệu quả, cởi mở và có động lực, biến "đào tạo là khai thác" thành hiện thực.
Gensyn không phải là về "cách đào tạo", mà là cơ sở hạ tầng về "ai đào tạo, cách xác minh và cách chia sẻ lợi nhuận". Bản chất của nó là một giao thức điện toán có thể xác minh được cho các nhiệm vụ đào tạo, chủ yếu giải quyết các vấn đề sau:
Ai sẽ thực hiện các nhiệm vụ đào tạo (phân phối sức mạnh tính toán và khớp động)
Cách xác minh kết quả thực hiện (không cần tính toán lại, chỉ cần xác minh các toán tử đang tranh chấp)
Cách phân phối thu nhập đào tạo (Cơ chế trò chơi Stake, Slashing và đa vai trò)
RL Swarm: Hệ thống đào tạo học tăng cường cộng tác
RL Swarm đầu tiên của Gensyn là hệ thống tối ưu hóa cộng tác đa mô hình phi tập trung cho giai đoạn sau đào tạo, với các tính năng cốt lõi sau:
Quy trình học và suy luận phân tán:
Giai đoạn trả lời: mỗi nút đưa ra câu trả lời độc lập;
Giai đoạn phê bình: các nút bình luận về đầu ra của nhau và chọn câu trả lời và logic tốt nhất;
Giai đoạn giải quyết: dự đoán sở thích của hầu hết các nút và sửa đổi câu trả lời của riêng chúng cho phù hợp để đạt được các bản cập nhật trọng số cục bộ.
RL Swarm do Gensyn đề xuất là một hệ thống tối ưu hóa cộng tác đa mô hình phi tập trung. Mỗi nút chạy một mô hình độc lập và thực hiện đào tạo cục bộ mà không đồng bộ hóa gradient. Nó tự nhiên thích ứng với sức mạnh tính toán không đồng nhất và môi trường mạng không ổn định, đồng thời hỗ trợ truy cập và thoát nút đàn hồi. Cơ chế này dựa trên ý tưởng của RLHF và trò chơi đa tác nhân, nhưng gần hơn với logic tiến hóa động của mạng suy luận cộng tác. Các nút được thưởng theo mức độ nhất quán với kết quả đồng thuận của nhóm, do đó thúc đẩy quá trình tối ưu hóa liên tục và học tập hội tụ của khả năng suy luận. RL Swarm cải thiện đáng kể tính mạnh mẽ và khả năng khái quát của mô hình trong các mạng mở và đã được triển khai như một mô-đun thực thi cốt lõi trong Giai đoạn 0 của Testnet Gensyn dựa trên Ethereum Rollup.
Verde + Proof-of-Learning: Cơ chế xác minh đáng tin cậy
Mô-đun Verde của Gensyn kết hợp ba cơ chế:
Proof-of-Learning: Xác định xem quá trình đào tạo có thực sự diễn ra hay không dựa trên quỹ đạo gradient và siêu dữ liệu đào tạo;
Điểm xác định dựa trên đồ thị: Xác định vị trí các nút phân kỳ trong đồ thị tính toán đào tạo và chỉ cần tính toán lại các hoạt động cụ thể;
Ủy quyền trọng tài: Áp dụng cơ chế xác minh trọng tài, trong đó bên xác minh và bên thách thức nêu tranh chấp và xác minh tại địa phương, giúp giảm đáng kể chi phí xác minh.
So với ZKP hoặc các lược đồ xác minh tính toán lại đầy đủ, lược đồ Verde đạt được sự cân bằng tốt hơn giữa khả năng xác minh và hiệu quả.
SkipPipe: Cơ chế tối ưu hóa chịu lỗi truyền thông
SkipPipe được thiết kế để giải quyết vấn đề tắc nghẽn truyền thông trong tình huống "băng thông thấp + ngắt kết nối nút". Các khả năng cốt lõi của nó bao gồm:
Tỷ lệ bỏ qua: bỏ qua các nút bị hạn chế để tránh tình trạng tắc nghẽn khi đào tạo;
Thuật toán lập lịch động: tạo đường dẫn thực thi tối ưu theo thời gian thực;
Thực thi chịu lỗi: ngay cả khi 50% các nút bị lỗi, độ chính xác suy luận chỉ giảm khoảng 7%.
Hỗ trợ cải thiện thông lượng đào tạo lên đến 55% và hiện thực hóa các khả năng chính như "suy luận thoát sớm", "sắp xếp lại liền mạch" và "hoàn thành suy luận".
HDEE: Cụm chuyên gia không đồng nhất giữa các miền
Mô-đun HDEE (Các cụm chuyên gia không đồng nhất giữa các miền) cam kết tối ưu hóa các tình huống sau:
Đào tạo đa miền, đa phương thức và đa tác vụ;
Phân phối không đồng đều các loại dữ liệu đào tạo khác nhau và sự khác biệt lớn về độ khó;
Các vấn đề về phân bổ và lập lịch tác vụ trong môi trường có khả năng tính toán thiết bị không đồng nhất và băng thông truyền thông không nhất quán.
Các tính năng cốt lõi của nó:
MHe-IHo: Chỉ định các mô hình có kích thước khác nhau cho các nhiệm vụ có mức độ khó khác nhau (các mô hình không đồng nhất, kích thước bước đào tạo nhất quán);
MHo-IHe: Độ khó của nhiệm vụ đồng nhất, nhưng điều chỉnh không đồng bộ kích thước bước đào tạo;
Hỗ trợ các mô hình chuyên gia không đồng nhất + các chiến lược đào tạo có thể cắm được để cải thiện khả năng thích ứng và khả năng chịu lỗi;
Nhấn mạnh vào "sự hợp tác song song + giao tiếp cực kỳ thấp + phân bổ chuyên gia động", phù hợp với hệ sinh thái nhiệm vụ phức tạp trong thực tế.
Cơ chế trò chơi đa vai trò: sự tin tưởng và động cơ song song
Mạng Gensyn giới thiệu bốn loại người tham gia:
Người nộp: công bố nhiệm vụ đào tạo, thiết lập cấu trúc và ngân sách;
Người giải quyết: thực hiện nhiệm vụ đào tạo và nộp kết quả;
Người xác minh: xác minh hành vi đào tạo để đảm bảo tuân thủ và hiệu quả;
Người tố giác: thách thức người xác minh để nhận phần thưởng trọng tài hoặc chịu hình phạt.
Cơ chế này lấy cảm hứng từ thiết kế trò chơi kinh tế Truebit. Bằng cách chèn lỗi bắt buộc + trọng tài ngẫu nhiên, nó khuyến khích những người tham gia hợp tác một cách trung thực và đảm bảo hoạt động đáng tin cậy của mạng.
Gensyn được đồng sáng lập bởi Ben Fielding và Harry Grieve và có trụ sở chính tại London, Vương quốc Anh. Vào tháng 5 năm 2023, Gensyn đã công bố hoàn thành vòng gọi vốn Series A trị giá 43 triệu đô la do a16z crypto dẫn đầu, với các nhà đầu tư khác bao gồm CoinFund, Canonical, Ethereal Ventures, Factor và Eden Block. Bối cảnh của nhóm kết hợp giữa hệ thống phân tán và kinh nghiệm về kỹ thuật học máy, và từ lâu đã cam kết xây dựng mạng lưới thực hiện đào tạo AI có thể xác minh, không cần tin cậy, quy mô lớn.
Nous Research là một trong số ít nhóm đào tạo phi tập trung có cả chiều cao triết học và hiện thực hóa kỹ thuật. Tầm nhìn cốt lõi của nhóm bắt nguồn từ khái niệm "AI Desideratic": AI được coi là một chủ thể thông minh có tính chủ quan và khả năng tiến hóa, thay vì một công cụ đơn giản có thể kiểm soát được. Điểm độc đáo của Nous Research nằm ở chỗ nhóm này không tối ưu hóa đào tạo AI như một "vấn đề về hiệu quả" mà coi đó là quá trình hình thành của một "chủ thể nhận thức". Được thúc đẩy bởi tầm nhìn này, Nous tập trung vào việc xây dựng một mạng lưới đào tạo mở được đào tạo thông qua sự hợp tác giữa các nút không đồng nhất, không yêu cầu lập lịch trình trung tâm, chống kiểm duyệt và được triển khai một cách có hệ thống thông qua chuỗi công cụ đầy đủ.
Nous không đầu tư quá nhiều vào thiết kế khuyến khích hoặc kinh tế học giao thức, nhưng cố gắng thay đổi tiền đề triết học của chính đào tạo:
Phản đối "chủ nghĩa liên kết": Không đồng ý với "đào tạo theo phong cách đào tạo" coi sự kiểm soát của con người là mục tiêu duy nhất và ủng hộ rằng đào tạo nên khuyến khích các mô hình hình thành một phong cách nhận thức độc lập;
Nhấn mạnh vào tính chủ quan của mô hình: Người ta tin rằng mô hình cơ bản nên giữ lại sự không chắc chắn, tính đa dạng và khả năng tạo ra ảo giác (ảo giác là đức tính);
Đào tạo mô hình là sự hình thành nhận thức: mô hình không phải là "tối ưu hóa việc hoàn thành nhiệm vụ", mà là một cá nhân tham gia vào quá trình tiến hóa nhận thức.
Mặc dù quan điểm đào tạo này "lãng mạn", nhưng nó phản ánh logic cốt lõi trong thiết kế cơ sở hạ tầng đào tạo của Nous: làm thế nào để cho phép các mô hình không đồng nhất phát triển trong một mạng mở thay vì được kỷ luật thống nhất.
Đóng góp quan trọng nhất của Nous vào đào tạo phi tập trung là xây dựng mạng Psyche và trình tối ưu hóa truyền thông cơ bản DisTrO (Đào tạo phân tán qua Internet), cùng nhau tạo thành trung tâm thực hiện của tác vụ đào tạo: Mạng DisTrO + Psyche có nhiều khả năng cốt lõi, bao gồm nén truyền thông (sử dụng mã hóa dấu DCT + 1 bit để giảm đáng kể yêu cầu về băng thông), khả năng thích ứng của nút (hỗ trợ GPU không đồng nhất, ngắt kết nối, kết nối lại và thoát tự động), khả năng chịu lỗi không đồng bộ (đào tạo liên tục mà không cần đồng bộ hóa, với khả năng chịu lỗi cao) và cơ chế lập lịch phi tập trung (không yêu cầu điều phối viên trung tâm, sự đồng thuận và phân phối tác vụ đạt được dựa trên blockchain). Kiến trúc này cung cấp nền tảng kỹ thuật thực tế và khả thi cho mạng đào tạo mở có chi phí thấp, linh hoạt cao và có thể xác minh được.
Thiết kế kiến trúc này nhấn mạnh vào tính khả thi thực tế: không phụ thuộc vào máy chủ trung tâm, có thể thích ứng với các nút tình nguyện toàn cầu và có khả năng truy xuất kết quả đào tạo trên chuỗi. 3. Hệ thống lý luận và tác nhân bao gồm Hermes / Forge / TEE_HEE Ngoài việc xây dựng cơ sở hạ tầng đào tạo phi tập trung, Nous Research cũng đã tiến hành một số thí nghiệm hệ thống khám phá xung quanh khái niệm "chủ thể AI":
Loạt mô hình nguồn mở Hermes: Hermes 1 đến 3 là các mô hình lớn nguồn mở tiêu biểu do Nous đưa ra, dựa trên đào tạo LLaMA 3.1, bao gồm ba thang tham số 8B, 70B và 405B. Chuỗi này nhằm mục đích hiện thực hóa khái niệm đào tạo "giải hướng dẫn, duy trì tính đa dạng" do Nous ủng hộ và thể hiện khả năng biểu đạt và khái quát hóa mạnh mẽ hơn trong việc duy trì ngữ cảnh dài, nhập vai, đối thoại nhiều vòng, v.v.
Forge Reasoning API: Hệ thống lý luận đa phương thức Forge là một khuôn khổ lý luận do Nous phát triển, kết hợp ba cơ chế bổ sung để đạt được khả năng lý luận linh hoạt và sáng tạo hơn: MCTS (Monte Carlo Tree Search): Tìm kiếm chiến lược cho các tác vụ phức tạp; CoC (Chuỗi mã): Giới thiệu một đường dẫn kết hợp của chuỗi mã và lý luận logic; MoA (Hỗn hợp các tác nhân): Cho phép nhiều mô hình đàm phán và cải thiện phạm vi và tính đa dạng của đầu ra. Hệ thống nhấn mạnh vào "lý luận không xác định" và các đường dẫn tạo kết hợp, đây là phản ứng mạnh mẽ đối với mô hình căn chỉnh hướng dẫn truyền thống.
TEE_HEE: Thí nghiệm tác nhân tự động AI: TEE_HEE là cuộc khám phá tiên tiến của Nous theo hướng tác nhân tự động, nhằm xác minh xem AI có thể chạy độc lập trong môi trường thực thi đáng tin cậy (TEE) và có danh tính kỹ thuật số duy nhất hay không. Tác nhân có tài khoản Twitter và Ethereum riêng và tất cả các quyền kiểm soát đều được quản lý bởi một vùng an toàn có thể xác minh từ xa và các nhà phát triển không thể can thiệp vào hành vi của nó. Mục tiêu của thí nghiệm là xây dựng một chủ thể AI có "tính bất biến" và "ý định hành vi độc lập", thực hiện một bước quan trọng hướng tới việc xây dựng một cơ thể thông minh tự động.
Nền tảng mô phỏng hành vi AI: Nous cũng đã phát triển nhiều trình mô phỏng bao gồm WorldSim, Doomscroll, Gods & S8n, v.v., để nghiên cứu quá trình tiến hóa hành vi và cơ chế hình thành giá trị của AI trong môi trường xã hội đa vai trò. Mặc dù không tham gia trực tiếp vào quá trình đào tạo, nhưng các thí nghiệm này đặt nền tảng ngữ nghĩa cho mô hình hành vi nhận thức của AI tự động dài hạn. 4. Tổng quan về nhóm và tài chính Nous Research được thành lập vào năm 2023 và được đồng sáng lập bởi Jeffrey Quesnelle (CEO), Karan Malhotra, Teknium, Shivani Mitra và những người khác. Nhóm tập trung vào cả kỹ thuật hệ thống và triết lý, và có nhiều kinh nghiệm trong học máy, bảo mật hệ thống và mạng phi tập trung. Năm 2024, công ty đã nhận được 5,2 triệu đô la tài trợ vòng hạt giống. Vào tháng 4 năm 2025, công ty đã hoàn thành khoản tài trợ Series A trị giá 50 triệu đô la do Paradigm dẫn đầu, với định giá 1 tỷ đô la, trở thành một trong những kỳ lân AI của Web3.
Flock: Mạng học tập liên bang được tăng cường bằng blockchainFlock.io là một nền tảng học tập liên bang dựa trên blockchain nhằm mục đích phân cấp dữ liệu, điện toán và mô hình để đào tạo AI. FLock thích khuôn khổ tích hợp của "lớp học liên bang + phần thưởng blockchain", về cơ bản là sự phát triển trên chuỗi của kiến trúc FL truyền thống hơn là khám phá có hệ thống về việc xây dựng một giao thức đào tạo mới. So với các dự án đào tạo phi tập trung như Gensyn, Prime Intellect, Nous Research và Pluralis, Flock tập trung vào bảo vệ quyền riêng tư và cải thiện khả năng sử dụng hơn là những đột phá lý thuyết trong giao tiếp, xác minh hoặc phương pháp đào tạo. Mục tiêu so sánh thực sự của nó là các hệ thống học tập liên bang như Flower, FedML và OpenFL. 1. Cơ chế cốt lõi của Flock.io: Kiến trúc học tập liên bang: nhấn mạnh vào chủ quyền dữ liệu và bảo vệ quyền riêng tư Flock dựa trên mô hình Học tập liên bang (FL) cổ điển, cho phép nhiều chủ sở hữu dữ liệu cùng nhau đào tạo một mô hình thống nhất mà không cần chia sẻ dữ liệu gốc, tập trung vào giải quyết các vấn đề về chủ quyền dữ liệu, bảo mật và tin cậy. Quy trình cốt lõi bao gồm: Đào tạo cục bộ: Mỗi người tham gia (Người đề xuất) đào tạo mô hình trên thiết bị cục bộ mà không cần tải dữ liệu gốc lên; Tổng hợp trên chuỗi: Sau khi đào tạo hoàn tất, bản cập nhật trọng số cục bộ được gửi và tổng hợp thành mô hình toàn cầu bởi Thợ đào trên chuỗi; Đánh giá của ủy ban: VRF bầu ngẫu nhiên các nút Voter để sử dụng các bộ kiểm tra độc lập nhằm đánh giá hiệu quả của mô hình tổng hợp và chấm điểm cho mô hình đó; Các ưu đãi và hình phạt: Phần thưởng hoặc tịch thu tài sản thế chấp được thực hiện theo kết quả điểm số để đạt được mục tiêu chống ác ý và duy trì sự tin cậy động.
Tích hợp chuỗi khối: Thực hiện điều phối hệ thống không cần tin cậy Flock đưa tất cả các liên kết cốt lõi của quy trình đào tạo (phân bổ nhiệm vụ, gửi mô hình, đánh giá và chấm điểm, thực hiện ưu đãi) vào chuỗi để đạt được tính minh bạch, khả năng xác minh và chống kiểm duyệt của hệ thống. Các cơ chế chính bao gồm: Cơ chế bầu ngẫu nhiên VRF: cải thiện tính công bằng và khả năng chống thao túng của vòng quay Người đề xuất và Người bỏ phiếu; Cơ chế thế chấp vốn chủ sở hữu (PoS): hạn chế hành vi của nút thông qua thế chấp mã thông báo và hình phạt để cải thiện tính mạnh mẽ của hệ thống; Thực hiện tự động khuyến khích trên chuỗi: thông qua hợp đồng thông minh, phân phối phần thưởng và cắt giảm hình phạt liên quan đến việc hoàn thành nhiệm vụ và kết quả đánh giá được thực hiện để xây dựng một mạng lưới cộng tác mà không cần tin tưởng vào bên trung gian.
zkFL: Đổi mới bảo vệ quyền riêng tư của cơ chế tổng hợp không kiến thức: Flock giới thiệu cơ chế tổng hợp không kiến thức zkFL, cho phép Người đề xuất gửi các bằng chứng không kiến thức được cập nhật cục bộ và Người bỏ phiếu có thể xác minh tính chính xác của bằng chứng đó mà không cần truy cập vào gradient gốc, giúp cải thiện độ tin cậy của quy trình đào tạo đồng thời đảm bảo quyền riêng tư và thể hiện sự đổi mới quan trọng trong việc tích hợp bảo vệ quyền riêng tư và khả năng xác minh trong học tập liên bang.
2. Các thành phần sản phẩm cốt lõi của Flock AI Arena: Đây là nền tảng đào tạo phi tập trung của Flock.io. Người dùng có thể tham gia vào các nhiệm vụ mô hình thông qua train.flock.io, đóng vai trò là người đào tạo, người xác thực hoặc người ủy quyền và nhận phần thưởng bằng cách gửi mô hình, đánh giá hiệu suất hoặc ủy quyền mã thông báo. Hiện tại, các nhiệm vụ đã được phát hành chính thức và sẽ dần được mở ra để cộng đồng cùng sáng tạo trong tương lai. FL Alliance: Đây là một ứng dụng học tập liên bang Flock hỗ trợ người tham gia tinh chỉnh mô hình hơn nữa bằng dữ liệu riêng tư. Thông qua các cơ chế bầu cử, đặt cược và cắt giảm VRF, tính trung thực và hiệu quả hợp tác của quá trình đào tạo được đảm bảo, đây là liên kết chính giữa đào tạo ban đầu của cộng đồng và triển khai thực tế. AI Marketplace: Đây là một nền tảng đồng sáng tạo và triển khai mô hình, nơi người dùng có thể đề xuất các mô hình, đóng góp dữ liệu và gọi các dịch vụ mô hình. Nó hỗ trợ truy cập cơ sở dữ liệu và lý luận nâng cao RAG, đồng thời thúc đẩy việc triển khai và lưu hành các mô hình AI trong nhiều tình huống thực tế khác nhau.
III. Tổng quan về nhóm và tài chính Flock.io được thành lập bởi Sun Jiahao và đã phát hành mã thông báo nền tảng FLOCK. Dự án đã huy động được tổng cộng 11 triệu đô la Mỹ, với các nhà đầu tư bao gồm DCG, Lightspeed Faction, Tagus Capital, Animoca Brands, Fenbushi, OKX Ventures, v.v. Vào tháng 3 năm 2024, Flock đã hoàn thành vòng gọi vốn hạt giống trị giá 6 triệu đô la Mỹ để ra mắt mạng thử nghiệm và máy khách học liên bang; vào tháng 12 cùng năm, công ty đã bổ sung thêm 3 triệu đô la Mỹ vào khoản tài trợ và nhận được tài trợ từ Quỹ Ethereum để tập trung vào nghiên cứu về cơ chế khuyến khích AI dựa trên blockchain. Hiện tại, nền tảng này đã tạo ra 6.428 mô hình, được kết nối với 176 nút đào tạo, 236 nút xác minh và 1.178 người ủy quyền.
So với các dự án đào tạo phi tập trung, các hệ thống dựa trên học liên bang như Flock có nhiều lợi thế hơn về hiệu quả đào tạo, khả năng mở rộng và bảo vệ quyền riêng tư, đặc biệt là đối với đào tạo cộng tác các mô hình vừa và nhỏ. Giải pháp này thực dụng và dễ triển khai, đồng thời có xu hướng tối ưu hóa tính khả thi ở cấp độ kỹ thuật; trong khi các dự án như Gensyn và Pluralis theo đuổi những đột phá lý thuyết sâu hơn về phương pháp đào tạo và cơ chế giao tiếp. Những thách thức của hệ thống lớn hơn, nhưng chúng cũng gần hơn với việc khám phá mô hình đào tạo "không cần tin cậy và phi tập trung" thực sự.
EXO: Nỗ lực đào tạo phi tập trung cho điện toán biên EXO là một dự án AI rất tiêu biểu trong bối cảnh điện toán biên hiện tại, dành riêng để hiện thực hóa đào tạo AI nhẹ, lý luận và các ứng dụng Agent trên các thiết bị tiêu dùng cấp gia đình. Lộ trình đào tạo phi tập trung của nó nhấn mạnh vào "chi phí truyền thông thấp + thực thi tự động cục bộ" và áp dụng thuật toán đồng bộ hóa chậm không đồng bộ DiLoCo và cơ chế trao đổi tham số thưa thớt SPARTA để giảm đáng kể yêu cầu băng thông cho đào tạo cộng tác nhiều thiết bị. Ở cấp độ hệ thống, EXO không xây dựng mạng lưới trên chuỗi hoặc giới thiệu cơ chế khuyến khích kinh tế, mà đã ra mắt khuôn khổ mô phỏng đa quy trình máy đơn EXO Gym, hỗ trợ các nhà nghiên cứu dễ dàng tiến hành xác minh nhanh và thử nghiệm các phương pháp đào tạo phân tán trong môi trường cục bộ. 1. Tổng quan về các cơ chế cốt lõi Đào tạo không đồng bộ DiLoCo: Đồng bộ hóa nút được thực hiện sau mỗi H bước để thích ứng với các mạng không ổn định; Đồng bộ hóa thưa thớt SPARTA: Chỉ một số lượng rất nhỏ các tham số (chẳng hạn như 0,1%) được trao đổi trong mỗi bước để duy trì sự liên quan của mô hình và giảm yêu cầu về băng thông; Tối ưu hóa kết hợp không đồng bộ: Có thể sử dụng cả hai kết hợp để đạt được sự thỏa hiệp tốt hơn giữa giao tiếp và hiệu suất. Khám phá cơ chế xác minh evML: Học máy được xác minh ở biên (evML) đề xuất sử dụng TEE/Bối cảnh bảo mật để xác minh điện toán chi phí thấp và hiện thực hóa sự tham gia đáng tin cậy của các thiết bị biên mà không cần đặt cược thông qua cơ chế xác minh từ xa + kiểm tra tại chỗ, đây là sự thỏa hiệp về mặt kỹ thuật giữa bảo mật kinh tế và bảo vệ quyền riêng tư. 2. Công cụ và ứng dụng kịch bản EXO Gym: có thể mô phỏng môi trường đào tạo nhiều nút trên một thiết bị duy nhất và hỗ trợ các thử nghiệm chiến lược giao tiếp cho các mô hình như NanoGPT, CNN, Diffusion, v.v. Ứng dụng EXO Desktop: công cụ AI trên máy tính để bàn dành cho người dùng cá nhân, hỗ trợ các tính năng được cá nhân hóa thân thiện với quyền riêng tư như hoạt động mô hình lớn cục bộ, điều khiển phản chiếu iPhone và tích hợp ngữ cảnh riêng tư (như SMS, lịch, ghi video). EXO Gym giống như một dự án thử nghiệm đào tạo phi tập trung theo định hướng khám phá hơn, chủ yếu tích hợp các công nghệ nén truyền thông hiện có (như DiLoCo và SPARTA) để đạt được các lộ trình đào tạo nhẹ. So với các dự án như Gensyn, Nous và Pluralis, EXO vẫn chưa bước vào các giai đoạn cốt lõi của sự hợp tác trên chuỗi, cơ chế khuyến khích có thể xác minh hoặc triển khai mạng phân tán thực sự.
Đối mặt với những thách thức cốt lõi của đào tạo phi tập trung, chẳng hạn như tính không đồng nhất của thiết bị, tắc nghẽn truyền thông, khó khăn trong phối hợp và thiếu thực thi đáng tin cậy, Gensyn, Prime Intellect, Pluralis và Nous Research đã đề xuất các lộ trình kiến trúc hệ thống khác biệt. Theo quan điểm của các phương pháp đào tạo và cơ chế giao tiếp, bốn dự án này đã chứng minh được trọng tâm kỹ thuật độc đáo và logic triển khai kỹ thuật của chúng.
Về mặt tối ưu hóa phương pháp đào tạo, bốn dự án đã khám phá các chiều chính như chiến lược cộng tác, cơ chế cập nhật và kiểm soát không đồng bộ, bao gồm các giai đoạn khác nhau từ trước khi đào tạo đến sau khi đào tạo.
PRIME-RL của Prime Intellect là một cấu trúc lập lịch không đồng bộ cho giai đoạn trước khi đào tạo. Thông qua chiến lược "đào tạo cục bộ + đồng bộ hóa định kỳ", nó hiện thực hóa một cơ chế lập lịch đào tạo hiệu quả và có thể xác minh được trong một môi trường không đồng nhất. Phương pháp này có tính linh hoạt và đa năng cao. Tính đổi mới lý thuyết cao và một mô hình rõ ràng được đề xuất trong cấu trúc kiểm soát đào tạo; độ khó triển khai kỹ thuật ở mức trung bình đến cao và có các yêu cầu cao đối với các mô-đun giao tiếp và kiểm soát cơ bản.
DeMo optimizer do Nous Research ra mắt tập trung vào vấn đề ổn định đào tạo trong môi trường băng thông thấp không đồng bộ và hiện thực hóa quy trình cập nhật gradient có khả năng chịu lỗi cao trong điều kiện GPU không đồng nhất. Đây là một trong số ít giải pháp đã hoàn thành việc thống nhất lý thuyết và kỹ thuật trên "vòng khép kín nén truyền thông không đồng bộ". Đổi mới lý thuyết rất cao, đặc biệt là trong con đường cộng tác nén và lập lịch; độ khó triển khai kỹ thuật cũng rất cao, đặc biệt là dựa vào độ chính xác phối hợp của song song không đồng bộ.
SWARM + NAG của Pluralis là một trong những thiết kế có hệ thống và mang tính đột phá nhất trong con đường đào tạo không đồng bộ hiện tại. Nó dựa trên khuôn khổ song song mô hình không đồng bộ, giới thiệu giao tiếp thưa thớt không gian cột và hiệu chỉnh động lượng NAG, đồng thời xây dựng giải pháp đào tạo mô hình lớn có thể hội tụ ổn định trong điều kiện băng thông thấp. Nó có mức độ đổi mới lý thuyết rất cao và là người tiên phong về mặt cấu trúc của đào tạo cộng tác không đồng bộ; độ khó kỹ thuật cũng rất cao, đòi hỏi phải tích hợp sâu đồng bộ hóa đa cấp và phân đoạn mô hình.
RL Swarm của Gensyn chủ yếu phục vụ giai đoạn sau đào tạo, tập trung vào tinh chỉnh chính sách và học tập cộng tác của tác nhân. Quy trình đào tạo của nó tuân theo quy trình ba bước "tạo-đánh giá-bỏ phiếu", đặc biệt phù hợp với việc điều chỉnh động các hành vi phức tạp trong các hệ thống đa tác nhân. Đổi mới lý thuyết ở mức trung bình-cao, chủ yếu được phản ánh trong logic cộng tác của tác nhân; độ khó triển khai kỹ thuật ở mức trung bình và thách thức chính nằm ở việc lập lịch hệ thống và kiểm soát hội tụ hành vi.
Ở cấp độ tối ưu hóa cơ chế giao tiếp, bốn dự án này cũng có bố cục mục tiêu riêng và thường tập trung vào các giải pháp có hệ thống cho các vấn đề về tắc nghẽn băng thông, tính không đồng nhất của nút và tính ổn định của lịch trình.
PCCL của Prime Intellect là một thư viện giao tiếp cấp thấp được sử dụng để thay thế NCCL truyền thống, nhằm mục đích cung cấp nền tảng giao tiếp tập thể mạnh mẽ hơn cho giao thức đào tạo cấp cao. Đổi mới lý thuyết ở mức trung bình-cao, với một số đột phá trong các thuật toán giao tiếp chịu lỗi; độ khó kỹ thuật ở mức trung bình và có khả năng thích ứng mô-đun mạnh.
DisTrO của Nous Research là mô-đun giao tiếp cốt lõi của DeMo, nhấn mạnh vào chi phí giao tiếp tối thiểu trong băng thông thấp đồng thời đảm bảo tính liên tục của vòng lặp khép kín đào tạo. Đổi mới lý thuyết ở mức cao và có giá trị thiết kế chung trong cấu trúc phối hợp lập lịch; độ khó kỹ thuật ở mức cao và có yêu cầu cao về độ chính xác nén và đồng bộ hóa đào tạo.
Cơ chế giao tiếp của Pluralis được nhúng sâu vào kiến trúc SWARM, giúp giảm đáng kể tải giao tiếp trong quá trình đào tạo không đồng bộ các mô hình lớn, duy trì thông lượng hiệu quả trong khi vẫn đảm bảo sự hội tụ. Nó có tính đổi mới lý thuyết cao và đặt ra một chuẩn mực cho thiết kế giao tiếp mô hình không đồng bộ; độ khó về mặt kỹ thuật cực kỳ cao, dựa vào điều phối mô hình phân tán và kiểm soát độ thưa thớt về mặt cấu trúc.
SkipPipe của Gensyn là một thành phần lập lịch chịu lỗi cho RL Swarm. Giải pháp này có chi phí triển khai thấp và chủ yếu được sử dụng để tăng cường tính ổn định của quá trình đào tạo tại lớp hạ cánh kỹ thuật. Tính đổi mới lý thuyết ở mức trung bình và nó giống một triển khai kỹ thuật của các cơ chế đã biết hơn; độ khó về mặt kỹ thuật tương đối thấp nhưng lại rất thiết thực trong quá trình triển khai thực tế.
Ngoài ra, chúng ta có thể đo lường giá trị của các dự án đào tạo phi tập trung từ hai danh mục vĩ mô nữa: lớp cộng tác blockchain và lớp đào tạo AI:
Lớp cộng tác blockchain: Nhấn mạnh vào độ tin cậy của giao thức và logic cộng tác khuyến khích
Khả năng xác minh: Liệu quy trình đào tạo có thể xác minh được hay không và liệu cơ chế trò chơi hay mã hóa có được đưa vào để thiết lập lòng tin hay không;
Cơ chế khuyến khích: Liệu cơ chế phần thưởng/vai trò Token theo nhiệm vụ có được thiết kế hay không;
Mức độ cởi mở và ngưỡng nhập cảnh: Liệu nút có dễ truy cập hay không, liệu nó có tập trung hay được kiểm soát theo quyền hay không.
Mức độ hệ thống đào tạo AI: làm nổi bật khả năng kỹ thuật và khả năng tiếp cận hiệu suất
Cơ chế lập lịch và chịu lỗi: có chịu lỗi, không đồng bộ, động và phân tán không;
Tối ưu hóa phương pháp đào tạo: có tối ưu hóa thuật toán hoặc cấu trúc đào tạo mô hình không;
Tối ưu hóa đường truyền thông tin: có nén gradients/giao tiếp thưa thớt được sử dụng để thích ứng với băng thông thấp không.
Bảng sau đây đánh giá một cách có hệ thống chiều sâu kỹ thuật, mức độ trưởng thành về kỹ thuật và sự đổi mới lý thuyết của Gensyn, Prime Intellect, Pluralis và Nous Research trên đường truyền đào tạo phi tập trung dựa trên hệ thống chỉ số trên.
Trong toàn bộ chuỗi giá trị của đào tạo phi tập trung, các dự án như Prime Intellect, Pluralis.ai, Gensyn và Nous Research chủ yếu tập trung vào xây dựng cơ sở hạ tầng front-end như đào tạo trước mô hình, cơ chế giao tiếp và tối ưu hóa cộng tác. Tuy nhiên, một loại dự án khác tập trung vào tinh chỉnh sau đào tạo và phân phối suy luận, và không trực tiếp tham gia vào các quy trình đào tạo có hệ thống như đào tạo trước, đồng bộ hóa tham số hoặc tối ưu hóa giao tiếp. Các dự án tiêu biểu bao gồm Bagel, Pond và RPS Labs, tất cả đều dựa trên phương pháp tinh chỉnh LoRA, tạo thành liên kết "hậu chuỗi" quan trọng trong hệ sinh thái đào tạo phi tập trung.
LoRA (Low-Rank Adaptation) là phương pháp tinh chỉnh tham số hiệu quả. Ý tưởng cốt lõi của nó là chèn các ma trận hạng thấp vào các mô hình lớn được đào tạo trước để học các tác vụ mới trong khi đóng băng các tham số mô hình ban đầu. Chiến lược này giúp giảm đáng kể chi phí đào tạo và mức tiêu thụ tài nguyên, cải thiện tốc độ tinh chỉnh và tính linh hoạt trong triển khai, đồng thời đặc biệt phù hợp với các tình huống Web3 được đặc trưng bởi tính mô-đun và các lệnh gọi kết hợp.
Các mô hình ngôn ngữ lớn truyền thống như LLaMA và GPT-3 thường có hàng tỷ hoặc thậm chí hàng trăm tỷ tham số và tinh chỉnh trực tiếp rất tốn kém. LoRA đạt được khả năng thích ứng hiệu quả của các mô hình lớn chỉ bằng cách đào tạo một số lượng nhỏ các ma trận tham số được chèn vào, trở thành một trong những phương pháp chính thống thực tế nhất hiện nay.
**Tối ưu hóa sở thích trực tiếp (DPO)** là một phương pháp đào tạo sau mô hình ngôn ngữ đã xuất hiện trong những năm gần đây. Nó thường được sử dụng kết hợp với cơ chế tinh chỉnh LoRA cho giai đoạn căn chỉnh hành vi của mô hình. So với phương pháp RLHF (Học tăng cường từ phản hồi của con người) truyền thống, DPO đạt được khả năng học sở thích bằng cách tối ưu hóa trực tiếp các mẫu ghép nối, loại bỏ quá trình mô hình hóa phần thưởng phức tạp và quá trình học tăng cường. Nó có cấu trúc đơn giản hơn và hội tụ ổn định hơn, đặc biệt phù hợp để tinh chỉnh các tác vụ trong môi trường nhẹ và hạn chế về tài nguyên. Do hiệu quả cao và dễ sử dụng, DPO đang dần trở thành giải pháp được ưa chuộng cho nhiều dự án AI phi tập trung trong giai đoạn căn chỉnh mô hình.
Học tăng cường (RL): Sự phát triển trong tương lai của tinh chỉnh sau đào tạo
Theo quan điểm dài hạn, ngày càng nhiều dự án coi học tăng cường (RL) là một con đường cốt lõi có khả năng thích ứng và tiềm năng tiến hóa cao hơn trong đào tạo phi tập trung. So với học có giám sát hoặc cơ chế tinh chỉnh tham số dựa trên dữ liệu tĩnh, RL nhấn mạnh vào việc tối ưu hóa liên tục các chiến lược trong môi trường động, phù hợp tự nhiên với mô hình cộng tác không đồng bộ, không đồng nhất và thúc đẩy bởi động cơ trong mạng Web3. Thông qua tương tác liên tục với môi trường, RL có thể đạt được quy trình học gia tăng liên tục và được cá nhân hóa cao, cung cấp cơ sở hạ tầng "trí thông minh hành vi" có thể phát triển để xây dựng mạng lưới tác nhân, thị trường nhiệm vụ trên chuỗi và nền kinh tế thông minh.
Mô hình này không chỉ rất phù hợp với tinh thần phi tập trung về mặt khái niệm mà còn có những lợi thế đáng kể về mặt hệ thống. Tuy nhiên, bị giới hạn bởi ngưỡng kỹ thuật cao và cơ chế lập lịch phức tạp, RL vẫn phải đối mặt với những thách thức lớn trong quá trình triển khai ở giai đoạn hiện tại và khó có thể quảng bá rộng rãi trong thời gian ngắn.
Cần lưu ý rằng PRIME-RL của Prime Intellect và RL Swarm của Gensyn đang thúc đẩy quá trình phát triển RL từ cơ chế tinh chỉnh sau đào tạo thành cấu trúc chính trước đào tạo, cố gắng xây dựng một hệ thống đào tạo cộng tác tập trung vào RL và không có sự phối hợp tin cậy.
Bagel dựa trên cơ chế tinh chỉnh LoRA và giới thiệu công nghệ bằng chứng không kiến thức (ZK) để giải quyết các vấn đề về độ tin cậy và bảo vệ quyền riêng tư trong quá trình "tinh chỉnh mô hình trên chuỗi". zkLoRA không tham gia vào tính toán đào tạo thực tế, nhưng cung cấp một cơ chế nhẹ và có thể xác minh cho phép người dùng bên ngoài xác nhận rằng một mô hình tinh chỉnh thực sự được bắt nguồn từ một mô hình cơ sở và các tham số LoRA đã chỉ định mà không cần truy cập vào dữ liệu hoặc trọng số gốc.
Không giống như Verde của Gensyn hoặc TOPLOC của Prime Intellect, tập trung vào xác minh động về "liệu hành vi có thực sự xảy ra hay không" trong quá trình đào tạo, Bagel tập trung nhiều hơn vào xác minh tĩnh về "liệu kết quả tinh chỉnh có đáng tin cậy hay không". Ưu điểm lớn nhất của zkLoRA là mức tiêu thụ tài nguyên xác minh thấp và khả năng bảo vệ quyền riêng tư mạnh mẽ, nhưng phạm vi ứng dụng của nó thường bị giới hạn ở các tác vụ tinh chỉnh với những thay đổi tham số nhỏ.
Pond là dự án đào tạo phi tập trung duy nhất trong ngành tập trung vào tinh chỉnh mạng nơ-ron đồ thị (GNN), phục vụ các ứng dụng dữ liệu có cấu trúc như đồ thị kiến thức, mạng xã hội và đồ thị giao dịch. Nó cung cấp một nền tảng đào tạo và lý luận nhẹ và có thể kiểm soát cho các tác vụ được cá nhân hóa bằng cách hỗ trợ người dùng tải lên dữ liệu cấu trúc đồ thị và tham gia phản hồi đào tạo mô hình.
Pond cũng sử dụng các cơ chế tinh chỉnh hiệu quả như LoRA. Mục tiêu cốt lõi của nó là hiện thực hóa một hệ thống tác nhân thông minh có thể triển khai và theo mô-đun trên kiến trúc GNN, mở ra một con đường khám phá mới về "tinh chỉnh mô hình nhỏ + cộng tác nhiều tác nhân" trong bối cảnh phi tập trung.
RPS Labs là một dự án đào tạo phi tập trung dựa trên kiến trúc Transformer, chuyên sử dụng các mô hình AI được tinh chỉnh để quản lý thanh khoản DeFi, chủ yếu được triển khai trong hệ sinh thái Solana. Sản phẩm chủ lực UltraLiquid của công ty là một công cụ tạo lập thị trường chủ động sử dụng các mô hình được tinh chỉnh để điều chỉnh động các thông số thanh khoản, giảm trượt giá, tăng độ sâu và tối ưu hóa việc phát hành mã thông báo và trải nghiệm giao dịch.
Ngoài ra, RPS cũng đã ra mắt công cụ UltraLP để hỗ trợ các nhà cung cấp thanh khoản tối ưu hóa các chiến lược phân bổ quỹ của họ trên DEX theo thời gian thực, qua đó cải thiện hiệu quả vốn và giảm rủi ro mất mát tạm thời, phản ánh giá trị thực tế của việc tinh chỉnh AI trong các kịch bản tài chính.
Trong bản đồ sinh thái hoàn chỉnh của đào tạo phi tập trung, toàn bộ có thể được chia thành hai loại: front-chain engine tương ứng với giai đoạn tiền đào tạo mô hình và back-chain ecosystem tương ứng với giai đoạn triển khai tinh chỉnh mô hình, tạo thành một vòng khép kín hoàn chỉnh từ cơ sở hạ tầng đến ứng dụng hạ cánh.
Front-chain engine tập trung vào việc xây dựng giao thức cơ bản cho tiền đào tạo mô hình, được thể hiện bằng các dự án như Prime Intellect, Nous Research, Pluralis.ai và Gensyn. Họ cam kết tạo ra một kiến trúc hệ thống với các bản cập nhật không đồng bộ, giao tiếp thưa thớt và khả năng xác minh đào tạo, đạt được khả năng đào tạo phân tán hiệu quả và đáng tin cậy trong môi trường mạng không cần tin cậy và hình thành nền tảng kỹ thuật của đào tạo phi tập trung.
Đồng thời, Flock, với tư cách là đại diện của lớp trung gian, thông qua lộ trình học tập liên bang, tích hợp tổng hợp mô hình, xác minh trên chuỗi và cơ chế khuyến khích nhiều bên, đồng thời thiết lập cầu nối khả thi và hợp tác giữa đào tạo và triển khai, cung cấp mô hình thực tế cho học tập hợp tác đa nút.
Hệ sinh thái hậu chuỗi tập trung vào tinh chỉnh mô hình và triển khai lớp ứng dụng. Các dự án như Pond, Bagel và RPS Labs xoay quanh phương pháp tinh chỉnh LoRA: Bagel cung cấp cơ chế xác minh đáng tin cậy trên chuỗi, Pond tập trung vào sự phát triển của các mô hình nhỏ của mạng nơ-ron đồ thị và RPS áp dụng mô hình tinh chỉnh để tạo lập thị trường thông minh trong các tình huống DeFi. Thông qua các thành phần như API lý luận và SDK tác nhân, họ cung cấp cho các nhà phát triển và người dùng cuối các lệnh gọi mô hình có ngưỡng thấp, có thể cấu hình và các giải pháp tùy chỉnh được cá nhân hóa, đồng thời là điểm vào quan trọng để triển khai AI phi tập trung.
Chúng tôi tin rằng đào tạo phi tập trung không chỉ là sự mở rộng tự nhiên của tinh thần blockchain trong kỷ nguyên AI mà còn là nguyên mẫu của cơ sở hạ tầng của hệ thống năng suất thông minh cộng tác toàn cầu. Trong tương lai, khi chúng ta nhìn lại hành trình đầy thử thách này, chúng ta vẫn sẽ động viên nhau với ý định ban đầu đó: phi tập trung không chỉ là một phương tiện, mà chính là giá trị.
Meta đang khám phá việc tích hợp tai nghe Quest vào môi trường giáo dục được thiết kế cho các cá nhân từ 13 tuổi trở lên.
Matrixport nhận thấy tới 25 tỷ USD có khả năng được chuyển vào các quỹ ETF Bitcoin mới ở Hồng Kông thông qua Stock Connect, đang chờ phê duyệt theo quy định.
通过俄罗斯 Garantex 交易所进行的 200 亿美元 USDT 交易引发了国际调查,可能违反制裁,美国和英国政府正在审查影子银行的参与和地缘政治动机。
Giao dịch trị giá 20 tỷ USDT thông qua sàn giao dịch Garantex của Nga đã làm dấy lên các cuộc điều tra quốc tế, có thể vi phạm các lệnh trừng phạt, trong đó chính phủ Hoa Kỳ và Anh đang xem xét kỹ lưỡng sự liên quan của hoạt động ngân hàng ngầm và động cơ địa chính trị.
Sự kiện halving Bitcoin sắp tới vào năm 2024 sẽ cắt giảm một nửa phần thưởng của người khai thác, khơi dậy một cuộc chạy đua giành được những “sat hoành tráng” hiếm có và thúc đẩy người khai thác tối ưu hóa hoạt động để đạt hiệu quả cao hơn và đa dạng hóa thu nhập.
Arbitrum OLD, hiện đang hoạt động trên mạng thử nghiệm công khai, giới thiệu các cải tiến bảo mật quan trọng thông qua các bằng chứng gian lận tương tác đồng thời thúc đẩy xác thực không cần cấp phép.
Stepn và Adidas tiết lộ sự hợp tác NFT nâng cao thể lực, hứa hẹn sự tích hợp sáng tạo giữa thời trang và công nghệ blockchain.
Friend.Tech, ra mắt vào năm 2023, sử dụng "chìa khóa" để kiếm tiền từ các tương tác trên mạng xã hội, thu hút sự quan tâm ban đầu đáng kể nhưng phải đối mặt với những thách thức trong việc duy trì mức độ tương tác và doanh thu trước khi ra mắt phiên bản 2.
Worldcoin đang phải vật lộn với những thách thức pháp lý đối với hoạt động xử lý dữ liệu của mình khi phải đối mặt với các khoản phạt có thể xảy ra, tuy nhiên khả năng phục hồi thị trường của WLD cho thấy bản chất khó lường của tiền điện tử.
Sự tham gia của Martin Grant báo hiệu một cách tiếp cận chủ động của Binance.US nhằm điều hướng bối cảnh pháp lý đang phát triển.