트럼프는 이 새로운 '무기'로 미국 선거에서 승리할 수 있을까요? 케네디가 더 나은 후보일까요?
암호화폐를 지지하는 트럼프의 변화는 정치적 역학을 재편하고 있으며, 다가오는 대선에 영향을 미치고 친 트럼프 메모코인의 가치를 높일 가능성이 있습니다. 로버트 F. 케네디 주니어의 친암호화폐 입장은 업계의 미래에 대한 규제 명확성과 혁신을 강조하며 대안적인 비전을 제시합니다.

저자: JacobZhao 출처: mirror, zhaotaobo.eth
AI의 전체 가치 사슬에서 모델 학습은 가장 많은 자원이 소비되고 기술적 한계치가 가장 높은 연결 고리로, 모델 능력의 상한과 실제 적용 효과를 직접적으로 결정합니다. 모델 능력의 상한과 실제 적용 효과를 직접적으로 결정합니다. 추론 단계의 가벼운 호출과 비교하여 학습 프로세스에는 지속적인 대규모 산술 입력, 복잡한 데이터 처리 프로세스 및 고강도 최적화 알고리즘 지원이 필요하며, 이는 AI 시스템 구축의 진정한 "중공업"입니다. 아키텍처 패러다임의 관점에서 훈련 방법은 중앙 집중식 훈련, 분산식 훈련, 연합 학습, 분산식 훈련의 네 가지 범주로 나눌 수 있으며, 이 글의 초점은 분산식 훈련입니다.
중앙 집중식 훈련은 가장 일반적이고 전통적인 접근 방식으로, 단일 조직이 로컬 고성능 클러스터 내에서 하드웨어(예: NVIDIA GPU), 기본 소프트웨어(CUDA, cuDNN), 기본 소프트웨어(CUDA, cuDNN), 클러스터 스케줄링 시스템(예: Kubernetes), 트레이닝 프레임워크(예: NCCL 백엔드 기반 PyTorch)가 모두 통합된 제어 시스템에 의해 조정됩니다. 이러한 긴밀한 협업 아키텍처는 메모리 공유, 그라데이션 동기화 및 내결함성 메커니즘의 효율성을 최적화할 수 있으며, GPT, Gemini 등과 같은 대규모 모델의 훈련에 적합합니다. 높은 효율성과 리소스 제어라는 장점이 있지만 동시에 데이터 독점, 자원 장벽, 에너지 소비 및 단일 지점 위험 등의 문제도 있습니다.
분산 훈련은 현재 대규모 모델 훈련의 주류로, 단일 머신 컴퓨팅 및 스토리지 병목 현상을 돌파하기 위해 모델 훈련 작업을 분해하여 여러 머신에 분산하여 공동으로 실행하는 것이 핵심입니다. 물리적으로 "분산"된 특성을 가지고 있지만, 전체는 여전히 중앙 집중식 기관의 스케줄링 및 동기화에 의해 제어되며, 종종 고속 LAN 환경에서 실행되는 고속 상호 연결 버스 기술인 NVLink를 통해 마스터 노드가 하위 작업의 조정을 통합합니다. 주요 방식은 다음과 같습니다.
데이터 병렬: 각각 데이터 병렬: 각 노드는 모델 가중치와 일치해야 하는 서로 다른 데이터 매개변수를 공유하도록 학습됨
모델 병렬: 모델의 다른 부분을 다른 노드에 배포하여 강력한 확장성을 달성함
파이프라인 병렬: 단계적 직렬 실행으로 처리량 향상
텐서 병렬: 행렬 계산을 세밀하게 분할하여 병렬 세분성을 향상시킵니다.
분산 훈련은 중앙 집중식 제어와 분산 실행을 결합한 것으로, 동일한 상사가 여러 '사무실' 직원에게 원격으로 업무 협업을 지시하는 것과 유사합니다. 동일한 상사가 여러 명의 '사무실' 직원에게 원격으로 업무 협업을 지시하는 것과 유사합니다. 현재 거의 모든 주류 대형 모델(GPT-4, Gemini, LLaMA 등)이 이러한 방식으로 교육되고 있습니다.
탈중앙화 교육은 보다 개방적이고 검열에 저항할 수 있는 길을 제시합니다. 이 모델의 핵심 특징은 신뢰할 수 없는 여러 노드(가정용 컴퓨터, 클라우드 GPU 또는 엣지 디바이스 등)가 중앙 코디네이터 없이 프로토콜 중심의 작업 분배 및 협업을 통해 일반적으로 기여의 정직성을 보장하는 암호화 인센티브와 함께 훈련 작업에 협력한다는 사실에 있습니다. 이 모델의 주요 과제는 다음과 같습니다.
장치 이질성 및 슬라이싱 난이도: 이기종 장치 조정이 어렵고 작업 슬라이싱 효율이 높습니다.
통신 효율성 병목 현상: 네트워크 통신이 불안정하고, 그라데이션 동기화의 병목 현상이 뚜렷합니다.
신뢰성 실행 부족: 신뢰할 수 있는 실행 환경 부족, 노드가 실제로 프로세스에 관여하는지 확인하기 어려움.
신뢰성 실행: 신뢰할 수 있는 실행 환경 부족, 노드가 정말로 과정에 관여하는지 검증하기 어렵습니다.
통합 조정 부족: 중앙 스케줄러 부재, 복잡한 작업 분배 및 예외 롤백 메커니즘.
분산형 훈련은 글로벌 자원봉사자 그룹이 각자 자신의 연산 능력을 기여하여 모델을 공동으로 훈련하는 것으로 이해할 수 있지만, "진정으로 실현 가능한 대규모 분산형 훈련"은 시스템 아키텍처, 커뮤니케이션, 더 효율적이고 새로운 시스템 개발과 관련된 체계적인 엔지니어링 과제로 남아 있습니다. 그러나 "진정으로 실현 가능한 대규모 탈중앙화 훈련"은 시스템 아키텍처, 통신 프로토콜, 암호화 보안, 경제적 메커니즘, 모델 검증 및 기타 차원을 포함하는 체계적인 엔지니어링 과제로 남아 있지만, "시너지 효과 + 정직성 장려 + 올바른 결과 얻기"가 가능한지는 아직 프로토타입 탐색의 초기 단계에 머물러 있습니다.
연합 학습은 분산과 탈중앙화 사이의 전환으로, 데이터의 로컬 보존과 모델 파라미터의 중앙집중식 집계에 중점을 둡니다. 개인정보 보호 규정 준수에 중점을 두는 시나리오(예: 의료, 금융)에 적합합니다. 연합 학습은 분산 학습의 엔지니어링 구조와 로컬 협업 기능, 분산 학습의 데이터 분산 이점을 가지고 있지만 여전히 신뢰할 수 있는 조정자에 의존하며 완전한 개방성과 검열 저항성이라는 특성이 없습니다. 개인정보 보호 규정 준수 시나리오에서 '통제된 탈중앙화' 솔루션으로 볼 수 있으며 교육 작업, 신뢰 구조 및 커뮤니케이션 메커니즘 측면에서 비교적 무난하여 업계의 과도기적 배포 아키텍처로 더 적합합니다. align:center">
교육 패러다임에서 살펴보기 교육 패러다임 측면에서 보면 분산형 교육이 모든 업무 유형에 적용 가능한 것은 아닙니다. 일부 시나리오에서는 작업 구조의 복잡성, 매우 높은 리소스 요구 사항 또는 협업의 어려움으로 인해 이질적이고 신뢰할 수 없는 노드 간에 효율적으로 수행하기에는 적합하지 않습니다. 예를 들어, 대규모 모델 학습은 종종 높은 메모리, 짧은 지연 시간, 고속 대역폭에 의존하기 때문에 개방형 네트워크에서 효과적으로 슬라이스 앤 다이스 및 동기화가 어렵고, 강력한 데이터 프라이버시 및 주권 제약이 있는 작업(예: 의료, 금융, 기밀 데이터)은 법률 준수 및 윤리적 제약으로 인해 공개적으로 공유할 수 없으며, 협업 인센티브 기반이 부족한 작업(예: 기업의 비공개 소스 모델링 또는 사내 프로토타입 제작)은 외부 파트너와 협력할 동기가 부족할 수 있습니다. 이러한 한계는 현재 분산형 트레이닝의 현실적 한계를 구성합니다.
그러나 이것이 분산형 교육이 잘못된 명제라는 것을 의미하지는 않습니다. 실제로 분산형 훈련은 구조적으로 가볍고 쉽게 병렬화할 수 있으며 동기 부여가 가능한 작업 유형에 적용할 수 있는 분명한 가능성을 보여줍니다. 여기에는 LoRA 미세 조정, 행동 정렬 클래스 사후 훈련 작업(예: RLHF, DPO), 데이터 크라우드소싱 훈련 및 주석 작업, 리소스 제어 가능한 소규모 기본 모델 훈련, 엣지 디바이스와 관련된 협업 훈련 시나리오 등이 포함되지만 이에 국한되지 않습니다. 이러한 작업은 일반적으로 높은 병렬 처리, 낮은 결합 및 이기종 산술의 허용 오차가 특징이며 P2P 네트워크, 스웜 프로토콜, 분산 옵티마이저 등을 통한 협업 훈련에 매우 적합합니다.
분산형 트레이닝 작업 적합성 개요 표
<그림>현재 탈중앙화 훈련 및 연합 학습 분야에서 대표적인 블록체인 프로젝트는 주로 다음을 포함합니다. 기술 혁신과 엔지니어링 실현 난이도의 관점에서 Prime Intellect, Pluralis.ai, Gensyn, Nous Research 및 Flock.io가 새로운 시스템 아키텍처와 알고리즘 설계를 제안했습니다. 프라임 인텔리전스, 누스 리서치, 플러리스닷에이아이가 시스템 아키텍처와 알고리즘 설계에 대한 보다 독창적인 탐구를 제시해 현재 프론티어 방향의 이론적 연구를 대표하는 반면, 젠슨과 플록닷아이오는 실현 경로가 비교적 명확하고 엔지니어링의 초기 진전을 볼 수 있었습니다. 이 백서에서는 이 다섯 가지 프로젝트의 핵심 기술과 엔지니어링 아키텍처를 차례로 분석하고, 탈중앙화 AI 트레이닝 시스템의 차이점과 보완점을 살펴볼 것입니다.
프라임 인텔렉트는 누구나 훈련에 참여할 수 있는 신뢰가 필요 없는 AI 훈련 네트워크를 구축하는 데 전념하고 있습니다. 프라임 인텔리전스는 누구나 훈련에 참여하고 계산 기여에 대해 신뢰할 수 있는 보상을 받을 수 있는 신뢰가 필요 없는 AI 훈련 네트워크 구축에 전념하고 있습니다. 프라임 인텔리전스는 PRIME-RL + TOPLOC + SHARDCAST의 세 가지 모듈을 통해 검증 가능하고 개방적이며 완전한 인센티브를 제공하는 탈중앙화된 AI 훈련 시스템을 구축하는 것을 목표로 합니다.
PRIME-RL: 비동기 강화학습 과제 아키텍처
PRIME-RL은 최초이자 유일한 프라임 인텔리전스 훈련 시스템입니다. ">PRIME-RL은 이기종 네트워크와 비동기식 참여를 위해 설계된 분산형 훈련 시나리오를 위한 Prime Intellect의 맞춤형 작업 모델링 및 실행 프레임워크입니다. 강화 학습을 기본 적응 대상으로 채택하고 훈련, 추론 및 가중치 업로드 프로세스를 구조적으로 분리하여 각 훈련 노드가 로컬에서 독립적으로 작업 주기를 완료하고 표준화된 인터페이스를 통해 검증 및 집계 메커니즘과 협업할 수 있도록 합니다. 기존의 지도 학습 프로세스에 비해 PRIME-RL은 센터 없는 스케줄링 환경에서의 탄력적 학습에 더 적합하며, 시스템 복잡성을 줄이고 다중 작업 병렬 처리 및 정책 진화를 지원하기 위한 토대를 마련합니다.
TOPLOC: 가벼운 훈련 행동 검증 메커니즘
TOPLOC(신뢰된 관측 및 정책-지역성 확인)은 노드가 관측 데이터를 기반으로 실제로 효과적인 정책 학습을 완료했는지 판단하기 위해 Prime Intellect에서 제안한 학습 검증의 핵심 메커니즘입니다. TOPLOC은 ZKML과 같은 무거운 방식과 달리 전체 모델 재계산에 의존하지 않고 '관측 시퀀스 ↔ 정책 업데이트' 사이의 로컬 일관성 궤적을 분석하여 가벼운 구조적 검증을 달성합니다. 훈련 중 행동 궤적이 검증 가능한 객체로 변환되는 것은 이번이 처음으로, 이는 신뢰 없는 훈련 보상 분배를 달성하기 위한 핵심 혁신이며 감사 가능하고 인센티브 기반의 탈중앙화된 협업 훈련 네트워크를 구축할 수 있는 실현 가능한 경로를 제공합니다.
SHARDCAST: 비동기식 가중치 집계 및 전파 프로토콜
SHARDCAST는 Prime Intellect에서 설계한 가중치 전파 및 집계 프로토콜로, 비동기적이고 대역폭 제약이 있으며 노드 상태가 가변적인 실제 네트워크 환경에 최적화되어 있습니다. 가십 전파 메커니즘과 로컬 동기화 정책을 결합하여 여러 노드가 비동기 상태에서 부분 업데이트를 지속적으로 제출할 수 있도록 함으로써 점진적인 가중치 수렴과 다중 버전 진화를 가능하게 합니다. 중앙 집중식 또는 동기화된 AllReduce 방식에 비해 SHARDCAST는 분산형 훈련의 확장성과 내결함성을 크게 개선하며 안정적인 가중치 합의와 지속적인 훈련 반복을 구축하는 핵심 기반이 됩니다.
OpenDiLoCo: 스파스 비동기 통신 프레임워크
OpenDCAST는 안정적인 가중치 합의와 지속적인 훈련 반복 구축을 위한 핵심 토대입니다. align: left;">OpenDiLoCo는 딥마인드에서 제안한 DiLoCo 개념을 기반으로 Prime Intellect 팀이 독립적으로 구현하고 오픈소스화한 통신 최적화 프레임워크로, 분산형 훈련에서 흔히 발생하는 대역폭 제약, 장치 이질성, 노드 불안정성의 문제를 해결하기 위해 설계되었습니다. 이 아키텍처는 데이터 병렬 처리를 기반으로 하며 링, 익스팬더, 스몰월드 등과 같은 희소 토폴로지를 구성하여 글로벌 동기화의 높은 통신 오버헤드를 피하고 로컬 인접 노드에만 의존하여 협업 모델 훈련을 완료합니다. 비동기 업데이트 및 내결함성 메커니즘과 결합된 OpenDiLoCo는 소비자 GPU 및 에지 장치가 안정적으로 훈련 작업에 참여할 수 있도록 하여 글로벌 협업 훈련의 참여를 크게 향상시키고 분산형 훈련 네트워크 구축을 위한 핵심 통신 인프라 중 하나입니다.
PCCL: 협업 커뮤니케이션 라이브러리
PCCL(Prime Collective Communication Library)은 프라임 인텔렉트가 분산형 AI 훈련 환경을 위해 개발한 경량 통신 라이브러리로, 이기종 장치와 저대역폭 네트워크에 적응하는 기존 통신 라이브러리(예: NCCL, Gloo)의 병목 현상을 해결하는 것을 목표로 합니다. PCCL은 스파스 토폴로지, 그라데이션 압축, 저정밀 동기화 및 중단점 복구를 지원하며, 소비자 GPU와 불안정한 노드에서 실행할 수 있고, OpenDiLoCo 프로토콜의 비동기 통신 기능을 지원하는 기본 구성 요소입니다. 이는 트레이닝 네트워크의 대역폭 허용 범위와 디바이스 호환성을 크게 개선하고 진정한 개방적이고 신뢰할 수 없는 협업 트레이닝 네트워크를 구축하기 위한 '라스트 마일' 통신 기반을 제공합니다.
프라임 인텔렉트는 재정적 인센티브를 통해 라이선스가 필요 없고 검증 가능한 교육 네트워크를 구축합니다. 누구나 작업에 참여하고 실제 기여도에 따라 보상을 받을 수 있습니다. 이 프로토콜은 세 가지 핵심 역할을 기반으로 운영됩니다.
작업 개시자: 훈련 환경, 초기 모델, 보상 기능, 검증 기준을 정의합니다
훈련 노드: 로컬 훈련을 수행하고 가중치 업데이트와 관측 궤적을 제출
검증 노드: TOPLOC 메커니즘을 사용하여 훈련 행동의 진위를 검증하고 보상 계산과 정책 집계에 참여
프로토콜의 핵심 프로세스는 과제 릴리스, 노드 훈련, 궤적 검증, 가중치 집계(SHARDCAST), 보상 지급으로 구성되며, 이는 '실제 훈련 행동'에 기반한 인센티브의 폐쇄 루프(closed loop)를 구성합니다.
프라임 인텔렉트는 2025년 5월, 검증 가능한 최초의 탈중앙화 트레이닝 모델인 INTELLECT-2를 출시했습니다. INTELLECT-2는 세계 최초로 비동기식 신뢰 없는 분산형 노드 협업을 통해 훈련된 대규모 강화 학습 모델로, 매개변수 규모가 32B에 달하며, 3개 대륙에 걸쳐 100개 이상의 GPU 이기종 노드가 완전 비동기 아키텍처를 사용해 400시간 이상 훈련하여 비동기 협업 네트워크의 실현 가능성과 안정성을 입증한 바 있습니다. 비동기 협업 네트워크의 실현 가능성과 안정성을 입증했습니다. 이 모델은 성능의 획기적인 발전일 뿐만 아니라 프라임 인텔리전스가 제안한 "합의로서의 훈련" 패러다임을 체계적으로 구현한 최초의 모델입니다. INTELLECT-2는 비동기 훈련 구조인 PRIME-RL과 비동기 훈련 구조인 TOPLOC, 비동기 훈련 구조인 PRIME-RL을 통합한 모델입니다. 인텔렉트-2는 PRIME-RL(비동기 훈련 구조), TOPLOC(훈련 행동 검증), SHARDCAST(비동기 가중치 집계) 및 기타 핵심 프로토콜 모듈을 통합하여 탈중앙화 훈련 네트워크가 폐쇄 루프에서 훈련 과정의 개방성, 검증 및 경제적 인센티브를 처음으로 실현한 것입니다.
성능 측면에서 INTELLECT-2는 QwQ-32B 훈련과 코드 및 수학에 특화된 RL 훈련을 기반으로 현재 오픈 소스 RL 미세 조정 모델의 최전선에 서 있습니다. 아직 GPT-4나 Gemini와 같은 폐쇄형 모델을 능가하지는 못했지만, 전체 훈련 과정을 재현 가능하고 검증 가능하며 감사할 수 있는 세계 최초의 탈중앙화 모델 실험이라는 점에서 진정한 의미가 있으며, Prime Intellect는 모델을 오픈소스화할 뿐만 아니라 훈련 데이터, 전략 업데이트 궤적, 훈련 과정 자체도 오픈소스화합니다. - Prime Intellect는 모델을 오픈소스화할 뿐만 아니라 더 중요한 것은 훈련 데이터, 전략 업데이트 궤적, 검증 프로세스 및 집계 로직을 모두 투명하게 액세스할 수 있는 훈련 프로세스 자체를 오픈소스화하여 모두가 참여하고 신뢰할 수 있는 방식으로 협업하며 혜택을 공유할 수 있는 탈중앙화된 훈련 네트워크 프로토타입을 구축합니다.
프라임 인텔리전스는 2025년 2월에 Founders Fund가 주도하는 1,500만 달러의 시드 라운드를 마감했습니다. 멘로 벤처스, 안드레이 카르파시, 클렘 델랑그, 딜런 파텔, 발라지 스리니바산, 에마드 모스타크, 산딥 네일왈 및 기타 업계 리더들이 참여했습니다. 앞서 이 프로젝트는 2024년 4월 코인펀드와 디스트리뷰티드 글로벌이 공동 주도하고 컴파운드 VC, 콜라보 + 커런시, 프로토콜 랩스 등이 참여한 550만 달러 규모의 초기 단계 펀딩 라운드를 마감한 바 있습니다. 현재까지 프라임 인텔렉트는 2,000만 달러 이상의 누적 자금을 모금했습니다.
프라임 인텔리전스는 빈센트 바이저와 요하네스 하게만이 공동 설립했으며, Meta AI, Google Research 출신의 핵심 멤버를 비롯해 AI와 Web3를 아우르는 다양한 경력을 가진 팀원들로 구성되어 있습니다, 시스템 아키텍처 설계와 분산 엔지니어링에 대한 깊은 역량을 갖춘 이들은 실제 탈중앙화된 대규모 모델 훈련을 성공적으로 완료한 몇 안 되는 경영진 중 하나입니다.
Pluralis는 '신뢰할 수 있는 공동 훈련 네트워크'에 중점을 둔 Web3 AI 프로젝트입니다. Pluralis는 '신뢰할 수 있는 공동 훈련 네트워크'에 초점을 맞춘 Web3 AI 프로젝트로, 개방적인 참여와 장기적인 인센티브를 통해 탈중앙화된 모델 훈련 패러다임을 촉진하는 것을 핵심 목표로 삼고 있습니다. 현재의 주류 중앙집중식 또는 폐쇄적인 훈련 경로와는 달리, Pluralis는 검증 가능한 협업 메커니즘과 모델 소유권 매핑을 통해 모델 훈련 과정을 '프로토콜화'하는 새로운 개념인 '프로토콜 학습'을 제안합니다. 프로토콜 학습이라는 새로운 개념은 검증 가능한 협업 메커니즘과 모델 소유권 매핑을 통해 모델 학습 프로세스를 '프로토콜화'하는 것입니다. /p>
실현 불가능한 모델은 여러 노드에 조각으로 분산되며, 단일 노드가 전체 가중치를 복원할 수 없어 소스를 폐쇄 상태로 유지할 수 있습니다. 이러한 설계는 모델을 자연스러운 '프로토콜 내 자산'으로 만들어 액세스 자격 증명 제어, 유출 방지, 수익 귀속 바인딩을 가능하게 합니다.
인터넷을 통한 모델 병렬 훈련(Model-parallel Training over the Internet)은 비동기 파이프라인 모델 병렬 메커니즘(SWARM 아키텍처)을 사용하여 서로 다른 노드가 가중치의 일부만 보유하며 저대역폭 네트워크를 통해 훈련 또는 훈련을 완료하기 위해 협력하는 방식입니다. 저대역폭 네트워크를 통해 훈련 또는 추론을 위해 협업할 수 있습니다.
인센티브에 대한 부분 소유권** 모든 참여 노드는 훈련 기여도에 따라 모델의 부분 소유권을 가지며, 향후 수익과 프로토콜 거버넌스를 공유할 수 있습니다.
실현 불가능한 모델
세 번째 경로: 프로토콜에서 세 번째 경로: 프로토콜 학습에서는 모델 가중치가 조각으로 분산되어 '모델 자산'이 스웜 네트워크에서만 실행될 수 있도록 보장하고 프로토콜에 의해 접근과 혜택이 제어되도록 하는 것이 체계적으로 처음 제안되었습니다. 이 메커니즘은 탈중앙화 학습을 위한 지속 가능한 인센티브 구조를 위한 전제 조건입니다.
비동기 모델-병렬 훈련
비동기 업데이트가 포함된 SWARM Parallel에서 Pluralis는 파이프라인 기반의 비동기 모델 병렬 아키텍처를 구축하여 LLaMA-3에서 처음으로 시연합니다. 핵심 혁신은 비동기 업데이트 중 기울기 드리프트와 수렴 불안정성을 효과적으로 보정하고 저대역폭 환경에서 이기종 장치 간 훈련을 가능하게 하는 '네스테로프 가속 기울기(Nesterov Accelerated Gradient, NAG)' 메커니즘을 도입한 것입니다.
컬럼-스페이스 스파스화
컬럼-스페이스 스파스화
Beyond Top-K에서는 의미 경로를 파괴하지 않기 위해 기존의 Top-K를 구조 인식 열-공간 압축 방법으로 대체하는 것이 제안되었습니다. 이 메커니즘은 모델 정확도와 통신 효율성의 균형을 맞추며, 비동기 모델 병렬 환경에서 통신 데이터의 90% 이상을 압축하는 것으로 측정되어 구조 인식 및 효율적인 통신을 달성하는 데 중요한 돌파구가 될 수 있습니다.
Pluralis는 명시적으로 '비동기 모델 병렬화'를 핵심 방향으로 삼고 다른 모델보다 더 효율적이라는 점을 강조하고 있습니다. 데이터 병렬화에 비해 다음과 같은 이점을 강조하며 핵심 방향으로 삼고 있습니다.
저대역폭 네트워크 및 비코히어런트 노드 지원
소비자급 GPU가 참여할 수 있도록 디바이스 이질성에 적응하고
자연스러운 탄력적 스케줄링 기능으로 노드가 자주 온라인/오프라인 상태가 되도록 지원합니다;
구조적 압축 + 비동기 업데이트 + 가중치 비추출 기능의 세 가지 주요 혁신.
현재 공식 웹사이트에 공개된 6개의 기술 블로그 문서에 따르면 논리적 구조는 다음 세 가지 주요 라인으로 통합됩니다.
철학과 비전: "제3의 길: 프로토콜 학습" "탈중앙화 교육이 중요한 이유"
기술 메커니즘 세부 사항. SWARM 병렬", "Top-K를 넘어서", "비동기 업데이트"
제도적 혁신 탐구: "실현 불가능한 모델", "부분적인 소유권 프로토콜"
현재 Pluralis는 아직 제품을 출시하거나 네트워크를 테스트하거나 코드를 오픈소스화하지 않았는데, 이는 매우 어려운 기술 경로를 선택했기 때문인데요, 기본 시스템 아키텍처, 통신 프로토콜, 수출 불가능한 가중치와 같은 시스템 수준의 문제를 해결해야 제품과 서비스를 패키지화할 수 있기 때문입니다. 그 이유는 선택한 기술 경로가 매우 까다롭기 때문입니다. 제품 서비스를 상향 패키징하기 전에 기본 시스템 아키텍처, 통신 프로토콜, 내보낼 수 없는 가중치 및 기타 시스템 수준의 문제를 해결해야 하기 때문입니다.
2025년 6월에 발표된 새 논문에서 Pluralis Research는 모델 사전 훈련에서 모델 미세 조정으로 분산형 훈련 프레임워크를 확장하여 비동기 업데이트, 희소 통신 및 부분 가중치 집계를 지원했습니다. 이론과 사전 훈련에 중점을 둔 이전 설계와 비교했을 때, 이번 작업은 실현 가능성에 더 중점을 두어 전체 주기 훈련 아키텍처가 더욱 성숙해졌습니다.
>Pluralis는 2025년 유니온 스퀘어 벤처스(USV)로부터 760만 달러의 시드 라운드 투자를 마감했습니다. 벤처스(USV)와 코인펀드가 이번 라운드를 공동 주도했습니다. 설립자 알렉산더 롱은 수학과 시스템 연구를 병행한 머신러닝 박사 출신입니다. 핵심 멤버는 모두 박사 학위 배경을 가진 머신러닝 연구자입니다. 고밀도 논문과 기술 블로그를 주요 출판 경로로 하는 전형적인 기술 중심 프로젝트이며, BD/성장 팀은 아직 설립되지 않았지만 저 대역폭 비동기 모델 병렬화 인프라 문제를 극복하는 데 집중하고 있습니다.
Gensyn은 "신뢰할 수 있는 딥 러닝 훈련 작업 실행"에 중점을 둔 Web3 A3 프로젝트입니다. 젠슨은 '딥러닝 훈련 과제의 신뢰할 수 있는 실행'에 초점을 맞춘 Web3 AI 프로젝트로, 모델 아키텍처나 훈련 패러다임을 재구성하는 것이 아니라 '과제 분배 + 훈련 실행 + 결과 검증 + 공정한 인센티브'의 전 과정을 검증 가능한 분산 훈련 실행 네트워크로 구축하는 것이 핵심입니다. 젠슨은 오프체인 트레이닝 + 온체인 검증 아키텍처를 설계함으로써 효율적이고 개방적이며 인센티브가 제공되는 글로벌 트레이닝 마켓플레이스를 구축하여 "채굴로서의 트레이닝"을 현실화합니다.
Gensyn은 "트레이닝 방법"이 아니라 "누가, 어떻게, 어떻게 트레이닝하고 채굴할 것인가"에 관한 것입니다. 젠슨은 '어떻게 훈련할 것인가'가 아니라 '누가 훈련할 것인가, 어떻게 검증할 것인가, 어떻게 수익을 공유할 것인가'의 인프라에 관한 것입니다. 본질적으로 트레이닝 작업을 위한 검증 가능한 컴퓨팅 프로토콜이며, 다음과 같은 문제를 해결합니다.
트레이닝 작업을 수행하는 사람(산술 분포 및 동적 매칭)
실행 결과를 검증하는 방법(전체 재계산 필요 없음, 분쟁 중인 연산자만 검증)
훈련 혜택을 분배하는 방법(스테이크, 슬래싱 및 다중 역할 게임 메커니즘)
> p>
RL Swarm: 협업 강화 학습 트레이닝 시스템
Gensyn의 선구적인 RL Swarm은 훈련 후 단계를 위한 분산형 다중 모델 공동 최적화 시스템으로 다음과 같은 핵심 기능을 제공합니다.
분산 추론 및 학습 프로세스:
답변: 각 노드가 독립적으로 답을 출력합니다.
비평: 노드가 서로의 출력을 비평하고 최상의 답과 논리를 선택합니다.
Gensyn의 RL Swarm은 분산형 다중 모델 공동 최적화 시스템으로, 각 노드가 독립 모델을 실행하고 기울기 동기화 없이 로컬에서 훈련하므로 이기종 연산과 불안정한 네트워크 환경에 자연스럽게 적응할 수 있습니다. 또한 노드의 유연한 액세스 및 종료도 지원합니다. 이 메커니즘은 RLHF와 다중지능 게임의 아이디어를 기반으로 하지만, 그룹 합의 결과에 대한 동의 정도에 따라 노드가 보상을 받는 협력적 추론 네트워크의 동적 진화 논리에 더 가깝기 때문에 지속적인 최적화와 추론 능력의 수렴 학습을 유도합니다. rl Swarm은 개방형 네트워크에서 모델의 견고성과 일반화 능력을 크게 향상시키며 젠슨의 이더리움 롤업 기반
베르데 + 학습 증명: 신뢰 인증
Gensyn은 이더리움 롤업 기반 테스트넷 페이즈 0의 핵심 구현 모듈로 최초로 배포되었습니다. 왼쪽;">Gensyn의 Verde 모듈은 세 가지 메커니즘을 결합합니다.
학습 증명: 트레이닝 메타데이터와 기울기 궤적을 기반으로 트레이닝이 실제로 일어났는지를 결정합니다.
그래프 기반 핀포인트: 훈련 계산 그래프에서 발산 노드를 찾아 특정 연산만 다시 계산하면 됩니다.
참조된 위임: 훈련 계산 그래프에서 발산 노드를 찾아냅니다. 심판 위임: 중재 검증 메커니즘을 채택하여 검증자와 이의 제기자가 분쟁을 제기하고 현지 검증을 수행하여 검증 비용을 크게 절감합니다.
버드는 ZKP 또는 전체 재계산 검증 체계보다 검증 가능성과 효율성 사이에서 더 나은 균형을 이룹니다.
SkipPipe: 통신 장애 허용 오차 최적화
SkipPipe는 "결함" 통신 문제를 해결하기 위해 설계되었습니다. SkipPipe는 "낮은 대역폭 + 노드 드롭" 시나리오에서 통신 병목 현상을 해결하도록 설계되었으며, 핵심 기능은 다음과 같습니다.
스킵 비율: 제한된 노드를 건너뛰어 훈련 차단을 방지합니다.
동적 스케줄링 알고리즘: 실시간으로 최적의 실행 경로를 생성합니다.
결함 허용 실행: 50%의 노드에 결함이 있는 실행 경로가 있어도 다른 노드와 같은 위치에 있을 수 없도록 합니다. 내결함성 실행: 노드의 50%가 실패하더라도 추론 정확도는 약 7% 정도만 떨어집니다.
최대 55%의 훈련 처리량 향상을 지원하며, "조기 종료 추론"과 "원활한 일정 재조정"을 가능하게 합니다, "추론 완료" 및 기타 주요 기능을 지원합니다.
HDEE: 이기종 도메인-전문가-전문가 클러스터링
HDEE("이기종 도메인-전문가-전문가 클러스터링")는 세상에 대한 새롭고 복잡하며 효율적인 사고 방식을 개발할 수 있게 해주는 새로운 기술입니다. 이기종 도메인-전문가 앙상블) 모듈은 다음 시나리오를 최적화하는 데 사용됩니다.
멀티 도메인, 멀티 모달, 멀티태스크 교육;
다양한 유형의 훈련 데이터의 고르지 않은 분포와 큰 난이도 차이
장치의 이기종 컴퓨팅 성능과 통신 대역폭이 일관되지 않은 환경에서의 작업 할당 및 스케줄링 문제.
핵심 기능 :
MHe-IHo: 다양한 난이도로 작업 할당하기. MHe-IHo: 작업 난이도에 따라 서로 다른 모델 크기 할당(이기종 모델, 균일한 훈련 단계)
MHeo-IHe: 작업 난이도는 동일하지만 비동기 훈련 단계
이종 지원
이종 지원
이종 전문가 모델 지원 + 플러그형 훈련 전략으로 적응성과 내결함성 향상;
실제 복잡한 작업 생태계를 위한 "병렬 협력 + 매우 낮은 커뮤니케이션 + 동적 전문가 할당"에 중점을 둠.
.
다중 역할 게임 메커니즘: 신뢰와 인센티브의 병렬
제출자: 교육 과제를 공개하고, 구조와 예산을 설정합니다.
솔버: 훈련 과제를 실행하고 결과를 제출합니다.
검증자: 훈련 동작을 검증하고 규정을 준수하고 효과적인지 확인합니다.
제출자: 훈련 과제를 공개하고 구조 및 예산을 설정합니다.
고발자: 검증자에게 중재 보상 또는 몰수에 대해 이의를 제기합니다.
트루빗의 경제 게임 설계에서 영감을 얻은 이 메커니즘은 참여자들이 정직하게 협력하도록 장려하고, 오류 삽입 + 무작위 중재를 강제함으로써 네트워크가 안정적으로 운영되도록 보장합니다.
Gensyn은 벤 필딩과 해리 그리브가 공동 설립했으며 영국 런던에 본사를 두고 있습니다. 2023년 5월, 젠슨은 코인펀드, 캐노니컬, 이더리움 벤처스, 팩터, 에덴 블록 등의 투자자와 함께 a16z 크립토가 이끄는 4,300만 달러 규모의 시리즈 A를 완료했다고 발표했습니다. 팀의 배경은 분산 시스템 및 머신러닝 엔지니어링 경험과 인증된 탈신뢰 시스템을 구축하기 위한 오랜 노력을 결합한 것입니다. 팀의 배경에는 분산 시스템 및 머신러닝 엔지니어링 경험과 검증 가능하고 신뢰할 수 없는 대규모 AI 훈련 실행 네트워크를 구축해온 오랜 역사가 결합되어 있습니다.
Nous Research는 철학적 정교함과 엔지니어링 구현을 결합한 몇 안되는 분산형 훈련 팀 중 하나입니다. Nous Research는 철학적 정교함과 공학적 구현을 결합한 몇 안 되는 탈중앙화 트레이닝 팀 중 하나로, 핵심 비전은 AI를 단순한 제어 가능한 도구가 아닌 주체성과 진화 능력을 갖춘 지능적 주체로 취급하는 'Desideratic AI'라는 개념에서 비롯됩니다. 누스 리서치는 AI 교육을 최적화해야 할 '효율성 문제'가 아니라 '인지적 주체'를 형성하는 과정으로 바라본다는 점에서 차별화됩니다. 이러한 비전을 바탕으로 Nous는 중앙 집중식 스케줄링이 필요 없는 이기종 노드, 검열에 강한 검증, 체계적인 구현을 위한 풀스택 툴체인을 갖춘 개방형 훈련 네트워크를 구축하는 데 주력하고 있습니다.
누스는 인센티브 설계나 프로토콜 경제학에 너무 많은 투자를 하지 않았습니다. 대신 그는 훈련 자체의 철학적 전제를 바꾸려고 노력했습니다.
'정렬주의'에 대한 반대: 인간 통제의 유일한 목표인 '정렬주의'에 대한 반대.
"정렬주의"에 반대: 인간의 통제를 목표로 하는 "정렬에 의한 훈련"에 반대하며, 훈련이 모델이 독립적인 인지 스타일을 개발하도록 장려해야 한다고 주장합니다.
인지 형성으로서의 모델 훈련: 모델은 "과제 완수에 최적화된" 것이 아니라 인지 진화에 관여하는 개체이다.
이러한 훈련 관점은 "낭만적"이기는 하지만, 훈련 인프라를 설계하는 Nous의 핵심 논리, 즉 이질적인 모델이 획일적으로 규율되지 않고 개방형 네트워크에서 진화할 수 있도록 하는 방법을 반영하고 있습니다.
탈중앙화 훈련에 대한 Nous의 핵심 기여는 Psyche 네트워크와 기본 통신 옵티마이저의 구축입니다. 훈련 작업의 실행 허브를 구성하는 Psyche 네트워크와 기본 통신 옵티마이저인 DisTrO(인터넷 기반 분산 훈련)는 통신 압축(DCT + 1비트 부호 인코딩, 대역폭 대폭 감소), 노드 적응성(DCT + 1비트 부호 인코딩, 대역폭 대폭 감소), 노드 적응성 등 여러 핵심 기능을 갖추고 있습니다(DCT + 1비트 부호 인코딩, 대역폭 요구사항 대폭 감소). 디스럽 + 싸이케 네트워크는 통신 압축(DCT + 1비트 부호 인코딩, 대역폭 요구사항 대폭 감소), 노드 적응성(이기종 GPU 지원, 연결 해제 재연결, 자율 종료), 비동기 장애 허용(높은 장애 허용, 동기화 없이도 지속적인 훈련 가능), 탈중앙화된 스케줄링(중앙 조정자 필요 없음, 블록체인 기반 합의 및 작업 분배) 등 여러 핵심 기능을 갖추고 있습니다. 이 아키텍처는 저비용의 탄력적이고 검증 가능한 개방형 교육 네트워크를 위한 현실적인 기술적 토대를 제공합니다.
<그림>이것은 아키텍처 설계는 중앙 서버에 의존하지 않고, 글로벌 자원봉사 노드에 적응할 수 있으며, 훈련 결과를 온체인에서 추적할 수 있는 등 실용적인 실현 가능성을 강조합니다. paddingleft-2">
헤르메스 오픈 소스 모델 시리즈: 헤르메스 1~3은 Nous에서 출시한 대표적인 오픈 소스 매크로 모델로, LLaMA 3.1 훈련을 기반으로 하며 8B, 70B, 405B의 파라미터 규모를 포괄합니다. 이 시리즈는 '명령의 탈피와 다양성 보존'이라는 Nous의 훈련 철학을 구현하고, 긴 맥락 유지, 롤플레잉 및 다원 대화에서 더 뛰어난 표현력과 일반화를 보여줄 수 있도록 설계되었습니다.
Forge 추론 API: 다중 모드 추론 시스템 Forge는 보다 유연하고 창의적인 추론 기능을 달성하기 위해 세 가지 보완 메커니즘을 결합한 Nous의 자체 추론 프레임워크입니다: MCTS(Monte Carlo Tree 복잡한 작업에 대한 전략 검색, 코드 체인 및 논리적 추론의 결합 경로를 도입하는 CoC(Chain of Code), 여러 모델이 협상을 통해 결과의 폭과 다양성을 높이는 MoA(Mixture of Agents). 이 시스템은 '비결정적 추론'과 조합적 생성 경로를 강조하며, 기존의 명령어 정렬 패러다임에 대한 강력한 대응책입니다.
TEE_HEE: AI 자율 에이전트 실험: TEE_HEE는 AI가 신뢰할 수 있는 실행 환경(TEE)에서 고유한 디지털 정체성을 가지고 독립적으로 작동할 수 있는지 검증하기 위한 Nous의 최첨단 자율 에이전트 탐색입니다. 에이전트에는 전용 트위터 및 이더리움 계정이 있으며, 모든 제어는 개발자의 개입 없이 검증 가능한 원격 영역에서 관리됩니다. 이 실험의 목표는 자율 지능을 구축하는 데 중요한 단계인 '조작 가능성'과 '독립적인 행동 의도'를 갖춘 AI 주체를 구축하는 것입니다.
AI 행동 시뮬레이터 플랫폼: Nous는 또한 다중 역할 사회 환경에서 AI의 행동 진화와 가치 형성 메커니즘을 연구하기 위해 WorldSim, Doomscroll, Gods & S8n 등 여러 시뮬레이터를 개발했습니다. 이러한 실험은 훈련 과정에 직접 관여하지는 않지만 장기적인 자율 AI 인지-행동 모델링을 위한 시맨틱 레이어 기반을 마련합니다. 팀 및 자금 지원 개요 Nous Research는 2023년 Jeffrey Quesnelle(CEO), 카란 말호트라, 테크니움, 시바니 미트라 등에 의해 설립되었습니다. 이 팀은 머신 러닝, 시스템 보안, 분산 네트워크 등 다양한 배경을 가진 철학 중심적이고 시스템 엔지니어링적인 팀입니다. 2024년 520만 달러의 시드 펀딩을 유치했으며, 2025년 4월에는 10억 달러의 가치로 패러다임이 주도하는 5천만 달러 규모의 시리즈 A를 마감하여 웹3.0 AI 유니콘으로 성장했습니다.
Flock: 블록체인으로 강화된 연합 학습 네트워크Flock.io는 블록체인 기반 연합 학습 플랫폼으로 다음을 가능하게 하기 위해 설계되었습니다. 플록은 새로운 트레이닝 프로토콜을 구축하기 위한 체계적인 탐구라기보다는 본질적으로 전통적인 FL 아키텍처의 온체인 진화인 통합된 "연합 학습 + 블록체인 보상 레이어" 프레임워크를 지향합니다. 젠신, 프라임 인텔리전스, 누스 리서치, 플러리스와 같은 탈중앙화 트레이닝 프로젝트에 비해 플록은 커뮤니케이션, 검증 또는 트레이닝 방법론의 이론적 혁신보다는 개인 정보 보호와 사용성 개선에 중점을 두기 때문에 플라워, FedML, OpenFL과 같은 연합 학습 시스템에 적합한 비교 대상이 될 수 있습니다. Flower, FedML, OpenFL과 같은 시스템에 적합합니다. 먼저, Flock.io의 핵심 메커니즘
연합 학습 아키텍처: 데이터 주권 및 개인정보 보호에 중점을 둡니다. Flock은 데이터 주권, 보안, 신뢰에 중점을 두고 여러 데이터 소유자가 원본 데이터를 공유하지 않고 통합 모델을 공동으로 학습할 수 있는 고전적인 연합 학습(FL) 패러다임에 기반합니다. 핵심 프로세스에는 로컬 트레이닝: 각 참여자(제안자)가 원본 데이터를 업로드하지 않고 로컬 디바이스에서 모델을 훈련, 온체인 집계: 훈련이 완료된 후 업데이트를 위해 로컬 가중치를 제출하고 온체인 마이너가 글로벌 모델로 집계, 위원회 평가: VRF가 무작위로 투표 노드를 선출하여 독립된 테스트 세트를 사용하여 집계된 모델 효과를 평가한 후 결과를 점수화, 인센티브 및 패널티: 점수 결과에 따라 보상 또는 몰수를 실행하는 것이 포함됩니다. 인센티브 및 페널티: 채점 결과에 따라 인센티브 또는 몰수 담보를 실행하여 부정 행위 방지 및 동적 신뢰 유지를 달성합니다.
블록체인 통합: 탈신뢰 시스템 조정 플록은 교육 과정의 핵심 측면(과제 할당, 모델 제출, 평가 및 채점, 인센티브 집행)을 체인화하여 투명하고 검증 가능하며 검열에 강한 시스템을 구축합니다. 주요 메커니즘은 다음과 같습니다: VRF 무작위 선거 메커니즘: 제안자와 투표자 순환의 공정성과 조작 방지 능력을 향상시키고, 권리 및 이익 지분 증명(PoS) 메커니즘: 토큰 담보와 페널티를 통해 노드 행동을 제한하여 시스템의 견고성을 향상시키고, 온체인 인센티브 실행: 과제 완료와 평가 결과에 묶인 스마트 계약을 통해 인센티브 분배와 페널티 공제를 달성하고, 신뢰 중개자 없이 협업 네트워크를 구축할 수 있도록 합니다. 이 시스템은 신뢰 중개자 없이도 협업 네트워크로 활용할 수 있습니다.
zkFL: 프라이버시 보호를 위한 영지식 집계 메커니즘: 플록은 제안자가 로컬로 업데이트된 영지식 증명을 제출하고 투표자가 원본 그래프에 접근하지 않고도 그 정확성을 확인할 수 있는 zkFL 영지식 집계 메커니즘을 도입하여 프라이버시를 보호하고 훈련 과정의 신뢰성을 향상시켰습니다. 이는 개인 정보를 보호하면서 훈련 과정의 신뢰성을 향상시키며, 연합 학습에서 개인 정보 보호와 검증 가능성을 통합하는 방향에서 중요한 혁신을 나타냅니다.
II. Flock의 핵심 제품 구성 요소인 AI Arena는 Flock.io의 탈중앙화 트레이닝 플랫폼입니다. train.flock.io에서는 모델 작업에 참여하고 트레이너, 검증자 또는 위임자 역할을 맡아 모델을 제출하거나 성과를 평가하거나 토큰을 위임하여 보상을 받을 수 있습니다. 현재 공식적으로 공개된 과제는 향후 커뮤니티 공동 창작을 위해 점진적으로 개방될 예정입니다. FL 얼라이언스: 개인 데이터를 사용하여 참가자들이 모델을 더욱 세밀하게 조정할 수 있도록 지원하는 플록 연합 학습 클라이언트입니다. VRF 선출, 스테이킹 및 슬래싱 메커니즘을 통해 학습 과정의 정직성과 협업의 효율성을 보장하며 커뮤니티의 초기 학습과 실제 배포 사이의 핵심 연결고리 역할을 합니다. AI 마켓플레이스: 모델 공동 제작 및 배포를 위한 플랫폼으로, 사용자가 모델을 제안하고, 데이터를 제공하고, 모델 서비스를 호출하고, 데이터베이스 액세스 및 RAG 강화 추론을 지원하고, 다양한 실제 시나리오에서 AI 모델의 착륙과 배포를 촉진할 수 있습니다.
셋째, 팀 및 자금 조달 프로필 Flock.io Sun Jiahao가 설립한 Flock.io는 플랫폼 토큰 FLOCK을 발행했으며, 프로젝트 누적 자금 조달액은 1100만 달러에 달합니다. 2024년 3월, Flock은 테스트 네트워크와 연방 학습 클라이언트를 출시하기 위해 600만 달러의 시드 펀딩을 마감했으며, 같은 해 12월에는 추가로 300만 달러의 자금을 조달하고 이더리움 토큰을 확보했습니다. 같은 해 12월, 플록은 추가로 300만 달러의 자금을 조달하고 이더리움 재단으로부터 블록체인 기반 AI 인센티브에 집중하기 위한 자금을 지원받았습니다. 현재 이 플랫폼은 6,428개의 모델을 생성하고 176개의 트레이닝 노드, 236개의 검증 노드, 1,178개의 위임자를 보유하고 있습니다.
연합 학습 기반 시스템인 Flock은 탈중앙화 훈련 프로젝트에 비해 훈련 효율성, 확장성, 개인정보 보호 측면에서 더 유리하며 특히 중소규모 모델의 공동 훈련에 적합하고 구현하기 쉬운 실용적인 접근 방식으로 엔지니어링 수준의 실현 가능성을 최적화하는 데 더 중점을 두고 있으며, Gensyn은 중소규모 모델의 협력적 훈련에 적합합니다, Pluralis 및 기타 프로젝트는 교육 방법과 커뮤니케이션 메커니즘에서 더 깊은 이론적 혁신을 추구하고 있으며, 이는 더 도전적이지만 실제 "탈신뢰 및 탈중심" 교육 패러다임에 더 가깝습니다.
EXO: 엣지 컴퓨팅을 위한 탈중앙화 훈련 시도 EXO는 현재 엣지 컴퓨팅 시나리오의 대표적인 AI 프로젝트로, 가정용 소비자 기기에서 가벼운 AI 훈련, 추론 및 에이전트 애플리케이션을 위한 것입니다. 분산형 훈련 경로는 '낮은 통신 오버헤드 + 로컬 자율 실행'을 강조하며, DiLoCo 비동기 지연 동기화 알고리즘과 SPARTA 희소 파라미터 교환 메커니즘을 채택하여 다중 장치 협업 훈련에 필요한 대역폭 수요를 크게 줄입니다. 시스템 수준에서는 온체인 네트워크를 구축하거나 경제적 인센티브를 도입하지 않고, 단일 컴퓨터 다중 프로세스 시뮬레이션 프레임워크인 EXO Gym을 도입하여 연구자들이 로컬 환경에서 분산 훈련 방법의 신속한 검증과 실험을 편리하게 수행할 수 있도록 지원합니다. I. 핵심 메커니즘 개요 DiLoCo 비동기 훈련: 노드가 H 단계마다 동기화되어 불안정한 네트워크에 적응, SPARTA 희소 동기화: 각 단계에서 소수의 파라미터(예: 0.1%)만 교환되어 모델 관련성을 유지하고 대역폭 요구 사항을 낮춤, 비동기 조합 최적화: 두 가지를 함께 사용하여 통신과 성능 간의 더 나은 절충점을 달성할 수 있습니다. evML 검증 메커니즘 탐색: 에지 검증 머신 러닝(evML)은 저비용 계산 검증을 위해 TEE/보안 컨텍스트, 원격 검증 + 샘플링 메커니즘을 사용하여 서약 없이 에지 장치에 신뢰할 수 있는 참여를 달성하고, 경제적 보안과 개인정보 보호 사이의 엔지니어링 유형 타협을 제안합니다. 둘째, 도구 및 시나리오 응용 프로그램 EXO Gym: 단일 장치에서 다중 노드 교육 환경을 시뮬레이션하고 NanoGPT, CNN, 확산 및 기타 통신 정책 실험 모델을 지원할 수 있으며, EXO 데스크톱 앱: 개별 사용자를 위한 데스크톱 AI 도구, 로컬 대형 모델 실행 지원, iPhone 이미지 제어, 개인 상황 통합(SMS, 캘린더, 비디오 녹화 등) 및 기타 개인 정보 보호 친화적인 개인용 앱입니다, 비디오 녹화) 및 기타 개인 정보 보호 친화적인 개인화 기능. EXO Gym은 탐색 중심의 탈중앙화 훈련 실험으로, 기존의 통신 압축 기술(예: DiLoCo 및 SPARTA)을 통합하여 훈련 경로를 경량화하는 데 중점을 두고 있습니다. 젠신, 누스, 플러리스 등과 같은 프로젝트에 비해 EXO는 아직 온체인 협업, 검증 가능한 인센티브 또는 실제 분산 네트워크 배포의 핵심 단계로 나아가지 못했습니다.
탈중앙화 트레이닝에 만연한 기기 이질성, 통신 병목현상, 조정 어려움, 신뢰할 수 있는 실행 부족이라는 핵심 과제에 직면해 있습니다. 젠슨, 프라임 인텔리전트, 플루랄리스, 누스 리서치는 차별화된 시스템 아키텍처 경로를 제안합니다. 훈련 방법과 커뮤니케이션 메커니즘의 관점에서 이 네 프로젝트는 고유한 기술적 초점과 엔지니어링 구현 로직을 보여줍니다.
훈련 방법 최적화 측면에서 네 프로젝트는 협업 전략, 업데이트 메커니즘, 비동기 제어의 주요 차원을 탐구하며 훈련 전 단계부터 훈련 후 단계까지 다양한 단계를 다뤘습니다.
프라임 인텔리전스의 PRIME-RL은 훈련 전 단계의 비동기 스케줄링 구조에 속합니다. PRIME-RL은 사전 훈련 단계의 비동기 스케줄링 구조로, '로컬 훈련 + 주기적 동기화'라는 전략을 통해 이기종 환경에서 효율적이고 검증 가능한 훈련 스케줄링 메커니즘을 구현합니다. 이 방법은 매우 다재다능하고 유연합니다. 이론적으로 매우 혁신적이며 훈련 제어 구조에 명확한 패러다임을 제시하지만 엔지니어링에서 구현하기는 다소 어렵고 기본 통신 및 제어 모듈에 대한 요구 사항이 높습니다.
Nous Research의 DeMo 옵티마이저는 비동기 저대역폭 환경에서의 훈련 안정성에 중점을 두고 있으며 이기종 GPU에서 내결함성이 높은 그라데이션 업데이트 프로세스를 달성합니다. 이는 '비동기 통신 및 폐쇄 루프 압축'에서 이론과 엔지니어링을 통합하는 몇 안 되는 솔루션 중 하나입니다. 이론은 특히 압축 및 스케줄링 협력 경로에서 매우 혁신적이며, 엔지니어링 구현은 특히 비동기 병렬 처리의 조정 정확도에 의존하는 매우 어렵습니다.
반면, Pluralis의 SWARM + NAG는 비동기 훈련 경로를 위한 가장 체계적이고 획기적인 설계 중 하나입니다. 비동기 모델 병렬 프레임워크를 기반으로 컬럼 공간 희소 통신과 NAG 모멘텀 보정을 도입하여 낮은 대역폭 조건에서도 안정적으로 수렴할 수 있는 대규모 모델 훈련 체계를 구축합니다. 이 이론은 매우 혁신적이며 비동기 공동 훈련의 구조적 선구자이며, 다단계 동기화 및 모델 슬라이싱의 심층 통합이 필요하기 때문에 엔지니어링 난이도도 매우 높습니다.
Gensyn의 RL Swarm은 주로 정책 미세 조정과 협업 학습에 중점을 둔 훈련 후 단계에 사용됩니다. 훈련 과정은 '생성-평가-투표'의 3단계 프로세스를 따르며, 특히 다중 에이전트 시스템에서 복잡한 행동을 동적으로 조정하는 데 적합합니다. 이론적 혁신은 주로 지능형 신체 협력 논리에 있어 중간 수준이며, 엔지니어링 구현은 다소 어렵고 주요 과제는 시스템 스케줄링 및 행동 융합 제어에 있습니다.
통신 메커니즘 최적화 수준에서 이 네 가지 프로젝트는 일반적으로 시스템 솔루션의 대역폭 병목 현상, 노드 이질성 및 스케줄링 안정성 문제에 초점을 맞춘 자체 목표 레이아웃도 가지고 있습니다.
프라임 인텔리전스의 PCCL은 기존 NCCL 기본 통신 라이브러리의 대안으로, 상위 계층 훈련 프로토콜을 위한 보다 강력한 집단 통신 기반을 제공하도록 설계되었습니다. 기초. 이 라이브러리는 내결함성 통신 알고리즘에서 일부 획기적인 발전을 이룬 중간 수준의 이론적 혁신과 강력한 모듈 적응성을 갖춘 중간 수준의 엔지니어링 난이도를 가지고 있습니다.
Nous Research의 DisTrO는 훈련 루프의 일관성을 보장하면서 낮은 대역폭에서 최소한의 통신 오버헤드를 달성하는 데 중점을 둔 DeMo의 핵심 통신 모듈입니다. 이론적으로 매우 혁신적이며 협력 구조를 스케줄링하는 데 있어 보편적인 설계 가치를 지니고 있지만, 엔지니어링적으로 어렵고 높은 압축 정확도와 훈련 동기화가 필요합니다.
Pluralis의 통신 메커니즘은 대규모 모델의 비동기 훈련에서 통신 부하를 크게 줄이고 효율적인 처리량을 유지하면서 수렴을 보장하는 SWARM 아키텍처에 깊숙이 내장되어 있습니다. 이론적으로는 매우 혁신적이며 비동기 모델 통신 설계의 패러다임을 제시하고, 엔지니어링 측면에서는 분산 모델 스케줄링과 구조적 희소성 제어에 의존하는 매우 어려운 기술입니다.
Gensyn의 SkipPipe는 RL 스웜을 위한 내결함성 스케줄링 구성 요소입니다. 이 솔루션은 배포 비용이 저렴하며 주로 엔지니어링 랜딩 레이어에서 안정성 향상을 훈련하는 데 사용됩니다. 이론적 혁신은 평균 수준이며, 알려진 메커니즘의 엔지니어링 구현에 가깝고 엔지니어링 난이도는 낮지만 실제 배포에서는 실용성이 높습니다.
또한 블록체인 협업 레이어와 보다 거시적인 두 가지 주요 범주의 AI 훈련 레이어에서 탈중앙화 훈련 프로젝트의 가치를 측정할 수 있습니다.
블록체인 협업 수준: 프로토콜 신뢰성을 강조하고 협업 로직에 인센티브를 부여
검증 가능성: 훈련 과정이 검증 가능한지 여부와 게임 또는 암호화 메커니즘 도입 여부에 대한 신뢰를 구축합니다.
인센티브 메커니즘: 작업 기반 토큰 보상/역할 메커니즘이 설계되었는지 여부
개방성 및 임계값: 노드에 접근하기 쉬운지, 중앙화되어 있는지 또는 통제 가능한지 여부
개방성 및 접근 장벽: 노드에 접근하기 쉬운지, 중앙화되어 있는지 또는 통제 가능한지 여부
AI 훈련 시스템 수준: 엔지니어링 역량과 성능 접근성을 강조
개방성 및 접근성: 노드가 접근하기 쉬운지, 중앙 집중식인지 또는 제어가 가능한지 여부입니다. -align: left;">스케줄링 및 장애 허용 여부: 장애 허용, 비동기, 동적, 분산 스케줄링 여부
학습 방법 최적화 여부: 모델 학습 알고리즘 또는 구조의 최적화 여부
통신 경로 최적화: 낮은 대역폭을 수용하기 위해 그라디언트/스파스 통신을 압축했는지 여부.
다음 표는 위의 메트릭 시스템을 기반으로 Gensyn, Prime Intellect, Pluralis, Nous Research의 탈중앙화 훈련 경로의 기술적 깊이, 엔지니어링 성숙도, 이론적 혁신을 체계적으로 평가한 것입니다. 위 메트릭스 시스템을 기반으로 젠슨, 프라임 인텔렉트, 플러리스, 누스 리서치의 기술적 깊이, 엔지니어링 성숙도, 탈중앙화 훈련 경로의 이론적 혁신을 체계적으로 평가한 결과입니다.
<그림>탈중앙화 트레이닝의 전체 가치 사슬에서 Prime Intellect, Pluralis.ai, Gensyn, Nous Research와 같은 프로젝트는 모델 사전 트레이닝, 커뮤니케이션, 통신 메커니즘 및 공동 최적화, 기타 프런트엔드 인프라에 중점을 두고 있습니다. 그러나 사전 훈련, 파라미터 동기화 또는 통신 최적화와 같은 체계적인 훈련 프로세스에는 직접 관여하지 않고 훈련 후 미세 조정 및 추론 전달에 초점을 맞춘 또 다른 프로젝트 그룹이 있습니다. 대표적인 프로젝트로는 Bagel, Pond, RPS Labs 등이 있으며, 모두 LoRA 미세 조정 방법론을 핵심으로 사용하여 탈중앙화 훈련 생태계의 핵심 '백 체인'을 형성하고 있습니다.
LoRA(Low-Rank Adaptation)는 매우 효율적인 파라미터 미세 조정 방법론입니다. 사전 학습된 대규모 모델에 낮은 순위의 행렬을 삽입하여 원래 모델 파라미터를 동결하면서 새로운 작업을 학습하는 방식입니다. 이 전략은 학습 비용과 리소스 소비를 크게 줄이고, 미세 조정 속도와 배포 유연성을 개선하며, 특히 모듈화 및 조합 호출을 특징으로 하는 Web3 시나리오에 적합합니다.
LaMA, GPT-3 등과 같은 기존의 대규모 언어 모델에는 수십억 또는 수천억 개의 파라미터가 있는 경우가 많아 직접 미세 조정하는 데 많은 비용이 듭니다. 반면 LoRA는 소수의 파라미터 행렬만 삽입하여 학습함으로써 대규모 모델을 효율적으로 조정할 수 있어 오늘날 가장 실용적인 주류 접근법 중 하나입니다.
**직접 선호도 최적화(DPO)**는 최근에 등장한 언어 모델의 사후 학습 방법으로, 모델 행동 정렬 단계에서 LoRA 미세 조정 메커니즘과 함께 사용되는 경우가 많습니다. DPO는 기존의 RLHF(인간 피드백을 통한 강화 학습) 방식에 비해 복잡한 보상 모델링과 강화 학습 과정을 생략하고 샘플 쌍을 직접 최적화하여 선호 학습을 달성하며, 구조가 더 단순하고 안정적인 수렴을 통해 가볍고 자원이 제한된 환경에서의 미세 조정 작업에 특히 적합합니다. 효율성과 사용 편의성으로 인해 DPO는 많은 분산형 AI 프로젝트에서 모델 정렬을 위해 선호되는 솔루션이 되고 있습니다.
강화 학습(RL): 학습 후 미세 조정의 미래
장기적으로는 점점 더 많은 프로젝트에서 강화 학습(RL)을 선호하는 옵션으로 전환하고 있습니다. 강화 학습, RL)은 분산형 훈련에서 적응력과 진화 가능성을 높이는 핵심 경로입니다. 정적 데이터에 의존하는 지도 학습이나 매개변수 미세 조정 메커니즘에 비해, RL은 동적 환경에서 지속적인 전략 최적화를 강조하며, 이는 비동기적이고 이질적이며 인센티브 중심의 협업 환경인 Web3 네트워크에 적합합니다. RL은 환경과의 지속적인 상호작용을 통해 고도로 개인화되고 지속적으로 점진적인 학습 프로세스를 가능하게 하여 에이전트 네트워크, 온체인 작업 시장 및 스마트 경제 구축을 위한 진화적인 '행동 지능' 인프라를 제공합니다.
이 패러다임은 탈중앙화 정신과 잘 부합할 뿐만 아니라 시스템적으로도 상당한 장점이 있습니다. 그러나 높은 엔지니어링 문턱과 복잡한 스케줄링 메커니즘으로 인해 RL은 현재 단계에서 여전히 많은 도전에 직면해 있으며 단기간에 널리 보급되기는 어렵습니다.
프라임 인텔리전스의 PRIME-RL과 젠슨의 RL 스웜은 RL을 훈련 후 미세 조정 메커니즘에서 훈련 전 마스터 구조로 전환하여 신뢰 조정이 필요 없는 협력적 RL 중심 시스템을 구축하려고 시도하고 있다는 점에 주목할 필요가 있습니다. 신뢰할 수 있는 조정이 필요 없는 훈련 시스템.
Bagel은 LoRA 미세 조정을 기반으로 하며 '온체인 모델 미세 조정' 문제 해결을 위해 제로 지식 증명(ZK) 기술을 도입했습니다. "베이글은 온체인 모델 미세 조정의 신뢰성과 프라이버시 문제를 해결하기 위해 영지식 증명(ZK) 기술을 도입했습니다. zkLoRA는 실제 훈련 계산에 참여하지 않고 외부 사용자가 원본 데이터나 가중치에 액세스하지 않고도 미세 조정된 모델이 지정된 기본 모델과 LoRA 매개 변수에서 비롯된 것인지 확인할 수 있는 가볍고 검증 가능한 메커니즘을 제공합니다."라고 설명합니다.
훈련 프로세스가 '정상적으로 작동하는지' 동적으로 검증하는 데 중점을 두는 Gensyn의 Verde나 Prime Intellect의 TOPLOC과는 달리, Bagel은 '미세 조정 결과의 신뢰성'에 중점을 둡니다. 훈련 과정에서 '동작이 실제로 발생했는지'에 대한 동적 검증에 중점을 두는 Gensyn의 Verde나 Prime Intellect의 TOPLOC과 달리, Bagel은 '미세 조정 결과가 신뢰할 수 있는지'에 대한 정적 검증에 더 중점을 둡니다. zkLoRA의 가장 큰 장점은 낮은 검증 리소스 소비와 개인정보 보호이지만 일반적으로 작은 파라미터 변경이 있는 미세 조정 작업에 제한적으로 적용된다는 점입니다.
Pond는 지식 그래프, 소셜 네트워크 및 기타 애플리케이션과 같은 구조화된 데이터 애플리케이션을 위한 그래프 신경망(GNN)의 미세 조정에 중점을 둔 업계 유일의 탈중앙화 트레이닝 프로젝트입니다. 지식 그래프, 소셜 네트워크, 트랜잭션 그래프와 같은 애플리케이션에 사용됩니다. 사용자가 그래프 구조화 데이터를 업로드하고 모델 훈련 피드백에 참여할 수 있도록 함으로써 개인화된 작업을 위한 가볍고 제어 가능한 훈련 및 추론 플랫폼을 제공합니다.
Pond는 또한 LoRA와 같은 효율적인 미세 조정 메커니즘을 사용하며, 핵심 목표는 GNN 아키텍처에서 모듈식으로 배포 가능한 지능 시스템을 달성하여 분산된 맥락에서 "소규모 모델 미세 조정 + 다중 지능 협업"을 위한 새로운 탐색의 길을 열어주는 것입니다. 이는 탈중앙화된 맥락에서 "소규모 모델 미세 조정 + 다중 지능 협업"을 위한 새로운 탐색의 길을 열어줍니다.
RPS Labs는 트랜스포머 아키텍처에 기반한 탈중앙화 교육 프로젝트로, DeFi 모빌리티를 위한 AI 모델 미세 조정에 중점을 두고 있습니다. 주로 솔라나 생태계에 배포된 DeFi 모빌리티 관리를 위한 AI 모델입니다. 주력 제품인 울트라리퀴드는 미세 조정된 모델을 사용하여 유동성 매개변수를 동적으로 조정하여 슬리피지를 줄이고 심도를 높이며 토큰 발행 및 거래 경험을 최적화하는 능동적 시장 조성 엔진 제품군입니다.
또한 RPS는 유동성 공급자가 실시간으로 DEX에서 자금 할당 전략을 최적화하여 자본 효율성을 개선하고 비영구적 손실의 위험을 줄일 수 있는 UltraLP 도구를 도입하여 금융 시나리오에서 AI 미세 조정의 가치를 입증했습니다.
탈중앙화 트레이닝의 전체 생태 매핑에서 전체는 크게 두 가지로 나눌 수 있는데, 프론트체인 엔진은 모델의 사전 훈련 단계에 해당하고 백체인 생태계는 모델 미세 조정의 배포 단계에 해당합니다. 에코시스템은 모델 미세 조정 배포 단계에 해당하며, 인프라에서 애플리케이션 랜딩까지 완전한 폐쇄형 루프를 구성합니다.
프리체인 엔진은 모델 사전 트레이닝을 위한 기본 프로토콜을 구축하는 데 중점을 두며, 프라임 인텔리전스, 누스 리서치, 플루랄리스.ai, 젠신 등의 프로젝트가 대표적입니다. 이들은 비동기 업데이트, 희소 통신 및 훈련 검증 가능성을 갖춘 시스템 아키텍처를 구축하여 탈신뢰 네트워크 환경에서 효율적이고 신뢰할 수 있는 분산 훈련 기능을 달성하기 위해 노력하고 있으며, 이는 분산 훈련의 기술적 근간을 구성합니다.
동시에 중간 계층을 대표하는 Flock은 연합 학습 경로, 모델 집계, 온체인 검증, 다자간 인센티브 및 기타 메커니즘의 융합을 통해 훈련과 배포 사이의 착륙 가능한 협력적 다리를 구축하고 다중 노드 협력 학습의 실질적인 패러다임을 제공할 수 있도록 합니다.
포스트체인 생태계는 모델 미세 조정과 애플리케이션 레이어 배포에 중점을 둡니다. Bagel은 온체인 신뢰 검증 메커니즘을 제공하고, Pond는 그래프 신경망을 위한 소규모 모델 진화에 초점을 맞추며, RPS는 미세 조정된 모델을 DeFi 시나리오에서 스마트 시장 조성에 적용하는 등, Pond, Bagel, RPS Labs와 같은 프로젝트가 LoRA 미세 조정 방법을 중심으로 진행됩니다. 이들은 개발자와 최종 사용자에게 추론 API 및 에이전트 SDK와 같은 구성 요소를 통해 임계값이 낮고 조합 가능한 모델 호출과 개인화된 사용자 지정 솔루션을 제공하며, 탈중앙화된 AI의 중요한 진입점입니다.
우리는 탈중앙화 훈련이 AI 시대에 블록체인 정신의 자연스러운 확장일 뿐만 아니라 글로벌 협업 스마트 생산성 시스템을 위한 인프라의 프로토타입이라고 믿습니다. 앞으로 이 험난한 여정을 돌아볼 때에도 탈중앙화는 목적의 수단이 아니라 그 자체로 가치라는 한 마디로 서로를 격려할 것입니다.
<그림>암호화폐를 지지하는 트럼프의 변화는 정치적 역학을 재편하고 있으며, 다가오는 대선에 영향을 미치고 친 트럼프 메모코인의 가치를 높일 가능성이 있습니다. 로버트 F. 케네디 주니어의 친암호화폐 입장은 업계의 미래에 대한 규제 명확성과 혁신을 강조하며 대안적인 비전을 제시합니다.
로버트 키요사키가 미국 달러 하이퍼인플레이션을 경고하며 브릭스 국가들이 금으로 뒷받침되는 암호화폐 출시를 고려하고 있는 가운데 금, 은, 비트코인에 투자하라고 조언합니다.
4개월의 수감 생활에도 불구하고 개인 순자산이 330억 달러에 달하며, 이는 계속 증가할 것으로 예상되어 미국 역사상 가장 부유한 수감자로 기록될 것입니다.
한 크립토 웨일이 피싱으로 도난당한 7천만 달러의 자산을 되찾으며 사이버 보안 조치와 협상 전략을 강조합니다.
테더의 CEO 파올로 아르도이노가 리플이 USDT를 표적으로 삼고 있다는 미국 정부의 주장에 대응하며 불법 금융 활동에 대한 우려와 함께 테더의 글로벌 사용, 규제 준수, 투명성을 강조합니다.
메타버스는 종교 기관에 기회와 도전을 동시에 제공하는데, 접근성 향상과 포용성 등 잠재적인 이점이 있는 반면, 물리적 공동체와 영적 진정성 보존에 대한 우려도 있습니다.
리서치 및 중개 회사 번스타인의 애널리스트들은 안정적인 비트코인 가격이 암호화폐 채굴에 가져다주는 예상치 못한 이점을 강조했습니다. 현재 비트코인 가격은 5만 달러에서 6만 달러 사이로 큰 변동이 없지만, 특히 4월 20일 비트코인의 네 번째 반감기 이후에는 채굴 운영에 유리한 상황으로 입증되었습니다.
미국은 중국과 연계된 암호화폐 채굴 투자 회사가 국가 안보에 위협이 된다고 선언하고 와이오밍의 공군 기지 근처에 있는 부동산을 매각하라고 명령했습니다. 로이터 통신에 따르면 이번 조치는 미국이 민감한 군사 기지 인근의 미국 부동산을 중국 주도로 인수하는 데 따른 국가 안보 위험에 대해 점점 더 우려하고 있는 가운데 나온 것입니다.
기능적 한계부터 개인정보 보호와 보안에 대한 우려까지, 중국의 디지털 위안화는 시험 단계에서 채택에 어려움을 겪고 있습니다. 이 전자 화폐는 실패할 운명일까요?
리플의 CEO가 테더에 대한 미국 정부의 조사를 예고하면서 리플의 자체 스테이블코인 출시와 함께 두 회사 간의 충돌이 촉발될 것으로 예상됩니다.