포사이트 뉴스(Foresight News)에 따르면, 0G 랩스는 2025년에 1,070억 개의 파라미터를 가진 최대 규모의 탈중앙화 AI 모델인 DiLoCoX-107B를 학습시켰습니다. 이 모델은 비텐서(Bittensor)의 모델보다 약 48% 더 큽니다. DiLoCoX-107B는 차이나 모바일(China Mobile)과 공동 개발한 기술을 사용하여 2025년 7월에 학습되었습니다. 일반적인 1Gbps 인터넷 연결 속도에서, 이 모델의 통신 효율은 표준 AllReduce 방식보다 357배 더 높습니다.
0G Labs는 작년에 1070억 개의 매개변수를 가진 최대 규모 탈중앙화 AI 모델을 학습시켰습니다.
이 기사는 기계로 번역되었습니다
원문 표시
출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트
공유



