이 기사는 기계로 번역되었습니다
원문 표시

에피소드 217: Psionic: 빠른 Qwen 3.5 Psionic에 Qwen 3.5(0.8B/2B/4B/9B) 지원을 추가하고 네 가지 모델 모두에서 @ollama의 추론 속도를 능가했습니다. NVIDIA 4080 한 대에서 초당 토큰 처리량: 🏆 0.8B: Psionic 523.20, Ollama 328.72 🏆 2B: Psionic 247.21, Ollama 205.24 🏆 4B: Psionic 166.75, Ollama 141.62 🏆 9B: Psionic 102.68, Ollama 94.62 멋진 모델을 제공해주신 @Alibaba_Qwen님과 Codex를 이용해 머신러닝 엔지니어인 척할 수 있도록 도와주신 @OpenAIDevs님께 감사드립니다. 😆 분석 및 재현 방법: github.com/OpenAgentsInc/psion...… 최악이면서 최고의 머신러닝 라이브러리인 Psionic에 대한 추가 기능이나 모델 요청을 환영합니다!

OpenAgents
@OpenAgentsInc
03-26
Episode 216: Psionic "Python sucks. It's time to get the ecosystem off of Python and onto proper languages like Rust. We're going to rewrite PyTorch and everything relevant from Python land in Rust." We introduce Psionic, our open-source Rust ML framework. It outperforms
섹터:
Twitter에서
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트