이 기사는 기계로 번역되었습니다
원문 표시
저는 소비, 지출, 효율성을 우선시하는 중국산 LLM 모델에 더 큰 기대를 걸고 있습니다. 출력 하나당 25달러씩 소모하는 대규모 폐쇄형 소스 모델보다는 말이죠.
제 생각에 AI의 미래는 벤처 캐피털 자금을 쏟아부어 손실을 감수하면서까지 운영되는 모델이 아니라, 특정 작업에 최적화된 효율적인 모델입니다.
오늘날 20달러 구독료로 엄청난 데이터 센터를 필요로 하는 모델을 실행할 수 있다는 사실은 놀랍지만, 결국 이런 방식은 확장성이 떨어지고 비용 낭비만 심합니다. 올해 이런 분야에서 비용 절감이 더 많이 이루어지거나, 연구소들이 모델 효율성을 높이는 데 박차를 가하는 모습을 보게 되더라도 놀라지 않을 겁니다.
섹터:
Twitter에서
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트
공유




