AI에서 데이터 레이어에 대해 제대로 이야기하는 사람은 거의 없습니다. AI가 AI가 생성한 데이터로 학습을 시작하면 어떻게 될까요? 출력 속도는 빨라집니다. 하지만 모델의 성능은 떨어지고, 피드백 루프는 악화되며, 신뢰 문제는 더욱 심각해집니다. 연구자들은 이미 이를 "모델 붕괴(Model Collapse)"라고 부르고 있는데, 합성 데이터로 모델을 반복적으로 학습시키면 성능이 저하되는 현상입니다. Perle은 바로 이 부분을 공략하고 있습니다. $PRL은 이미 출시되었으며, 핵심 아이디어는 간단합니다. AI 규모가 커질수록, 특히 합성 콘텐츠가 시스템에 넘쳐나는 상황에서, 깨끗하고 검증 가능한 데이터의 가치가 더욱 높아진다는 것입니다. Perle은 바로 이 데이터 레이어를 중심으로 구축하고 있습니다. 잘못된 입력이 실제로 결과를 초래하는 기업 및 국가 차원의 사용 사례를 위해, 사람이 검증하고 온체인에서 감사 가능한 데이터를 제공합니다. Scale AI 출신인 Perle 팀은 1,750만 달러의 투자를 유치했으며, 모델에 대한 과도한 기대에 비해 여전히 저평가된 것으로 보이는 AI 스택의 한 부분을 공략하고 있습니다. 또한, 기여자 보상에 1달러를 연동시켜, 보상이 분산된 단위가 아닌 안정적인 온체인 단위로 지급되도록 했습니다. AI가 계속 확장된다면 병목 현상은 모델이 아니라 데이터일 가능성이 높습니다. @PerleLabs와 협력하여 사람들이 여전히 간과하는 AI의 측면을 조명하게 되어 기쁩니다.
이 기사는 기계로 번역되었습니다
원문 표시

Perle Labs
@PerleLabs
03-25
The stamp of verification is here.
$PRL is now live. Start your claim ⬇️
@PerleFDN
Twitter에서
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트
공유


