AI 코드를 실제 운영 환경에 배포하기 전에 읽어봐야 한다는 걸 누가 상상이나 했겠습니까? 제가 계속해서 강조하고 설명해온 내용이 바로 이것입니다. LLM(Learning Leadership Model)은 결정론적이지 않습니다. 엉뚱한 생각을 할 수도 있고, 단 하나의 엉뚱한 생각이라도 실행되면 사업이 망할 수도 있습니다.
이 기사는 기계로 번역되었습니다
원문 표시

Guillermo Rauch
@rauchg
03-04
A Vercel user reported an issue that sounded extremely scary. An unknown GitHub OSS codebase being deployed to their team.
We, of course, took the report extremely seriously and began an investigation. Security and infra engineering engaged.
Turns out Opus 4.6 *hallucinated a
Twitter에서
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트
공유


