서브프라임 AI 위기: Crypto x AI를 재고해야 함

avatar
TechFlow
하루 전
이 기사는 기계로 번역되었습니다
원문 표시
AI는 대기업과 매우 밀접하게 연결되어 있으며, 이는 AI가 장기적으로 수익성을 갖지 못하는 것이 연쇄 반응을 일으킬 것임을 나타냅니다.

작가: 에드워드 지트론

편집자: 블록 유니콘

암호화폐 산업의 AI, 혹은 전통적인 인터넷의 AI에 주목하고 있다면 이 산업의 미래에 대해 진지하게 생각해 볼 필요가 있습니다. 글이 꽤 길어서 인내심이 없으시면 바로 나가셔도 됩니다.

내가 이 글을 쓰는 것은 의심이나 “강박”을 심기 위한 것이 아니라, 오히려 우리가 현재 어디에 있는지, 그리고 우리의 현재 경로가 어디로 이어질지에 대한 냉정한 평가를 제공하기 위한 것입니다. 나는 AI 붐, 더 구체적으로 말하자면 생성적 AI 붐(앞서 말했듯이)은 지속 불가능하고 결국 무너질 것이라고 믿습니다. 또한 이번 붕괴가 Big Tech에 큰 타격을 주고, 스타트업 생태계를 심각하게 붕괴시키며, 기술 산업에 대한 대중의 지지를 더욱 약화시킬 수 있다는 점을 걱정합니다.

오늘 이 글을 쓰는 이유는 상황이 급격하게 변하는 것 같은 느낌이 들고, 여러 AI '종말의 조짐'이 등장했다는 점이다. 오픈AI가 (급하게) 출시한 'o1(코드명: 스트로베리)' 모델은 'a'라고 불린다. 대규모 재난” "Silly Magic"(거짓 환상); 미래 OpenAI 모델(및 다른 곳)의 가격 인상 소문; Scale AI 해고 및 OpenAI 리더십. 이것들은 모두 상황이 무너지기 시작했다는 신호입니다.

그러므로 현 상황의 위기와 우리가 왜 환멸의 단계에 이르렀는지에 대한 설명이 필요하다고 생각합니다. 나는 이 운동의 취약성과 우리를 이 지경으로 이끈 과도한 집착과 방향성 결여에 대해 우려를 표명하고 싶습니다. 그리고 일부 사람들이 더 잘할 수 있기를 바랍니다.

추가적으로, 아마도 이것은 이전에 충분히 주의를 기울이지 않았던 것일 수도 있지만, AI 거품이 터질 때 발생할 수 있는 인적 비용을 강조하고 싶습니다. Microsoft와 Google(및 기타 대규모 생성 AI 후원자)이 점진적으로 투자 속도를 늦추든, OpenAI 및 Anthropic(및 자체 생성 AI 프로젝트)을 유지하기 위해 회사 리소스를 희석하든 최종 결과는 동일할 것이라고 믿습니다. 나는 수천 명의 사람들이 직장을 잃고 많은 기술 산업이 영원히 성장할 수 있는 유일한 것은 암뿐이라는 것을 깨닫게 될까 두렵습니다.

이 기사에는 그다지 가벼움이 없을 것입니다. 나는 대형 AI 플레이어뿐만 아니라 전체 기술 산업과 그 직원을 위해 어두운 그림을 그리고 이 지저분하고 파괴적인 최종 게임이 이전에 생각했던 것보다 낫다고 생각하는 이유를 설명하겠습니다.

계속해서 사고 모드로 들어가십시오.

생성 AI는 어떻게 살아남을 수 있을까?

현재, 곧 영리 조직이 될 명목상의 비영리 조직인 OpenAI는 최소 1,500억 달러의 가치 평가로 새로운 융자 조달을 모집하고 있으며 최소 65억 달러, 최대 70억 달러까지 조달할 것으로 예상됩니다. . 이번 융자 Josh Kushner의 Thrive Capital이 주도했으며 NVIDIA와 Apple도 참여할 수 있다는 소문이 돌았습니다. 이전에 자세히 분석한 것처럼 OpenAI는 생존을 위해 전례 없는 금액의 자금을 계속 조달해야 할 것입니다.

설상가상으로 OpenAI는 일반적으로 더 높은 이자율을 동반하는 "회전 신용 한도" 형태로 은행으로부터 50억 달러 채무 조달하려고 시도하고 있습니다.

"The Information"은 또한 OpenAI가 아랍에미리트가 지원하는 자본금 1,000억 달러 규모의 투자 펀드인 MGX와 AI 및 반도체 기업에 대한 투자를 모색 중이며 아마도 아부다비 투자청(ADIA)에서도 투자를 모색 중이라고 보도했습니다. .) 자금을 모으기 위해. UAE나 사우디아라비아로부터 자발적으로 자금을 구하는 사람이 없기 때문에 이는 매우 심각한 경고 신호입니다. 대량 돈이 필요하고 다른 곳에서 돈을 받을 수 있는지 확신할 수 없는 경우에만 도움을 요청하기로 선택할 것입니다.

참고 사항: CNBC가 지적했듯이 MGX의 창립 파트너 중 하나인 Mubadala는 FTX 파산 자산에서 인수한 Anthropic 지분으로 약 5억 달러를 보유하고 있습니다. Amazon과 Google이 이러한 이해 상충에 대해 얼마나 "행복"할지 상상할 수 있습니다!

7월 말에 제가 논의한 것처럼 OpenAI가 계속 살아남으려면 최소 30억 달러, 아마도 100억 달러의 자금을 조달해야 합니다. 2024년에는 50억 달러의 손실이 예상되며, 모델이 복잡해지면서 더 많은 컴퓨팅 리소스와 훈련 데이터가 필요해짐에 따라 이 수치는 계속해서 증가할 것으로 예상됩니다. Anthropic CEO Dario Amodei는 미래 모델의 교육 비용이 최대 1,000억 달러에 달할 수 있다고 예측합니다.

그런데 여기서 "1,500억 달러 가치 평가"는 OpenAI가 투자자를 위해 회사 주식의 가격을 책정하는 방식을 의미합니다. 여기서 "주식"이라는 단어는 실제로 약간 모호합니다. 예를 들어 일반 회사의 경우 1,500억 달러의 가치로 15억 달러를 투자하면 일반적으로 회사 지분의 "1%"가 발생하지만 OpenAI의 경우 상황이 훨씬 더 복잡합니다.

OpenAI는 올해 초 1,000억 달러의 가치 평가로 융자 하려고 시도했지만 일부 투자자는 부분적으로 생성 AI에 대한 우려로 인해 높은 가격에 주저했습니다. 회사 가치 평가가 커지고 있다는 우려가 커지고 있습니다. 너무 높다.

OpenAI는 이 융자 라운드를 완료하기 위해 비영리에서 영리 단체로 전환할 가능성이 높지만 가장 혼란스러운 부분은 투자자가 실제로 얻는 것입니다. The Information의 Kate Clark은 이번 융자 에 참여한 투자자들이 "투자에 대한 전통적인 지분을 받지 못할 것입니다. 대신 회사 이익의 일부에 대한 약속을 받게 될 것"이라는 말을 들었다고 말했습니다. 회사가 이익을 내기 시작하면 그들은 이익의 일부를 얻습니다.”

영리 법인으로 전환하면 이 문제가 해결될지는 불분명합니다. OpenAI의 이상한 "비영리 조직 + 영리 부문" 기업 구조는 2023년 투자의 일부로 Microsoft가 OpenAI 수익의 75%를 받을 자격이 있다는 것을 의미하기 때문입니다. . — 이론적으로는 영리 구조로 전환하는 데 자본이 포함될 수 있습니다. 하지만 OpenAI에 투자하면 지분이 아닌 "이익 공유 단위"(PPU)를 얻게 됩니다. Jack Raines가 Sherwood에 쓴 것처럼: "만약 당신이 OpenAI의 PPU를 소유하고 있지만 회사가 결코 이익을 내지 못하고 OpenAI가 결국 이익을 낼 것이라고 생각하는 사람에게 그것을 팔 수 없다면 당신의 PPU는 쓸모가 없습니다."

주말 동안 로이터는 OpenAI가 회사 전체를 구조 조정하고 그 과정에서 현재 한도가 원래 투자 금액의 100배인 투자자 이익 상한선을 해제할 수 있는지 여부에 따라 1,500억 달러의 가치 평가가 "달려 있다"는 보고서를 발표했습니다. 이 이익 상한액은 2019년에 제정되었으며, 당시 OpenAI는 이 상한액을 초과하는 모든 이익은 "인류를 위해 비영리 단체에 반환될 것"이라고 밝혔습니다. 최근 몇 년 동안 회사는 이 규칙을 수정하여 2025년부터 이익 한도를 매년 20%씩 늘릴 수 있도록 했습니다.

OpenAI가 Microsoft와 맺은 기존 이익 공유 계약을 고려하면(그것이 처한 막대한 손실은 말할 것도 없고) 모든 수익은 기껏해야 이론적입니다. 경솔하게 들릴 리스크 무릅쓰고 500% 올라도 0을 아무리 많이 추가해도 여전히 0이 됩니다.

로이터는 또한 영리 구조로의 전환(따라서 최근 800억 달러보다 높은 가치 평가)으로 인해 OpenAI가 지분이 희석됨에 따라 기존 투자자와 재협상해야 한다고 덧붙였습니다.

이와 별도로 Financial Times는 투자자들이 '[OpenAI의 영리 목적 자회사]에 대한 모든 투자는 기부의 정신으로 간주되어야 하며' OpenAI는 '절대' 다음과 같은 운영 계약에 서명해야 한다고 언급했습니다. 이익을 얻습니다." 그런 용어는 정말 미친 짓입니다. OpenAI에 투자하여 나쁜 결과를 겪는 사람은 누구나 자신의 책임을 져야 할 것입니다. 왜냐하면 이것은 매우 터무니없는 투자이기 때문입니다.

실제로 투자자들은 OpenAI에 대한 지분을 얻거나 OpenAI에 대한 어떠한 통제권도 얻지 못하고 단지 연간 50억 달러 이상의 손실을 입고 있고 2025년까지 더 많은 손실을 입을 가능성이 있는 회사(그때까지 살아남을 수 있다면))의 주식을 얻고 있습니다. 회사의 미래 이익.

OpenAI의 모델과 제품(나중에 유용성에 대해 논의하겠지만)은 운영상 수익성이 매우 낮습니다. "The Information"은 OpenAI가 ChatGPT 및 기본 모델을 지원하기 위해 2024년에 약 40억 달러를 Microsoft에 지불할 것이라고 보도했습니다. 이는 이미 Microsoft가 제공하는 시간당 GPU당 1.30달러의 할인된 가격입니다. 아래의 일반 요금과 비교하면 됩니다. 고객은 시간당 $3.40 ~ $4입니다. 이는 Microsoft와의 긴밀한 협력 없이 OpenAI가 서버에 연간 최대 60억 달러를 지출할 수 있음을 의미하며, 여기에는 직원 비용(연간 15억 달러)과 같은 기타 비용이 포함되지 않습니다. 그리고 이전에 논의한 것처럼 교육 비용은 현재 연간 30억 달러에 달하며 앞으로도 계속 증가할 것이 거의 확실합니다.

The Information은 지난 7월 OpenAI의 연간 수익이 35억~45억 달러라고 보도했지만, New York Times는 지난 주 OpenAI의 연간 수익이 "현재 20억 달러를 초과한다"고 보도했습니다. 그 추정 범위.

간단히 말해서, OpenAI는 "현금을 태우고" 있으며 앞으로도 더 많은 돈을 태울 것이며, 계속해서 현금을 태우기 위해서는 "우리는 결코 수익을 내지 못할 수도 있다"는 성명서에 서명한 투자자들로부터 자금을 조달해야 할 것입니다.

이전에 쓴 것처럼 OpenAI의 또 다른 문제는 생성적 AI(GPT 모델 및 ChatGPT 제품으로 확장됨)가 막대한 비용을 정당화하는 복잡한 문제를 해결하지 못한다는 것입니다. 이러한 모델은 확률 기반이므로 다루기 힘든 거대하고 다루기 힘든 문제가 발생합니다. 즉, 훈련 데이터를 기반으로 답변(또는 이미지, 번역 또는 요약)을 생성하는 것 외에는 아무것도 모르고 모델 개발자는 이 훈련 데이터를 모두 사용하고 있습니다. 놀라운 속도로.

모델이 명시적으로 사실이 아닌 정보를 생성하는(또는 이미지나 비디오에서 잘못 보이는 것을 생성하는) '환각' 현상은 기존 수학적 도구로는 완전히 해결할 수 없습니다. 환각 현상이 줄어들거나 완화될 수는 있지만, 그 존재로 인해 업무 중요한 애플리케이션에서 생성 AI를 실제로 사용하기가 어렵습니다.

생성 AI가 기술적인 문제를 해결할 수 있다고 하더라도 실제로 업무 에 가치를 제공하는지 여부는 확실하지 않습니다. The Information은 지난주 Microsoft의 365 제품군(Word, Excel, PowerPoint 및 Outlook, 특히 Microsoft의 컨설팅 서비스와 밀접하게 연결된 많은 기업용 소프트웨어 패키지 포함) 고객이 AI 기반 "Copilot"을 거의 채택하지 않았다고 보고했습니다. 제품. 440만 명의 사용자(각각 30~50달러) 중 0.1%~1%만이 이러한 기능에 대한 비용을 지불합니다. AI 기능을 테스트하고 있는 한 회사는 "현재 대부분의 사람들은 AI의 가치를 별로 인식하지 못하고 있다"고 밝혔습니다. 언제쯤 가능할지."

그렇다면 Microsoft는 이러한 중요하지 않은 기능에 대해 얼마를 청구합니까? 이는 사용자당 월 $30, 또는 "Sales Assistant" 기능의 경우 사용자당 월 최대 $50라는 놀라운 추가 비용입니다. 이를 위해서는 고객이 원래 수수료를 두 배로 늘려야 합니다. 그런데 이는 연간 계약입니다! – 그리고 이 제품들은 그다지 유용하지 않은 것 같습니다.

한 가지 추가할 점은 Microsoft의 문제가 너무 복잡해서 향후 자체 뉴스 콘텐츠가 필요할 수도 있다는 것입니다.

이것이 생성 AI의 현재 상태입니다. 생산성 및 비즈니스 소프트웨어 분야의 리더들은 고객이 기꺼이 지불할 제품을 찾을 수 없습니다. 부분적으로는 결과가 너무 평범하고 부분적으로는 비용이 너무 높아 정당화할 수 없기 때문입니다. Microsoft가 그렇게 높은 수수료를 부과해야 한다면 이는 Satya Nadella가 2030년까지 5,000억 달러의 매출을 달성하기를 원하기 때문이거나(Microsoft의 Activision Blizzard 인수에 대한 공청회에서 발표된 메모에서 공개된 목표) 비용이 너무 높기 때문입니다. 가격을 낮추려면 높이거나 둘 중 하나를 선택합니다.

그러나 거의 모든 사람들은 AI의 미래가 우리에게 충격을 줄 것이라고 강조하고 있습니다. 차세대 대규모 언어 모델이 코앞에 다가왔으며 놀라운 일이 될 것입니다.

지난 주에 우리는 소위 “미래”라는 것을 처음으로 실제로 엿볼 수 있었습니다. 그러나 결과는 실망스러웠습니다.

멍청한 마술

OpenAI는 목요일 밤에 코드명 "Strawberry"인 o1을 출시하여 치과에 가는 것만큼 평범한 수준의 즐거움을 선사했습니다. 일련의 트윗에서 Sam Altman은 o1을 OpenAI의 "가장 강력하고 정렬된 모델"이라고 설명했습니다. 그는 o1에 "여전히 결함이 있고 제한적이며, 한동안 사용한 후에도 성능이 처음 사용했을 때만큼 인상적이지 않다"는 점을 인정하면서도 o1이 필요한 작업을 더 잘 처리할 것이라고 약속했습니다. 명확한 정답입니다(프로그래밍, 수학 문제, 과학 문제 등).

이것은 그 자체로 매우 많은 것을 시사합니다. 하지만 이에 대해서는 나중에 더 자세히 이야기하겠습니다. 먼저 실제로 어떻게 작동하는지 이야기해 보겠습니다. 몇 가지 새로운 개념을 소개하겠지만 너무 복잡한 세부 사항은 다루지 않겠다고 약속합니다. OpenAI의 설명을 정말로 읽고 싶다면 공식 웹사이트의 "Learning to Reason with LLM" 기사에서 찾을 수 있습니다.

문제 대면 때 o1은 문제를 개별 단계로 분류합니다. 이러한 단계가 결국 정답으로 이어지기를 바랍니다. 이 프로세스를 "사고의 사슬"이라고 합니다. o1을 동일한 모델의 두 부분으로 생각하면 이해하기 더 쉽습니다.

각 단계에서 모델의 한 부분은 강화 학습을 적용하고, 다른 부분(결과를 출력하는 부분)은 진행 상황("추론" 단계)의 정확성에 따라 "보상" 또는 "처벌"하여 정책을 조정합니다. 처벌할 때. 이는 모델이 출력을 생성한 다음 이를 다시 살펴보고 단순히 답변을 생성하고 직접 제공하는 대신 모델이 최종 결과에 도달하기 위한 '좋은' 단계를 무시하거나 인식한다는 점에서 다른 대형 언어 모델과 다르게 작동합니다. 답변 .

이는 매우 호평받는 AGI(Artificial General Intelligence)를 향한 큰 돌파구 또는 또 다른 단계처럼 들릴 수 있지만, OpenAI가 GPT의 업데이트 버전에서 볼 수 있는 독립 실행형 제품으로 o1을 출시하기로 선택하면 가능할 수도 있습니다. OpenAI가 보여주는 수학, 과학 문제 등의 예시는 모두 미리 답을 알 수 있는 작업이며, 이러한 작업에 대한 답은 맞을 수도 있고 틀릴 수도 있어 모델이 각각의 '사고 사슬'을 안내할 수 있습니다. 단계.

OpenAI는 o1 모델이 수학적이든 아니든 답을 알 수 없는 복잡한 문제를 어떻게 해결할 수 있는지 보여주지 않는다는 것을 알 수 있습니다. OpenAI 자체는 o1이 GPT-4o보다 "환각"에 더 취약하다는 피드백을 받았으며 이전 모델에 비해 o1은 답이 없다는 점을 더 꺼려한다는 피드백을 받았다고 인정합니다. 모델의 출력을 확인하는 부분이 있지만 이 "확인" 부분도 환각일 수 있기 때문입니다(때때로 AI가 합리적으로 보이는 답변을 구성하여 환각을 일으키기도 함).

OpenAI에 따르면 o1은 "사고 체인" 메커니즘으로 인해 인간 사용자에게 더 설득력이 있습니다. o1은 더 자세한 답변을 제공하기 때문에 답변이 완전히 틀렸더라도 사람들은 그 결과를 신뢰할 가능성이 더 높습니다.

OpenAI에 대한 나의 비판이 너무 가혹하다고 생각한다면 회사가 o1을 어떻게 홍보하는지 생각해 보세요. 집중 훈련 과정을 '사고'와 '추론'으로 설명하지만 실제로는 추측일 뿐이며 모든 단계는 추측이 올바른지 추측하는 것이므로 최종 결과를 미리 알 수 있는 경우가 많습니다.

이것은 진정한 사상가인 인간에 대한 모욕입니다. 인간의 사고는 개인적인 경험과 평생 축적된 지식부터 뇌 화학에 이르기까지 복잡한 요소 집합에 기반을 두고 있습니다. 복잡한 문제를 다룰 때 특정 단계가 올바른지 "추측"하기도 하지만, 우리의 추측은 o1과 같은 서투른 수학적 연산이 아니라 특정 사실을 기반으로 합니다.

그리고 얘야, 그건 비싸다.

o1-preview의 가격은 입력 토큰 백만 개당 15달러, 출력 토큰 백만 개당 60달러입니다. 즉, o1의 입력비용은 GPT-4o의 3배, 출력비용은 4배가 된다. 그러나 숨겨진 비용이 있습니다. 데이터 과학자 Max Woolf는 OpenAI의 '추론 토큰', 즉 최종 답변에 도달하는 데 사용되는 출력이 API에 표시되지 않는다고 지적했습니다. 이는 o1의 가격이 높을 뿐만 아니라 제품의 특성상 사용자가 더 자주 지불해야 한다는 것을 의미합니다. 답변에 대해 "생각"하기 위해 생성된 모든 콘텐츠(분명히 말하면 모델은 "생각"하는 것이 아님)도 요금이 부과되므로 프로그래밍과 같은 복잡한 문제에 대한 솔루션은 잠재적으로 매우 비쌉니다.

이제 정확성에 대해 이야기합시다. 한때 Sam Altman이 설립한 회사인 Y Combinator가 소유한 Reddit과 유사한 웹사이트인 Hacker News에서 누군가 프로그래밍 작업을 처리할 때 존재하지 않는 라이브러리와 기능을 허공에서 "만들어냈다"고 불평했습니다. 온라인에서 쉽게 찾을 수 없는 질문에 답변할 때 오류가 발생합니다.

트위터에서 스타트업 창업자이자 전직 게임 개발자인 Henrik Kniberg는 o1에게 두 숫자의 곱을 계산하고 프로그램의 출력을 예측하는 Python 프로그램을 작성해 달라고 요청했습니다. o1이 코드를 올바르게 작성했지만(코드가 더 간결하고 한 줄로 표시될 수도 있음) 실제 출력은 완전히 잘못되었습니다. AI 회사 창업자인 카르틱 칸난(Karthik Kannan)도 프로그래밍 작업 테스트를 진행했고, o1은 API에 존재하지 않는 명령을 허공에서 '만들어'냈다.

또 다른 사용자인 Sasha Yanshin은 o1과 함께 체스를 두려고 시도했습니다. 그 결과 o1은 허공에서 체스판에 말을 "생성"한 후 게임에서 패했습니다.

나는 조금 장난꾸러기이기 때문에 o1에게 이름에 "A"가 포함된 주를 나열해 달라고 요청해 보았습니다. 18초 동안 고민한 끝에 미시시피를 포함한 37개 주의 이름이 떠올랐다. 그리고 정답은 36개 주가 되어야 합니다.

이름에 "W"가 포함된 주 목록을 요청했을 때, 11초 동안 고민한 결과 실제로 노스캐롤라이나와 노스다코타가 포함되었습니다.

또한 o1에게 코드명 "Strawberry"에 문자 "R"이 몇 번 나오는지 물었고, 두 번 대답했습니다.

OpenAI는 o1이 물리학, 화학, 생물학의 복잡한 벤치마크에서 박사 과정 학생과 동등한 성능을 발휘한다고 주장합니다. 그러나 분명히 지리학, 기초 영어 시험, 수학 및 프로그래밍 분야에서는 성적이 좋지 않았습니다.

놀랍게도 이것은 제가 이전 뉴스레터에서 예상했던 "크고 멍청한 마술"과 정확히 일치합니다. OpenAI는 단지 AI 혁명이 여전히 진행 중이라는 사실을 투자자와 대중에게 증명하기 위해 '스트로베리'를 출시했지만 실제로 출시한 것은 투박하고 지루하며 값비싼 모델이었습니다.

더 나쁜 것은 누군가가 o1에 관심을 가져야 하는 이유를 설명하기가 정말 어렵다는 것입니다. Sam Altman이 그의 "추론 능력"을 자랑할 수도 있지만, 그에게 계속 자금을 지원할 돈이 있는 사람들은 10~20초의 대기 시간, 기본적인 사실 정확성 문제, 흥미로운 새 기능의 부족을 보게 됩니다.

더 이상 아무도 "더 나은" 답변에 관심이 없습니다. 그들은 완전히 새로운 것을 원하지만 OpenAI는 그것을 달성하는 방법을 모르는 것 같습니다. o1을 "생각"과 "이성"으로 의인화하려는 Altman의 시도는 그것이 인공 일반 지능(AGI)을 향한 일종의 단계임을 분명히 암시하지만, 가장 확고한 AI 옹호자조차도 그것이 흥분된다는 것을 느끼기 어려울 것입니다. .

사실 o1은 OpenAI가 절실하고 독창적이지 않다는 점을 보여준다고 생각합니다.

가격은 떨어지지 않았고, 소프트웨어는 더 유용해지지 않았으며, 11월부터 우리가 듣던 "차세대" 모델은 실패작으로 판명되었습니다. 이러한 모델에는 훈련 데이터가 절실히 필요하기 때문에 거의 모든 대규모 언어 모델에는 일종의 저작권 보호 콘텐츠가 포함되어 있습니다. 이러한 긴급 상황으로 인해 가장 큰 제너레이티브 비디오 회사 중 하나인 Runway는 자사 모델을 교육하기 위해 수천 개의 YouTube 비디오와 불법 복제 콘텐츠를 수집하는 "전사적 노력"을 시작했으며, 8월 연방 소송에서는 NVIDIA가 유사한 접근 방식을 취했다고 비난했습니다. 많은 제작자가 "Cosmos" AI 소프트웨어를 훈련시키기 위해 채택했습니다.

현재의 법적 전략은 기본적으로 의지력을 통해 이러한 소송이 이러한 모델 교육을 저작권 침해로 정의할 수 있는 법적 판례를 설정하는 지점까지 가지 않기를 바라는 것입니다. 이것이 바로 일어난 결론입니다. 저작권 이니셔티브(Copyright Initiative)가 후원하는 최근 학제간 연구입니다.

소송은 진행 중이며 8월 판사는 해당 모델을 사용한 Stability AI 및 DeviantArt에 대한 추가 저작권 침해 청구와 Midjourney에 대한 저작권 및 상표권 침해 청구를 승인했습니다. 소송 중 하나라도 성공하면 OpenAI와 Anthropic, 특히 수백만 개의 아티스트 작품 데이터 세트를 사용하는 Google과 Meta에 치명적인 타격이 될 것입니다. AI 모델이 훈련 데이터를 "잊는" 것이 거의 불가능하기 때문입니다. 즉, 그들은 처음부터 재교육을 받아야 하며, 이로 인해 수십억 달러의 비용이 들고 자신이 특별히 잘하지 못하는 작업을 수행하는 데 있어 효율성이 크게 떨어지게 됩니다.

저는 산업의 기반이 모래 위의 요새와 같다는 사실에 깊이 우려하고 있습니다. ChatGPT, Claude, Gemini 및 Llama 규모의 대규모 언어 모델은 지속 불가능하고 수익성이 없는 것으로 보입니다. 왜냐하면 생성 AI의 계산 집약적 특성으로 인해 이를 교육하는 데에는 수억 달러 또는 수십억 달러의 비용이 들고 필요하기 때문입니다. 교육 데이터가 너무 대량 이들 회사는 수백만 명의 예술가와 작가로부터 데이터를 효과적으로 훔치고 법적 조치를 피하기를 희망하고 있습니다.

이러한 질문을 제쳐두더라도 생성 AI와 관련 아키텍처는 혁명적인 돌파구를 가져오지 못하는 것으로 보이며, 생성 AI에 대한 과대광고 주기는 실제로 "인공 지능"이라는 용어의 의미에 전혀 부합하지 않습니다. 생성적 AI는 최고 수준일 때 가끔 특정되지 않은 "더 빠른" 속도로 무언가를 올바르게 생성하거나, 문서를 요약하거나, 연구를 수행할 수 있는 경우가 있습니다. Microsoft가 Microsoft 365용으로 출시한 Copilot은 "수천 가지 기술"을 보유하고 기업에 "무한한 가능성"을 제공한다고 주장하지만, 이것이 보여주는 예는 이메일 생성 또는 요약, "프롬프트를 통해 프레젠테이션 실행", Excel 테이블 쿼리에 지나지 않습니다. 기능은 유용할 수 있지만 결코 혁명적이지는 않습니다.

우리는 "초기 단계"에 있지 않습니다. 2022년 11월부터 대형 기술 기업은 인프라 및 신흥 AI 스타트업에 대한 자본 지출과 투자에 1,500억 달러 이상을 지출하는 동시에 자체 모델에도 투자했습니다. OpenAI는 130억 달러를 모금했으며 원하는 사람을 누구나 고용할 수 있으며 Anthropic도 마찬가지입니다.

그러나 생성적 AI의 도약을 촉진하기 위한 업계 버전의 "마샬 플랜"의 결과는 거의 동일한 4~5개의 대규모 언어 모델, 세계에서 가장 수익성이 낮은 스타트업, 그리고 수천 개의 높은 수익을 창출하는 기업의 탄생에 불과했습니다. - 가격이 저렴하지만 성능이 떨어지는 통합 애플리케이션.

Generative AI는 여러 가지 거짓말로 마케팅되고 있습니다.

1. 인공지능이다. 2. 좋아진다. 3. 진정한 인공지능이 될 것이다. 4. 압도적이다.

기술 수준보다는 생성된 콘텐츠의 "정확성" 또는 "속도"를 설명하는 데 자주 사용되는 "성능"과 같은 용어를 제쳐두고 대규모 언어 모델은 사실상 정체기에 도달했습니다. 소위 "더 강력하다"는 것은 "더 많은 일을 할 수 있다"는 의미가 아니라 "더 비싸다"는 뜻입니다. 즉, 비용은 더 들지만 기능은 향상되지 않은 제품을 만들었다는 의미입니다.

모든 리스크 캐피탈리스트와 거대 기술 기업의 공동 노력에도 불구하고 많은 사람들이 기꺼이 비용을 지불할 만큼 진정으로 의미 있는 사용 사례를 찾지 못했다면 이는 새로운 사용 사례가 나타나지 않을 것임을 의미합니다. 대규모 언어 모델(그렇습니다. 수십억 달러가 지출되는 곳)은 거대 기술 기업과 OpenAI가 추가로 1,500억 달러를 투자한다고 해서 갑자기 성능이 향상되지는 않을 것입니다. 어느 누구도 이러한 일을 더 효율적으로 만들려고 노력하지 않았으며, 적어도 어느 누구도 그렇게 하는 데 성공하지 못했습니다. 누군가 성공하면, 그 사람은 그것에 대해 큰 일을 하게 될 것입니다.

우리가 직면한 것은 일반적인 망상입니다. 즉, 저작권 절도(모든 기술 세대에서 불가피하게 발생하는 일)를 기반으로 한 막다른 기술이며 이를 계속 실행하려면 지속적인 자본이 필요하며 제공되는 서비스는 기껏해야 선택 사항이며 위장된 것입니다. 실제로 제공되지 않는 일종의 자동화된 기능으로 수십억 달러의 비용이 소요되며 앞으로도 그럴 것입니다. 생성적 AI는 돈(또는 클라우드 컴퓨팅 포인트)이 아닌 자신감으로 실행됩니다. 문제는 투자 자본과 마찬가지로 자신감도 제한된 자원이라는 것입니다.

내 우려는 우리가 서브프라임 모기지 위기와 유사한 AI 위기에 처해 있을 수 있다는 것입니다. 수천 개의 기업이 생성 AI를 업무 에 통합하고 있지만 가격은 안정적이지 않고 수익성도 없습니다.

"AI 기반"이라고 주장하는 거의 모든 스타트업은 GPT 또는 Claude의 조합을 기반으로 합니다. 이러한 모델은 수익을 창출하는 것이 아니라 더 많은 고객을 유치하는 것을 목표로 하는 가격 책정 전략을 사용하여 심각한 손실을 입고 있는 두 회사(Anthropic은 올해 27억 달러의 손실을 예상함)에 의해 개발되었습니다. 앞서 언급했듯이 OpenAI는 Microsoft에서 제공하는 "클라우드 크레딧"과 Microsoft에서 제공하는 우대 가격을 포함하여 Microsoft의 자금 지원에 의존하며 가격은 전적으로 투자자 및 서비스 제공자로서 Microsoft의 지속적인 지원에 달려 있으며 Anthropic은 The Amazon과 파트너십을 맺고 있습니다. -Google 거래도 비슷한 문제에 직면해 있습니다.

손실을 기준으로 OpenAI나 Anthropic의 가격이 실제 비용에 가깝게 책정된다면 API 호출 가격은 10배에서 100배까지 오를 수 있다고 추측합니다. 하지만 실제 데이터가 없으면 정확하게 말하기는 어렵습니다. 하지만 The Information에서 보고한 수치를 고려해 볼 수 있습니다. OpenAI는 Microsoft의 서버 비용이 2024년에 40억 달러에 이를 것으로 예상합니다. 이 금액은 Microsoft가 다른 고객에게 청구하는 비용보다 2.5배 저렴하며 OpenAI의 연간 비용도 여전히 저렴합니다. 50억 달러 이상의 손실을 입었습니다.

OpenAI는 모델을 실행하는 데 드는 비용의 일부만 청구할 가능성이 높으며, 이전보다 더 많은 리스크 캐피털을 계속 조달하고 최근 Microsoft로부터 유리한 가격을 계속 받을 수 있는 경우에만 현 상태를 유지할 수 있습니다. 경쟁자로서. 확실하지는 않지만 Anthropic이 Amazon Web Services 및 Google Cloud로부터 비슷하게 유리한 가격을 받고 있다고 가정하는 것이 합리적입니다.

Microsoft가 OpenAI에 클라우드 컴퓨팅 크레딧으로 100억 달러를 제공하고 OpenAI가 서버 비용으로 40억 달러를 지출하고 훈련 비용으로 가상적으로 20억 달러를 지출한다고 가정해 보겠습니다. 비용은 새로운 o1 및 "Orion" 모델 출시 이후 확실히 증가할 것입니다. 더 - 따라서 OpenAI는 2025년까지 더 많은 크레딧이 필요하거나 Microsoft에 실제 현금으로 지불하기 시작할 수 있습니다.

Microsoft, Amazon 및 Google은 계속해서 할인된 가격을 제공할 수 있지만 문제는 이러한 거래가 그들에게 수익성이 있는지 여부입니다. Microsoft의 최신 분기별 수익 보고서에 따르면 투자자들은 생성적 AI 인프라를 구축하는 데 필요한 자본 지출(CapEx)에 대해 점점 더 우려하고 있으며 많은 사람들이 이 기술의 잠재적 수익성에 대해 의구심을 표명하고 있습니다.

우리가 정말로 모르는 것은 이러한 대규모 기술 회사에 생성 AI가 얼마나 수익성이 있는지입니다. 왜냐하면 그들은 다른 이점 중에서 이러한 비용을 계산하기 때문입니다. 확실히 알 수는 없지만, 이러한 업무 수익성이 있었다면 그 사업에서 얻는 수익에 대해 이야기하겠지만 그렇지 않을 것이라고 생각합니다.

시장은 생성적 AI의 번영에 대해 극히 회의적이며, 엔비디아 CEO 젠슨 황은 AI에 대한 투자 수익률에 대해 실질적인 답변을 하지 않아 엔비디아의 시총 하루 만에 2,790억 달러나 급락했습니다. 이는 미국 시장 역사상 가장 큰 주식 시장 붕괴였으며, 총 가치 손실은 리먼 브라더스 5건의 최고치에 거의 맞먹었습니다. 비교는 여기서 끝나지만, Nvidia는 실패할 리스크 조차 없으며, 실패하더라도 시스템에 미치는 영향은 그다지 심각하지 않을 것입니다. 여전히 엄청난 금액이며 시장에서 AI의 왜곡된 힘을 보여줍니다.

8월 초 마이크로소프트, 아마존, 구글은 모두 대규모 AI 관련 자본 지출로 인해 큰 시장 손실을 입었다. 새로운 데이터 센터와 NVIDIA GPU에 투자한 1,500억 달러(또는 그 이상)로 인해 다음 분기에 상당한 매출 성장을 보이지 않는다면 더 큰 압박에 직면하게 될 것입니다.

기억해야 할 것은 AI 외에는 거대 기술 기업의 아이디어를 위한 다른 시장이 없다는 점이다. 마이크로소프트나 아마존과 같은 기업들이 성장 둔화 조짐을 보이기 시작하면, 그들은 여전히 ​​경쟁할 수 있다는 것을 시장에 보여주기 위해 서두르기 시작합니다. 거의 전적으로 검색과 광고에 의존하는 멀티 리스크 독점 기업인 Google 역시 투자자의 관심을 끌기 위해 새롭고 눈길을 끄는 것이 필요했습니다. 그러나 이러한 제품은 충분한 효용성을 제공하지 못했고 대부분의 수익은 다음에서 나오는 것처럼 보였습니다. AI를 "시도"했지만 그만한 가치가 없다는 것을 알게 된 회사.

현재 두 가지 가능성이 있습니다.

1. 거대 기술 기업은 자신들이 심각한 어려움에 처해 있음을 깨닫고 월스트리트의 불만을 두려워하여 AI 관련 자본 지출을 줄이기로 결정했습니다.

2. 새로운 성장 포인트를 찾기 위해 대규모 기술 기업은 파괴적인 운영을 유지하기 위해 비용을 절감하고, 직원을 해고하고, 생성 AI의 "죽음의 경쟁"을 지원하기 위해 다른 업무 의 자금을 전환하기로 결정했습니다.

어떤 시나리오가 발생할지는 불분명합니다. 거대 기술 회사가 생성 AI가 미래의 현실이 아니라는 점을 인정한다면 말 그대로 월스트리트에 보여줄 것이 아무것도 없지만 메타와 같은 "효율성의 해" 전략을 채택하여 자본 지출을 줄이고 직원을 해고할 수 있습니다. “어느 정도까지는 투자를 낮추겠다”고 약속했다. 이것이 Amazon과 Google이 취할 가능성이 가장 높은 경로입니다. 왜냐하면 월스트리트를 행복하게 하려는 열망에도 불구하고 적어도 현재로서는 여전히 수익성 있는 독점 업무 의지할 수 있기 때문입니다.

그러나 다음 몇 분기에는 AI의 실제 매출 성장을 확인해야 하며, 이는 AI가 "성숙한 시장" 또는 "연간 성장률"이라는 모호하지 않은 실질적인 진술이어야 합니다. 그에 따라 자본 지출이 증가한다면, 이 실제 기여도는 크게 증가해야 할 것입니다.

나는 이런 성장이 일어날 것이라고 생각하지 않는다. 2024년 3분기, 2024년 4분기, 2025년 1분기든 월스트리트는 AI에 대한 탐욕 때문에 거대 기술 기업을 처벌하기 시작할 것이며, 그 처벌은 엔비디아에 대한 처벌보다 더 엄중할 것입니다. AI가 어떻게 수익을 늘릴 수 있는지 실제로 보여줄 수 있는 유일한 회사입니다.

두 번째 시나리오가 더 가능성이 높다는 점이 조금 걱정됩니다. 이들 회사는 "AI가 미래"라고 확신하고 있으며, 그들의 문화는 실제 문제를 해결하는 소프트웨어 개발과 완전히 단절되어 회사 전체를 태워버릴 수 있습니다. 나는 대량 해고가 이 운동에 자금을 조달하는 데 사용될 것이라는 깊은 우려를 갖고 있으며 지난 몇 년 동안 그들이 AI에서 벗어나는 올바른 선택을 하지 않을 것이라고 생각했습니다.

Big Tech는 경영 컨설턴트(Amazon, Microsoft, Google은 모두 MBA가 운영함)와 Google의 Prabhakar Raghavan과 같은 유사한 괴물들에 의해 완전히 중독되었습니다. .

이 사람들은 실제로 인간의 문제 대면 하지 않고, 소프트웨어로 해결할 수 있는 가상의 문제를 해결하는 데 중점을 두는 문화를 만듭니다. 평생을 회의에 참석하거나 이메일을 읽는 데 소비하는 사람들에게 생성 AI는 약간 마술처럼 보일 수 있습니다. 사티아 나델라(마이크로소프트 CEO)의 성공 사고방식은 주로 '기술자들이 문제를 해결하도록 하는 것'이라고 생각한다. Sundar Pichai는 OpenAI에 대한 Microsoft의 투자를 단순히 조롱함으로써 전체 생성 AI 열풍을 종식시킬 수도 있었지만 그렇게 하지 못했습니다. 왜냐하면 이 사람들은 실제 아이디어가 없고 이 회사는 문제를 경험한 사람들이 운영하지 않기 때문입니다. , 실제로 문제를 해결하는 방법을 아는 사람들은 말할 것도 없습니다.

그들은 또한 절망적이며, 메타버스를 통해 수십억 달러의 메타가 불태워진 것을 제외하고는 이 상황이 그들에게 더 심각한 적은 없었습니다. 그러나 이 상황은 훨씬 더 심각하고 추악합니다. 왜냐하면 그들이 대량 돈을 투자하고 AI를 회사에 너무 단단히 묶어 AI를 제거하는 것은 회사에 당황스럽고 해로울 수 있기 때문입니다.

언론이 진정으로 책임을 묻는다면 이 모든 것이 더 일찍 중단되었을 수 있습니다. 이 이야기는 이전의 과대광고 주기와 동일한 사기를 통해 판매되었으며, 미디어에서는 이러한 회사가 "문제를 해결"하지 않을 것이 분명함에도 불구하고 "문제를 해결할 것"이라고 가정했습니다. 제가 비관적이라고 생각하시나요? 그렇다면 생성 AI의 다음 계획은 무엇입니까? 다음에 무엇을 할 것인가? 당신의 대답이 그들이 "문제를 해결한다"거나 "뒤에 놀라운 일이 있다"는 것이라면 당신은 마케팅 활동에 무의식적으로 참여하고 있는 것입니다(이 문장을 생각해 보세요).

이 기사 작성자의 내레이터: 우리는 정말로 이런 것들에 속는 것을 멈춰야 합니다. Mark Zuckerberg가 우리가 곧 메타버스에 진입할 것이라고 주장했을 때, The New York Times, The Verge, CBS News, CNN 등 대량 언론 매체가 합류하여 분명히 결함이 있는 개념을 홍보했습니다. 미래에 대한 노골적인 거짓말로 자신을 팔아버립니다. 분명히 나쁜 가상 현실 세계에 지나지 않지만, 월스트리트저널은 이 과대광고 주기가 명백히 쓸모없게 된 지 6개월이 지난 후에도 여전히 "인터넷의 미래에 대한 비전"이라고 부르고 있습니다. 암호화폐, Web3, NFT에서도 마찬가지입니다! The Verge, The New York Times, CNN, CBS News - 이들 언론 매체는 분명히 쓸모없는 기술을 홍보하는 데 다시 한 번 참여하고 있습니다. 특히 The Verge를 언급해야 합니다. 실제로는 시리즈에 출연한 Casey Newton입니다. 세 번이나 선전한 후 이 기술은 좋은 평판에도 불구하고 7월에 "가장 강력한 대형 언어 모델 중 하나를 보유하면 회사에 다양한 수익성 있는 제품 기반을 제공할 수 있다"고 주장되었습니다. 아직 정말 유용하고 오래 지속되는 제품을 제공하십시오.

나는 적어도 마이크로소프트가 AI 붐을 지속하는 데 도움이 되도록 다른 업무 영역에서 비용을 줄이기 시작할 것이라고 믿습니다. 올해 초 한 소식통이 나와 공유한 이메일에서 Microsoft의 고위 리더십 팀은 회사 내 여러 영역에서 전력 요구 사항을 줄여 다른 서비스 컴퓨팅을 이동하는 것을 포함하여 GPU에 대한 전력을 확보하도록 요청했습니다(그러나 계획은 결국 보류되었습니다). AI의 컴퓨팅 성능을 다른 나라에 공개합니다.

익명 소셜네트워크 블라인드(회사 이메일 인증 필요)의 마이크로소프트 섹션에는 2023년 12월 중순 마이크로소프트 직원이 “AI가 돈을 잡아먹는다”며 “AI 비용이 너무 높아 급여 인상을 잡아먹는다”고 불만을 토로했다. .상황은 나아지지 않을 것입니다." 또 다른 직원은 7월 중순에 마이크로소프트가 "엔비디아 주가를 위한 운영 현금 흐름 자금을 조달하기 위한 비용 절감"에 "한계 중독"을 갖고 있으며 이러한 관행이 "마이크로소프트의 수익에 심각한 타격을 주고 있다"는 점을 분명히 느꼈다고 말하면서 우려를 표시했습니다. " 문화".

또 다른 직원은 "Copilot이 FY25에 Microsoft를 무너뜨릴 것"이라며 "FY25에는 Copilot의 초점이 크게 줄어들 것"이라고 덧붙였습니다. PoC, 정리해고, 조정 등 활용률은 20%도 안 된다”며 “회사가 너무 많은 리스크 감수했다”며 “마이크로소프트의 “대량의 AI 투자는 보상받지 못할 것”이라고 말했다.

Blind는 익명이지만 대량 온라인 게시물이 Microsoft Redmond의 문화적 문제에 대해 이야기하고 있다는 사실을 무시하기 어렵습니다. 특히 고위 리더는 실제 작업과 접촉하지 않고 AI 라벨이 붙은 프로젝트에 자금을 제공하는 사람들에게만 서비스를 제공한다는 사실을 무시할 수 없습니다. 많은 게시물은 Microsoft CEO Satya Nadella의 "말도 안되는 말"에 실망감을 표현하고 존재하지 않을 수도 있는 AI 열풍을 쫓는 데 초점을 맞춘 조직에 보너스와 승진 기회가 부족하다고 불평했습니다.

적어도 회사 내에 깊은 문화적 슬픔이 있다는 것을 알 수 있습니다. "나는 여기서 일하는 것이 싫어요"라는 주제에 대한 많은 게시물과 한편으로는 우리가 왜 그렇게 투자하는지에 대해 혼란스러워하는 사람들이 있습니다. AI에는 많은 부분이 있지만 반면에 Satya Nadella는 신경 쓰지 않기 때문에 받아들일 수 있다고 생각합니다.

정보 기사에서는 Microsoft가 AI 기능인 Office Copilot의 실제 채택률에서 걱정스러운 문제를 숨기고 있다고 언급했습니다. Microsoft는 수백만 명의 Everyday 사용자를 처리할 수 있도록 365 Copilot을 위해 데이터 센터에 충분한 서버 용량을 확보했습니다. 그러나 이 용량의 실제 사용은 불분명합니다.

추정에 따르면 Microsoft의 현재 Office Copilot 기능 사용자는 400,000~400만 명에 이를 수 있습니다. 이는 Microsoft가 완전히 활용되지 않은 대량 의 유휴 인프라를 구축했을 수 있음을 의미합니다.

일부 사람들은 Microsoft가 이 제품 범주의 향후 성장에 대한 기대를 바탕으로 계획을 세우고 있다고 주장할 수도 있지만 고려해야 할 또 다른 가능성은 다음과 같습니다. 이러한 성장이 결코 일어나지 않는다면 어떨까요? 미친 소리처럼 들리겠지만 Microsoft, Google, Amazon이 결코 오지 않을 수요를 포착하기 위해 이러한 대규모 데이터 센터를 구축했다면 어떨까요? 올해 3월에 저는 다음과 같은 관점 분명히 했습니다. 생성 AI를 통해 상당한 매출 성장을 달성할 수 있는 회사를 찾을 수 없었습니다. 그리고 거의 6개월이 지난 지금도 문제는 여전히 존재합니다. 현재 대기업들의 접근 방식은 이런 방식으로 매출을 늘리기 위해 기존 제품에 AI 기능을 접목하는 것으로 보이지만, 이 전략은 어디에서도 성공할 기미를 보이지 않고 있다. 마이크로소프트와 마찬가지로 그들이 시작한 'AI 업그레이드'도 기업에 실질적인 비즈니스 가치를 가져다주지 못하는 것 같다.

따라서 이는 더 큰 질문을 제기합니다. 이러한 AI 투자는 지속 가능합니까? 기술 대기업들이 AI 도구에 대한 수요를 과대평가하고 있습니까?

일부 기업은 "AI 통합"과 관련하여 Microsoft Azure, Amazon AWS 및 Google Cloud에 일부 지출을 추진할 수 있지만 이러한 수요의 대부분은 투자 정서 에 의해 주도된다고 가정합니다. 이들 기업은 비용/이익 분석이나 실제 효용을 기반으로 하기보다는 시장을 만족시키기 위해 더 많이 “AI에 투자”합니다.

그러나 이들 회사는 생성 AI 기능을 제품에 내장하는 데 대량 시간과 돈을 투자했으며 다음과 같은 시나리오에 직면할 수 있다고 생각합니다.

1. 이들 기업은 AI 기능을 개발하고 출시했지만 Microsoft가 365 Copilot을 통해 접했던 것처럼 고객이 이에 대한 비용을 지불할 의사가 없다는 사실을 알게 되었습니다. AI 열풍 중에 지금 고객이 지불하도록 할 방법을 찾을 수 없다면 열풍이 지나가고 상사가 직원들에게 "AI 악대차에 뛰어들라"고 더 이상 요구하지 않을 때 상황은 더욱 악화될 것입니다.

2. 이들 회사는 AI 기능을 개발하고 출시하지만 사용자가 이러한 기능에 대해 추가 비용을 지불하도록 유도할 수 있는 방법을 찾을 수 없습니다. 즉, 이윤을 늘리지 않고 AI 기능을 기존 제품에만 내장할 수 있다는 의미입니다. 결국 AI 역량은 기업의 수익을 잠식하는 기생충이 될 수 있다.

Goldman Sachs의 Jim Covello도 생성 AI에 대한 보고서에서 AI의 이점이 단지 효율성 향상(예: 문서 분석 속도 향상)이라면 경쟁업체도 이를 수행할 수 있다고 언급했습니다. 거의 모든 생성 AI 통합은 유사합니다. 고객 또는 내부 질문에 답변하기 위한 일종의 협업 보조자(예: Salesforce, Microsoft, Box), 콘텐츠 생성(Box, IBM), 코드 생성(Cognizant, Github Copilot)) 및 향후 출시될 본질적으로 "웹 사이트의 다른 부분에 연결할 수 있는 사용자 정의 가능한 챗봇"인 "지능형 에이전트"입니다.

이 질문은 생성 AI의 가장 큰 과제 중 하나를 드러냅니다. 어느 정도 "강력"하지만 이 힘은 진정한 "지능"보다는 "기존 데이터를 기반으로 콘텐츠 생성"에 더 많이 반영됩니다. 이것이 바로 많은 회사 웹사이트의 AI 소개 페이지가 공허한 단어로 가득 찬 이유입니다. 왜냐하면 그들의 가장 큰 판매 포인트는 실제로 "글쎄… 스스로 알아낼 수 있습니다!"이기 때문입니다.

제가 걱정하는 것은 노크온 효과입니다. 나는 현재 많은 기업들이 AI를 "시험"하고 있다고 생각하며, 이러한 실험이 끝나면(Gartner는 2025년 말까지 생성 AI 프로젝트의 30%가 개념 증명 단계 이후에 포기될 것이라고 예측함) 이러한 추가 기능에 대한 유료 작업을 중단하거나 생성 AI를 회사 제품에 통합하는 것을 중단하십시오.

이런 일이 발생하면 생성 AI 애플리케이션을 위한 클라우드 컴퓨팅을 제공하는 대규모 기업과 OpenAI 및 Anthropic과 같은 대규모 언어 모델 공급업체의 이미 부진한 수익이 더욱 줄어들 것입니다. 이는 이미 적자를 내고 있는 기업의 이익율 더욱 악화될 것이기 때문에 이들 기업의 가격에 더 많은 압력을 가할 수 있습니다. 그때까지 OpenAI와 Anthropic은 아직 가격을 인상하지 않았다면 거의 확실하게 가격을 인상해야 할 것입니다.

거대 기술 기업은 계속해서 호황에 자금을 조달할 수 있지만 결국 그들은 거의 전적으로 운영을 주도했습니다. Meta의 LLaMA 모델을 실행하는 독립 공급업체와 같은 일부 저렴한 대안이 있지만 이들이 대규모 기업과 동일한 수익성 문제에 직면하지 않는다는 것은 믿기 어렵습니다.

또한 대규모 기업들은 월스트리트를 혼란에 빠뜨리는 것을 매우 두려워합니다. 이론적으로는 해고 및 기타 비용 절감 조치를 통해 이익율 향상시킬 수 있지만 이는 단기적인 해결책일 뿐이며 이 불모의 생성 AI 트리를 어느 정도 흔들어 놓는 경우에만 작동할 수 있습니다. 약간의 돈으로.

어쨌든, 이제 돈이 여기에 없다는 사실을 받아들여야 할 때입니다. 우리는 이제 기술 산업이 제3의 환상 시대에 살고 있다는 사실을 멈춰서 생각해 볼 필요가 있습니다. 그러나 암호화폐나 메타버스와 달리 이번에는 모두가 지속 불가능하고 신뢰할 수 없으며 수익성이 없고 환경에 해로운 프로젝트를 추구하면서 돈을 낭비하고 있습니다. 이 프로젝트는 '인공지능'으로 포장되어 '모든 것을 자동화'하는 프로젝트로 홍보되었지만 실제로는 이 목표를 달성할 수 있는 경로가 없었습니다.

왜 이런 일이 계속해서 발생합니까? 우리가 암호화폐, 메타버스, 그리고 이제는 생성적 AI를 거치면서 이러한 기술이 실제로 일반 사람들을 위해 설계되지 않은 것처럼 보이는 이유는 무엇입니까?

이는 실제로 고객에게 더 많은 가치를 제공하기보다는 각 고객에게서 클레임 가치를 향상시키는 데 전적으로 초점을 맞추고 있는 기술 산업의 자연스러운 발전입니다. 즉, 그들은 고객이 누구인지, 고객에게 필요한 것이 무엇인지조차 이해하지 못합니다.

오늘날 판매되고 있는 제품은 적어도 Microsoft, Apple, Amazon, Google이 지배하는 소비자로서 귀하를 생태계에 묶으려고 노력하고 있는 것이 거의 확실합니다. 결과적으로, 이 생태계를 떠나는 데 드는 비용은 점점 더 높아집니다. 표면적으로 "탈중앙화" 기술인 암호화폐조차도 Coinbase, OpenSea, Blur 또는 Uniswap과 같은 소수의 대규모 플랫폼을 통해 사용자를 모으는 것을 선호하여 자유방임주의 철학을 빠르게 포기했으며 이러한 플랫폼은 종종 동일한 지원을 받습니다. 벤처 캐피탈 회사(예: Andreessen Horowitz). 암호화폐는 새롭고 완전히 독립적인 온라인 경제 시스템의 표준이 되기보다는 인터넷의 다른 물결에 자금을 지원했던 연결과 돈을 통해서만 확장될 수 있었습니다.

Metaverse의 경우 비록 사기이기는 하지만 차세대 인터넷을 통제하려는 Mark Zuckerberg의 시도이기도 합니다. 그는 Horizon을 주요 플랫폼으로 만들기를 희망합니다. 생성 AI에 대해서는 나중에 이야기하겠습니다.

이 모든 것은 추가 수익 창출에 관한 것입니다. 즉, 고객이 플랫폼을 더 많이 사용하여 더 많은 광고를 표시하도록 유도하거나, "준유용성" 새 기능을 홍보하거나, 새로운 A 독점 또는 과점 시장을 창출함으로써 각 고객의 평균 가치를 높이는 것입니다. 막대한 재정 보유량을 보유한 거대 기술 기업만이 참여할 수 있는 반면, 고객에게 제공되는 실질적인 가치나 효용은 거의 없습니다.

제너레이티브 AI는 (적어도 특정 계층의 사람들에게는) 흥미진진한 일입니다. 거대 기술 기업들이 소비자 기술부터 기업 서비스에 이르기까지 모든 제품에 수수료 기반 경로를 추가함으로써 차세대 큰 수익 창출원으로 여기기 때문입니다. 대부분의 생성 컴퓨팅은 OpenAI 또는 Anthropic을 거쳐 Microsoft, Amazon 또는 Google로 돌아가 클라우드 컴퓨팅 수익을 창출하고 성장 성과를 유지합니다. 여기서 가장 큰 혁신은 생성적 AI가 할 수 있는 일이 아니라, 자유로워질 가망이 없는, 소수의 대기업에 전적으로 의존하는 생태계를 조성하는 것입니다.

생성적 AI는 그다지 실용적이지 않을 수 있지만 다양한 제품에 통합하기가 매우 쉬우므로 기업은 이러한 "새로운 기능"에 대해 비용을 청구할 수 있습니다. 소비자 애플리케이션이든 엔터프라이즈 소프트웨어 회사를 위한 서비스이든 이러한 유형의 제품은 가능한 한 많은 고객에게 가격 인상하여 판매하여 수백만 달러, 심지어 수십억 달러의 수익을 올릴 수 있습니다.

Sam Altman은 기술 산업에 "새로운 것", 즉 모든 사람이 구입하고 판매할 수 있는 새로운 기술이 필요하다는 것을 깨달을 만큼 똑똑했습니다. 그는 기술을 완전히 이해하지는 못하더라도 경제 시스템의 성장 욕구를 이해하고 있으며, Transformer 아키텍처를 기반으로 하는 생성 AI를 대부분의 제품에 쉽게 삽입할 수 있는 "마법의 도구"로 제품화하여 몇 가지 독특한 기능을 제공합니다.

그러나 생성적 AI를 모든 곳에 통합하려는 서두르는 과정에서 이러한 기업과 실제 소비자 요구 또는 효과적인 업무 운영 사이에 큰 단절이 있음을 드러냅니다. 지난 20년 동안은 단순히 "새로운 것을 만드는 것"이 ​​효과가 있는 것처럼 보였습니다. 새로운 기능을 출시하고 영업 인력이 이를 판매하도록 하는 것만으로도 성장을 유지하기에 충분했습니다. 이로 인해 기술 업계 리더들은 해롭고 수익성이 없는 비즈니스 모델에 갇히게 됩니다.

이러한 회사를 운영하는 최고 경영진(거의 모두 MBA 및 경영 컨설턴트)은 처음부터 제품이나 기술 회사를 만들어 본 적이 없습니다. 생성 AI에는 수익성이 없다는 사실을 이해하지 못하거나 신경 쓰지 않습니다. 아마도 그렇게 생각하기 때문일 것입니다. 마치 아마존 클라우드 서비스(AWS)가 자연스럽게 수익을 내는 것과 같을 것입니다(AWS가 수익을 내는 데 9년이 걸렸습니다). 둘은 완전히 다른 것입니다. 과거에는 모든 것이 "저절로 해결"되었는데, 지금은 왜 안 됩니까?

물론, 금리 상승 리스크 캐피털 시장을 극적으로 변화시켜 VC 자본 준비금을 줄이고 펀드 규모를 축소했다는 사실 외에도 기술에 대한 태도가 그 어느 때보다 부정적이라는 사실도 있습니다. 2024년이 2014년과 매우 다른 이유에 대한 다른 많은 요소를 추가하십시오. 그 이유는 8,000 단어로 구성된 이 기사에서 논의하기에는 너무 많습니다.

정말 걱정스러운 점은 이들 기업 중 상당수가 AI 외에 다른 신제품을 내놓지 않는 것 같다는 점이다. 그 밖에 또 무엇이 있습니까? 회사를 계속 성장시킬 수 있는 또 다른 방법은 무엇입니까? 다른 옵션에는 어떤 것이 있나요?

아니요, 아무것도 없습니다. 이것이 문제입니다. AI가 실패하면 그 영향은 필연적으로 나머지 기술 산업 전반에 걸쳐 느껴지게 되기 때문입니다.

소비자 부문이든 기업 부문이든 모든 주요 기술 기업은 대규모 언어 모델이나 자체 모델을 통합하는 일종의 AI 제품을 판매하고 있으며, 종종 대기업 시스템의 클라우드에서 실행됩니다. 어느 정도 이들 회사는 전체 산업에 보조금을 지급하려는 Big Tech의 의지에 의존하고 있습니다.

나는 서브프라임 스타일의 AI 위기가 다가오고 있다고 추측합니다. 이 위기에서는 거의 전체 기술 산업이 Big Tech에 의해 집중되고 보조금을 받는 아주 저렴한 가격에 판매되는 기술에 참여합니다. 어느 시점에서는 제너레이티브 AI의 위험하고 유해한 비용 소모율이 이를 따라잡아 가격 인상으로 이어지거나 기업이 극도로 높은 가격을 청구하는 새로운 제품과 기능을 출시할 것입니다. 예를 들어 Salesforce의 "Agentforce" 대화당 제품 수수료 2달러 – 이로 인해 예산이 많은 기업 고객이라도 비용을 정당화하는 것이 불가능해집니다.

기술 산업 전체가 돈만 손해만 보고 실질적인 가치도 별로 없는 소프트웨어에 의존한다면 무슨 일이 일어날까요? 압력이 너무 크고, AI 제품이 화해할 수 없게 되고, 기업이 더 이상 팔 수 있는 것이 없다면 어떻게 될까요?

정말 모르겠습니다. 하지만 기술 산업은 혁신보다 성장, 충성도보다 독점, 실제 창조보다 관리를 보상하는 경제 환경에 의해 조성된 창의성 부족이라는 끔찍한 시련을 향해 나아가고 있습니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
1
코멘트