Nvidia, với giá trị vốn hóa thị trường 5,5 nghìn tỷ đô la, đã phải đối mặt với một đối thủ đáng gờm.
Tác giả và nguồn bài viết: Pencil News
Nvidia, với giá trị vốn hóa thị trường 5,5 nghìn tỷ đô la, đã phải đối mặt với một đối thủ đáng gờm.
Sắp tới, công ty sản xuất chip Cerebras sẽ niêm yết cổ phiếu lần đầu trên sàn Nasdaq. Giá IPO được ấn định ở mức 189 đô la, huy động được 5,55 tỷ đô la và định giá công ty ở mức 56,4 tỷ đô la (khoảng 380 tỷ nhân dân tệ).
Đây là đợt IPO lớn nhất toàn cầu trong năm nay, và cũng có khả năng là đợt IPO lớn nhất trong nửa đầu năm.
Tại sao Cerebra lại phổ biến đến vậy? Bởi vì nó đang cố gắng thách thức sự thống trị của Nvidia trong lĩnh vực chip tỷ lệ băm.
Cerebras thực sự sở hữu một kỹ năng độc đáo.
GPU của Nvidia và AMD được sản xuất bằng cách cắt một tấm wafer lớn thành nhiều chip nhỏ rồi đóng gói chúng. Cerebra thì làm ngược lại; nó sử dụng toàn bộ một tấm wafer 12 inch làm chip khổng lồ cho suy luận AI.
Đây là con chip lớn nhất trong lịch sử loài người, và OpenAI đã đặt mua với giá 10 tỷ đô la.
Nào, hãy xem nó hoạt động như thế nào.
Tư duy "cưỡng chế" để giải quyết các vấn đề tồn đọng lâu năm.
Được thành lập vào năm 2016 và có trụ sở chính tại Sunnyvale, California, việc kinh doanh cốt lõi của Cerebras là phát triển các chip huấn luyện và suy luận trí tuệ nhân tạo, cũng như các máy chủ và dịch vụ đám mây liên quan.
Sản phẩm chủ lực của công ty được gọi là Wafer-Scale Engine (WSE). Hiện nay, sản phẩm này đã đạt đến thế hệ thứ ba, WSE-3.
Con chip này tuyệt vời đến mức nào chứ?
GPU truyền thống có kích thước bằng một con tem bưu điện. Ngược lại, WSE của Cerebras là một tấm wafer duy nhất, có kích thước xấp xỉ một chiếc đĩa ăn. Nó sở hữu khoảng 4 nghìn tỷ bóng bán dẫn và hơn 900.000 lõi xử lý AI, hoạt động như một chip duy nhất trên toàn bộ tấm wafer.
Nó cố gắng giải quyết một vấn đề ngày càng nghiêm trọng trong ngành công nghiệp trí tuệ nhân tạo: các cụm GPU ngày càng giống như những khối xây dựng.
Việc huấn luyện các mô hình quy mô lớn hiện nay đòi hỏi hàng nghìn, thậm chí hàng chục nghìn GPU, được kết nối thông qua mạng tốc độ cao.
Tuy nhiên, càng nhiều GPU thì độ trễ giao tiếp càng cao. Thông thường, các mô hình lớn không phải là không thể tính toán được, mà là bị kẹt ở các vấn đề về giao tiếp.
Cách tiếp cận của Cerebras rất táo bạo: thay vì chế tạo nhiều GPU riêng lẻ, họ tạo ra một con chip siêu lớn duy nhất. Con chip này tích hợp khả năng tính toán, lưu trữ và truyền thông mạng trên một tấm wafer duy nhất. Nhờ đó, dữ liệu không cần phải được di chuyển thường xuyên giữa nhiều GPU.
Ưu điểm của việc này rất rõ ràng: độ trễ thấp hơn, tiêu thụ điện năng thấp hơn, tốc độ huấn luyện và suy luận nhanh hơn, và mở rộng dễ dàng hơn đối với các mô hình rất lớn.
Đây được coi là phương pháp tiếp cận độc đáo nhất bên ngoài hệ thống GPU của NVIDIA.
Ý tưởng giàu trí tưởng tưởng này đến từ đâu? Để trả lời câu hỏi đó, chúng ta phải nhắc đến người sáng lập.
Nhà sáng lập Andrew Feldman là một doanh nhân dày dạn kinh nghiệm, từng đồng sáng lập SeaMicro, một công ty sản xuất máy chủ tiết kiệm điện năng, trước khi thành lập Cerebras.
Năm 2012, SeaMicro được AMD mua lại với giá khoảng 334 triệu đô la.
Sau đó, ông nhận ra rằng chi phí di chuyển dữ liệu trong học độ sâu ngày càng cao. Nếu kỷ nguyên AI tiếp tục sử dụng phương pháp dựa trên chiplet của CPU/GPU, sớm muộn gì cũng sẽ gặp phải tắc nghẽn.
Vì vậy, ông quyết định làm một điều mà nhiều người trong ngành cho là bất khả thi: chế tạo chip ở cấp độ tấm bán dẫn.
Những người trong ngành cho rằng ông ta điên rồi. Bởi vì nếu bạn chế tạo nó thành một con chip duy nhất, nếu chỉ một bộ phận bị hỏng, toàn bộ con chip có thể trở nên không sử dụng được. Đó là lý do tại sao các tấm bán dẫn phải được cắt nhỏ.
Feldman lại một lần nữa suy nghĩ theo hướng ngược lại: Mặc dù tôi không thể làm cho toàn bộ con chip hoàn toàn không có lỗi, nhưng tôi có thể làm cho hệ thống nhận biết và tránh các lỗi trong khi hoạt động, và chỉ hoạt động ở những khu vực tốt.
Năm 2019, Cerebras đã cho ra mắt chip thế hệ đầu tiên tích hợp trên tấm wafer. Và họ đã thực sự làm được điều đó.
Cerebras đã huy động được tổng cộng khoảng 2,5 tỷ đến 3 tỷ đô la Mỹ, một con số tương đối cao đối với một công ty khởi nghiệp chip trí tuệ nhân tạo. Giá trị định giá của công ty sau vòng gọi vốn gần nhất là 23 tỷ đô la Mỹ. Chỉ một ngày trước khi IPO, giá trị định giá của công ty đã được điều chỉnh lên 56,4 tỷ đô la Mỹ.
Thu nhập tăng vọt khi khách hàng đặt thêm các đơn hàng trị giá 24,6 tỷ đô la.
Sự nổi lên của Cerebras là một hiện tượng mới, diễn ra trong vòng hai năm trở lại đây: khả năng suy luận của trí tuệ nhân tạo đang ngày càng trở nên quan trọng.
Điểm bán hàng lớn nhất của Cerebras là chip suy luận AI của họ. Họ đang định vị mình như một giải pháp thay thế cho GPU trong suy luận AI nhờ vào kích thước chip đơn cực lớn, băng thông bộ nhớ cực cao, chi phí giao tiếp GPU thấp và độ trễ suy luận cực thấp.
Doanh thu của Cerebras tăng vọt từ 24,6 triệu đô la vào năm 2022 lên 510 triệu đô la vào năm 2025, tăng trưởng hơn 19 lần trong bốn năm, trong đó mức tăng trưởng 76% so với năm trước vào năm 2025; lợi nhuận ròng chuyển từ khoản lỗ vốn ròng 482 triệu đô la vào năm 2024 sang lợi nhuận 238 triệu đô la vào năm 2025, đánh dấu sự chuyển mình thành công.
Rất ít công ty sản xuất phần cứng AI có thể đạt được tốc độ tăng trưởng như Cerebras.
Tuy nhiên, thu nhập của công ty tập trung rất cao. Đến năm 2025, 86% thu nhập sẽ đến từ hai khách hàng Trung Đông là G42 và MBZUAI.
G42 là một công ty công nghệ do quỹ đầu tư quốc gia của UAE kiểm soát, trong khi MBZUAI là Đại học Trí tuệ Nhân tạo Mohammed bin Zayed tại UAE. Riêng MBZUAI nắm giữ 62% cổ phần của công ty.
Điều này có nghĩa là Cerebras hiện không mở rộng phạm vi thị trường mà chỉ đang được hỗ trợ bởi một số ít khách hàng siêu cấp.
Tại sao lại có cấu trúc thu nhập như vậy? Bởi vì Cerebras không bán các chip tiêu chuẩn. Họ bán các hệ thống siêu máy tính AI hoàn chỉnh, bao gồm: chip WSE, máy chủ, mạng, phần mềm, triển khai trung tâm dữ liệu và các cơ sở suy luận AI.
Nơi đây có vị trí địa lý lý tưởng cho các dự án quy mô lớn như các dự án trí tuệ nhân tạo quốc gia, trung tâm siêu máy tính và các công ty mô hình hóa quy mô lớn. Thật trùng hợp, UAE muốn trở thành một quốc gia tự chủ về trí tuệ nhân tạo với cơ sở hạ tầng AI độc lập và cụm máy chủ AI riêng.
Sự tăng trưởng thu nhập của Cerebras không phải là điều gây sốc nhất. Điều thực sự gây chấn động thị trường vốn là lượng đơn đặt hàng tồn đọng trị giá 24,6 tỷ đô la của Cerebras. Một công ty với thu nhập 510 triệu đô la lại tuyên bố rằng họ đang chờ đợi thu nhập tới 24,6 tỷ đô la.
Điều này có nghĩa là ngành công nghiệp AI đang chuyển từ việc bán chip sang đặt lệnh trước năng lực xử lý token.
Ai đã đặt những đơn hàng này?
Phần lớn nguồn vốn đến từ OpenAI, và chính CEO của OpenAI, Altman, là một nhà đầu tư ban đầu vào Cerebras.
OpenAI và Cerebras đã ký một thỏa thuận tỷ lệ băm AI với tổng công suất 750MW, ước tính thận trọng là hơn 10 tỷ đô la, và cam kết thực tế có thể vượt quá 20 tỷ đô la. Thỏa thuận này có hiệu lực đến năm 2028.
OpenAI cũng có thể cung cấp cho Cerebras khoảng 1 tỷ đô la Mỹ để hỗ trợ xây dựng trung tâm dữ liệu. Họ cũng có thể mua lại khoảng 10% cổ phần của Cerebras trong tương lai. Mối quan hệ giữa hai công ty đã phát triển vượt ra ngoài mối quan hệ khách hàng-nhà cung cấp đơn thuần; nó giống như một nỗ lực chung để xây dựng cơ sở hạ tầng trí tuệ nhân tạo.
Trước đây, nhiều hãng truyền thông Mỹ, dù đánh giá cao công nghệ tiên tiến của Cerebras, vẫn luôn kèm theo nhận xét: "Nó thiếu những khách hàng thực sự lớn." Nhưng sau khi OpenAI ký hợp đồng, mọi thứ đã thay đổi.
Một khách hàng khác là G42, đã được đề cập ở trên. Trong tổng đơn đặt hàng trị giá 24,6 tỷ đô la, G42 có thể vẫn chiếm vài tỷ đô la. Tuy nhiên, các tài liệu công khai không nêu rõ số tiền chính xác.
Thách thức Nvidia ư? Hãy chờ xem.
Liệu Cerebras có thực sự thách thức được Nvidia? Đây là câu hỏi mà các nhà đầu tư và ngành công nghiệp trí tuệ nhân tạo đang rất quan tâm.
Nói một cách đơn giản: vẫn còn một chặng đường dài để thực sự cạnh tranh được với Nvidia.
Vấn đề thực sự không phải là liệu chip của Cerebra có đủ mạnh hay không, mà là Nvidia không còn là một công ty sản xuất chip nữa.
Hệ thống bảo vệ lớn nhất của Nvidia không chỉ nằm ở GPU mà còn ở hệ sinh thái phần mềm CUDA. Hiện nay, phần lớn các framework AI, hệ thống huấn luyện, công cụ suy luận và thư viện kỹ thuật trên toàn thế giới đều được xây dựng dựa trên CUDA. Nhiều công ty không chỉ mua sản phẩm của Nvidia; họ không thể hoạt động nếu thiếu CUDA. Mặt khác, hệ sinh thái phần mềm của Cerebra hiện vẫn chưa phát triển hoàn thiện bằng CUDA.
Quan trọng hơn, đó là cơ cấu khách hàng.
Thu nhập của Cerebras hiện phụ thuộc rất nhiều vào một vài khách hàng lớn, điều này có nghĩa là nó giống một công ty siêu dự án hơn là một công ty nền tảng đã xây dựng một hệ sinh thái rộng lớn.
Hơn nữa, có một vấn đề thực sự trong ngành: không có một con đường duy nhất đúng đắn cho phần cứng AI. Một nghiên cứu về accelerator AI được Harvard và các tổ chức khác công bố năm nay chỉ ra rằng nền tảng phần cứng tốt nhất thay đổi tùy thuộc vào khối lượng công việc AI. Cerebras, Groq, TPU, Gaudi và GPU đều có những kịch bản phù hợp riêng. Nói cách khác, Cerebras có thể vượt trội hơn GPU đáng kể trong một số kịch bản suy luận nhất định, nhưng điều này không có nghĩa là nó có thể thay thế hoàn toàn Nvidia.
Nvidia đã thiết lập quyền kiểm soát cực kỳ chặt chẽ đối với Chuỗi cung ứng của mình. Điều mà ngành công nghiệp AI thực sự thiếu hiện nay không chỉ là GPU, mà còn là công nghệ đóng gói tiên tiến CoWoS, bộ nhớ HBM, nguồn điện, trung tâm dữ liệu và thiết bị mạng. Nvidia gần như độ sâu phụ thuộc vào năng lực đóng gói tiên tiến của TSMC, bộ nhớ của Micron và HBM của SK Hynix. Điều này có nghĩa là ngay cả khi kiến trúc Cerebras được thiết lập, nó vẫn cần phải dựa vào cùng một hệ thống Chuỗi cung ứng.
Hơn nữa, mô hình kinh doanh của Cerebras khiến việc mở rộng quy mô như Nvidia trở nên khó khăn. Nvidia bán các sản phẩm tiêu chuẩn hóa. Nhưng Cerebras giống một dự án được tùy chỉnh cao, vốn dĩ tốn nhiều tài nguyên hơn, chậm hơn và phụ thuộc nhiều hơn vào các khách hàng lớn.
Bài viết này không phải là lời khuyên đầu tư.




