Mac mini của Apple luôn là chiếc máy tính để bàn thầm lặng, dễ bị lãng quên ở phía sau các cửa hàng Apple Store. Thực dụng, giá rẻ theo tiêu chuẩn của Apple, và phần lớn bị giới chuyên gia AI bỏ qua. Rồi OpenClaw xuất hiện.
Hôm thứ Năm, Tim Cook nói với các nhà phân tích rằng Mac mini và Mac Studio đã bán hết sạch – và tình trạng này có thể kéo dài trong vài tháng. "Cả hai đều là những nền tảng tuyệt vời cho trí tuệ nhân tạo và các công cụ tác nhân," ông nói trong cuộc họp báo cáo thu nhập quý 2 năm 2026 của Apple , "và khách hàng đang nhận ra điều đó nhanh hơn dự đoán của chúng tôi."
Dịch: Apple đã tính toán sai mức độ cần thiết của những chiếc máy này đối với các nhà phát triển, đặc biệt là trong thời điểm khan hiếm đang gây ảnh hưởng đến thị trường.
Doanh thu của dòng máy Mac đạt 8,4 tỷ đô la trong quý này, tăng 6% so với cùng kỳ năm ngoái. Không hẳn là một sự bùng nổ – nhưng yếu tố hạn chế chính là nguồn cung chứ không phải nhu cầu. Các cấu hình Mac mini và Mac Studio có RAM cao không chỉ bị trì hoãn mà một số còn bị gỡ bỏ hoàn toàn khỏi Apple Store.
Phiên bản Mac mini cơ bản giá 599 đô la đã bán hết tại Mỹ , không có dịch vụ giao hàng hoặc nhận hàng tại cửa hàng. Các cấu hình nâng cấp với 64GB RAM đang có thời gian chờ từ 16 đến 18 tuần. Các mẫu Mac Studio với bộ nhớ hợp nhất 512GB đã hoàn toàn biến mất khỏi cửa hàng. Những người đầu cơ trên eBay đã nhanh chóng nắm bắt cơ hội, rao bán các mẫu cơ bản với giá gần gấp đôi giá bán lẻ.
Nguyên nhân dẫn đến tất cả điều này? Chính là OpenClaw và sự bùng nổ của Trí tuệ nhân tạo tác nhân (Agentic AI) ngốn nhiều bộ nhớ.
Khung phần mềm mã nguồn mở dành cho tác nhân AI — được xây dựng bởi Peter Steinberger và hiện được OpenAI hỗ trợ sau cuộc cạnh tranh gay gắt với Meta — đã bùng nổ với hơn 323.000 lượt đánh dấu sao trên GitHub và trở thành cách nhanh nhất để các cá nhân và nhóm nhỏ chạy các tác nhân AI liên tục trên máy tính cục bộ. Và phần cứng tham chiếu không chính thức để chạy nó, gần như ngay lập tức, chính là Mac mini.
Tuy nhiên, đó không phải là kết quả của một chiến dịch tiếp thị.
Điều mà hầu hết những người đưa tin về tình trạng thiếu máy Mac bỏ qua là Apple đã không còn phù hợp với các tác vụ AI nghiêm túc trong nhiều năm. Trước khi phép màu của AI Agent trở nên phổ biến, mọi người phàn nàn rằng việc chạy LLM, Stable Diffusion hoặc bất kỳ loại phần mềm AI tại nhà nào khác đều cực kỳ chậm và gần như không thể sử dụng được. Một chiếc Mac M2 có hiệu năng tương đương với GPU từ năm 2019. Việc Apple từ chối áp dụng CUDA hoặc sử dụng Nvidia, mà lại thúc đẩy công nghệ MLX của hãng, đã khiến nó trở nên không còn phù hợp với AI cũng như với chơi game.
Nvidia thống trị vì CUDA—khung lập trình GPU độc quyền của họ—là xương sống của việc huấn luyện và suy luận mô hình. Toàn bộ hệ thống AI được xây dựng xung quanh nó. Apple không có gì tương đương. Không ai muốn một chiếc Mac chỉ để suy luận cục bộ.
Nhưng CUDA có một bí mật đen tối: giới hạn của VRAM.
Ngay cả GPU Nvidia tốt nhất dành cho người tiêu dùng, RTX 5090, cũng chỉ đạt tối đa 32GB VRAM. Đó là giới hạn cứng. Một mô hình có dung lượng lớn hơn 32GB không thể chạy ở tốc độ tối đa trên card đó — nó sẽ tràn sang RAM hệ thống chậm hơn, làm chậm băng thông bus PCIe và hiệu năng giảm mạnh. Để chạy một mô hình phức tạp với 70 tỷ tham số trên phần cứng Nvidia, bạn cần nhiều GPU, một giá đỡ máy chủ, mức tiêu thụ điện năng lớn và hàng nghìn đô la.
Kiến trúc bộ nhớ hợp nhất (UMA) của Apple giải quyết vấn đề này theo cách mà CUDA không thể. Trên Apple Silicon, CPU, GPU và Neural Engine đều chia sẻ cùng một vùng RAM vật lý. Không có VRAM riêng biệt. Không có bus PCIe nào cần phải kết nối. Một chiếc Mac mini với 64GB có thể tải mô hình 70 tỷ tham số mà một chiếc RTX 5090 trị giá 1.800 đô la đơn giản là không thể xử lý được.
Chip M4 Ultra—con chip cung cấp sức mạnh cho các cấu hình Mac Studio cao cấp—hỗ trợ bộ nhớ hợp nhất lên đến 192GB. Điều đó đủ để chạy 100 tỷ mô hình tham số cục bộ trên một máy duy nhất. Không cần máy chủ. Không cần trả phí đám mây hàng tháng.
OpenClaw đã làm rõ sự đánh đổi này. Bởi vì nó chạy các tác nhân cục bộ—kết nối với các tệp, ứng dụng và tin nhắn của bạn—người dùng cần các máy có thể xử lý khối lượng tính toán mà không cần thuê điện toán đám mây. Một chiếc Mac mini với 32GB bộ nhớ hợp nhất có thể chạy các mô hình 30 tỷ tham số một cách thoải mái. Một chiếc Mac Studio với 128GB có thể xử lý các mô hình mà hầu hết các nhà phát triển không thể xử lý được nếu không có cụm GPU cấp doanh nghiệp cách đây một năm.
Một chiếc máy Mac cấu hình chậm nhưng có khả năng chạy mô hình AI mạnh mẽ vẫn tốt hơn nhiều so với một card đồ họa Nvidia mạnh mẽ nhưng thậm chí không thể tải được mô hình đó.
Kết quả là: các nhà phát triển bắt đầu mua Mac mini giống như cách họ từng mua Raspberry Pi — mua nhiều chiếc cùng một lúc, coi chúng như cơ sở hạ tầng chứ không phải máy tính cá nhân. Chuỗi cung ứng của Apple chưa bao giờ được thiết kế cho mô hình đó.
Ngoài ra, tình trạng thiếu hụt bộ nhớ trên diện rộng cũng làm trầm trọng thêm vấn đề. IDC dự báo lượng xuất xưởng PC toàn cầu sẽ giảm 11,3% vào năm 2026, một phần do tình trạng thiếu hụt chip nhớ do nhu cầu máy chủ AI tăng cao. Apple hiện đang cạnh tranh nguồn cung RAM với các nhà cung cấp dịch vụ điện toán đám mây quy mô lớn đang xây dựng các trung tâm dữ liệu.
Cook cho biết có thể mất "vài tháng" để cân bằng lại cung và cầu đối với Mac mini và Studio. Việc nâng cấp chip M5 dự kiến sẽ diễn ra vào cuối năm 2026, điều này có thể giảm bớt áp lực – nhưng những người mua hiện tại đang phải chờ đợi hoặc trả giá cao hơn.
Năm 2026, Mac mini trở nên cấp thiết hơn bao giờ hết trong suốt 20 năm lịch sử của nó - và tất cả những gì cần chỉ là sự hỗ trợ từ một dự án mã nguồn mở mà Apple hoàn toàn không liên quan gì để điều đó thành hiện thực.





