Apple phát hành 8 mô hình ngôn ngữ AI nhỏ để cạnh tranh với Phi-3 của Microsoft

avatar
Decrypt
04-27
Bài viết này được dịch máy
Xem bản gốc

Nhận thấy sức mạnh về số lượng, Apple đã thực hiện một bước đi chiến lược trong thị trường trí tuệ nhân tạo đầy cạnh tranh bằng cách cung cấp 8 mô hình AI nhỏ. Được gọi chung là OpenELM, các công cụ nhỏ gọn này được thiết kế để chạy trên các thiết bị và ngoại tuyến—hoàn hảo cho điện thoại thông minh.

Được xuất bản trên cộng đồng AI mã nguồn mở Ôm Mặt , các mô hình này được cung cấp với các phiên bản tham số 270 triệu, 450 triệu, 1,1 tỷ và 3 tỷ. Người dùng cũng có thể tải xuống OpenELM của Apple ở phiên bản được đào tạo trước hoặc phiên bản được điều chỉnh theo hướng dẫn.

Các mô hình được đào tạo trước cung cấp nền tảng để người dùng có thể tinh chỉnh và phát triển. Các mô hình điều chỉnh theo hướng dẫn đã được lập trình để phản hồi các hướng dẫn, khiến chúng phù hợp hơn cho các cuộc trò chuyện và tương tác với người dùng cuối.

Mặc dù Apple chưa đề xuất các trường hợp sử dụng cụ thể cho các mẫu này nhưng chúng có thể được áp dụng để chạy các trợ lý có thể phân tích email và văn bản hoặc đưa ra các đề xuất thông minh dựa trên dữ liệu. Đây là một cách tiếp cận tương tự như cách tiếp cận của Google , hãng đã triển khai mô hình Gemini AI trên dòng điện thoại thông minh Pixel của mình.

Các mô hình đã được đào tạo trên các bộ dữ liệu có sẵn công khai và Apple đang chia sẻ cả mã cho CoreNet (thư viện được sử dụng để đào tạo OpenELM) và “công thức nấu ăn” cho các mô hình của mình. Nói cách khác, người dùng có thể kiểm tra cách Apple xây dựng chúng.

Bản phát hành của Apple xuất hiện ngay sau khi Microsoft công bố Phi-3 , một dòng mô hình ngôn ngữ nhỏ có khả năng chạy cục bộ. Phi-3 Mini, mô hình tham số 3,8 tỷ được đào tạo trên 3,3 nghìn tỷ mã thông báo, vẫn có khả năng xử lý 128 nghìn mã thông báo theo ngữ cảnh, khiến nó có thể so sánh với GPT-4 và đánh bại Llama-3 và Mistral Large về dung lượng Token .

Là nguồn mở và nhẹ, Phi-3 Mini có khả năng thay thế các trợ lý truyền thống như Siri của Apple hoặc Gemini của Google trong một số tác vụ và Microsoft đã thử nghiệm Phi-3 trên iPhone và báo cáo kết quả khả quan cũng như tạo Token nhanh.

Mặc dù Apple vẫn chưa tích hợp các khả năng của mô hình ngôn ngữ AI mới này vào các thiết bị tiêu dùng của mình nhưng bản cập nhật iOS 18 sắp tới được đồn đại sẽ bao gồm các tính năng AI mới sử dụng quy trình xử lý trên thiết bị để đảm bảo quyền riêng tư của người dùng.

Phần cứng của Apple mang lại lợi ích cho việc sử dụng AI cục bộ, đặc biệt là khả năng hợp nhất RAM thiết bị với RAM video GPU hoặc VRAM. Điều này có nghĩa là máy Mac có RAM 32 GB (cấu hình phổ biến trong PC) có thể sử dụng RAM đó làm GPU VRAM để chạy các mô hình AI, khiến nó trở thành một tùy chọn hiệu quả hơn để xử lý AI cục bộ.

Các thiết bị Windows gặp bất lợi về vấn đề này vì RAM thiết bị và GPU VRAM bị tách biệt. Người dùng thường cần mua GPU 32GB mạnh mẽ để tăng thêm RAM chạy các mô hình AI.

Tuy nhiên, Apple tụt hậu so với Windows/Linux trong lĩnh vực phát triển AI. Hầu hết các ứng dụng AI đều xoay quanh phần cứng do Nvidia thiết kế và xây dựng, phần cứng mà Apple đã loại bỏ dần để hỗ trợ chip của riêng mình. Điều này có nghĩa là có tương đối ít sự phát triển AI gốc của Apple và do đó, việc sử dụng AI trên các sản phẩm của Apple yêu cầu các lớp dịch thuật hoặc các quy trình phức tạp khác.

Nguồn
Tuyên bố từ chối trách nhiệm: Nội dung trên chỉ là ý kiến của tác giả, không đại diện cho bất kỳ lập trường nào của Followin, không nhằm mục đích và sẽ không được hiểu hay hiểu là lời khuyên đầu tư từ Followin.
Thích
Thêm vào Yêu thích
Bình luận