Apple, Microsoft의 Phi-3과 경쟁하기 위해 8개의 소형 AI 언어 모델 출시

avatar
Decrypt
04-27
이 기사는 기계로 번역되었습니다
원문 표시

애플은 경쟁이 치열한 인공지능 시장에서 8개의 소형 인공지능 모델을 출시하며 전략적인 행보를 보이고 있습니다. OpenELM으로 통칭되는 이 소형 도구는 스마트폰과 오프라인에서 실행되도록 설계되어 스마트폰에 적합합니다.

오픈 소스 AI 커뮤니티인 Hugging Face에공개된 모델은 2억 7천만, 4억 5천만, 11억, 30억 개의 파라미터 버전으로 제공됩니다. 사용자는 사전 학습된 버전 또는 인스트럭션 튜닝 버전으로 Apple의 OpenELM을 다운로드할 수도 있습니다.

사전 학습된 모델은 사용자가 미세 조정 및 개발할 수 있는 기반을 제공합니다. 명령어 조정 모델은 이미 명령어에 응답하도록 프로그래밍되어 있으므로 최종 사용자와의 대화 및 상호 작용에 더 적합합니다.

Apple은 이러한 모델의 구체적인 사용 사례를 제시하지는 않았지만, 이메일과 문자를 분석하거나 데이터를 기반으로 지능적인 제안을 제공하는 어시스턴트를 실행하는 데 적용할 수 있습니다. 이는 픽셀 스마트폰 라인업에 제미니 AI 모델을 배포한구글이 취한접근 방식과 유사합니다 .

이 모델은 공개적으로 사용 가능한 데이터 세트로 학습되었으며, Apple은 CoreNet(OpenELM 학습에 사용되는 라이브러리)의 코드와 모델의 '레시피'를 모두 공유하고 있습니다. 즉, 사용자는 Apple이 모델을 어떻게 구축했는지 살펴볼 수 있습니다.

Apple의 출시는 Microsoft가 로컬에서 실행할 수 있는 소형 언어 모델 제품군인Phi-3를 발표한직후에 이루어 졌습니다. 3조 3천억 개의 토큰으로 학습된 38억 개의 파라미터 모델인 Phi-3 Mini는 여전히 128K 토큰의 컨텍스트를 처리할 수 있어 GPT-4와 비슷하며 토큰 용량 면에서 Llama-3 및 Mistral Large를 능가합니다.

오픈 소스이고 가벼운 Phi-3 Mini는 일부 작업에서 Apple의 Siri나 Google의 Gemini와 같은 기존 비서를 대체할 수 있으며, Microsoft는 이미 iPhone에서 Phi-3를 테스트하여 만족스러운 결과와 빠른 토큰 생성을 보고했습니다.

Apple은 아직 이러한 새로운 AI 언어 모델 기능을 소비자 기기에 통합하지 않았지만, 곧 출시될 iOS 18 업데이트에는 온디바이스 프로세싱을 사용하여 사용자 개인정보를 보호하는 새로운 AI 기능이 포함될 것이라는 소문이 돌고 있습니다.

Apple 하드웨어는 로컬 AI 사용에 이점을 제공하는데, 특히 디바이스 RAM을 GPU 비디오 RAM 또는 VRAM과 병합할 수 있는 기능이 있습니다. 즉, 32GB RAM(PC의 일반적인 구성)을 갖춘 Mac은 해당 RAM을 GPU VRAM처럼 활용하여 AI 모델을 실행할 수 있으므로 로컬 AI 처리에 더 효율적인 옵션이 될 수 있습니다.

Windows 디바이 스는 디바이스 RAM과 GPU VRAM이 분리되어 있기 때문에 이 점에서불리한 점이 있습니다. 사용자는 일반적으로 AI 모델을 실행하기 위해 RAM을 보강하기 위해 강력한 32GB GPU를 구매해야 합니다.

그러나 Apple은 AI 개발 분야에서 Windows/Linux에 비해 뒤처져 있습니다. 대부분의 AI 애플리케이션은 Nvidia가 설계하고 구축한 하드웨어를 중심으로 돌아가는데, Apple은 자체 칩 지원을 단계적으로 중단했습니다. 이는 Apple 고유의 AI 개발이 상대적으로 적다는 것을 의미하며, 그 결과 Apple 제품에서 AI를 사용하려면 번역 계층이나 기타 복잡한 절차가 필요합니다.

출처
면책조항: 상기 내용은 작자의 개인적인 의견입니다. 따라서 이는 Followin의 입장과 무관하며 Followin과 관련된 어떠한 투자 제안도 구성하지 않습니다.
라이크
즐겨찾기에 추가
코멘트