어제 Apple 컨퍼런스 중간쯤에 Apple Intelligence라는 용어가 이미 인기 검색 목록을 휩쓸었습니다.
기자회견에서 Apple은 OpenAI와 손을 잡고 GPT-4o가 공식적으로 Apple의 지능형 시스템에 통합될 것이라고 공식적으로 발표했습니다.
Apple의 Craig Fedrighi 임원은 OpenAI가 선정된 후보 중 하나일 뿐이라고 대중에게 밝혔지만, 겉보기에 완벽해 보이는 이 협력은 외부 세계의 '선별'과 '비판'을 피할 수 없습니다.
머스크도 이 장난에 동참했습니다. 처음에는 애플에 개인 정보 보호에 대해 좋지 않은 평가를 한 다음 애플 기기를 금지하겠다고 가혹하게 말했습니다. 그러나 CNBC에 따르면 머스크는 그의 공격을 철회했습니다. OpenAI와 CEO Sam Altman의 소송에 대해.
게다가 일부 세심한 네티즌들은 새 버전의 Siri가 휴대폰의 모든 애플리케이션을 읽을 수 있는 것 같다는 사실을 발견했습니다. 진실은 무엇일까요? Apple의 최신 블로그를 읽어보시면 어떨까요?
장치-클라우드 하이브리드, 30억 개의 매개변수 장치 측 모델에 놀라움이 있습니다
Apple 인텔리전스는 클라이언트 측 모델과 클라우드 대규모 모델이라는 두 가지 경로를 취하고 있습니다.
말할 필요도 없이 대규모 클라우드 모델은 거대하고 복잡하며 Apple의 칩 서버에서 실행되어야 하며 보다 전문적이고 복잡한 작업도 처리할 수 있습니다.
기기측 모델의 경우 Apple Smart에는 약 3B 매개변수가 있는 모델이 있습니다. 일반적으로 7B 수준을 맴돌고 있는 중국에서는 Apple의 3B 매개변수가 다소 낮은 것으로 보입니다.
일반적으로 엔드사이드 장치의 제한된 컴퓨팅 성능과 저장 공간을 고려하면 매개변수가 많을수록 모델의 학습 능력이 더 강해집니다. Apple의 엔드 투 사이드 모델에는 3B 매개변수만 있지만 "큰 차이를 만든다"는 벤치마크이기도 합니다.
지난 한 해 동안 우리는 “스케일링 법칙”을 위반한 이와 같은 사례를 많이 보았습니다.
예를 들어, Microsoft의 최신 Phi-3-mini 모델은 단 3.8B 매개변수만으로 7B 형제에 감히 도전합니다. 또는 Google Pixel 8 Pro에서 실행되는 Gemini Nano에는 각각 1.8B(Nano-1) 및 3.25B(Nano-2)만 있습니다.
종이 한 장으로 경쟁하는 것과 비교할 때, Apple은 사용자 경험에 중점을 두는 것이 가장 중요합니다.
블로그에서는 Apple이 분류, 질문 및 답변, 수학적 추론부터 개방형 질문 및 답변, 보안, 요약 및 작성에 이르기까지 모델의 실제 효과를 테스트하기 위해 많은 실제 사례를 사용했다고 밝혔습니다.
더욱이 Phi-3-mini, Gemma-7B, Mistral-7B 등과 같은 모델과 경쟁하더라도 인간 '심사위원'의 투표로 애플의 최종 측 모델이 최고가 될 것으로 예상된다.
Apple이 추구하는 AI는 사용하기 쉬울 뿐만 아니라 안전합니다.
예를 들어, 유해 콘텐츠 처리 능력, 민감한 주제, 사실적 정확성 등을 테스트하는 경우 Apple의 기본 모델 역시 많은 노력을 기울였으며, 대부분의 모델에 비해 위반률이 훨씬 낮습니다.
22억 개 이상의 활성 장치를 보유한 거대 기업인 Apple은 위반률에 관한 한 낮고 낮은 선택권만 갖고 있는 것 같습니다. 이는 실제로 Apple의 일관된 보안 조치와 일치합니다.
그것은 당신을 알아야 하고 당신의 일상생활, 관계, 의사소통 등과 같은 개인적인 상황에 기초해야 하며, 이 모든 것은 인공지능의 범위를 넘어서는 것입니다. 이것이 바로 개인정보이자 Apple의 다음 큰 움직임입니다.
쿡의 발언은 프라이버시를 말로 언급하지는 않았지만 행 사이에는 프라이버시 강조점이 있었다.
AI가 우리의 '제2의 두뇌'가 된다면 개인정보 보호는 장식이 될 수도 없고 될 수도 없습니다. Apple이 제시한 계획은 Apple Intelligence가 iPhone, iPad 및 Mac에 깊이 뿌리내려야 한다는 것입니다. 이는 결코 기능이나 서비스가 아니라 시스템의 일부가 되어야 합니다.
그러나 머스크는 애플이 시스템 수준에서 ChatGPT를 통합한다면 직원들이 아이폰을 테슬라에 가져오는 것을 금지할 것이라고 주장한 것은 바로 이 때문이다.
하지만 이 문제에 대해 너무 걱정할 필요는 없습니다. Apple의 스마트폰 모델은 크게 세 가지 레이어로 나누어져 있습니다.
로컬 모델: 주로 미세 조정된 소형 3B 모델로 요약 및 연마 등의 작업에 전념하며 어댑터 지원으로 성능이 약하지 않습니다.
프라이빗 클라우드 컴퓨팅: 로컬 모델이 요구 사항을 충족할 수 없는 경우 컴퓨팅을 위해 클라우드로 전송됩니다. Apple은 사용자 데이터 보안 및 개인정보 보호를 위해 엔드투엔드 암호화를 보장합니다.
타사 LLM: 일반 지식 질문 및 답변 채팅에 사용되며 Siri와 같은 애플리케이션은 GPT-4o와 같은 외부 모델에 연결됩니다.
즉, Apple은 본질적으로 OpenAI의 ChatGPT 모델을 플러그인으로 취급하고 있으며, 다른 모델과도 협력할 수도 있습니다. Apple의 자체 개발 모델이 충분히 강력하다면 Apple은 자연스럽게 타사 LLM을 완전히 제거할 수 있습니다.
이 밖에 블로그에서는 프로그래머가 Xcode에서 코드를 작성하는 데 도움이 되는 모델, 사용자가 문자 메시지를 보낼 때 자신의 아이디어를 보다 직관적이고 흥미롭게 표현하는 데 도움이 되는 확산 모델 등 다른 모델도 Apple의 지능형 시스템에 포함되어 있다고 언급했습니다.
Apple 인텔리전스는 어떻게 만들어지나요?
컴퓨터에서 비디오를 만들려면 몇 가지 추가 응용 프로그램을 설치해야 합니다. AI 모델의 세계에서는 Apple 모델 뒤에 사용되는 "어댑터"에도 동일한 원칙이 적용됩니다.
간단히 말해서, 어댑터는 모델 가중치의 작은 모음으로, 모델이 다양한 작업에 빠르게 적응할 수 있게 해주는 작은 플러그인과 같습니다.
예를 들어, 이메일과 알림을 처리하는 모델의 요약은 비슷해 보이지만 실제로는 미묘한 차이가 많기 때문에 Apple은 이러한 작업을 더 잘 완료할 수 있도록 모델에 LoRA라는 어댑터를 추가했습니다.
또한 Apple은 실제 효과를 테스트하기 위해 특별히 750가지의 다양한 요약을 선택했으며, 어댑터를 사용한 모델이 다른 모델보다 성능이 더 좋은 것으로 나타났습니다.
Apple의 비결은 기본 모델의 "공장 설정"을 건드리지 않고 이러한 어댑터만 조정하는 것입니다. 이것의 장점은 모델이 원래의 광범위한 지식을 유지하면서 어댑터를 통해 몇 가지 특별한 기술을 배울 수 있다는 것입니다.
더 중요한 것은 각 어댑터가 많은 공간을 차지하지 않는다는 점입니다. 모델에 30억 개의 매개변수가 있는 모델 두뇌가 있더라도 수십조 개의 "뇌 세포"만 차지합니다.
모델이 잘 학습하려면 데이터의 품질이 매우 중요합니다.
Apple은 모델을 교육할 때 수동으로 주석을 추가한 데이터와 Apple 자체에서 생성한 데이터를 사용하여 교육하는 하이브리드 전략을 채택합니다.
이러한 기본 모델을 훈련하기 위해 Apple은 모델의 특정 기능을 향상시키기 위해 특별히 선택된 일부 데이터와 웹 크롤러 AppleBot을 사용하여 인터넷에서 수집한 공개 데이터를 포함하여 라이센스가 부여된 일부 특정 데이터를 사용합니다.
또한 Apple은 이러한 기본 모델을 훈련하는 과정에서 사용자의 개인 정보나 사용자 상호 작용 데이터를 사용하지 않았으며 온라인에 게시된 개인 정보를 제거하기 위해 필터를 사용하는 데에도 특별한 주의를 기울였다고 강조했습니다.
훈련 과정에서 Apple은 모델의 효과를 향상시키기 위해 두 가지 새로운 기술적 수단을 개발했습니다.
구체적으로 첫 번째 방법은 훈련 중에 Apple이 모델에게 일부 "교사"의 의견을 참조하도록 요청하는 것입니다. 이러한 "교사"는 모델이 불확실한 상황에 직면했을 때 선택을 하는 데 도움이 됩니다.
두 번째 기술은 인간 피드백 기반 강화 학습(RLHF)이라고 하며, 특별한 최적화 전략과 Leave-One-Out 알고리즘을 사용하여 모델을 조정하여 모델이 출력이 정확한지 더 잘 예측할 수 있도록 합니다.
이 두 가지 방법을 통해 작업을 수행하는 모델의 정확도가 크게 향상되었으며 더 빠르고 정확하게 학습할 수 있습니다. 제한된 휴대폰 및 클라우드 서버 리소스 문제를 해결하기 위해 Apple은 몇 가지 새로운 트릭도 사용했습니다.
- Grouped-query-attention: 모델이 텍스트를 처리하는 방식을 최적화합니다.
- 공유 입력 및 출력 어휘: 클라이언트 모델에는 49,000개의 토큰이 있고, 클라우드 모델에는 100,000개의 토큰이 있으며 더 많은 언어 및 기술 관련 어휘가 포함되어 있습니다.
- 낮은 비트 팔레타이제이션: 휴대폰 전력 및 메모리에 대한 부담을 줄이는 동시에 모델 실행 속도를 높여줍니다.
- 하이브리드 구성 전략: 2비트 및 4비트 구성을 사용하는 전략은 제한된 공간에서도 압축 없이 모델과 동일한 정확도를 유지할 수 있습니다.
- Talaria 도구: 모델이 가장 적절한 "전송 속도"를 선택하도록 돕습니다.
- 활성화 양자화 및 임베딩 양자화: 신경 엔진의 키-값 캐시를 보다 유연하고 효율적으로 만들기
이러한 최적화 전략을 하나씩 구현하면 iPhone 15 Pro에서 Apple 모델의 성능이 인상적입니다. 각 토큰의 처리 시간은 0.6밀리초에 불과하며 초당 30개의 토큰을 생성할 수 있습니다.
그것이 전부는 아닙니다. Apple은 토큰 생성 속도를 높이기 위해 몇 가지 트릭을 "숨깁니다". 그러나 Apple은 블로그에서 많은 것을 공개하지 않았습니다.
사실 애플 스마트폰의 데뷔는 너무 이른 것도 아니지만, 너무 늦은 것도 아니다.
최근 다른 안드로이드 제조사들이 1~2년 동안 AI 휴대폰 트랙을 질주하고 있는 반면, 애플은 조용히 지켜만 보고 있는 것 같다.
그러나 단말기 소비 시나리오 부문의 세계 선두 제조업체로서 Apple의 모든 움직임이 시장의 맥박에 영향을 미친다는 점을 잊지 마십시오. 요컨대, 실제 AI 구현 시나리오에서 애플은 없어서는 안 될 존재다.
이는 마치 AI에 애플 인텔리전스(Apple Intelligence)라는 이름을 붙이는 것과 같으며, 이는 영리한 "동음이의어"처럼 보일 수도 있지만, 더 깊은 수준에서 애플 인텔리전스가 애플의 생태계에 통합되면 그 자체가 힘과 자신감의 상징이 됩니다.
물론 그 전에는 AI 트랙에서 제조사 간 경쟁인지, 피할 수 없는 개인 정보 보호 문제인지, 누가 애플의 AI 역량을 얻게 될지 관심이 더 크다.
원본 블로그 텍스트: https://machinelearning.apple.com/research/introducing-apple-foundation-models
이 기사는 WeChat 공개 계정 "APPSO"(ID: appsolution) 에서 발췌되었으며 작성자: Mo Chongyu, 36 Krypton은 승인을 받아 게시되었습니다.





