애플은 월요일 WWDC 2025 기조연설에서 기기 운영 체제에 대한 광범위한 업데이트와 놀라운 새로운 디자인을 마무리했습니다. 하지만 아이폰, 아이패드, 맥, 애플 워치, 비전 프로에 걸친 모든 개선에도 불구하고 한 가지 의문이 남아있었습니다: 애플 인텔리전스는 어떻게 되었을까요?
애플의 AI 대대적인 추진이 WWDC 2024에서 소개되었을 때, 팀 쿡 CEO는 이를 회사의 "새로운 장"이라고 설명했습니다. 이는 애플의 하드웨어와 생성형 AI의 성장 모멘텀을 결합한 것이었습니다. 애플 인텔리전스는 회사를 오픈AI, 엔비디아, 구글, 마이크로소프트와 같은 수준에 올려놓을 의도였습니다.
1년 후, 그 약속은 대부분 아직 실현되지 않았고, 업계 전반의 비판과 기업 혼란을 불러일으켰습니다.
사실, AI 환경에 대한 가장 중요한 영향은 지난주 "사고의 착각"이라는 제목의 연구 논문일 것입니다. 이 논문에서 회사는 대규모 언어 모델의 한계를 설명하고 그들의 추론 능력을 과대평가하지 말 것을 경고했습니다. 이 논문은 대규모 언어 모델이 지능적으로 보일 수 있지만 주로 패턴 인식에 의존한다는 점을 강조했습니다.
그럼에도 불구하고, 오늘의 컨퍼런스는 애플의 소프트웨어 엔지니어링 수석 부사장 크레이그 페더리기가 AI 통합을 알리면서 시작되었습니다. "우리는 애플 인텔리전스를 구동하는 생성 모델을 더욱 능력 있고 효율적으로 만들고 있으며, 우리 생태계 전반에 걸쳐 더 많은 곳에서 애플 인텔리전스를 계속 활용하고 있습니다."라고 그는 말했습니다.
페더리기는 애플이 새로운 "기반 모델 프레임워크"를 통해 개발자들에게 AI 인프라를 개방한다고 발표했습니다. 이를 통해 앱은 애플 자체 소프트웨어를 구동하는 동일한 기기 내 인텔리전스에 직접 접근할 수 있습니다. Xcode 업데이트는 개발자를 위한 생성형 도구를 소개하며, 여기에는 ChatGPT와의 통합, 예측 코드 완성, Swift Assist를 통한 대화형 프로그래밍이 포함됩니다.
아마도 애플은 애플 인텔리전스 출시의 실수 후 과도하게 전달하기 위해 과소 약속하고 있었을 것입니다.
대신, 오늘의 프레젠테이션은 OS X와 iOS의 광범위한 시각적 리디자인에 더 많은 관심을 기울였으며, 애플의 전체 제품군에 걸쳐 더 많은 UX 일관성을 가져왔습니다. 이 리디자인은 "리퀴드 글라스"를 특징으로 하며, 이는 기기 전반에 걸쳐 터치, 콘텐츠, 맥락에 적응하는 반응형 컨텍스트 인식 디자인 요소입니다. 이 리디자인은 잠금 화면부터 시스템 아이콘까지 모든 것에 영향을 미치며, 애플 기기 간 전환을 더욱 원활하게 만드는 것을 목표로 합니다.
WWDC에서 공개된 다른 업데이트에는 메시지 기능 향상이 포함되어 있으며, 이제 투표, 맞춤형 배경, 입력 표시기, 그룹 결제, 개선된 스팸 필터링을 지원합니다. 라이브 번역을 통해 AI를 사용하여 메시지, FaceTime, 전화 통화에서 실시간 언어 번역이 가능해집니다.
전화 앱은 대기 모드에서 상대방이 응답할 때 알려주는 대기 지원 등의 업그레이드를 받고 있으며, 통화 스크리닝 기능은 연결 전에 발신자에게 자신을 식별하도록 요청합니다. 이 기능은 2009년 구글 보이스가 출시되었을 때 도입되었다는 점을 참고할 만합니다.
기타 업데이트는 다음과 같습니다:
애플은 이러한 업데이트가 7월에 공개 베타로 제공되며, 전체 릴리스는 가을에 출시될 것이라고 밝혔습니다.



