[비즈니스포스트] 애플이 오는 가을에 출시할 아이폰16에 외부 클라우드 서버와 연결 없이 순수하게 기기 내에서 인공지능(AI) 기능을 제공하는 '온 디바이스 AI 온리(Only)' 기술을 적용할 것으로 예상된다.

AI 기능을 기기 자체로 구현하려면 고성능 애플리케이션 프로세서(AP)는 물론 대량의 데이터를 빠르게 처리하기 위한 대용량 D램이 필수다. D램 중에서도 최신 저전력 초고속 D램 적용이 불가피한데, 이에 따라 저전력 LPDDR D램에서 앞서가는 삼성전자와 SK하이닉스가 애플 아이폰16 효과를 볼 것으로 예상된다.
 
아이폰16에 ‘온디바이스AI 온리’ 적용 예상, 삼성전자 SK하이닉스 저전력 D램 수혜 보나

▲ 애플이 고도화한 온 디바이스 AI(인공지능) 기술을 차기 아이폰16에 적용하면 삼성전자와 SK하이닉스의 첨단 모바일용 저전력 D램 반도체(LPDDR) 수요가 더 늘어날 것으로 전망된다. 영국 런던에 위치한 애플스토어를 방문한 소비자가 아이폰15 프로 맥스 기기를 살펴보고 있다. <연합뉴스>


21일(현지시각) 블룸버그는 "애플의 차기 아이폰 혁신은 온 디바이스 거대언어모델(LLM)이 될 것”이라며 “애플이 개발하고 있는 모바일 LLM은 전적으로 기기 내부에서 작동하는 온 디바이스 AI(entirely on-device)가 될 것”이라고 보도했다.

새로운 모바일 LLM은 애플의 차기 운영체제 iOS 18에 적용될 것으로 전해졌다. iOS 18은 오는 6월 애플의 연례 개발자 행사인 WWDC에서 발표될 예정이다. iOS 18은 음성인식비서 '시리'를 통해 각종 AI 기능을 사용할 수 있도록 제작되고, 메시지에 대한 자동 응답을 만드는 등의 기능이 담길 것으로 알려졌다.

온 디바이스 AI란 외부 클라우드 서버와 모바일기기를 연결하지 않고 스마트기기 내에서 빠르게 AI 기능을 수행할 수 있는 기술을 말한다. 클라우드 AI보다 작업 속도가 빠르고 전력소모는 낮으며, 보안성을 높일 수 있다는 게 장점이다.

삼성전자가 올해 1월 출시한 스마트폰 '갤럭시S24 시리즈'도 온 디바이스 AI 기술이 적용됐지만, 이 제품은 필요에 따라 클라우드 서버의 도움을 받는 하이브리드 AI 방식을 택하고 있다. 삼성전자는 물론 구글 등 대부분의 AI 스마트폰은 하이브리드 AI 방식을 적용하고 있다.

애플이 개발하는 LLM은 외부 서버가 아니라 아아폰16 반도체에 탑재돼 바로 AI 기능을 제공하는 만큼, 경쟁사 제품보다 응답 시간이 빠르고, 더 안전한 개인 정보보호 기능을 제공할 수 있다고 외신들은 보도했다.

블룸버그는 “애플 온 디바이스 AI는 성능 자체로는 타사 제품에 비해 뒤처질 수 있지만, 모바일 AI 기능 구현 방식은 게임 체인저가 될 수 있을 것”이라고 평가했다.
 
아이폰16에 ‘온디바이스AI 온리’ 적용 예상, 삼성전자 SK하이닉스 저전력 D램 수혜 보나

▲ 삼성전자의 첨단 모바일용 저전력 반도체 LPDDR5X. <삼성전자> 


미 경제지 포브스는 또 “아이폰16 온 디바이스 AI는 개인 정보보호에 민감한 이용자들에게 표준이 될 것으로 보고 있다”며 “삼성전자와 구글 제품은 AI 기능 일부가 클라우드 서버를 요구하는 만큼 타격을 입을 수 있다”고 보도했다.

애플처럼 온 디바이스 AI가 외부 서버를 이용하지 않고 기기에서 모든 데이터를 처리하려면 그만큼 뛰어난 제품 스펙이 뒷받침돼야 한다. 온 디바이스 AI가 확산되면 특히 LPDDR5X와 최신 초고속 D램 수요가 크게 늘어날 것으로 예상된다.

애플도 아이폰16 시리즈에 전작에 적용된 LPDDR5 대신 차세대 D램 제품인 LPDDR5X를 탑재하고, D램 용량도 대폭 늘릴 것으로 전해졌다.

애플 전문매체 맥루머스는 최근 제프 푸 하이퉁증권 연구원을 인용해 “아이폰16와 아이폰16플러스 모두 8GB D램을 장착할 것”이라고 보도했다. 전작 6GB 램에서 용량이 2GB 늘어나는 것이다.

그동안 애플은 ‘램크루지(램+스크루지)’라는 별명이 붙을 정도로 아이폰 램 용량 확대에 소극적이었다. 그러나 온 디바이스 AI 기능을 뒷받침하기 위해 D램 용량 확대에 나선 것으로 분석된다.

앞서 맥쿼리증권은 지난해 12월 “온 디바이스 AI로 기기 내에서 자체적으로 이미지를 생성하는 기능을 구현하려면 최소 12GB, 고도화된 AI 비서 업무를 수행하려면 20GB의 D램이 필요하다”는 분석을 내놓기도 했다.

전적으로 온 디바이스 AI를 활용하는 방식이 업계에 확산되면 삼성전자와 SK하이닉스 수혜가 예상된다. 두 회사는 앞다퉈 첨단 LPDDR 신제품을 내놓으며 경쟁을 벌이고 있다.

삼성전자는 지난 17일 동작속도 10.7Gbps의 LPDDR5X D램을 개발했다고 밝혔다. 이 제품은 온디바이스 AI에 최적화된 저전력·고성능 제품이다. 이전 세대 대비 성능은 25%, 용량은 30% 향상됐다.

SK하이닉스는 작년 1월25일 기존 제품보다 속도가 13% 빨라진 9.6Gbps(초당 9.6 기가비트)의 LPDDR5T를 개발해 고객사에 샘플을 제공했다고 밝혔다. 그해 11월 모 고객사에 납품을 시작했다. 김바램 기자