-
아이폰 11 카메라를 백업할 '딥퓨전(Deep Fusion)' 기능 (feat. A13 바이오닉(Bionic) 칩셋) 본문
지난 9월 공개된 아이폰 11 시리즈에 적용될 '딥퓨전(Deep Fusion)' 기능이 배포되었다. iOS 13.2 버전으로 업데이트를 한 아이폰 11, 아이폰 11 프로, 아이폰 11 프로 맥스 사용자들은 딥퓨전 기능을 사용할 수 있게 된다.
아이폰 11 프로의 딥퓨전(Deep Fusion)
지난 9월 아이폰 11 시리즈를 공개하면서 '딥퓨전(Deep Fusion)'이라는 기능도 함께 공개되었다. 딥퓨전은 첨단 이미지 처리 기술로, 어두운 조명에서 사진을 찍을 때, 사진의 텍스처를 향상시키고 노이즈를 줄여주는 목적으로 개발된 이미지처리 기술이다.
아이폰 11 시리즈로 사진을 찍을 때, 9장의 사진을 찍고 분석하여 각각의 사진에서 얻을 수 있는 최상의 요소를 추출하여 가장 좋은 한장의 사진으로 만들어주는 기능이다. 비슷한 기능으로 구글 안드로이드의 '나이트 사이트(Night Sight)'라는 기능이 있다. 야간 촬영 모드의 강화된 버전쯤으로 생각하면 좋다.
애플의 설명에 따르면 사용자가 셔터를 누르기 전에 빛을 최대한 많이 받아들인 장노출 사진 4장과 빛을 적게 받아들인 단노출 사진 4장을 먼저 찍어 놓고, 카메라 셔터 버튼이 눌리면 노출값이 좀 더 긴 사진 한장을 찍어 총 9장의 사진을 만들어 놓는다. 그리고 9장의 사진을 분석하여 최종 결과물에 노이즈는 최대한 줄이면서 사진의 디테일은 최대한 살린 결과물을 합성해낸다.
이런 과정이 1초도 안되는 짧은 시간에 일어난다. 애플은 새로운 프로세서인 A13 바이오닉 프로세서를 사용하여 가능하게되었다고 전했다.
A13 바이오닉 프로세서
애플은 새로운 아이폰 11 시리즈 모두에 동일한 'A13 바이오닉(Bionic)' 프로세서를 탑재했다. 애플의 이 새로운 프로세서는 머신러닝을 활용하여 CPU, GPU, 뉴럴 엔진의 성능을 극대화한다.
위에서 말한 딥퓨전(Deep Fusion) 기능에는 강력한 프로세싱 파워가 필요하다. 9장의 사진을 빠르게 촬영하고 분석하여 각각 최상의 특성들을 뽑아내어 최종 결과물을 합성해내야하기 때문이다. A13 바이오닉의 성능을 이용하여 애플은 카메라의 하드웨어적인 한계를 머신러닝과 인공지능 같은 소프트웨어적인 능력으로 뛰어 넘을 수 있게 했다.
A13 바이오닉 프로세서는 전작인 A12 프로세서와 비교하여 처리 속도가 빨라지고 전력 소모량이 줄어들었다. 애플에 의하면 전작인 A12 대비 20% 더 빠르고 전력을 40% 적게 소비한다고 한다. 트랜지스터 개수도 A12의 69억개에서 23% 늘어난 85억개가 들어있다.
A13 바이오닉의 CPU는 2개의 고성능 코어인 라이트닝과 4개의 저전력 코어인 썬더로 구성된 6코어 프로세서다. GPU 역시 전작대비 20% 증가한 성능과 30% 증가한 전력효율을 보인다. 여기에 8코어 기반의 뉴럴엔진은 트리플 카메라 시스템과 페이스 ID, AR앱을 구동할 때 연산을 담당한다.
스마트폰의 카메라 기술은 이제 소프트웨어적인 능력의 범위로 넘어갔고, 그 능력을 뒷받침해주기위해 카메라 모듈 이외의 처리 능력을 추가하는 쪽으로 발전하는 것 같다. 애플의 '딥 퓨전'과 구글의 '나이트 사이트'가 미래의 카메라 기술이 가야할 길을 알려주고 있는 것 같다.
'IT > 모바일' 카테고리의 다른 글
삼성전자 갤럭시 S20, S20+, S20 울트라 출시 가격 및 스펙 정보 (0) | 2020.02.13 |
---|---|
삼성전자 갤럭시Z 플립 유출된 정보들 (0) | 2020.02.06 |
맥 OS '사이드 카' 기능으로 아이패드를 듀얼 모니터로 활용 (0) | 2019.11.05 |
모토로라 폴더블 레이저(RAZR) 폰 유출 - '클램셸(Clamshell)' 형태 (0) | 2019.11.04 |
'액티브 노이즈 캔슬링' 갖춘 무선 이어폰, 애플 '에어팟 프로' 출시 (0) | 2019.11.03 |