얕은 피사계 심도 이미지란?
큰 렌즈가 장착된 일안 반사식(SLR) 카메라는
피사계 심도가 얕습니다. 즉, 카메라에서 일정 거리에 있는 피사체는 선명하게 나타나지만 '초점면' 앞이나 뒤에 있는 피사체는 흐리게 나타납니다. 얕은 피사계 심도는 피사체에 대해 보는 이의 관심을 끌거나 산만한 배경을 억제하기 위한 좋은 방법입니다. 얕은 피사계 심도는 SLR을 사용하여 촬영한 인물 사진에 특색 있고 예술적인 느낌을 부여해 줍니다.
얕은 피사계 심도 이미지의 블러 수준은 심도에 따라 다릅니다. 피사체가 멀수록 초점면에서 이탈하고 흐리게 나타납니다. 렌즈 개구부의 크기에 따라서도 블러 수준이 달라집니다. f/2.0 조리개가 있는 50mm 렌즈는 직경 50mm/2 = 25mm의 개구부가 있습니다. 이러한 렌즈를 사용하면 피사체가 초점면에서 몇 인치만 벗어나도 흐릿하게 나타납니다.
피사계 심도에 대해 알아야 하는 또 다른 중요한 요소는 흐릿한 광원처럼 촬영되는 형상입니다. 이러한 형상을
보케라고 하며 렌즈 조리개의 물리적 구조에 따라 다릅니다. 보케는 원형일까요? 아니면 일부 렌즈 안에 조리개를 구성하는 6개의 금속 부품이 있으니 육각형일까요? 사진작가들은 어떤 요소가 좋거나 나쁜 보케를 만드는지에 대해 끊임없이 논쟁을 벌입니다.
얕은 피사계 심도 합성 이미지
SLR 카메라와 달리, 휴대폰 카메라에는 초점 영역에 담긴 모든 것을 촬영하는 고정된 크기의 작은 조리개가 있습니다. 그러나 카메라에서 장면에 있는 점까지의 거리를 알면 사진의 각 픽셀을 블러로 대체할 수 있습니다. 이 블러는 이웃한 픽셀이 있는 픽셀 색상의 평균이 될 것입니다. 블러 수준은 초점면에서 해당 장면 점까지의 거리에 따라 달라집니다. 보케를 의미하는 이 블러의 형상을 제어할 수도 있습니다.
휴대폰이 장면의 모든 점까지의 거리를 어떻게 계산할 수 있을까요? 가장 일반적인 방법은 듀얼 카메라 폰이라는 방법으로, 두 카메라를 서로 가까이에 두는 것입니다. 그런 다음 왼쪽 카메라 이미지의 각 패치에 대해 오른쪽 카메라 이미지에서 일치하는 패치를 찾습니다. 이러한 일치점이 발견되는 두 이미지 내의 위치는
삼각 측량 프로세스를 통해 해당 장면 피사체의 심도를 제공합니다. 이처럼 일치하는 피사체를 검색하는 기능을
스테레오 알고리즘이라고 하며, 양쪽 눈과 거의 같은 방식으로 작동합니다.
일부 단일 카메라 스마트폰 앱에서 사용되는 이 아이디어의 더욱 단순한 버전에는 이미지를 2개의 레이어, 즉 전경의 일부인 픽셀(일반적으로 사람)과 배경의 일부인 픽셀로 분리하는 과정이 포함됩니다.
의미론적 세그먼테이션이라고도 불리는 이 분리 방법을 사용하면 배경을 흐리게 만들 수 있지만 심도에 대한 개념이 없으므로 블러의 강도를 알려주지는 못합니다. 또한, 사람 앞에 피사체가 있는 경우(예: 카메라 가까이에 있는 경우) 실제 카메라에서는 흐려지지만 이 방식으로는 흐려지지 않습니다.
스테레오 또는 세그먼테이션을 사용하여 수행했는지 여부에 관계없이, 배경에 속하는 픽셀을 인위적으로 흐리게 처리하는 기법을
얕은 피사계 심도 합성 또는 합성 배경 디포커싱이라고 합니다. 합성 디포커스는 SLR에서 얻을 수 있는 광학 블러와 같은 것은 아니지만 대부분의 사람들에게는 비슷하게 보입니다.
Pixel 2에서 인물 모드의 작동 방식
Google Pixel 2는 후방 및 전방 카메라에서 모두 인물 모드를 제공합니다. 전방(셀프) 카메라의 경우 세그먼테이션만 사용합니다. 후방 카메라의 경우 스테레오와 세그먼테이션을 모두 사용합니다. 하지만 Pixel 2에는 후방 키메라가 하나뿐인데 어떻게 스테레오로 볼 수 있을까요? 이 프로세스를 단계별로 살펴봅시다.
1단계: HDR+ 이미지를 생성합니다.
인물 모드는 모든 피사체가 선명하게 찍힌 사진으로 시작됩니다. 이를 위해 촬영된 사진의 품질을 향상하기 위한 Google의 전산 사진 기법인 HDR+를 사용합니다.
이 기능은 모든 최신 Nexus/Pixel 휴대폰에서 실행됩니다. 이 기능은 하이라이트가 날아가는 것을 방지하기 위해 과소 노출된 이미지를 여러장 촬영하고, 촬영한 이미지들의 프레임을 정렬하고 평균화한 후 합성하여 그림자 안의 노이즈를 줄입니다. 그리고 로컬 대비를 보전하면서도 전역 대비를 현저하게 감소시키는 방법으로 이 그림자들을 증폭합니다. 결과 희미한 조명에서도 높은 다이내믹 레인지, 낮은 노이즈, 선명한 세부 묘사가 담긴 사진을 얻을 수 있습니다.
노이즈를 줄이기 위해 프레임을 정렬하고 평균화한다는 아이디어는 수십 년 동안 천체 사진에서 통용되었습니다. Google의 구현 방식은 핸드헬드 카메라로 촬영한 장면에서 이루어진다는 점에서 약간 다릅니다. 사진을 찍는 사람의 자세가 안정적이지 않거나 장면의 피사체가 움직일 경우 고스트 이미지(이중 이미지)를 생성하지 않도록 주의해야 합니다. 아래는 HDR+를 사용하여 촬영한, 다이내믹 레인지가 높은 장면의 예시입니다.
|
Pixel 2에서 HDR+를 사용하지 않은 사진(왼쪽)과 HDR+를 사용한 사진(오른쪽).
HDR+가 어떻게 어두운 아케이드 천장의 세부 모습을 유지하면서도 하늘과 정원이 흐려지지 않도록 하는지 살펴보세요. <사진: Marc Levoy> |
2단계: 기계 학습 기반 전경-배경 세그먼테이션.
HDR+ 사진부터 시작하여, 이어서 전경(일반적으로 사람)에 속하는 픽셀과 배경에 속하는 픽셀을 결정합니다. 영화 산업의 크로마 키잉(일명 그린 스크리닝)과 달리, 배경이 녹색(또는 파란색이나 다른 색)이라고 가정할 수 없기 때문에 이는 까다로운 문제입니다. 대신에 기계 학습을 적용합니다.
그림을 보고 어떤 픽셀이 사람이고 어떤 픽셀이 사람이 아닌지를 추정하는 TensorFlow로 작성된 특별한 신경망을 학습시켰습니다. 우리가 사용하는 특정 네트워크는 스킵 연결(skip connection)을 사용하는 콘볼루션 신경망(CNN)입니다. '콘볼루션'은 네트워크의 학습된 구성 요소가 필터(각 픽셀 주변의 이웃한 픽셀들의 가중치 합계)의 형태로 구성됨을 의미하므로, 네트워크를 단지 이미지를 필터링하고 필터링된 이미지를 필터링하는 과정 등으로 생각할 수 있습니다. '스킵 연결'은 저수준 특징(색상 및 가장자리)에 대해 추론하는 네트워크의 초기 단계부터 고수준 특징(얼굴 및 신체 부위)에 대해 추론하는 네트워크의 후반 단계까지 정보가 쉽게 흐를 수 있게 합니다. 이와 같은 단계의 결합은 사진 속에 사람이 있는지를 판별할 뿐만 아니라, 그 사람에게 속한 픽셀을 정확하게 식별해야 하는 경우에 중요합니다. CNN은 거의 백만 개의 인물 사진(인물의 모자, 선글라스, 아이스크림 콘 포함)을 학습했습니다. 마스크 생성을 위한 추론은 TensorFlow Mobile을 사용하여 휴대폰에서 실행됩니다. 다음은 이에 대한 예시입니다.
|
왼쪽은 HDR+ 파이프라인에 의해 생성된 사진이고, 오른쪽은 Google 신경망을 통해 다듬어진 출력 결과입니다. 이 마스크의 흰색 부분은 네트워크에 의해 전경의 일부로 간주되고 검은색 부분은 배경으로 간주됩니다. <사진: Sam Kweskin> |
이 마스크는 얼마나 훌륭한 것일까요? 그다지 나쁘지 않습니다. Google의 신경망은 여자의 머리카락과 찻잔을 전경의 일부로 인식하여 선명하게 유지할 수 있습니다. 이 마스크를 기반으로 사진을 흐리게 처리하면 바로 다음 이미지가 생성됩니다.
|
마스크를 사용하여 생성된 얕은 피사계 심도 합성 이미지. |
이 결과에 대해 주목할 몇 가지 사항이 있습니다. 첫째, 배경에 다양한 심도의 피사체가 포함되어 있더라도 블러 수준은 일정합니다. 둘째, SLR은 카메라에 가깝기 때문에 접시의 과자(그리고 접시 자체)를 흐리게 만들 수 있습니다. Google의 신경망은 과자가 인물의 일부가 아니라는 사실을 알고 있지만(마스크 이미지에서 검은색), 인물 아래에 있으므로 배경의 일부가 아닙니다. 우리는 이 상황을 명시적으로 감지하고 이러한 픽셀을 비교적 선명하게 유지합니다. 하지만 아쉽게도 이 해결책이 항상 정확한 것은 아니며, 이 상황에서는 이들 픽셀을 더 흐리게 만들어야 합니다.
3단계. 듀얼 픽셀에서 심도 맵으로이 결과를 향상하려면 장면에 있는 각 점에서의 심도를 알면 도움이 됩니다. 스테레오 알고리즘을 사용하여 심도를 계산할 수 있습니다. Pixel 2에는 듀얼 카메라가 없지만 PDAF(Phase-Detect Auto-Focus) 픽셀 또는 듀얼 픽셀 자동 초점(DPAF)으로 불리는 기술이 있습니다. 난해한 어휘처럼 보이지만 꽤나 간단한 아이디어가 출발점입니다. 휴대폰 후방 카메라의 (작은) 렌즈가 절반씩 2개로 분리되어 있다고 상상해 보세요. 이때 렌즈의 왼쪽을 통해 보이는 시야와 오른쪽을 통해 보이는 시야가 약간 다릅니다. 이 두 시점 사이의 간격은 1mm(렌즈의 대략적인 지름) 미만이지만, 스테레오를 계산하고 심도 맵을 생성하기에 충분합니다. 카메라의 광학 장치가 작동하는 방식은 여기에 나오는 것처럼 이미지 센서 칩의 모든 픽셀을 두 개의 더 작은 나란한 픽셀로 분할하고 칩에서 이들을 개별적으로 읽는 것과 같습니다.
|
Pixel 2의 후방 카메라에서 모든 픽셀의 오른쪽은 렌즈의 왼쪽을 통해 세상을 보고 모든 픽셀의 왼쪽은 렌즈의 오른쪽을 통해 세상을 보게 됩니다. <그림: Markus Kohlpaintner, 복제 허가를 받은 이미지> |
그림에서 보듯이 PDAF 픽셀은 단일 스냅샷에서 렌즈의 왼쪽과 오른쪽을 통해 뷰를 제공합니다. 또는 휴대폰을 세로 방향으로 잡고 있는 경우 렌즈의 상반부와 하반부가 있습니다. 다음은 예시 장면(아래)의 상단 이미지와 하단 이미지가 어떻게 나타나는지 보여줍니다. 스테레오 알고리즘에서 빨간색 또는 파란색 픽셀은 쓰지 않고 베이어 컬러 필터 센서의 녹색 픽셀만 사용하므로 이미지가 흑백으로 나타납니다. 두 이미지를 구별하기 어려우신가요? 오른쪽의 애니메이션 gif(아래)를 보면 구별하는 데 도움이 될 겁니다. 자세히 살펴보세요. 실은 아주 작은 차이만 날 뿐입니다!
|
Pixel 2의 렌즈 상반부와 하반부를 통한 테스트 장면의 뷰. 오른쪽의 애니메이션 gif에서,
배경이 위아래로 움직이는 동안 카메라 초점이 인물에 맞춰져 있으므로 인물이 거의 정지된 상태임을 알 수 있습니다. 만약 우리가 볼 수 있다면 배경이 위로 이동할 때 인물의 앞에 있는 피사체들은 아래로 이동할 것입니다(또는 그 반대). |
SLR을 비롯한 많은 카메라에서 동영상 녹화 시 초점을 더 빨리 맞추는 데 도움이 되는 PDAF 기술을 사용합니다. 우리가 사용하는 애플리케이션에서는 이 기술이 대신에 심도 맵을 계산하는 데 사용됩니다. 특히 Google의 Jump 시스템 파노라마 스티처(Jump Assembler라고 함)에서 사용되는 것과 유사한 스테레오 알고리즘에 좌우(또는 상하) 이미지를 입력 데이터로 사용합니다. 이 알고리즘은 먼저 서브픽셀 정밀도의 타일 기반 정렬을 수행하여 저해상도의 심도 맵을 생성한 다음, 양방향 솔버를 사용하여 이를 고해상도로 보간합니다. 이는 이전에 Google의 Lens Blur 효과에서 사용한 기술과 유사합니다.
추가 설명: Pixel 2 카메라로 촬영한 왼쪽 뷰와 오른쪽 뷰가 너무 가깝기 때문에, 특히 낮은 조명에서 얻는 심도 정보는 이미지의 높은 노이즈의 영향으로 부정확합니다. 이러한 노이즈를 줄이고 심도 정확도를 높이기 위해 왼쪽 및 오른쪽 이미지를 캡처한 다음, 이미지를 정렬하고 평균화한 후 스테레오 알고리즘을 적용합니다. 물론, 이 단계에서는 HDR+에서와 같이 잘못된 일치를 피하기 위해 주의해야 합니다. 그렇지 않으면 심도 맵에 고스트 이미지가 생길 수 있습니다(단, 이는 다른 블로그 게시물의 주제이므로 여기서는 다루지 않음). 아래 왼쪽에 스테레오 알고리즘을 사용하여 위에 나오는 예시로부터 생성한 심도 맵이 있습니다.
|
왼쪽: 앞서 설명한 상반부 렌즈 및 하반부 렌즈 이미지로부터 스테레오를 사용하여 계산한 심도 맵. 더 밝은 부분은 카메라에 더 가까이 있음을 의미합니다.
오른쪽: 원본의 각 픽셀에 얼마나 많은 블러가 적용되는지 시각적으로 표시. 검은색은 불러가 전혀 적용되지 않음을 의미하고, 빨간색은 초점면(얼굴)의 뒤쪽에 있는 장면 피사체를 나타냅니다. 빨간색이 밝을수록 더 흐리게 처리됨을 나타내고 파란색은 초점면 앞의 피사체(과자)를 나타냅니다.
|
4단계. 모두 합쳐 최종 이미지 렌더링
마지막 단계는 2단계에서 계산한 세그먼테이션 마스크와 3단계에서 계산한 심도 맵을 결합하여 1단계에서 HDR+ 사진의 각 픽셀을 얼마나 흐리게 처리할지 결정하는 것입니다. 심도와 마스크를 결합하는 방법은 다소간 기밀 사항이지만 대략적인 아이디어는 사람에 속한다고 생각하는 장면의 피사체(마스크의 흰색 부분)를 선명하게 유지하고 배경에 속한다고 생각하는 피사체(마스크의 검은색 부분)를 초점면에서 떨어진 거리에 비례하여 흐리게 처리하는 것입니다. 이러한 거리는 심도 맵에서 가져옵니다. 위의 빨간색 이미지는 각 픽셀을 얼마나 흐리게 처리할지를 시각화한 것입니다.
실제로 블러를 적용하는 것은 개념적으로 가장 간단한 부분입니다. 각 픽셀은 동일한 색상이지만 다양한 크기의 반투명 디스크로 대체됩니다. 이러한 모든 디스크를 심도 순서대로 합성하면 이전에 설명한 평균화와 같고, 실제 광학 블러에 가까운 훌륭한 근사값을 얻을 수 있습니다. 합성 디포커싱의 이점 중 하나는, 우리가 소프트웨어를 사용하므로 몇 파운드의 유리 카메라 렌즈를 들고 다니지 않아도 완벽한 디스크 형상의 보케를 얻을 수 있다는 것입니다. 흥미로운 점은, 소프트웨어에서 우리가 리얼리즘을 고수할 특별한 이유는 없다는 사실입니다. 우리가 원하는 어떤 보케 형태라도 만들 수 있습니다! 다음은 예시 장면의 최종 인물 모드 출력입니다. 이 결과를 2단계의 가장 오른쪽 결과와 비교하면 SLR에서 예상한 것처럼
과자가 약간만 흐려진 것을 알 수 있습니다.
|
HDR+ 사진, 세그먼테이션 마스크 및 심도 맵을 결합하여 생성된
최종적인 얕은 피사계 심도 합성 이미지. 전체 해상도 이미지를 보려면 클릭하세요. |
인물 모드 사용 방법
Pixel 2의 인물 모드는 4초 내에 실행되고, (휴대폰의 특별한 상하 동작이 필요한 이전 기기의
Lens Blur 모드와는 달리) 완전 자동이며, 비전문가가 사용할 수 있을 정도로
충분히 강력한 성능을 발휘합니다. 다음은 예시
앨범으로, 곱슬머리를 한 사람들, 꽃 부케를 들고 있는 사람들 등 어려운 사례들이 포함되어 있습니다. 아래에서는 새로운 Pixel 2에서 인물 모드를 사용할 수 있는 몇 가지 방법을 소개합니다.
접사 촬영인물 모드에서 카메라를 사람 대신 작은 물체(꽃이나 음식 등)로 향하면 신경망은 얼굴을 찾지 못하고 유용한 세그먼테이션 마스크를 생성하지 않습니다. 즉, 위에서 설명한 파이프라인에서 2단계가 적용되지 않습니다. 다행히 여전히 PDAF 데이터(3단계)의 심도 맵이 있으므로 심도 맵만을 기반으로 얕은 피사계 심도 이미지를 계산할 수 있습니다. 렌즈의 왼쪽과 오른쪽 사이의 기준선이 너무 작기 때문에 이 거리는 대략 1미터 미만으로 떨어진 작은 물체에만 적합합니다. 그러나 이러한 장면에서는 멋진 사진을 생성합니다. 이것을 합성 접사 모드라고 생각할 수 있습니다. 아래는 매크로 크기 피사체의 일반 및 인물 모드 촬영의 예시입니다. 여기에 가는 철조망 울타리가 있는 분수대와 같은 더 어려운 사례를 비롯하여 더 많은 접사 사진이 포함된 앨범 이 있습니다. 너무 가까이 가지 않도록 주의하세요. Pixel 2는 카메라에서 약 10cm보다 더 가까이 있는 피사체에는 선명하게 초점을 맞출 수 없습니다.
|
인물 모드를 사용하지 않은 접사 사진(왼쪽)과 인물 모드를 사용한 접사 사진(오른쪽). 여기에는 사람이 없으므로 배경 픽셀은 심도 맵을 사용하여 식별됩니다. <사진: Marc Levoy> |
셀피 카메라Pixel 2는 후방 카메라에서처럼 전방(셀피) 카메라로도 인물 모드를 제공합니다. 이 카메라는 12Mpix가 아닌 8Mpix이며 PDAF 픽셀이 없습니다. 즉, 픽셀이 좌반부와 우반부로 분할되지 않습니다. 이 경우 파이프라인 3단계는 적용되지 않지만 얼굴을 찾을 수 있다면 여전히 신경망(2단계)을 사용하여 세그먼테이션 마스크를 만들 수 있습니다. 따라서 얕은 피사계 심도 이미지를 계속 생성할 수 있지만, 피사체가 얼마나 멀리 있는지 모르므로 심도로 블러 수준을 조절할 수 없습니다. 그럼에도, 특히 산만한 배경을 대상으로 하는 셀피의 경우 효과가 매우 좋아 보입니다. 흐리게 처리하면 산만한 느낌을 없애는 데 도움이 됩니다. 다음은 Pixel 2의 셀피 카메라로 촬영한 일반 및 인물 모드 셀피의 예시입니다.
|
인물 모드를 사용하지 않은 셀피(왼쪽)와 인물 모드를 사용한 셀피(오른쪽). 전방 카메라는 PDAF 픽셀이 부족하므로 배경 픽셀은 기계 학습만 사용하여 배경 픽셀을 식별됩니다. <사진: Marc Levoy> |
인물 모드를 최대한 활용하는 방법
Pixel 2에서 생성된 인물 사진은 기본 HDR+ 이미지, 세그먼테이션 마스크 및 심도 맵에 따라 달라집니다. 이러한 입력의 문제점은 결과물에 아티팩트가 생성될 수 있다는 점입니다. 예를 들어, HDR+ 이미지에서 사진이 과다 노출된 경우(흰색으로 흐려짐), 좌반부 및 우반부 이미지에 유용한 정보가 포함될 가능성이 낮기 때문에 심도 맵에 오류가 발생할 수 있습니다. 세그먼테이션에서 무엇이 잘못될 수 있을까요? 거의 백만 개의 이미지를 학습한 신경망이지만, 악어에게 키스하는 사람의 사진을 본 적이 없습니다. 따라서 아마도 마스크에서 악어를 생략하여 흐리게 만들 것입니다. 심도 맵은 어떨까요? 빈 벽과 같이 질감이 없는 피사체의 경우, 스테레오 알고리즘을 적용할 피사체가 없거나 (격자 무늬 셔츠와 같은) 반복적인 질감이나 수평선 또는 수직선이 없고 그에 따라 이미지를 삼각 측량하여 잘못된 깊이를 생성하므로 스테레오 알고리즘이 실패할 수 있습니다.
어떤 복잡한 기술에도 절충점이 있지만, 멋진 인물 모드 촬영을 위한 몇 가지 팁을 알려드립니다.
- 머리(또는 머리와 어깨)가 프레임을 채우도록 피사체에 충분히 가까이 다가가세요.
- 모두 선명하게 촬영하기를 원하는 단체 사진의 경우, 카메라에서 동일한 거리에 피사체를 배치하세요.
- 더 멋진 블러 효과를 얻으려면 피사체와 배경 사이에 약간의 거리를 두세요.
- 짙은 선글라스, 챙이 넓은 모자, 커다란 스카프 등은 벗고 찍으세요. 물론, 악어와 함께 찍지도 마시고요.
- 접사 촬영의 경우 관심 대상이 선명하게 유지되도록 초점을 조절하세요.
인물 모드에서는 카메라의 줌 기능이 약간 작동한다는 사실을 알아차리실 겁니다(후방 카메라의 경우 1.5x, 셀피 카메라의 경우 1.2x). 이는 의도적인 조치로, 시야가 좁으면 더 뒤로 물러나게 하여 결과적으로 원근 왜곡을 줄이고 더 나은 사진을
촬영할 수 있기 때문입니다.
SLR을 (영원히) 포기할 때가 된 걸까요?
우리가 5년 전에 Google에서 일하기 시작했을 때 휴대폰 사진의 픽셀 수는
SLR에 미치지 못했지만 대다수 사람들의 요구에는 충분히 부합하는 수준이었습니다. 큰 가정용 컴퓨터 화면에서도
휴대폰으로 찍은 사진의 개별 픽셀을 볼 수 없었습니다.
그럼에도, 휴대폰 카메라는 다음과 같은 네 가지 측면에서 SLR만큼 강력하지 않았습니다.
- 밝은 장면의 다이내믹 레인지(날아가버리는 하늘)
- 조도가 낮을 때의 신호 대 노이즈 비율(SNR) (노이즈가 많은 사진, 디테일 상실)
- 줌(야생 동물 촬영의 경우)
- 얕은 피사계 심도
Google의 HDR+과 경쟁 업체의 유사 기술은 위의 1번과 2번 항목에서 큰 발전을 이루었습니다. 실제로, 까다로운 조명 조건에서도 우리는 종종 SLR을 사용하지 않을 것입니다. 힘든 브라케팅 및 후처리 작업 없이도 휴대폰으로부터 더 나은 사진을 얻을 수 있기 때문입니다. 줌의 경우 저렴한 망원 렌즈를 일부 스마트폰에 추가하면 도움이 되지만(일반적으로 2x), 강바닥에 있는 회색곰의 경우 400mm 렌즈를 대체할 만한 것이 없고, 또한 훨씬 안전합니다! 얕은 피사계 심도의 경우, 합성 디포커싱은 실제 광학 디포커싱과 같지는 않지만, 시각적 효과는 주요 피사체에 주의를 집중하면서 동일한 목표를 달성할 수 있을 정도로 충분히 유사합니다.
대형 센서와 대형 렌즈가 있는 SLR(또는 미러리스 호환 렌즈(MIL) 자매품)이 사라지게 될까요? 확실치는 않지만 시장에서 작은 틈새 시장을 차지할 것입니다. 우리는 모두 대형 카메라와 Pixel 2를 가지고 여행합니다. 여행 초기에는 열심히 SLR를 꺼내서 사진을 찍지만 결국에는 대부분 여행 가방에 담겨져 있게 됩니다. 소프트웨어로 무장한 카메라와 컴퓨터 사진의 새로운 세계에 오신 것을 환영합니다!
Pixel 2의 인물 모드에 대한 자세한 내용은
Nat & Friends의 동영상을 참조하세요.
다음은 Pixel 2로 촬영한 또 다른 사진
앨범입니다(인물 및 비인물).