Logo es.androidermagazine.com
Logo es.androidermagazine.com

Con el pixel 2, Google se está duplicando en una sola cámara

Anonim

Hay muchos aspectos interesantes en Google Pixel 2 y Pixel 2 XL, pero uno de los más interesantes es también el menos controvertido: Google se queda con una sola cámara trasera.

Todos los principales fabricantes de teléfonos, desde Apple hasta Samsung, LG y Huawei, han realizado la transición en los últimos años a un buque insignia con una configuración de cámara dual. Si bien la implementación varía entre los auriculares: un segundo sensor monocromático, un lente gran angular o capacidades de teleobjetivo / retrato, la estrategia es la misma: aumentar el tirador principal con funcionalidad adicional en un intento de destacarse del campo de maduración rápida de competidores, y a su vez venden más teléfonos.

Google quiere que las personas tomen excelentes fotos cada vez, y está utilizando su experiencia en software para asegurarse de que eso suceda.

Con Pixel 2 y Pixel 2 XL, Google está haciendo exactamente lo contrario. Se está duplicando en una sola cámara e invirtiendo fuertemente en soluciones basadas en software para aumentar las capacidades naturales del sensor de 12MP. Claro, tanto el Pixel 2 como el Pixel 2 XL se benefician del nuevo hardware físico, en este caso, la adición de estabilización de imagen óptica, así como una lente f / 1.8 más ancha y rápida, pero cualquier efecto de retrato, reducción de ruido de zoom digital o Los panoramas cosidos se realizan utilizando el conjunto de herramientas de software cada vez más poderoso e increíblemente impresionante de Google, comercializado bajo el disfraz de "fotografía computacional".

Como Google mostró con el modo HDR + Pixel de primera generación, la fotografía computacional tiene ventajas en el mundo real. Claro, la mayoría de los fabricantes, desde Apple hasta Samsung, utilizan software para influir en la producción de fotos hasta cierto punto, pero la estrategia de Google es mitigar por completo las desventajas de un solo sensor, de hecho, verter todos sus recursos en esa única ruta digital. a través de líneas de código. Y aunque HDR + ha existido en la línea Nexus hasta el Nexus 5 de 2013, no fue hasta 2016 con los Pixels que la velocidad del hardware alcanzó la ambición del software. En 2014, con el Nexus 6, Phil Nickinson escribió esto sobre la cámara del teléfono de gran tamaño:

Una vez más, obtuve algunas buenas tomas con poca luz. Y he conseguido algunos realmente malos.

El modo HDR + de Google ayuda con eso, brindando un poco más de equilibrio. Pero también expone nuestra queja principal con la aplicación de la cámara. Solo es lento. Se necesita más de unos pocos latidos para iniciar desde un inicio en frío, y aún peor si no logra iniciarlo realmente en el primer intento desde el acceso directo de la pantalla de bloqueo. Y puede tomar una foto HDR + y luego esperar 5 o 10 segundos para que termine de procesarse antes de saber si necesita tomar otra.

Ese tiempo de espera frustrante se volvió menos significativo en 2015 con el Nexus 6P, y considerablemente más tolerable con los Pixels. Hoy, cuando apuntas y disparas con un Pixel o Pixel XL, es seguro dejar HDR + encendido todo el tiempo, ya que el procesamiento es prácticamente instantáneo. Y las habilidades de procesamiento son profundamente mejores; HDR + mejora suaviza los tonos de piel de un retrato, captura la vitalidad de un día soleado, expone adecuadamente una delicada puesta de sol y resalta los detalles con poca luz.

Parte de la razón por la que el Pixel funciona mucho mejor en estas cosas que el Nexus 6P antes es gracias a la estricta supervisión del hardware y software de Google; Aunque la compañía no construye sus propios teléfonos, pasó mucho tiempo trabajando con sus socios de hardware HTC y Sony para ajustar perfectamente la cámara para su software.

Ahora que el Pixel 2 está aquí, podrá utilizar un modo vertical que difumina el fondo. Pero, al igual que HDR + hizo con fotos con poca luz, solo necesita una sola lente para hacerlo.