Logo es.androidermagazine.com
Logo es.androidermagazine.com

Pixel 2 vs iphone x: ¿cuál es el mejor retrato selfie?

Anonim

Las selfies de retratos son lo que más me gusta en los teléfonos inteligentes ahora. Puedo sentir tus ojos rodando mientras lees esto, pero escúchame por un momento. A nivel técnico, estamos viendo un impulso masivo para mejorar la calidad de la cámara frontal mientras aplicamos mapas de profundidad y corrección de color para que una foto pueda transformarse instantáneamente en algo nuevo. Es fascinante y divertido, y en los primeros días de esta función que existe en los teléfonos inteligentes, hay dos formas muy diferentes de crear este efecto.

La cámara True Depth de Apple presenta múltiples sensores para crear un mapa de profundidad en tiempo real en el iPhone X. La solución de Google se basa completamente en el aprendizaje automático y una impresionante cámara única para lograr el mismo efecto en el Pixel 2. He aquí un vistazo a cómo estos dos métodos ¡comparar!

Izquierda: Google Pixel 2 Derecha: Apple iPhone X

Lo primero que debe entender al comparar estas cámaras es dónde Apple y Google están dando prioridad a las fotos que se están produciendo. Sabemos a nivel técnico que estos dos teléfonos tienen las mejores capacidades de fotografía en el mundo en este momento, con la única diferencia de lectura para la mayoría de las personas: qué partes de la foto y qué características tienen prioridad.

En estas tomas, dos cosas se vuelven rápidamente aparentes. El fondo en la toma del iPhone X se apaga en un intento de asegurarse de que mi cara esté bien iluminada y con el color adecuado. El fondo en la toma Pixel 2 está mejor equilibrado con el resto de la foto gracias al HDR + de Google, pero como resultado, mi cara es notablemente más oscura y adquiere un tono ligeramente rojizo que no se ve en la otra toma.

También hay diferencias sustanciales en ese efecto de desenfoque utilizado para crear Selfies de retrato. El software de Google aplica un desenfoque más agresivo y hace que las imperfecciones en el mapa de profundidad se destaquen bastante. Casi parece que una pegatina recortada mía se ha aplicado a esta foto. El azul de Apple se ve un poco más natural hasta que llegas a mi cabello y partes de mí comienzan a verse un poco desenfocadas. Ninguno de los dos disparó realmente "clava" la imagen debido a sus fallas respectivas, pero los defectos son lo suficientemente sutiles como para tener un par de fotos divertidas.

Aquí hay otro ejemplo, solo que esta vez es una toma al aire libre ampliada al 100%.

Este par de disparos ofrece muchas de las mismas conclusiones. Apple ilumina mejor mi cara, en particular mis ojos, mientras que Google ilumina mejor el fondo y hace que toda la foto se sienta más rica. El desenfoque de Apple se extiende demasiado profundamente en mi cabello y hace que una parte de mí se vea fuera de foco, mientras que el desenfoque de Google es tan severo que en realidad eliminó parte de mi cabello que estaba fuera de lugar. Sin el modo vertical, está claro que el iPhone X tomó la mejor foto, pero con ese modo de foto habilitado es más fácil apreciar el efecto del software de Google.

Apple y Google parecen acercarse a esta técnica fotográfica desde direcciones opuestas, y parece probable que lo que veremos en un futuro no muy lejano sea algún tipo de reunión en el medio.

Existen algunas limitaciones naturales para estos dos modos de fotografía, especialmente en estos primeros días. El iPhone X mostrará advertencias en modo vertical si el fondo es demasiado brillante o si los objetos en el fondo están demasiado lejos para tomar un mapa de profundidad adecuado. El algoritmo de Google tiene el desagradable hábito de editar rincones de anteojos recetados u objetos en primer plano que no están unidos a una persona. Hay un poco de prueba y error para que ambos funcionen correctamente, lo que en teoría se vuelve menos frecuente con el tiempo a medida que Apple y Google continúan mejorando esta tecnología.

Lo más importante que Apple tiene sobre Google en este modo vertical en este momento tiene que ser la iluminación vertical. Poder ver las posibles ediciones de la foto en tiempo real a medida que avanza para tomar la foto es un gran problema, y ​​la capacidad de continuar editando Portrait Lighting después de tomar la foto es increíble. Es una característica muy acertada en este momento, especialmente cuando comienzas a mirar Stage Lighting, pero nada más que el iPhone tiene esto ahora.

Al editar las fotos, Google tiene algo que Apple actualmente no tiene y probablemente debería tener. Cuando tomas una foto en modo retrato con un Pixel 2, obtienes un par de fotos. Una foto se edita con las áreas borrosas, y la otra es simplemente una selfie con la cámara frontal. Esto le permite editar ambas fotos y ver cuál prefiere. Apple mantiene todo como una sola foto, que en mi opinión es un poco menos conveniente para ver las ediciones entre los dos modos. Por otro lado, es una foto menos en su Camera Roll, por lo que probablemente sea solo una preferencia personal.

Hay mucho que decir sobre la forma "correcta" de tomar una foto, y aún más que decir sobre las virtudes de la precisión del color y la efectividad de las características. Apple y Google parecen acercarse a esta técnica fotográfica desde direcciones opuestas, y parece probable que lo que veremos en un futuro no muy lejano sea algún tipo de reunión en el medio. En este momento, no está claro de inmediato que el enfoque basado en hardware de Apple sea mediblemente mejor que el enfoque basado en software de Google para los Selfies de retrato. Todas las cosas que hacen que la cámara del iPhone X tome una gran selfie ya existen en el iPhone 8 y 8 Plus. Al mismo tiempo, no está claro cuánto mejor puede Google hacer su software de edición de fotos con una sola cámara y una preferencia de iluminación para toda la foto en lugar de la cara.

Una cosa está absolutamente clara: no estamos cerca del final de Apple y Google, dándonos más y mejores funciones para selfies.