La contribución más reciente de Apple al smartphone La carrera armamentística de fotografía computacional llegó envuelta en un suéter difuso, justo a tiempo para el otoño. Fusión profunda es un método que, según todas las cuentas, genera fotografías muy detalladas en el iPhone 11, iPhone 11 Pro y iPhone 11 Pro Max. ¿Cómo? Al fusionar múltiples exposiciones de cámara de 12 megapíxeles en una sola imagen, cada píxel de la imagen se revisa mediante intensos algoritmos de aprendizaje automático.

Como tantos cámara del teléfono innovaciones de los últimos años, es una combinación notable de tecnología de sensores, óptica y software que está transformando la forma en que tomamos fotografías.

Y todavía... Deep Fusion y su suéter también dicen mucho sobre la desconcertante era en la que se encuentra actualmente la industria de los teléfonos inteligentes. ¿Qué dice acerca de una función que crea fotografías apreciablemente mejores, pero en detalles que son difíciles de notar a menos que amplíe todo el camino y alterne con cuidado entre muestras? ¿Por qué la mejor imagen que Apple pudo usar para mostrar Deep Fusion fue una toma incómoda de un tipo con un suéter? ¿Y qué significa que Deep Fusion recibió un nombre inteligente y varias diapositivas en

El mayor evento mediático de Apple, pero es invisible para los usuarios de la aplicación de cámara del iPhone?

Lo que estoy diciendo es que este suéter genera muchas preguntas.

La característica más importante del teléfono

No estoy seguro de que nadie se haya dado cuenta la primera vez que se agregó una cámara a la parte posterior de un teléfono, pero hoy es obvio: Nuestro mundo ha cambiado de muchas formas importantes porque todo el mundo lleva una cámara en el bolsillo donde quiera que vaya. Nadie perdió dinero apostando a que la próxima generación de un teléfono inteligente incluiría una cámara mejorada, porque la cámara es posiblemente la característica más importante de cualquier teléfono.

(Crédito de la imagen: Guía de Tom)

Pero los teléfonos son placas delgadas, dispositivos que tienen una forma absolutamente incorrecta para albergar ópticas de cámara de alta calidad. Agregar golpes de cámara o módulos emergentes solo ayuda hasta cierto punto para abordar ese problema; nunca podrán captar luz, hacer zoom o enfocar de la misma manera que los lentes largos en cámaras dedicadas. Por eso, los fabricantes de teléfonos han aprovechado su gran ventaja sobre los sofisticados cámaras digitales - es decir, que están llenos de chips, sensores y software de última generación. Si no puede usar la óptica para hacer que el fondo de una toma se vea agradablemente desenfocado, simplemente simule con aprendizaje automático, mapeo de profundidad y un filtro de desenfoque. Eso es lo que hacen Google y Apple.

Eso nos lleva a Deep Fusion, que parece ser una aplicación notable de alta tecnología para mejorar la salida de la cámara del iPhone 11. Si no puedes rivalizar con un DSLR para claridad de imagen, luego tome cien megapíxeles de datos de imagen y arroje múltiples núcleos de procesador de aprendizaje automático al problema. Al darle a Deep Fusion todo ese tiempo en el escenario el mes pasado, lo que Apple realmente está haciendo es enviar el mensaje de que la empresa se centra en hacer que sus imágenes se vean mejor, y si eso le importa, debe comprar un iPhone. Irónicamente, los detalles no importan; lo que importa es que Apple está utilizando su destreza tecnológica para mejorar tus fotos.

Apple y sus competidores saben que los compradores de teléfonos inteligentes realmente se preocupan por la cámara más que por cualquier otra cosa. Y así seguirán encontrando formas de hacer que las fotografías tomadas en teléfonos inteligentes delgados como una oblea se vean cada vez mejor, al menos, hasta que esos compradores dejen de preocuparse.

Lo que ven los usuarios (o quieren ver)

Lo que me lleva a un giro divertido acerca de Deep Fusion como una parte inteligente del marketing de teléfonos inteligentes, es decir, que es una característica invisible. ¿Cómo puede un iPhone 11 El comprador se entusiasma con el uso de Deep Fusion cuando llega con el Actualización de iOS 13.2, cuando en realidad no es algo que sabes que estás usando? La aplicación de la cámara del iPhone está llena de pequeños íconos y pegatinas para indicar cuándo se recorta una foto automáticamente, cuándo está tomando el video de Live Photo para acompañar la imagen fija, etc. Y, sin embargo, al menos en la versión beta de iOS 13.2, no hay indicios de que esté utilizando Deep Fusion.

(Crédito de la imagen: Guía de Tom)

Esto no es inusual; el año pasado, Apple hizo un gran problema HDR inteligente para imágenes fijas y rango dinámico extendido para videos, y ninguna de esas funciones está etiquetada tampoco. Podría argumentar que es encomiable que Apple no arruine la interfaz de la aplicación de la cámara con pequeñas pegatinas que muestran cuántas funciones diferentes se están utilizando cada vez que tomo una foto. Pero también es un poco extraño, ¿verdad? los Nuevo modo nocturno del iPhone 11 obtiene una etiqueta completa, pero requiere la interacción del usuario. Estas otras características simplemente ocurren en silencio.

"¿Puede una función ser tan importante como para obtener un nombre comercial, pero no lo suficientemente importante como para anunciarse en la interfaz?"

Creo que sería mejor si Apple al menos ofreciera la opción de mostrar si una imagen se tomó con Deep Fusion o no. (La empresa solía hacer esto con imágenes HDR antes de que Smart HDR se convirtiera en una función siempre activa). Pero es una interesante filosofía Discusión: ¿Puede una función ser tan importante que obtenga un nombre comercial, pero no lo suficientemente importante como para anunciarse en el ¿interfaz?

Se vuelve aún más interesante si considera que algunas de estas características son tan sutiles que debe prestar mucha atención y hacer comparaciones A / B para ver la diferencia. No quiero defender el efecto placebo, pero incluso si los usuarios no pueden ver la diferencia en sus imágenes de un vistazo, ¿no sería bueno asegurarles que, sí, esta imagen? estaba creado a partir de múltiples exposiciones entre corchetes por Deep Fusion en los procesadores avanzados de aprendizaje automático de Apple? (Por si sirve de algo, las pruebas realizadas por Tom's Guide detectaron mejoras sutiles aunque notables en las fotos de Deep Fusion. En la toma de abajo, por ejemplo, la exposición en la toma de Deep Fusion es más brillante y los patrones en el suéter, sí, más fotos de suéter, se ven un poco más nítidos).

A continuación: más suéteres

No veo que la fotografía desaparezca como un objeto del deseo de los consumidores de teléfonos inteligentes en el corto plazo. Quizás los avances en la tecnología de pantallas (teléfonos plegables, vidrio irrompible) podría convertirse en una distracción por un tiempo, pero al final, todos somos parte de una cultura que se ha enamorado de la capacidad de nunca dejar que un evento memorable de la vida quede indocumentado. Junto con la capacidad de buscar dónde has visto a ese actor de carácter aleatorio en ese programa de televisión antes, es una de las mejores cosas de tener un teléfono inteligente.

Es por eso que Google, Samsung y Apple continuarán ofreciéndonos nuevas formas de mejorar la fotografía de nuestros teléfonos inteligentes. Más núcleos de procesador, más aprendizaje automático, más sensores y, lo más importante, más cámaras. los iPhone 11 Pro puede tener tres cámaras, pero parece que nos dirigimos rápidamente hacia un mundo donde la parte posterior de nuestros teléfonos está cubierta de lentes, todos reunidos en luz y uniéndose para crear la toma perfecta que ni siquiera sabíamos que queríamos tomar.

También se rumorea que Apple está trabajando en un mapa de profundidad mucho más preciso para 2020, que será bueno para la realidad aumentada y también para el modo vertical.

La única forma en que esto se detendrá es si los consumidores deciden que las cámaras de sus teléfonos inteligentes ahora son lo suficientemente buenas y no pueden concebir cómo podrían ser mejores. No creo que estemos allí todavía, principalmente por lo difícil que es generar buenas fotos a partir de cuerpos delgados de teléfonos inteligentes. Pero sucederá. Y el día en que los compradores de teléfonos inteligentes dejen de preocuparse por la fotografía es el día en que los fabricantes de teléfonos inteligentes lo considerarán un problema resuelto y pasarán a la siguiente categoría de funciones que impulsará las actualizaciones de teléfonos.

Hasta entonces, prepárate para más retratos HDR de perros, más selfies tomados en la oscuridad absoluta y, definitivamente, más suéteres.

  • Por qué me encantan las fundas transparentes para iPhone 11 de Apple (y por qué otras no)
  • 5 formas en que el Pixel 4 puede vencer al iPhone 11
  • El iPhone 11 es la mejor cámara con poca luz que hemos probado