top of page
  • Foto del escritorFernando Ulloa

Lo que dice el teléfono inteligente sobre la dirección futura del desarrollo de las cámaras.

El ojo de la cámara. Foto: Shutterstock

Phil Rhodes sobre cómo los ajustes y trucos de procesamiento en su teléfono inteligente promedio señalan la dirección futura del desarrollo de la cámara.

Las vallas publicitarias suelen tener cuarenta y ocho pies de ancho. Poner una imagen de teléfono celular en uno, asumiendo que el teléfono celular tiene algo así como un sensor Sony IMX703 que tiene aproximadamente 7,5 mm de ancho, representa una ampliación de 2000:1. Eso es lo que técnicamente llamamos un truco , y son trucos como este, quizás más que una consideración indiferente, lo que lleva a la especulación de que los teléfonos celulares inevitablemente superarán a las cámaras más convencionales tanto para imágenes fijas como para video.

Esto implica el tipo de procesamiento inteligente que toma la salida de un pequeño sensor, que amablemente podríamos describir como de excelencia restringida, y lo moldea como uno de esos videos de YouTube donde alguien restaura un superdeportivo completamente destrozado. Podríamos concluir que no importa mientras termines con un Ferrari Enzo de una forma u otra, y eso es lo que hace que la gente piense sobre el futuro de las cámaras de cine, que, a menudo se supone, no están utilizando una publicación inteligente. -procesamiento de la misma manera que los teléfonos.

Fotografía Computacional

Solo que lo son. De lo que estamos hablando aquí es de la fotografía computacional, aunque para el cine y la televisión ese cálculo a menudo no se realiza en la cámara, por lo que la comparación con la tecnología de los teléfonos móviles no siempre es obvia. Sin embargo, cualquiera de los dos representa el proceso de crear imágenes terminadas a partir de la información que registramos en lugar de esperar que la información inalterada represente directamente la imagen terminada. El material que capturamos en la cámara no es la toma; son datos que usaremos para crear la toma.

La quinta versión beta pública de Resolve 18, por ejemplo, introdujo la opción de usar datos de movimiento grabados por algunas de las cámaras de cine de Blackmagic para realizar una mejor estabilización (esto también es parte de la intención de los protocolos de datos de lentes desarrollados por Cooke y Zeiss). El estabilizador warp preexistente de Resolve es a solución perfectamente competente para problemas menores de inestabilidad, aunque con cai cualquier tecnología relacionada, la palabra "warp" es tanto la solución como el problema. Muchos de ellos pueden terminar simulando con precisión el punto de vista de alguien que se tambalea hacia su casa después de una noche particularmente animada en el bar, y los nuevos datos del giroscopio brindan resultados mucho mejores, casi lo suficientemente buenos como para hacer que las personas se cuestionen la necesidad de un cardán.

Y la trama se complica. Al igual que con cualquier efecto posterior que implique mover el marco, las cosas funcionan mejor cuando el material original se tomó con una exposición corta, para no manchar el resultado con un desenfoque de movimiento que ya no coincide con el movimiento aparente de los objetos en la escena. Suponiendo que no estamos imitando la escena del asalto a la playa de Salvar al soldado Ryan , Resolve nos permitirá volver a agregar un poco de desenfoque de movimiento usando la parte de efectos de movimiento de la página de color, o en Fusion con el flujo óptico y los nodos de desenfoque de movimiento vectorial. Ninguno es perfecto (el último es mejor) pero hace un trabajo razonable al suavizar el movimiento. También podemos elegir una cámara de 6K, para que podamos tomar fotografías amplias, estabilizar y recortar el encuadre en la publicación y terminar con un resultado 4K de gran nitidez.

Entrando en el campo de luz

Todos estos son ejemplos perfectamente útiles de fotografía computacional, pero el gran nombre en todo esto tiene que ser las cámaras de campo de luz, exhibidas por la gente de Fraunhofer con dieciséis cámaras en una cuadrícula de cuatro por cuatro. Eso permite una estimación de profundidad mucho más precisa que solo un par estéreo, posiblemente incluso lo suficientemente bueno para la incrustación de profundidad sin pantalla verde, o agregando niebla con indicación de profundidad adecuada. Es posible una simulación de profundidad de campo fotográficamente precisa, y la toma se puede mover o estabilizar en una distancia física igual al tamaño de la matriz de cámaras. Es una idea extraña, sobre todo porque obvia por completo los lentes artesanales a los que nos hemos acostumbrado a adorar, pero es quizás la máxima expresión del concepto.

Al final, la mayoría de los trucos que están disponibles para teléfonos celulares pueden estar disponibles para cámaras de cine y televisión si así lo deseamos; por ejemplo, todos estamos interesados ​​en mejores algoritmos de reducción de ruido. Claro, es probable que el cálculo realizado para el trabajo de cine y televisión sea un poco más pesado que el tipo de cosas que los teléfonos intentan hacer en tiempo real. Incluso una gran estación de trabajo Threadripper o Xeon probablemente tendrá dificultades para ejecutar, a 24 cuadros por segundo, el árbol de nodos de desenfoque de movimiento del vector Fusion que discutimos. También existe la consideración práctica y organizativa de que es menos probable que los directores de fotografía se sientan cómodos permitiendo que la electrónica interfiera tan profundamente con sus imágenes en la cámara, como lo hacen los teléfonos, y es más probable que pospongan la toma de decisiones para la publicación. El principio, sin embargo, es el mismo.

Publicar participación

De cualquier manera, todo esto tiene algunas implicaciones bastante fundamentales para los directores de fotografía, que cada vez más quieren y necesitan estar más involucrados en la publicación donde los datos capturados en el set se reconstruyen en la imagen final. No es nuevo: desde el advenimiento de la clasificación electrónica, los especialistas en cámaras se han quejado de que sus queridas imágenes sufren el equivalente fotográfico de un lavado de cara radical bajo el bisturí de un cirujano que nunca conocieron, y cuando más y más de la imagen es construido como un esfuerzo de postproducción, eso solo se volverá más profundo.

Lo más probable, entonces, no es que los teléfonos celulares superen de alguna manera a las cámaras de cine convencionales, sino que las cámaras de cine podrían comenzar a hacer cosas similares, si no técnicamente, al menos filosóficamente, y las sugerencias para arreglarlo en el momento podrían no llevar el estigma que una vez lo hizo.

5 visualizaciones0 comentarios

Entradas Recientes

Ver todo

Yorumlar


bottom of page