_
_
_
_
_
FOTOGRAFÍA

Las fotos de las vacaciones que nunca existieron

El desarrollo de la fotografía computacional está transformando el concepto de instantánea fotográfica

La diseñadora Zilla Van Den Born montó unas vacaciones falsas.
La diseñadora Zilla Van Den Born montó unas vacaciones falsas.

Hace pocos días corría como la pólvora por Internet la historia de una diseñadora gráfica holandesa que ha simulado unas vacaciones en Asia. Logró incluso engañar a su familia publicando en redes sociales fotos manipuladas y realizando videoconferencias en decorados.

Este experimento no es sólo una broma sofisticada ni una campaña viral de autopromoción. Zilla Van Den Born con las imágenes de su simulacro, recogidas en el libro Sjezus zeg, Zilla, invita a que reflexionemos sobre cómo la tecnología altera nuestra percepción del mundo.

Un buen ejemplo de esto es que muchos fabricantes de cámaras y teléfonos móviles no buscan que sus productos capten fotos o vídeos fieles a la realidad. Prefieren que capten imágenes atractivas. Para ello se valen de las herramientas que les proporciona una disciplina en auge: la fotografía computacional.

Cada vez es más común que algunas firmas de electrónica usen en sus cámaras algoritmos para procesar el color que dan como resultado fotos con tonos saturados. Al preguntar porqué esta clase de imágenes resultan atractivas Francisco Gálvez, profesor de Medios Informáticos en la Escuela de Arte de Guadalajara, responde que es difícil saberlo. Aunque hay patrones culturales que pueden explicarlo. “Tradicionalmente la ropa con colores apagados se consideraba de peor calidad que la de tonos más saturados, pues las prendas grand-teint usan tintes de más calidad que no se destiñen al lavarlos”, señala este experto.

Algunas firmas de electrónica usan ya en sus cámaras algoritmos para procesar el color para dar tonos saturados

Otro buen ejemplo de cómo algunas cámaras alteran nuestra percepción de la realidad lo encontramos en el iPhone 6. Cuando este teléfono de Apple detecta condiciones de luz complejas al hacer una foto, como puede ser tener el sol de frente, activa automáticamente el modo HDR. Sin que el usuario tenga control sobre esta función. Esta técnica fotográfica se basa en captar una ráfaga de imágenes para superponerlas mediante el uso de algoritmos. El resultado es una foto con más detalles de los que observa el fotógrafo en el momento de captarla.

Aunque puede parecer una tecnología inocua, el diario Washington Post tuvo que entonar el mea culpa hace un par de años cuando publicó en portada una foto realizada con la técnica HDR. El dilema ético que surgió por la publicación de esa imagen se debía a que esta no podía ser considerada estrictamente una instantánea fotográfica. Pues lo que nos muestra es una escena ficticia, fruto de la fusión de varias imágenes.

Otro caso que demuestra hasta qué punto se ha generalizado el trucaje de fotos en el mismo momento de hacerlas lo encontramos en otro móvil: el Samsung Galaxy Note 3. Con él se realizó la famosa autofoto colectiva de la ceremonia de los Oscar. Al captar una imagen con su cámara trasera el terminal suaviza la piel de los que aparecen retratados. Aunque podemos desactivar ese filtro, no deja de ser sorprendente que el teléfono por defecto capte una imagen manipulada en vez de una imagen fiel al original.

Cosas así no quitarán el sueño a la mayoría de los que buscan inmortalizar un momento con su cámara o teléfono. Pero estos ejemplos nos ponen sobre la pista de hasta que punto desconocemos la maquinaria con la que producimos imágenes a diario.

En condiciones de luz complejas, el iPhone 6 activa automáticamente una función sin que el usuario tenga control sobre esta función, que el usuario no controla, que captar una ráfaga de imágenes y las superpone

Software para superar los límites de la óptica

Alguien que conoce muy bien lo que se cuece dentro de las cámaras digitales es Diego Gutiérrez, un científico especializado en imagen computacional. Dirige el equipo Graphics and Imaging Lab de la Universidad de Zaragoza. Hablamos con el a través de Skype, pues actualmente se encuentra trabajando en la universidad Tsinghua de Pekín. Un centro en el que cuenta con numerosos recursos para investigar, asegura.

Gutiérrez reconoce que no están claros los límites a los que debe llegar la computación para no alterar la veracidad de una imagen fotográfica: “El problema es dónde pones la línea. Si nos vamos a casos extremos dices 'bueno, esto no es ético”.

También apunta a que muchas técnicas usadas en las cámaras actuales no son nuevas: “El multibracketing, usar fotos disparadas en ráfaga, está copiado de la técnica que usaban los fotógrafos tradicionales para fotografiar en condiciones de baja luminosidad. Hacían muchas fotos y luego, en el cuarto oscuro, revelaban distintas partes de diversas exposiciones y las fusionaban en la misma foto”.

Saber qué lleva a las diferentes empresas de electrónica a elegir las tecnologías de imagen computacional que incorporan a sus productos es un misterio. “Los fabricantes suelen guardar el secreto en cuanto a sus formas de actuar”, añade Gutiérrez, que pone un ejemplo: “Nosotros hicimos una implementación de la técnica de HDR para móvil en 2009 en un Nokia. Creo que era la primera y no sirvió para mucho. Ahí se quedó, como un artículo científico”.

Los avances en tecnología fotográfica computacional también están logrando superar las barreras de los componentes electrónicos y ópticos, sobre todo en los teléfonos móviles. Gutiérrez explica que "donde el hardware, lo físico, no llega, la computación está ayudando a evitar obstáculos". "Los algoritmos no van a tocar techo en ningún momento”, agrega. Por eso, aunque los móviles cuentan con cámaras muy modestas pueden superar a las cámaras réflex profesionales en algunos aspectos.

Algo que se está demostrando con los dispositivos que disponen de la función para grabar vídeo de ultradefinición 4K. Es una característica que paradójicamente está más presente en móviles que en cámaras. Entre otras cosas porque precisa una potencia de cálculo que muchas cámaras no son capaces de alcanzar, pero si ciertos teléfonos de alta gama.

Sobre el futuro de la fotografía computacional, Gutiérrez opina que “se están consiguiendo logros que ni se podían imaginar que se pudieran hacer”. Lo ejemplifica con el estudio realizado por su grupo de investigación en colaboración con el Instituto Tecnológico de Massachusetts (MIT). Se trata de una técnica que permite captar un billón de fotogramas por segundo. “Esto es tan rápido que puedes ver la luz en movimiento. Podemos ver como viaja un pulso láser a través de una botella”, señala.

Quizá dentro de varios años veamos cámaras en las tiendas que utilicen esa tecnología. Aunque hoy por hoy ni siquiera está clara su utilidad para el común de los mortales. Tampoco está nada claro si esas tecnologías cambiarán el propio significado de lo que hoy entendemos que es una fotografía.

Regístrate gratis para seguir leyendo

Si tienes cuenta en EL PAÍS, puedes utilizarla para identificarte
_

Archivado En

Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
Recomendaciones EL PAÍS
_
_