Comprendiendo

Concepto: Rango Dinámico

El rango dinámico de una imagen se puede definir básicamente como la relación entre la zona más blanca de la imagen y la zona más oscura, quedando en el medio todos los grises intermedios. Es un concepto curioso que solamente podemos aplicar en fotografías, dado que la vida real no posee rango dinámico, el mundo no tiene un negro puro de referencia.

Anoitecer en Cabo Vilano

Anoitecer en Cabo Vilano. [Cámara: Canon 5D Mark II. Lente: Canon 70-200f4L IS. Filtros: Polarizador Heliopan, Densidad Neutra de 3 pasos Lee. Exposición: ISO100, f11 y 15 seg. Toma sacada con trípode, disparador remoto, y espejo levantado.]. © David García Pérez 2012.

Lo más importante del concepto de rango dinámico es que va a depender del dispositivo que tengamos. Cuando más rango dinámico posea, más tonos vamos a poder diferenciar entre lo que el dispositivo puede representar como negro puro y blanco puro. Por ejemplo, si vemos nuestra imagen en pantalla al mismo tiempo que una impresión de la misma es claro apreciar que la pantalla ofrece la imagen con mayor contraste, con unos tonos intermedios mucho más definidos. El blanco puro del papel viene delimitado por el blanco del papel que usemos, y al no ser un dispositivo activo, es decir, que depende de la luz que incida en el mismo para poder ver la imagen en él, hace que su rango siempre sea mucho menor. Aún así, siempre disfruto mucho más viendo mis fotos en papel que en pantalla.

Con respecto a nuestra cámara digital las cosas se vuelven aún más interesantes. En una cámara digital el rango dinámico viene marcado por el máxima cantidad de luz que el sensor puede medir antes de saturarse (punto blanco), y la mínima cantidad de luz que la cámara puede medir antes de confundirse con ruido electrónico (punto negro). Habitualmente en las especificaciones de las cámaras esto viene medido en pasos de luz ó EVs.

Cuanto más pasos de luz sea una cámara capaz de distinguir, esta podrá hacer fotografías de escenas más contrastadas sin tener que recurrir a utilizar filtros degradados o técnicas como HDR.

Tal vez una de las características que menos le prestamos atención, en particular si no hacemos fotografía macro, es la distancia mínima de enfoque de una lente. Por lo normal todas las lentes que tenemos en nuestra mochila serán capaces de enfocar a una distancia “infinita”, cuyo valor real variará de lente en lente. Pero al mismo tiempo tienen una distancia mínima de enfoque, a partir de la cual la lente es capaz de enfocar un objeto. Algo más cerca de esta distancia, saldrá borroso sí o sí, dado que la óptica no es capaz de enfocarlo

Distancia mínima de enfoque en el Tamron 90mm macro

La distancia mínima de enfoque en este objetivo Tamron 90mm Macro es de 0,29m.

Y sobretodo, desde el punto de vista de fotografía macro, es muy importante saber que esta distancia se mide a partir del sensor/película de nuestra cámara. En el ejemplo que podéis ver encima de este texto, la distancia mínima de enfoque es de 29 cm, lo cual nos permite acercar bastante la cámara al objeto que estamos fotografiando.

Diagrama de distancia mínima de enfoque

La distancia mínima de enfoque se mide desde el plano del sensor, tal y como se indica en este esquema gráfico.

Para poder saber a que altura está nuestro sensor en nuestras cámaras, estas suelen incorporar una marca indicando el plano del mismo. A partir de ella es desde donde tendríamos que medir para saber si el objeto que tenemos delante se puede enfocar o no.

Marca indicando la posición del plano del sensor dentro de la cámara

Marca indicando donde se encuentra el plano del sensor a partir del cual se mide la distancia mínima de enfoque en una cámara.

En la vida práctica, uno simplemente se va echando hacia atrás hasta que empieza a ver el punto que desea enfocado a través del visor ó pantalla de la cámara.

Ya en su momento hablé de las ventajas de levantar el espejo cuando disparamos en trípode sin entrar en mucho detalle de por qué esto era debido. Hace casi ya un mes en un curso fotográfico de Iñaki Relanzón para MontsantFoto me acordé de que podía tratar este tema en un poco más de profundidad, aunque solamente se trate de un par de párrafos más y una gráfica.

O Roncudo despidese do Sol

O Roncudo despidese do Sol, © David García Pérez 2012.

La mayor parte de las cámaras reflex para poder mirar a través del visor óptico contienen un espejo. Este espejo se coloca entre el sensor y la lente, permitiendo que la luz que entra por esta última ser desviada hasta el visor. Cuando pulsamos el disparador, este espejo se aparta del medio para dejar que la luz pueda llegar hasta nuestro sensor. Ese movimiento que se hace muy rápidamente puede provocar vibraciones que se transmitan a través de todo el cuerpo de la cámara pudiendo resultar en una foto movida (si tenemos el liveview de la cámara activado, este espejo ya está levantado).

La perdida de calidad a través de las vibraciones que pueda introducir el levantamiento del espejo a la hora de hacer la foto dependerá de la velocidad a la que estemos disparando y también de nuestra cámara. Dependiendo de la cámara esta vibración durará más o menso, tal como demuestra el caso hipotético mostrado en la siguiente gráfica.

Vibración introducida por el espejo de una cámara reflex

Ejemplo hipotético donde el levantamiento del espejo introduciría vibraciones significativas las primers décimas de segundo de la toma.

Así como regla a tomar con precaución podemos decir que la vibración del espejo afecta más a las zonas intermedias (si estamos disparando con trípode), para velocidades altas como puede ser 1/500 segundo, la foto ya está hecha antes de que la vibración del espejo pueda influenciar el resultado. Para velocidades muy largas, como 30 segundos, la vibración que pueda introducir el espejo al principio de la toma es insignificante. Pero para velocidades como 1/10 dependiendo en una cámara reflex de 35 mm actual, puede hacer que nuestra foto sea solamente vibración. Pero como digo, esto depende de la cámara, la antigua cámara de medio formato Pentax 67 tenías que dejarla más de 15 segundos reposar después de levantar el espejo para que las vibraciones introducidas por este no afectasen a la imagen final.

Nota: Por reflex entendemos aquellas cámaras que a través de un visor nos permiten ver la imagen que entra por la lente de nuestra cámara. Pero curiosamente con el paso del tiempo y el avance de la tecnología esto no involucra que la cámara tenga un espejo. Si obviamos las cámaras con visor electrónico, donde la imagen capturada por el sensor es mostrada a través de una pequeña pantalla situada en el visor, con lo cual no hace falta ni pentaprisma ni espejo por el medio (esto ayuda a fabricar cuerpos más compactos), tenemos el caso de Sony con su tecnología de espejo traslucido, donde el espejo es fijo y deja pasar al mismo tiempo luz hasta el sensor y al visor óptico.

Cuando un amigo te pide que le escribas un artículo en el blog sobre un tema concreto de fotografía no le vas a decir que no (sí, sí, vale, sé que me queda pendiente el tema de soft proofing/pruebas de impresión, pero necesito tenerlo yo muy claro antes de publicarlo aquí). Artículo que me lleva a otra de esas preguntas típicas que se hacen la gente que empieza en fotografía digital, ¿En qué espacio de color configuro mi cámara? ¿Qué es eso del espacio del color para empezar?

O sol desaparece no Roncudo

O sol desaparece no Roncudo. [Cámara: Canon 5D Mark II. Lente: Canon 70-200f4L IS USM. Filtro: Polarizador Heliopan. Exposición: ISO100, f14 y 1,3 seg. Toma sacada con trípode, disparador remoto, y espejo levantado.] © David García Pérez 2012.

La respuesta corta a la primera pregunta sería la siguiente: sí tu cámara permite ProPhoto RGB (habitualmente solamente las cámaras de gama alta), pues escogemos este, sino, escogemos Adobe RGB. sRGB para temas de captura casi nos podemos olvidar de que existe (ojo, temas de captura, vuelve a cobrar mucha importancia para exportar imágenes en JPEG para ser mostradas en web).

Más en detalle, para esos ávidos de conocimiento. Los ordenadores, cámaras, máquinas, etc… representan el color a través de lo que se denomina técnicamente como espacios de color. Una forma típica de representar dicho espacio es a través de sus valores RGB (red (rojo), green (verde), y blue (azul)). Sin entrar en detalle de como es y como funciona dicha representación numérica, decir que ciertos fabricantes han decidido crear su representación particular basada en la representación de color RGB.

sRGB nació como espacio de color reducido (small RGB, aunque alguna gente traduce la “s” como shit RGB) adecuado para representar el color en pantallas de tubo. Dado a que la representación del color es más pequeña que el espacio normal RGB es casi el estándar para representar imágenes en color en la web.

Adobe RGB fue creado por Adobe en el año 1998 como espacio de color que era capaz de representar la gran gama de colores de las mejores impresoras de la época. Un espacio de color capaz de representar muchos más colores que el sRGB y que se convirtió a principios de los 2000 como un estándar de facto para trabajar en temas relacionados con las artes gráficas.

Pero la tecnología avanza, las impresoras fotográficas son cada vez capaces de mostrar más y más colores, las cámaras de capturarlos, etc… Adobe RGB ideal para artes gráficas mostraba deficiencias en temas de fotografía. Aquí es donde nace ProPhoto RGB de la mano de Kodak. Mucho más extenso que los espacios de color anteriores (es más, creo que hasta la fecha no hay ningún monitor capaz de mostrar toda su gama, aunque se aproximan), es ideal para trabajos fotográficos. Hay que tener en cuenta que mientras ajustamos nuestras imágenes, cuanto más extenso sea el espacio de color, menos riesgo de posterización correremos.

Pero podemos ignorar en gran parte todo lo anterior si disparamos en RAW. Un fichero RAW no tiene ningún espacio de color asignado, contiene toda la información que ha podido capturar el sensor de la cámara, independientemente de como esta estuviese configurada. Al momento en que importamos nuestras fotos en nuestro revelador RAW favorito y este haga un proceso de demosaicing, será el momento que el revelador RAW le aplique a la imagen una representación de color en el espacio de color que tenga configurado o este use internamente (esto da para otro articulo).

Espera un momento, ¿pero no dije yo en el segundo párrafo de este artículo que lo mejor era configurar la cámara ProPhoto RGB si era posible o en Adobe RGB en su defecto? Sí, dije eso. El motivo principal es que cuando nuestra cámara nos enseña la captura en pantalla o el histograma de la misma, dicha representación es hecha a través de una representación JPEG a partir del fichero RAW que la cámara genera al momento. Si queremos que dicha representación sea lo más fiel posible a lo que pudo capturar el sensor, tendremos que configurar nuestra cámara en el espacio de color más amplio posible (realmente a parte de juzgar composición y histograma, se debería ignorar el resto de lo que nos muestra la cámara en pantalla).

Eso sí, si no disparamos en RAW, y disparamos únicamente en JPEG, obviamente la configuración de este parámetro pasa a ser crucial.

Una de las grandes ventajas de la fotografía digital es la posibilidad de trabajar con ficheros RAW. Como ya dije en otros artículos, disparando en RAW es uno de los primeros pasos de exprimir al máximo nuestra nueva y flamante cámara digital. Pero la ventaja más importante para mí es la edición no destructiva que podemos hacer de una fotografía en RAW una vez la cargamos en nuestro ordenador.

Fernando Alonso - Entranamientos de la Fórmula 1 en Barcelona 2012

Fernando Alonso, Ferrari, y los entrenamientos en Barcelona. [Canon 5D Mark II, Canon 70-200f4L IS USM. F8, ISO1000, 1/640 segundos.] © David García Pérez 2012.

Los programas empleados para procesar RAW como Adobe Lightroom, Apple Aperture, Capture One, etc. procesan los ficheros RAW usando lo que se denomina procesado paramétrico. Según vayamos ajustando los parámetros de los ficheros RAW en cada uno de esos reveladores, estos programas almacenan dichos parámetros en una base de datos, o en el propio fichero RAW (si está en formato DNG), ó en un fichero adjunto (el típico fichero .xmp que aparece al lado de nuestras fotos como por arte de magia). Dichos parámetros pueden presentar un aspecto como el copio y pego a continuación (esto ha sido creado por Lightroom):

   ...
   crs:WhiteBalance="As Shot"
   crs:Temperature="4750"
   crs:Tint="-2"
   crs:Exposure="0.00"
   crs:Shadows="5"
   crs:Brightness="+50"
   crs:Contrast="+25"
   crs:Saturation="0"
   crs:Sharpness="51"
   crs:LuminanceSmoothing="0"
   crs:ColorNoiseReduction="25"
   ...

Cada vez que ajustamos un parámetro en el revelador RAW, este calcula en memoria los efectos que tendría eso sobre la imagen y nos lo muestra al momento. Y aquí hay un detalle muy importante a tener en cuenta, dicho cálculo se hace de forma independiente a como nosotros ajustamos los parámetros. Es decir, sí los ingenieros que crearon el revelador RAW consideran que para obtener los mejores resultados en una foto primero se deben aplicar los ajustes de Exposición, después Brillo, después Contraste, después Temperatura del color, etc. (este orden me lo estoy inventando). Por mucho que nosotros después comencemos ajustando otras cosas como por ejemplo el punto Negro de la foto, después la Temperatura, etc… el programa ignorará nuestro orden y continuará de forma tozuda haciendo lo que considera óptimo.

Por este motivo, muchas veces se dice que no importa que parámetro ajustemos primero en el revelador RAW, dado que este siempre aplicará dichos cambios en la forma que considera óptima. Esta afirmación hay que cogerla un poco con pinzas, dado que aunque el programa aplique las cosas de forma óptima, nosotros necesitamos seguir un cierto orden lógico para hacer las cosas y ver exactamente el efecto final que tendrá dicho resultado en pantalla (por ejemplo, no tiene sentido ajustar primero la exposición para después recortar la foto, pudiendo hacer que tengamos que reajustar la exposición después, ó el caso más típico, nosotros vamos ajustando los parámetros poco a poco, primero exposición, después punto negro, después volvemos ajustar la exposición, compensamos con brillo, tocamos de nuevo el punto negro, hasta que el resultado nos guste, el revelador RAW aplicará dichos cambios una única vez para cada uno de los parámetros).

En este comienzo de año, el anuncio de dos cámaras, la Fuji X-Pro 1 y la Nikon D800E, han vuelto a levantar la polémica sobre la necesidad de usar un filtro antialiasing para eliminar posibles problemas de Moiré en fotografías digitales (sí, es un problema exclusivo de la fotografía digital). Con todo lo que se estaba escribiendo en los foros pensé que tal vez fuese una buena idea explicar que es dicho efecto, y cómo se ha intentando solucionar a lo largo de la historia con o sin filtro antialiasing (los dos modelos de cámara que he comentado antes son solamente los dos últimos ejemplos). Obviamente la idea era tan evidente que alguien ya se me adelantó: The Naked Sensor.

Cae el sol en el Monte Perdido

Cae el sol en Monte Perdido. [Cámara: Canon 40D. Lente: Canon 17-40Lf4. Filtro: Polarizador Heliopan y filtro degradado Lee de 3 pasos. Exposición: ISO100, f11 y 0.5 seg. Toma sacada con trípode, disparador remoto, y espejo levantado.]. © David García Pérez 2011.

Ya en su momento hablé de que los sensores fotográficos digitales suelen estar dispuestos en lo que se conoce como patrón de Bayer. En ese pequeño artículo comentaba que a través de algoritmos de demosaicing se recreaba la imagen a partir del archivo RAW generado por la cámara. Esto funciona muy bien en la mayoría de las ocasiones, pero puede presentar graves problemas si la imagen contiene patrones repetitivos, como en los ejemplos que podemos ver aquí.

La mayor parte de los fabricantes de cámaras digitales optan por emplear lo que se denomina un filtro antialiasing justamente delante del sensor. La misión principal de este filtro es de hacer la imagen un pelín más borrosa de lo que llega de en la lente. De esta forma, lo que conseguimos es que los ejes del patrón regular que causan el efecto Moiré no sean tan perfectos, haciendo que después el algoritmo de demosaicing no cometa errores al reconstruir la información proveniente del fichero RAW.

Y aquí es donde empieza la polémica, tal y como habéis leído en el párrafo anterior, nuestro fantástica lente, que tanta nos costó, que tan nítida dicen que es, no puede ser usada a su máximo potencial dado que justamente delante del sensor hay un pequeño filtro cuyo única intención es emborronar un poco la imagen, lo suficiente para que no se produzcan efectos Moiré en el hipotético caso de que estemos fotografiando patrones regulares.

En el mundo de los sensores digitales para cámaras de medio formato (sensores mucho más grande que un 35mm usadas en cámaras de casas como Phase One ó Hasselblad, entre muchas otras), es típico que los sensores no lleven ningún filtro antialiasing. Según fabricantes como Phase One debido a que estos sensores cada vez tienen más megapixeles, cada vez es más difícil encontrar un patrón en la vida real que produzca un efecto Moiré. En contra, la nitidez que ganan las imágenes, los detalles minúsculos que se pueden apreciar en ellas, consiguiendo ese aspecto característico de foto de medio formato, hace que a muchos profesionales se les olvide cualquier mínima preocupación que puedan tener por su ausencia.

En el mundo de sensores de 35 mm y hermanos más pequeños, las primera cámaras sin filtro antialiasing vino de la mano de mítica Kodak, ahora mismo en bancarrota, con su cámara digital DCS 14n, cámara que no tuvo mucho éxito comercial. Leica seguiría los pasos de Kodak (es más, usa sensores fabricados y diseñados por ellos), en sus modelos M8 y M9 (en este caso las malas lenguas comentan que realmente la decisión de no usar estos filtros delante del sensor vino debida a que no tenían espacio físico para ellos, siempre y cuando Leica quisiese mantener la compatibilidad con su mítica serie de lentes M).

Un caso particular es Sigma y su serie de cámaras que utilizan un sensor Foveon. Estos sensores no utilizan un patrón de Bayer, cada pixel es capaz de recoger simultáneamente los valores de rojo, azul y verde, con lo cual son completamente inmunes al efecto Moiré. El precio y su bajo rendimiento a ISOs altos han hecho que estas cámaras no tuviesen un gran éxito en el mercado.

Ricoh introdujo el año pasado para su sistema de cámaras modules un nuevo módulo que incorpora un sensor sin filtro Antialising. La solución de este sistema de cámaras de Ricoh dónde el sensor va asociado a las ópticas, tampoco ha cuajado mucho en el mercado.

Una compañía que fue todo un referente en el mundo analógico, al igual que Kodak, es Fuji. Pero a diferencia de la compañía americana, esta empresa japonesa le ha visto los dientes al lobo digital y se ha dedicado abrirse un hueco muy rentable en un mercado muy competitivo. En busca del fotógrafo que esta dispuesto en pagar por un equipo de alta calidad y pensado para él (algunas veces te preguntas si quienes diseñan cámaras digitales las usan después, solucionarían en grandes problemas de usabilidad que presentan muchas de las marcas supuestamente líderes del mercado), consiguió un gran éxito con su cámara X100, éxito que esperan continuar con la hermana mayor de la misma que sacan este año, la X-Pro1. Este último modelo tampoco lleva filtro antialiasing, pero incorpora un patrón de Bayer particular, bajo lo que ellos denominan el X-Trans CMOS. Este patrón intenta añadir algo de aleatoridad, haciendo que la probabilidad de que en la vida real nos encontremos un patrón que provoque Moiré sea muy baja.

Y llegamos al último fabricante en jugar a este juego, Nikon, que con su D800E ha llamado la atención de todo el mundo. Realmente esta cámara si que tiene un filtro antialiasing, lo que pasa es que justamente después de este le ponen otro que anula su efecto, no sé exactamente por qué, pero obviamente sus motivos tendrán. Pero Nikon no se la quiere jugar, no se quiere arriesgar a que los clientes no les compren las cámaras por que todo el mundo empiece a ver Moiré en sus fotos. Por ello la Nikon D800E viene acompañada por una hermana gemela, la Nikon D800, que no tiene el filtro antialiasing anulado. De esta forma, Nikon deja en las manos del comprador la decisión a tomar de que cámara mejor le conviene a su fotografía (a mí que me gusta la fotografía de paisaje, desde luego iría de cabeza por la D800E, pero primero esperaría a ver los análisis de la misma).

Es bastante curioso, pero que un fabricante mayoritario como Nikon lanza una cámara sin filtro antialiasing justamente después de que Adobe anunciase el Lightroom 4, que incorpora una herramienta de corrección de Moiré en la misma. Digo curioso por qué Nikon suele ser uno de los fabricantes que da poca información a terceras empresas de como abrir sus ficheros RAW propietarios, teniendo estas que hacer ingeniería inversa.

Difracción en fotografía

En una ocasión escuché que la fotografía es un 20% de técnica y un 80% de composición, que es realmente, en el último punto, donde entra si una fotografía es simplemente una obra de arte o una mera captura de recuerdo (dejando a parte la discusiones filosóficas de si la fotografía es arte o no). Y a pesar que yo ya llevo algún tiempo intentando centrarme en mejorar mis composiciones, nunca hay que descuidar la parte técnica, parte dónde entender ciertos conceptos básicos de fotografía hace que podamos entender lo que pasa cuando vemos las fotos en nuestra pantalla (sí, sí, estoy asumiendo fotografía completamente digital). Y uno de estos conceptos es la difracción.

Agua en Santa Fé de Monteseny

Agua en Santa Fé de Montseny [Cámara: Canon 5D Mark II. Lente: Canon 70-200Lf4 IS. Filtros: Polarizador Hoya HD. Exposición: ISO800, f11 a 1/20 seg. Toma sacada con trípode, disparador remoto, y espejo levantado.] © 2011 David García Pérez.

Como ya había comentado en el artículo de La tríada: Apertura, Tiempo de Exposición y ISO, las lentes tienen un diafragma que controla la luz que pasa a través de ella. Cuando este diafragma está más abierto, tenemos menor profundidad de campo y cuando más cerrado mayor. Sin embargo hay que tener en cuenta ciertas limitaciones de las lentes. Cuanto más abierta, es más fácil que las imperfecciones ópticas de la lente se reflejen en la imagen, ya sea en forma de viñeteos o bordes difusos. Cuanto más vamos cerrando la lente, más pequeño hacemos el diafragma, mejor será nuestra imagen, más nítida, con menos viñeteo, hasta cierto punto. Habrá un momento que al seguir cerrando el diafragma de la lente, nuestra imagen resultando comenzará a perder nitidez.

Mientras que los problemas cuando la lente está más abierta el fabricante los puede intentar solucionar con mejores materiales para fabricación de la lente, mejor diseño de los componentes internos, y mayores controles de calidad durante el proceso de fabricación, lo que todo junto al final se suele traducir en un precio más caro para el fotógrafo; La difracción de la luz cuando más cerramos la apertura es algo de lo que no podemos escapar.

Si por difracción os viene a la cabeza vuestros estudios de física en el colegio o instituto, pues sí, de eso estamos hablando. De forma muy resumida, cuando la luz atraviesa una rendija, se crean unos patrones de difracción, dichos patrones serán más grandes cuanto más pequeña sea dicha rendija (hasta ciertos límites). El difragma de una cámara fotográfica actúa de la misma forma. La consecuencia es que nuestros bordes serán cada vez menos nítidos cuanto más cerremos la lente.

Cómo siempre digo, lo mejor de la fotografía digital es que permite comprobar estos conceptos por uno mismo de forma muy sencilla. Aquí tenéis un pequeño ejemplo que hice en mi casita para ilustrar dicho artículo. Como modelo he utilizado mi lente Canon 70-200f4 IS. He colocado mi cámara sobre un trípode, enfocado manualmente usando LiveView, y usando un disparador remoto para hacer las fotos. Ni el trípode ni el enfoque han sido movidos entre toma y toma. En la sucesión de imágenes se puede observar como la calidad va empeorando claramente cada vez que cerramos más el diafragma con respecto a la toma hecha a apertura f8:

Imagen ejemplo para articulo difracción

Imagen de ejemplo para el artículo de difracción. El punto de enfoque es el 70. [Cámara: Canon 5D Mark II. Lente: Tamron 90mm f2.8 Di Macro AF] © 2011 David García Pérez.

f8 vs f11

Detalle a 200%. Imagen de la izquierda tomada a f8, imagen de la derecha tomada a f11.

f8 vs f16

Detalle a 200%. Imagen de la izquierda tomada a f8, imagen de la derecha tomada a f16.

f8 vs f22

Detalle a 200%. Imagen de la izquierda tomada a f8, imagen de la derecha tomada a f22.

f8 vs f32

Detalle a 200%. Imagen de la izquierda tomada a f8, imagen de la derecha tomada a f32.

Viendo las imágenes está claro que en este caso particular, una Canon 5D Mark II más allá de f16, la calidad que perdemos pasa a ser inaceptable, en mi opinión particular. También hay que tener en cuenta que dicha perdida de calidad también será dependiente para lo que destinemos después la imagen. No es lo mismo mostrar esta imagen en un folio tamaño A4 que en un folio A3, cuanto más pequeña se muestre, la perdida de calidad por problemas de difracción no serán notables. Por otro lado, si para conseguir que todo esté enfocado en nuestra toma tenemos que cerrar mucho la lente para tener la profundidad de campo necesaria, siempre es mejor tener problemas de difracción que de desenfoque.

Como nota final, aunque está en inglés, no he encontrado mejor artículo sobre este tema que el de Cambridge in Colour.

Puntos por pulgada – PPP

En mi artículo sobre como imprimir en Adobe Lightroom pasa a paso comenté el concepto de puntos por pulgada ó PPP a la hora de imprimir una imagen en papel (en la literatura también os los podéis encontrar este término referenciado como DPI, de su acrónimo en inglés Dots Per Inch). Este término es un concepto muy sencillo, pero que se le atraganta a mucha gente nada más comenzar con él.

Veamos si con un pequeño ejemplo dejo este concepto claro. Mi cámara actual, una Canon 40D (sí, ya es una veterana), genera unos ficheros en RAW de un tamaño de 3888×2592 píxeles, del entorno de unos 10 megapixeles. Mientras tengamos la imagen así, en fichero en nuestro disco, que al abrirla en programas como Adobe Photoshop nos diga que tiene una resolución de 240 ppp o lo que sea, es irrelevante. Para nosotros la imagen va a ser de 3888×2592 píxeles.

Ahora, imaginaos que queremos imprimir dicha imagen. Si la imprimimos a una resolución de 240 ppp, el resultado será una imagen de 41,15 cm x 27,43 cm en papel. Al imprimir, el ordenador le dirá a la impresora que tome los 3888×2592 píxeles y que los vaya imprimiendo de tal forma que por cada pulgada de papel entren exactamente 240 píxeles. Sí la imprimimos a 300 ppp, pues la imagen será más pequeña, en concreto de un tamaño de 32,92 cm x 21,95 cm, obviamente debido a que ahora por cada pulgada física entran 300 píxeles de la imagen cuando antes entraban solamente 240. Al revés, si bajamos la resolución a 180 ppp, siguiendo la misma regla de 3, la imagen se imprimirá más grande, en concreto a 54,86 cm x 36,58.

Cómo ya comenté en los dos artículos anteriores, derechear el histograma nos puede proporcionar una archivo con mayor calidad que en el caso de que no empleemos dicha técnica. Pero esta técnica viene con un precio a pagar, principalmente en el tiempo que se pierde en hacer una simple foto. Y es que, disparar, comprobar como está el histograma, para volver a disparar ajustando de nuevo, hasta que consigamos tener el histograma en su posición correcta, es un proceso de varios segundos que puede suponer la diferencia entre hacer la foto y no hacerla.

En mi caso particular, donde gran parte de mi trabajo consiste en fotografía de paisaje, colocando la cámara en un trípode, y esperando pacientemente a que la luz tenga las condiciones idóneas que deseo, tengo tiempo de sobra de ajustar el histograma hasta conseguir una exposición óptima. Después de todo en la fotografía de paisaje siempre se intenta conseguir la mejor fotografía tanto en aspectos técnicos como artísticos.

Pero como dije al principio, no siempre tenemos el lujo de poder ajustar el histograma como deseamos. Muchas veces simplemente tenemos la cámara en nuestras manos esperando fotografiar el momento, ese momento en el deporte, de unos niños jugando, de animales corriendo,… donde todo encaja y crea la fotografía perfecta, un segundo más tarde esa fotografía desaparece, y no nos da tiempo de hacer varias tomas mientras por el medio comprobamos a ver que tal nos ha quedado el histograma. La exposición perfecta en estos casos es secundaria y simplemente confiamos que el sistema automático de la cámara haga el mejor trabajo posible.

Hay otra circunstancia donde derechear el histograma tampoco puede ser conveniente. Imaginaos que deseamos sacar una foto en concreto y la queremos sacar a una velocidad de 1/4 segundos, por no decir 1/50 o 1/100, el valor es lo de menos, con una apertura determinada dado que eso es lo que nos hace quedar el efecto que estamos buscando. Obviamente si fijamos tanto apertura como tiempo de exposición por motivos artísticos simplemente nos queda el ISO para poder mover el histograma de un lado a otro. Si para derechear el histograma implica aumentar el valor del ISO para la toma, la calidad de imagen que ganamos con la técnica la podemos perder por la introducción de ruido que se hace al aumentar el ISO, haciendo en gran parte de los casos deseable no derechear el histograma y mantener ISOs bajos.

Lo bueno de la fotografía digital es que casi cualquier afirmación que leas sobre cualquier tema es fácil de comprobar por uno mismo. El caso del tema tratado en el anterior artículo sobre derechear el histograma es fácil de comprobar, simplemente ponemos nuestra cámara en un trípode y vamos disparando poco a poco hasta que tengamos nuestro histograma casi tocando la parte derecha del mismo, para después simplemente mirar en el ordenador si nuestra imagen muestra mejor calidad en la zona de sombras (qué son las más beneficiadas de esta técnica).

Esta es la pequeña demostración que he realizado yo, tomando prestados un par de juguetes que tengo adornando la casa y con mi veterana Canon 40D hago unos cuantos disparos de prueba. Empiezo mirando el histograma casi tocando el lado izquierdo, para después ir aumentando el tiempo de exposición poco a poco hasta que el histograma en la cámara empieza a mostrar que ya está a la derecha del todo, justo antes de empezar a quemar cualquier zona de la imagen (exceptuando zonas con reflejos especulares). Al final obtuve las cuatro siguientes fotos:

Primera imagen, datos de la toma: 90mm, f11, 1/6s, ISO 100.

Histograma de la imagen anterior. El histograma está a la izquierda pero ningún pixel de la imagen era negro puro.

Segunda imagen, datos de la toma: 90mm, f11, 0.3s, ISO 100.

Histograma de la segunda imagen. Ya un pelín más a la derecha que el de la primera imagen.

Tercera imagen, datos de la toma: 90mm, f11, 0.6s, ISO 100.

Histograma de la tercera imagen. Ya estamos casi derecheados del todo.

Cuarta imagen, datos de la toma: 90mm, f11, 0.8s, ISO 100.

Histograma de la cuarta imagen. Listo, a partir de aquí empezamos a quemar la imagen.

Obviamente la primera imagen es mucho más oscura que la segunda, la segunda que la tercera y así sucesivamente. Fijaos que en ningún caso tenemos píxeles negros puros, es decir, es el sensor está recogiendo siempre información en los tonos oscuros de la imagen.

Ahora, para poder comparar las imágenes es necesario ajustarlas, básicamente ajusto en Lightroom tanto el punto blanco como negro de la imagen como tantas otras veces había comentado, quedándome las cuatro imágenes ejemplo con el siguiente aspecto y histograma:

Primera imagen con el punto de blanco y negro ajustados.

Histograma de la primera imagen una vez ajustados el punto de blanco y negro.

Segunda imagen con el punto de blanco y negro ajustados.

Histograma de la segunda imagen una vez ajustados el punto de blanco y negro.

Tercera imagen con el punto de blanco y negro ajustados.

Histograma de la tercera imagen una vez ajustados el punto de blanco y negro.

Cuarta imagen con el punto de blanco y negro ajustados.

Histograma de la cuarta imagen una vez ajustados el punto de blanco y negro.

A simple vista parece que las cuatro imágenes son completamente iguales, y que no hay diferencias entre las cuatro. Sin embargo, si hacemos un zoom en la zona de sombras, veremos claramente que la cuarta imagen es la que mejor calidad presenta, con un ruido mucho menor tanto en la cámara como en la sombra sobre el folio blanco que usé de fondo para esta foto.

Comparación de la calidad de la primera imagen contra la segunda.

Comparación de la calidad de la primera imagen contra la tercera.

Comparación de la calidad de la primera imagen contra la cuarta.

Este es un ejemplo muy sencillo que demuestra la gran mejora en la calidad de nuestras imágenes, sin embargo no siempre es conveniente o posible emplearla. Pero esto ya lo dejo para el siguiente artículo sobre el tema.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies