Comprendiendo

Ha llegado el momento de tocar uno de esos temas más «polémicos» de la fotografía digital, ¿Cómo exponer para sacar el máximo rendimiento en cuanto a calidad a nuestra cámara? Básicamente esto se conseguir empleando la técnica que se denomina «derechear el histograma» (exposing to the right (ettr)). Y pongo polémico, por que desde que el tema ha sido introducido por primera vez por Michael Reichmann en su famosa página Luminous Landscape, después de unas largas discusiones con Thomas Knoll (creador de Adobe Photoshop, Adobe Camara Raw, y Adobe Lightroom), no ha generado más que debates en foros a lo largo de todo internet.

En este primer artículo sobre el tema simplemente voy a introducir el problema, para que más adelante en futuras entradas en este blog, explicar las ventajas y desventajas, demostraciones gráficas, y como emplear la técnica en vuestras cámaras.

El asunto nace después de pensar en como funciona un sensor digital. Supongamos que nuestra cámara digital tiene un rango dinámico de unos 5 pasos de luz (es decir, entre el tono más oscuro al tono más claro puede almacenar cinco pasos de luz, cualquier valor fuera de ese rango será blanco puro o negro puro), y que al disparar en RAW (no tiene sentido usar esta técnica en JPEG), la cámara es capaz de almacenar 12 bits de información (realmente el manual y la cámara os van a decir que es 16 bits, pero raramente una cámara es capaz de distinguir tantos bits, sencillamente almacenan 12 bits en un archivo que puede llegar almacenar 16). Entonces con estos 12 bits, la cámara sería capaz de distinguir 4096 (2^12) tonos diferentes.

Lo lógico sería pensar que el sensor digital que tiene nuestra cámara repartiría esos 4096 valores de forma uniforme entre los 5 pasos de luz que es capaz de almacenar. Es decir, cada paso de luz la cámara, bajo esta suposición, sería capaz de almacenar 850 tonos distintos. Y aquí es donde viene el problema. El sensor digital no funciona de esta forma, el sensor digital, ya emplee tecnología CCD o CMOS, es un dispositivo lineal. Básicamente esto quiere decir que cada paso de luz que es capaz de almacenar, almacena el doble de luz que el anterior, y por lo tanto el doble de información. ¿Qué significa esto? Pues que para nuestro ejemplo la cámara funcionaría de la siguiente forma.

Paso de Luz Tonos que distingue
Para el primer paso de luz, que contiene los tonos más oscuros 128 tonos distintos
Para el segundo paso de luz, que contiene los tonos oscuros 256 tonos distintos
Para el tercer paso de luz, que contiene tonos intermedios 512 tonos distintos
Para el cuarto paso de luz, que contiene tonos brillantes 1024 tonos distintos
Para el quinto paso de luz, que contiene los tonos más brillantes 2048 tonos distintos

La tabla anterior lo que nos está indicando es que cuanto más a la derecha tengamos nuestro histograma, más tonos diferentes vamos a ser capaces de almacenar en nuestra imagen y mayor calidad tendrá la fotografía final, sobretodo en la zona de sombras.

Otra forma de entender esto, es que cuanto más tiempo este capturando luz nuestro sensor, sin que este se sature, es decir, nos empiece a quemar la fotografía, más información está capturando, con lo cual la relación señal/ruido es mucho mejor dando lugar a una imagen final de mayor calidad.

El principal problema, es que cuando abramos dichas imágenes en nuestro revelador RAW favorito, o las veamos en la pantalla de la cámara, veremos una imagen como lavada, muy brillante. El primer paso que tendremos que hacer es básicamente ajustar el histograma, por eso, en los ejemplos que suelo poner por aquí, lo primer que digo es que ajusto el punto de blanco y negro, para que mi imagen empiece a tomar el aspecto que deseo de ella, con la mayor calidad posible.

Cómo todo esto siempre se entiende mejor con un ejemplo, en el siguiente artículo que continua esta serie se centrará en una pequeña demostración gráfica de esta técnica.

RAW vs JPEG (y II)

Mientras escribía mi entrada sobre las diferencias entre RAW vs JPEG se me estaba viniendo una idea a la cabeza. No importa mucho las desventajas o ventajas de disparar en un formato u el otro, lo que importa es lo que sucede en la cámara que da como resultado uno de los dos archivos. Tomemos como ejemplo el siguiente diagrama.

esquema de como convierte una camara de RAW a JPEG

Una vez la cámara captura una imagen en RAW, esta puede convertirla a JPEG procesándola primera, con una serie de pasos muy similares a los que hacemos nosotros en Lightroom o Photoshop.

En ese diagrama, tal vez demasiado simplón, lo que quiero ilustrar es lo siguiente, una vez se pulsa el disparador de la cámara, el sensor digital de la misma toma la imagen y obtiene un fichero RAW. Si le hemos indicado a nuestra cámara que solamente queremos la imagen en RAW, esta lo que hace es almacenarla directamente a tarjeta.

Si le hemos dicho que queremos guardar la imagen en JPEG, la cámara tomará ese RAW, aplicará una serie de procesados al mismo, cosas como aplicar un algoritmo de demosaicing, para después ajustar el contraste, saturación, temperatura del color de la imagen… vamos, típicas cosas que nosotros haríamos en Photoshop o Lightroom, para después convertir la imagen a JPEG, comprimiéndola, desechando información que no considera oportuna para tener un fichero más pequeño.

Y en el último párrafo está la clave de por qué es mejor RAW que JPEG. En el proceso anteriormente descrito, un ingeniero en Alemania, Japón o dónde haya sido diseñada la cámara, ha decidido que es un foto correcta, y como esta debe ser procesada. Pero si nosotros queremos buscar la máxima calidad posible (¡ojo! esto no quiere decir la máxima realidad posible), nosotros somos los que tenemos que tomar las decisiones, los que tenemos que ajustar ese contraste, esa saturación, esa temperatura de color…

Puede sonar algo así como idealista, pero mi objetivo siempre es tener la mayor calidad posible en cada foto con los medios que tengo en mis manos. Puede que no sean los óptimos, pero intento exprimirlos al máximo.

Hay que tener cuidado con un detalle, de los párrafos anteriores se puede intuir que si almacenamos las imágenes en nuestra tarjeta en RAW, en ningún momento se van a convertir a JPEG. Eso no es cierto, la imagen que nos va a mostrar la cámara en pantalla es una conversión del RAW a JPEG (la cámara realiza esta conversión en su memoria interna, sin grabar el JPEG en la tarjeta de memoria), al igual que el histograma que nos muestra en pantalla, el cual se calcula a partir de la imagen JPEG que la cámara calcula del RAW. Esto último será un detalle clave a la hora de exponer correctamente una fotografía, pero lo mejor lo dejamos para otro artículo.

Por otro lado, indicar que si disparamos en RAW, pero usamos el software que suele venir en cámaras como Canon, Olympus, Pentax, o Nikon, este software nos hará algo similar a lo que hace la cámara de forma interna, aunque suelen dejar cierto control limitado de dicho ajuste.

Más información sobre el tema:

RAW vs JPEG

Creo que sobre el tema de disparar RAW versus JPEG debe haber sido tratado en internet y en libros millones de veces. Pero con la excusa de completar lo máximo posible la información que doy en este blog, ahora me toca a mí. No esperéis nada novedoso sí ya habéis leído esta información en otros sitios. Y después de confesar que probablemente no sea nada original, empecemos con los tipicazos: «Un RAW es el equivalente digital a un negativo o diapositiva en la época de película fotográfica.»

Pero antes de comentar la ventajas del RAW, veamos sus desventajas:

  • Una fotografía en RAW en cualquier cámara digital ocupa mucho más que el equivalente JPEG, con lo cual en una tarjeta de memoria os entraran menos fotos.
  • Al ocupar más también tardan más en copiarse desde la cámara a la tarjeta de memoria, lo cual puede ser un impedimento para algunas cámaras a la hora de conseguir altas velocidades de disparo.
  • Las imágenes RAW que salen de vuestra cámara requieren post-procesado (tener cuidado aquí, si usáis el software del fabricante de la cámara probablemente os apliqué de forma automática y sin vuestro conocimiento varios post-procesados a vuestras fotos), con lo cual no valen para ser enviadas de forma automática a un cliente.
  • Y, aunque quisiésemos enviárselas de forma automática a un cliente, este tiene una alta probabilidad de que no las pueda abrir.

Entonces, después de todo lo expuesto, ¿Por qué disparar en RAW? Pues que desde mi punto de vista las ventajas que ofrece son mucho mayores que las desventajas. Y las ventajas son las siguientes:

  • Ya había comentado en mi primer artículo sobre sensores digitales cómo ve el color una cámara digital moderna (en el ~95% de los casos). Cuando digo que un RAW contiene la información tal como el sensor la capturó, precisamente quiero decir que la mantiene tal y como está ilustrada en el artículo que os acabo de citar, sin aplicar ningún proceso de demosaicing. ¿Y cual es la ventaja de esto? pues básicamente que los algoritmos de demosaicing pueden ser mucho mejores cuanto más potencia de cálculo tenemos. Un ordenador siempre hará mejor este cálculo que la propia cámara, dando lugar a una imagen de mayor calidad.

    Por otro lado, estos algoritmos mejoran con el tiempo, sino, simplemente comparar un RAW recién abierto en Adobe Photoshop Lightroom en su versión 2 con la misma imagen abierta en la versión 3 del programa.

  • Los RAW van comprimidos, pero es una compresión sin pérdida con respecto a la compresión con perdida de un JPEG. ¿Qué quiero decir con esto? Lo JPEG usan unos algoritmos de compresión basados entre otras cosas en como nuestro sistema visual funciona. Para conseguir imágenes más pequeñas, lo que hacen es desechar información que nuestro ojo y cerebro da poco relevancia, o que si no está, va a echar menos de menos que si hubiese borrado otras cosas de la imagen.
  • Aún no he comentado por este blog lo que es el balance de blancos, pero digamos que en RAW eso es irrelevante, una vez estemos en procesando el RAW del ordenador podremos ajustar el balance de blancos sin ninguna pérdida en la calidad de imagen. Sin embargo, en JPEG, durante el proceso de conversión de RAW a JPEG en la cámara, esta fija el balance de blancos, cualquier cambio a posteriori en la foto del mismo involucra una perdida de calidad de la misma.
  • Mientras que un JPEG tiene 8 bits (es decir, puede guardar 8 bits de información por cada canal de color, lo cual se traduce en 256 niveles de azul, y otros tantos para verde y rojo, básicamente cuanto más bits mejor, por que más colores y niveles de gris va a ser capaz de tener nuestra imagen) un RAW dependiendo de la cámara puede tener entre 10 bits a 16 bits, lo cual nos permite almacenar mucha más información, que se traduce en mejor calidad de imagen.
  • Y por último, mejor detalle en la imagen. Como he dicho en el procesado de la imagen de las Cíes, a toda imagen es necesario hacer un ajuste de entrada del detalle. Esto es debido a que una cámara digital cuando convierte una imagen a JPEG hace este proceso de forma automática. El RAW necesita un detallado de entrada, y aquí, al hacerlo nosotros, con mayor potencia de cálculo, podemos obtener resultados mejores, sobretodo por que este procesado va a depender de la imagen y así es más fácil personalizarlo para cada una de ellas.

Más información sobre el tema:

Un amigo mío siempre me dice que me voy para las ramas para explicar las cosas, que un día llegaré a decir algo así como «y al principio de los tiempos estaban los dinosaurios,» y realmente este artículo va a ser una de estas situaciones. Mi intención era escribir un artículo sobre las diferencias entre RAW y JPEG, pero me acabo de dar cuenta que primero necesito hablar de como es un sensor digital. Bueno, la ventaja del blog, es que añadir artículos al mismo es un proceso gratis (si descontamos el tiempo que me lleva escribirlos).

Cuando escribí los artículos sobre explicaciones sencillas sobre el concepto de histograma, ya había dicho que una imagen era una matriz, donde cada elemento de la matriz tenía información de que color hay en ese pixel. El sensor es algo parecido, es una superficie plana, la cual tiene definida una malla de sensores de luz. Cuando leemos que una cámara digital tiene X Megapixeles, básicamente los que nos está diciendo es que su sensor tiene X millones de estos sensores de luz.

Distribución en matriz de los píxeles de un sensor

Patrón de los sensores digitales típicos, donde cada sensor está distribuido en una matriz que después se transformará en un pixel de la imagen.

Cada uno de estos sensores mide luz, no saben distinguir de colores. Para ello lo que suelen hacer los fabricantes de los mismos es colocar un filtro delante de cada sensor, este filtro hará que el sensor solamente mida un color específico, en la mayoría de los casos, rojo, verde o azul. Pero ahora hay que añadir la particularidad de que estos filtros están dispuestos en un orden en particular, en la mayoría de los casos siguiendo lo que se conoce como un patrón/mosaico de Bayer, donde cada fila de la matriz del sensor tiene sensores de luz que alternan entre los colores verde-azul o verde-rojo.

Distribución de Bayer de los píeles de un sensor digital

Distribución de Bayer de los píxeles de una matriz digital.

Como se puede ver en la imagen anterior, queda claro que los sensores digitales suelen ser más sensitivos al verde que a los otros dos colores primarios, el azul y el rojo. Esto es debido a que el ojo humano es mucho más sensible al color verde, haciendo que el resultado de una cámara más sensible al verde resulte visualmente tener menos ruido que si fuese más sensible a cualquiera de los otros colores, o que si los tres colores tuviesen igual importancia.

¿Y cómo se obtiene una imagen de color donde cada pixel tenga información de rojo, verde y azul? Pues la cámara o nuestro programa de edición de RAW emplea unos algoritmos que se denominan algoritmos de demosaicing, que básicamente usan información de los píxeles vecinos para calcular los valores de color que faltan para un pixel concreto.

Aunque os parezca que el principal problema es esta perdida de información, realmente el principal problema de usar un algoritmo de este tipo es que puede dar lugar a patrones raros en las imágenes. Si tenemos una imagen con una textura muy repetitiva, puede dar lugar a que aparezcan efectos moiré. Aunque de todas formas, algoritmos más modernos, así como el incremento de número de megapixeles, hacen que dichos efectos sean cada vez más raros.

En cuanto a tema de sensor realmente solo he empezado a raspar la superficie. Pero más información sobre esto tendrá que esperar a futuros artículos.

Tiempo de Exposición

Con este artículo toco el último de los parámetros que controlan la exposición de una fotografía, el tiempo de exposición, el tiempo que se deja el obturador de la cámara abierto para que el sensor digital, o la película, reciban la luz necesaria para grabar la imagen.

Básicamente el tiempo de exposición nos puede determinar una foto movida a una foto no movida. Existe la regla de que si tienes una lente de por ejemplo 50 mm, tienes que disparar al menos, si no usamos trípode, con una velocidad de 1/50 segundos para que la imagen no salga movida. Bien, eso si no se mueve nada durante la toma. Para fotografiar cosas moviéndose, como puede ser en un evento deportivo, necesitaremos velocidades más altas si queremos congelar el movimiento. Como realmente soy la persona menos indicada para hablar de este tipo de fotografía, no voy a entrar en más detalles.

En la fotografía de paisaje, que es particularmente la que mí me interesa, el tiempo de exposición a parte de controlarlo cuando las hojas de los árboles no se están quietas con el viento, también se puede emplear de forma artística, principalmente con agua y nubes. Fijaos como cambia el agua en esta foto según voy haciendo que el tiempo de exposición cambie de 1/60 segundos, a 1/8 de segundos, a 0.5 segundos (obviamente con la cámara bien fijada a un trípode)

Tiempo de expoción a 1/60

Tiempo de exposición 1/60 segundos (Canon 40D, Canon 70-200F4L IS, f11, ISO100).

Tiempo de Exposición 1/8

Tiempo de exposición 1/8 segundos (Canon 40D, Canon 70-200F4L IS, f11, ISO100, Filtro Lee ND4).

tiempo de exposicion - 0.5

Tiempo de exposición 0,5 segundos (Canon 40D, Canon 70-200F4L IS, f11, ISO100, Filtro Lee ND8).

Básicamente el agua al moverse crea ese efecto de seda, la cámara al estar captando la imagen por tanto tiempo está sacando el agua movida. Y por último este ejemplo donde las nubes están completamente en movimiento, para ello usé el filtro Lee Bigstopper, que incremente 10 veces el tiempo de exposición necesario para realizar la fotografía, creando una imagen mucho más dramática.

Illas Sisargas

Illas Sisargas. Tiempo de exposición 156 segundos (Canon 40D, Canon 17-40L, f11, ISO100, Filtros: Lee Bigstopper y Polarizador Heliopan)
© David García Pérez 2010.

Este artículo cierra la pequeña serie básica sobre los elementos que controlan la exposición en una fotografía, comenzada por el artículo: La tríada: Apertura, Tiempo de Exposición y ISO y continuada por los artículos específicos: Apertura y ISO.

Nota: tal y como se puede leer en los comentarios, está claro que las distancias estimadas que he puesto en este artículo están muy a ligera, perdonar el error.

En el artículo de la apertura había indicado que esta servía para controlar la profundidad de campo a partir del punto de enfoque. Bien, esto no es cierto del todo, hay un casos particulares donde no importa mucho que apertura escogemos, si enfocamos bien cualquier punto de la imagen, todo estará enfocado. Un ejemplo es esta imagen.

Cap de Creus

Cap de Creus. © David García Pérez 2011.

En la imagen interior, las rocas que se ven a la derecha de la misma están a una distancia de unos 50 metros con respecto al faro que tenemos de fondo. El punto de enfoque es el propio faro, y a cualquier f de la lente que usé, una Canon 17-40L, todo está enfocado. ¿Por qué? Básicamente por qué todo se encuentra a una distancia infinito de la lente.

Toda lente tiene una distancia a partir de la cual, para ella todo está a una distancia «infinito.» Al enfocar al faro, que está a una distancia infinito de la lente -en el caso de mi lente Canon 17-40L, a partir de una distancia de un metro y medio, para ella todo es infinito,- cualquier cosa que la lente considere que está a infinito estará enfocado, por muy cerca o lejos que esté del faro. Las rocas que se ven en la parte derecha de la imagen, estaban a una distancia de unos 10 metros de la lente.

escala de distanca canon 17-40L

Escala de distancias para la lente Canon 17-40Lf4. © David García Pérez 2011.

Muchas lentes suelen incluir una escala de distancias en la misma, esta escala nos vale para hacernos una idea a partir de que punto la lente considera que algo está a distancia infinito, y también para saber cual es la distancia mínima que tiene que estar un objeto de la cámara para poder enfocarlo. Para demostrarlo, un poco, aquí tenéis unos recortes de la imagen a distintas aperturas, recordar que el punto de enfoque de la lente ha sido el propio faro (algunas están más oscuras o claras debido a los diferentes tiempos de exposición durante la toma).

Recorte de la imagen con apertura f4.

Recorte de la imagen con apertura f5.6.

Recorte de la imagen con apertura f8.

Recorte de la imagen con apertura f11.

ISO

En el artículo sobre los tres factores que afectan la exposición: tiempo de exposición, apertura y ISO, este último es probablemente el más sencillo de manejar para cualquier fotógrafo. Si subimos el ISO, podremos disparar más rápido, es decir, si tomamos por ejemplo que a ISO 100 y nuestra cámara saca la foto con una «exposición correcta» a 1/50 segundos, a ISO 200 ese tiempo se reducirá la mitad, es decir, la cámara solamente necesita 1/100 segundos para obtener la misma «exposición correcta,» lo cual puede ser la diferencia entre una imagen movida a una perfectamente tomada. ¿Una ganga no? ¡Subamos el ISO y todo saldrá perfecto! Hay un precio que pagar que es en forma de ruido.

Al aumentar el ISO de una cámara digital, lo que hace esta es amplificar la señal de luz que recibe, y este proceso introduce ruido. Sin embargo, dependiendo de tu modelo de cámara y también de lo que te puedas permitir sacrificar en cuanto a ruido (es mucho mejor tener un foto ruidosa que una movida), puedes obtener buenos resultados a ISOs «elevados.»

Un pequeño ejemplo para ver lo que se entiende por ruido debido a aumentar el ISO. Tener en cuenta que esto es para mi cámara, una Canon 40D, que ya es una cámara con sus añitos encima. Cámaras más modernas, a mismo nivel de ISO, probablemente tengan mucho menos ruido. Para este ejemplo tenemos aquí un par de regalos que me hicieron por un tema de «amigo secreto.»

Imagen ejemplo artículo ISO

Rana y helicóptero. © David García Pérez 2011.

La imagen está manualmente enfocada usando liveview en uno de los ojos de la rana. Así que haré zoom en esa zona para ir viendo los efectos del ruido según va subiendo. Primer ejemplo a ISO 200.

Recorte de la izquierda: ISO 100 – Recorte de la derecha: ISO 200.

El recorte de la izquierda es ISO 100, mientras que el de la derecha es ISO 200. No hay una gran diferencia entre una y otra. Veamos como se ve a ISO 400.

iso100-vs-iso400

Recorte de la izquierda: ISO 100 – Recorte de la derecha: ISO 400.

Empeora un pelín, pero sigue siendo bastante aceptable. Dupliquemos el valor. ISO 800.

iso100-vs-iso800

Recorte de la izquierda: ISO 100 – Recorte de la derecha: ISO 800.

Ya empezamos a notar claramente el ruido. Fijaos como se ve tanto el verde y negro del ojo como si tuviese una textura granular, en vez del continuo de ISO 100 que se observa en el recorte de la izquierda. Ahora para sacar los colores a mi cámara ISO 1600.

iso100-vs-iso1600

Recorte de la izquierda: ISO 100 – Recorte de la derecha: ISO 1600.

El ruido ha vuelto a incrementarse considerablemente, en imágenes con mucho detalle, puede volverse casi inaceptable. La Canon 40D permite un modo extra de ISO que llaman modo H, realmente no es más que ISO 3200, pero Canon lo decidió llamar así de forma particular por que realmente es un modo que no se puede emplear. Sino, juzgar por vosotros mismos.

iso100-VS-iso3200

Recorte de la izquierda: ISO 100 – Recorte de la derecha: ISO 3200.

Como ya os dije, este comportamiento depende en gran medida de la cámara. Cámaras más modernas tengo entendido (no las he probado) que pueden sacar fotos de ISO 3200 más que aceptables, lo cual las hacen ideales para fotografiar en condiciones de escasa luz y con personas, animales u objetos en movimiento.

Apertura

En un artículo anterior comenté la relación entre la apertura, tiempo de exposición y ISO a la hora de controlar la exposición de una fotografía. Pero realmente lo que interesante de estos parámetros es saber como afecta cada uno de ellos a la fotografía final, en particular desde el punto de visto artístico. Y nada mejor que la apertura para comenzar esta discusión.

Como ya comenté anteriormente, la apertura viene a controlar el tamaño del agujero por donde pasa la luz a través de la lente hasta llegar al sensor. Dicho tamaño viene controlado por una pieza de hardware que se llama iris en la lente. Que este agujero esté más abierto o cerrado hará que la imagen tenga más o menos profundidad de campo. Donde la profundidad de campo es la distancia a partir del punto de enfoque donde las cosas están o no enfocadas (válgame la redundancia). Cuanta más abierta esté la lente, valor de f más bajo (f1.4, f2…), menos profundidad de campo, cuanto más cerrado esté la lente, valor de f más alto (f11, f16…) más profundidad de campo.

Pero esto siempre se entiende mejor con un ejemplo, y no podría ser mejor ejemplo que un clásico para explicar este concepto, unas pinzas de la ropa puestas en fila. Empecemos con la primera imagen con la lente abierta lo máximo posible, en este ejemplo usaremos un Tamron 90mm que tiene una apertura máxima de f2.8 (por máxima entendemos lo máxima que se puede abrir la lente, en este caso será su valor de f más bajo que permite).

efecto apertura - f2.8

Imagen ejemplo con apertura f2.8. © David García Pérez 2011.

En este caso he enfocado la cámara en la segunda pinza, más en concreto en la esquina de la pinza, justo en el punto donde está la barrita metálica. Como se puede observar, la profundidad de campo es muy pequeña, realmente solamente vemos definida bien una porción muy pequeña de la segunda pinza.

efecto apertura - f4

Imagen ejemplo con apertura f4. © David García Pérez 2011.

Segunda imagen, de esta vez la lente está parada 1 paso más de luz, es decir f4. Se observa una ligera mejora con respecto a la imagen anterior, la segunda pinza casi empieza a estar enfocada y empezamos a distinguir un pelín mejor los detalles de la primera.

efecto apertura - f5.6

Imagen ejemplo con apertura f5.6. © David García Pérez 2011.

Tercera imagen, ahora cerramos la lente otro paso de luz más, es decir, estamos a f5.6. Ahora ya vemos bien la segunda pinza y se empiezan a distinguir más las pinzas del fondo. Continuemos.

efecto apertura - f8

Imagen ejemplo con apertura f8. © David García Pérez 2011.

Ahora hemos cerrado la lente hasta f8, y como se puede observar hay mejoría con respecto a la definición de las pinzas que hay a partir de la segunda pinza.

efecto apertura - f11

Imagen ejemplo con apertura f11. © David García Pérez 2011.

efecto apertura - f1

Imagen ejemplo con apertura f16. © David García Pérez 2011.

Para no repetirme mucho ya os pongo las dos últimas imágenes juntas. A f11 hay una mejora significativa, pero es casi a f16 donde se puede apreciar como realmente tenemos mucha más profundidad de campo.

Una cosa que hay que explicar es que tenía la lente bastante pegada a las pinzas, por ese motivo al cerrar más la lente, la profundidad de campo no aumenta mucho. Es también por ese motivo que la primera imagen tiene un desenfoque tan marcado, haciendo que la vista vaya directamente a la segunda pinza.

El párrafo anterior desvela exactamente la utilidad de la apertura. El objetivo del fotógrafo con ella es centrar la atención en algo en la imagen, haciendo que el resto de la escena no llame la atención al estar desenfocado. Es por este motivo que la gente que realiza retratos les guste mucho las lentes que abran más, dado que de esa forma la imagen se centrará mucho más en la cara del sujeto a tratar y el fondo quedará difuminado. También es el mismo motivo por qué los fotógrafos de paisaje no es un parámetro críticos para ellos, dado que lo que buscan, habitualmente, es tener cualquier cosa que salga de la lente totalmente enfocado.

Para ilustrar lo anterior el siguiente ejemplo, fijaos como la vista se os centra en la abeja y la flor, no en las plantas completamente difuminadas que hay de fondo, incluso en el segundo insecto, que me quedó un pelín desenfocado.

Abella nas Illas Cíes - Ejemplo Apertura

Abella nas Illas Cíes (f2.8). © David García Pérez 2009.

En todos los artículos que hice sobre histogramas siempre decía que eran críticos para exponer correctamente en la fotografía digital, pero tal vez fui demasiado deprisa, por que se me olvidó contestar dos preguntas más críticas: ¿Qué es epxosición? ¿Y qué parámetros la controlan?

Mientras preparaba este artículo, buscando información por internet y en libros, encontré una explicación de exposición en fotografía, y desde que la leí no he encontrado ninguna forma de explicarlo mejor que esa definición. Así que con permiso de la gente de Cambridge en Colour voy a usar su mismo símil, imaginaos la exposición como un cubo. ¿Lo veis ya? Bueno, hay que añadir algunos detalles más.

Tenemos nuestro cubo, y con él queremos recoger agua de lluvia. Pero aquí es donde entran los matices, con nuestro cubo no queremos recoger muy poca agua, dado que eso nos dará una imagen subexpuesta, ni tampoco queremos que el agua sobrepase el límite del cubo, que en dicho caso tendremos una imagen sobreexpuesta. Ahora bien, en dicho proceso podemos alterar varios parámetros del cubo, podemos escoger la capacidad del cubo, podemos escoger su ancho, con lo cual, si lo hacemos más ancho, necesitaremos tener menos tiempo el cubo bajo la lluvia para llenarlo, o si es más estrecho más tiempo. Lo mismo, si la cantidad de agua que puede recoger de máximo el cubo es mayor o menor tendrá que estar más o menos tiempo a la intemperie.

En la fotografía, los tres parámetros del cubo descritos anteriormente tienen un equivalente directo, el ancho del cubo es la apertura, la cantidad de agua que puede recoger el cubo es la sensibilidad o ISO, y por último, el tiempo que dejamos el cubo a la intemperie será el tiempo de exposición. En el caso de la cámara, en vez de recoger agua de lluvia, lo que recogemos es luz.

Ahora simplemente hay que ver que es ese cubo en nuestra cámara. La apertura define el tamaño del orificio que está abierta la lente, y básicamente será el orificio a través del cual entra la luz. El tamaño de este orificio, tal como había descrito en el artículo sobre paso de luz, viene definido por la unidad f-stop. Se suele definir en fracciones, imaginaos una apertura de valor f/1, y empezamos a cerar poco a poco el orificio, por ejemplo hasta f/1.4, un poquito más, f/2, y mucho más ya podría ser f/11. Cómo observáis, tanto en el texto anterior como en la figura que hay a continuación, cuanto más grande es el número más pequeño es el orificio o apertura. Es un poco contraintuitivo, más aun que por simplificar, mucha gente y fabricantes simplemente escriben f2, f4, etc..

Diagrama apertura de una lente

Ilustración del tamaño relativo de la apertura de una lente.

En resumen, cuanto más grande sea el orificio, o «más abierta esté la lente,» menos tiempo tiempo tendrá que estar el sensor expuesto a la luz para recoger la misma cantidad de la misma, por seguir el símil de nuestro cubo con el que empezamos.

Después tenemos el ISO o sensibilidad. Esto lo que hace es que nuestro sensor sea mucho más sensible o menos que la luz. Se mide en unidades ISO, cuanto más alto sea el número, más sensible a luz será nuestro sensor y por lo tanto menos tiempo tendrá que estar expuesto a la luz para conseguir la misma exposición. Cada vez que se dobla el valor del número ISO, por ejemplo, pasar de ISO100 a ISO200, se deja pasar el doble de luz, o de lluvia, siguiendo de nuevo el ejemplo de nuestro cubo.

Por último nos queda el tiempo de exposición, que como su nombre indica define el tiempo que nuestro sensor va a estar expuesto a la luz, o nuestro cubo a la lluvia. Como veis, este tiempo viene definido tanto por la apertura como la sensibilidad para conseguir una exposición, si dejamos insuficiente tiempo tendremos una subexposición, y si dejamos demasiado tiempo tendremos una sobreexposición (en las imágenes ejemplo del artículo: Histograma: Entrada Básica, quedan claros ambos conceptos). Estos tres parámetros siempre hay que tenerlos presentes en cualquier momento que queramos hacer una fotografía.

Hasta aquí este pequeño artículo introductorio, ahora queda explicar en detalle que efectos tendrá para nuestras fotos escoger un valor u otro, por qué muchas veces no es lo mismo hacer la foto a f1.4 que a f16 (veis, yo también me olvido de las fracciones), a ISO100 que a ISO6400 según la cámara, o exponer un tiempo de 1/500 segundos a 30 segundos, particularmente si hay cosas moviéndose en la escena.

Uno de los conceptos a los que se enfrenta una persona cuando llega a la fotografía es al concepto de un paso de luz. Lees un artículo, y te dicen, sobreexpuse un paso de luz, o está subexpuesta 2 pasos, o es un HDR que mezcla 3 imágenes separadas con 2 pasos de luz entre ellas, pero, ¿Qué es exactamente un paso de luz?

Básicamente, un paso de luz es una medida relativa del brillo de la luz. Imaginaos que llega una cantidad x de luz ya sea a una película fotográfica o a un sensor digital cuando tomamos una foto. Si al tomar la siguiente foto, llega una cantidad 2x de luz, quiere decir que hemos incrementado la exposición en 1 paso de luz. Si pasa lo contrario, es decir, llega la mitad de luz, ó x/2, se dice que la esta imagen ha disminuido su exposición en 1 paso de luz.

Uno de los conceptos básicos de la fotografía es que la exposición está controlada, en cámaras típicas, por 3 parámetros: apertura, tiempo de exposición y sensibilidad o ISO. ¿Qué es un paso de luz con respecto a estos parámetros? Empecemos por el tiempo de exposición, imaginaos que tenemos fijo tanto la apertura como ISO, entonces, si tenemos una exposición de, por ejemplo, 1/60 segundos para una foto en concreto, si duplicamos este tiempo de exposición: 1/60 + 1/60 = 1/30 segundos, tendremos una exposición a la que le llega un paso más de luz. Sin embargo, si reducimos a la mitad ese tiempo de exposición, es decir, hacemos una exposición de 1/120 segundos, tendremos una foto cuya cantidad de luz es una paso menor que con respecto a la foto tomada a 1/60 segundos.

Ahora fijamos tanto tiempo de exposición como ISO, simplemente vamos a modificar la apertura. La apertura nos mide lo que está abierta una lente, el tamaño del orificio a través del que pasa la luz antes de llegar al sensor o película fotográfica. Cuanto más alto es dicho número: f8, f11, f16… más pequeño es el agujero (sí, en algún momento en el futuro haré un articulo sobre este tema en concreto). En este caso, la relación no es tan directa como en el caso del tiempo de exposición, pero casi todos las/os fotógrafas/os con el paso del tiempo acaban de aprendiendo esta tabla: f1.4, f2.0, f2.8, f4.0, f5.6, f8.0, f11, f16, f22… si cerramos la lente siguiendo esa progresión, por ejemplo, pasamos de f5.6 a f8, estaremos haciendo que llegue un paso menos de luz al sensor, en caso contrario, por ejemplo, abrir más lente, pasar de f2.0 a f1.4, estaremos haciendo que llegue un paso más de luz al sensor (a la larga, esa sucesión de números los acabas memorizando).

Por último nos queda el ISO, y aquí realmente no estamos aumentando la cantidad de luz que llega al sensor, sino, que estamos haciendo que este sea más sensible. Duplicar su valor equivale a lo mismo que si llegase un paso más de luz al sensor. Por ejemplo, si pasamos de ISO100 a ISO200, sería el equivalente a que si duplicásemos el tiempo de exposición por 1 paso o si abriésemos más la lente, por ejemplo, pasando de un f16 a un f11. Si reducimos el ISO, por ejemplo, de ISO800 a ISO400, siempre, sin tocar ni apertura ni tiempo de exposición, es como si estuviésemos reduciendo la cantidad de luz que llega al sensor por la mitad.

Usualmente en las cámaras digitales modernas esto lo suelen representar a través de un indicador de exposición donde pondrán valores como -1, +1, … o tal vez +1ev, -1ev… etc.. Lo que nos está indicando de esta forma es cuanta luz de más o de menos la cámara piensa que está recibiendo el sensor para lo que ella considera que es la exposición correcta, y hay que tener un cosa bastante clara, lo que una cámara considera como exposición correcta puede distar bastante de lo que queremos o de la realidad.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies