Preguntas y Respuestas

Esta es una pregunta que me llega de vez en cuando. Yo tengo una opinión bastante clara al respecto, pero entiendo que no todo el mundo la comparta conmigo, incluso después de mi respuesta:

Buenas noches David,

Me quedan unas dudas en lo referente a los distintos formatos de archivos, (RAW, TIFF, PSD o JPEG), por su variación de tamaño y comportamiento ante procesos futuros, etc.

Si, es cierto que cualquier tipo de archivo es susceptible de desaparecer, ya sea por motivos comerciales, de innovación tecnológica o el que fuera. En cualquier caso siempre podemos tener los archivos RAW originales bien guardados o quizás convertidos a un formato que creamos que puedan ser editados en el nuevo programa de edición y procesado de imágenes recién estrenado y acorde con las nuevas tecnologías. En caso contrario, deberíamos recurrir a los programas propietarios o compatibles creados en su momento.

Ya que el formato RAW es variable en las distintas marcas, cámaras, modelos y dado que esos fabricantes se han hecho propietarios y únicos conocedores de la encriptación de nuestros archivos, se nos puede presenta la pregunta y decisión de: ¿Qué formato y programa utilizar?.

Ya había consultado en otra ocasión algo parecido, (ya se, tal vez influenciado por J. B. Ruiz y su sistema), pero aun así, ¿No seria más lógico tras tomar la captura de la imagen en nuestra cámara, desencriptar, descifrar ese archivo cifrado RAW con el programa del fabricante y tratarlo después en un programa dedicado a la edición y/o procesado de imágenes mas completo y adecuado para eso como Photoshop, Lightroom,…?

Una vez el archivo este libre de algoritmos de encriptación, ¿No será más fácil para Photoshop, … entenderse con ese archivo, ya sea convertido a TIFF o PSD?

Otra cuestión que todavía no llego a comprender, (que seguro tendrá su explicación), es por la cual un archivo RAW de 40 Mb pasa a ocupar más del doble y hasta el triple en TIFF una vez desencriptado.

Nuevamente, muchas gracias por tu atención.

Después de la imagen mi respuesta:

Rayos de sol...

Rayos de sol… [Sony A7 II (Amazon, eBay) con Sony 24-70 2.8 GM (Amazon, eBay). Foto sacada a ISO100, f10, 1/160 segundo de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.

Empecemos primero por lo que tú llamas encriptación, que estrictamente no es eso. Sencillamente la tradición es que algunos fabricantes no comparten la información de como se almacena la información en su fichero RAW. No la encriptan de forma que no se pueda leer sin una clave de descifrado, sencillamente no le explican a nadie como almacenan eso.

Según tengo entendido, muchos fabricantes comparten esta información con Adobe, Phase ONE o otros para que sus cámaras sean soportadas lo antes posible, pero no hay mucha información al respecto.

Bien, al final un fichero RAW no deja más que indica la cantidad de carga que llegó a un pixel en un mosaico de bayer (no todos los sensores usan Matriz de Bayer, digamos que el 99% de los que están en el mercado para que las cámaras sean capaces de ve en color). A parte de eso, en el fichero RAW puede ir otra información como ISO que se usó, como estaba la cámara configurada en balance de blancos, etc…

Tengo un vídeo donde, verás que hablo de una herramienta RAW digger que te deja ver los canales de información Rojo, Verde y Azul, que realmente son 3 imágenes en blanco y negro… eso es básicamente un fichero RAW. Para poder ver la imagen que se nos muestra en pantalla, lo que tiene que hacer cualquier programa o la cámara es lo que se llama demosaicing, que básicamente consiste en coger la información de color de los pixeles vecinos, ponderada según el balance de blancos que queramos usar (es un parámetro en una ecuación matemática, por eso se dice que en RAW el balance de blancos no es información crítica), y se decidirá si ese pixel es amarillento, naranja, púrpura… etc…

Ese proceso de demosaicing es crítico hacerlo bien, para que por un lado no aparezcan artefactos y por otro obtener la mayor calidad posible. Esto es independiente de como el fabricante guarde la información en le fichero. Mi opinión personal (a partir de aquí), es que Adobe, Phase ONE y otros fabricantes de software, llevan años trabajando en como hacer esos algoritmos de demosaicing, se han convertido en expertos haciendo eso, y con mucha mayor experiencia que cualquier fabricante de cámara. Por eso creo que su software puede dar mejores resultados que los del propio fabricante.

El principal problema es que esos fabricantes de software, Canon, Nikon, etc… no les dicen que le hacen ellos, después de que aplican demosaicing a un fichero en términos de saturación, tono, contraste, etc… por eso con este software nunca vas a conseguir ver una represantación exacta de lo que viste en pantalla. Si te gusta hacer las fotos en campo y después darle dos retoques rápidos a la misma en el ordenador, entonces a lo mejor el software del fabricante te puede interesar más.

Hay otra gente, por cosas como las que tu mencionas que cree que esto no es cierto, es decir, que el software del fabricante de la cámara es mejor. Yo por los argumentos anteriores no creo que sea así, pero bueno, me he confundido en muchas ocasiones :).

Sobre varias frases que comentas. Lightroom, Adobe Camera RAW (el plugin de Photoshop que edita inicialmente los RAW antes de ser pasados a Photoshop) ó Capture ONE, entre otros, son editores de ficheros RAW, están diseñados para trabajar en RAW bajo un tipo de edición que se llama edición paramétrica. Aunque puedan editar JPEG o TIF, si le pasas esos ficheros, realmente estas desaprovechando mucho su motor interno. Photoshop es un editor de imágenes rasterizados y realmente no entiende RAW, Lightroom ó Adobe Camera RAW le pasan un representación del fichero en algo parecido a TIFF para que se sienta más cómodo.

Para terminar, me preguntas por que un TIFF ocupa más que un RAW, muy sencillo, por que almacenan información distinta. Un RAW almacena lo capturado del sensor, es decir, porcentaje de luz en forma de carga eléctrica que entró en cada pixel/fotodiodo (cada uno de estos pixeles fotodiodos está detrás de un filtro verde, azul o rojo…). Entonces por cada pixel en un RAW tenemos un único valor numérico, de nuevo, pare ver la imagen en color, se le tienen que aplicar algoritmos de demosaicing. Sin embargo, en un fichero TIFF, cada pixel tiene tres valores numéricos, cada uno de ellos representando un porcentaje de rojo, verde y azul. Por cada pixel en un TIFF tiene 3 veces más información que un RAW, por lo cual tenderán a ocupar más (si después haces capas en el TIFF en Photoshop, cada capa puede duplicar el tamaño de la imagen fácilmente).

No sé si me dejo algo por el camino que responder.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

La verdad es que soy muy geek, nerd o como queráis llamarlo. Entender como funcionan las cosas siempre fue uno de mis placeres o debilidades, dado que muchas veces pierdo más tiempo en eso que en ver en como obtener resultados prácticos. Tal ver por eso disfruto mucho cuando me hacen este tipo de preguntas:

Quiero preguntarte que todos sabemos SONY es el principal proveedor de sensores, pero a veces me pregunto que el mismo sensor en un modelo u otro de cámara da resultados distintos, ¿Quién fabrica los procesadores de cada marca?, ya que el procesador ha sido y será donde haya más evolución, al fin y al cabo los sensores solo difieren la mayoría en la cantidad de MP, no creo que los fotodiodos u otras partes del sensor digital, hayan sufrido cambios importantes los últimos diez años, rectifícame si no es así.

Respuesta después de la imagen:

Nieblas en Val dAran

Nieblas en Val d’Aran [Sony A7 II (Amazon, eBay) con Sony 24-70 2.8 GM (Amazon, eBay). Foto sacada a ISO100, f8, 1,3 segundos de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.

Sí, los sensores han sufrido una evolución muy grande en los últimos 10 años. Y Sony, entre innovaciones propias y comprando otras compañías ha sabido mantenerse como un fabricante líder (el último informe de fabricantes de sensores los ponen como que fabrican casi el 40% a nivel mundial, principalmente para teléfonos móviles).

El principal impulsor de la evolución de los sensores con unas ventas de cámaras cada vez menores hasta este año ha sido los teléfonos móviles. Se ha evolucionado mucho el sensor para que con un teléfono móvil pueda hacer cada vez mejores fotos a pesar del pequeño tamaño de los sensores que montan en el mismo. Esta tecnología poco ha poco ha ido pasando a las cámaras. Esto ha hecho cosas como que hoy en día se tengan sensores con más megapixeles con menos ruido (el tamaño del sensor que captura un pixel es más pequeño con lo cual recibe menos luz, si se usase la tecnología de hace 6 o 8 años el ruido sería mucho mayor que el que tenemos ahora a ISO base). Tecnologías como el BSI que se introdujo por primera vez en una cámara full-frame con la Sony A7r II han ayudado a tener menos ruido con un sensor de 42 megapixeles a ISO base que con el anterior de 36 Megapixeles que llevaba la A7r.

Sobre tu pregunta original. Sí, no solo es el sensor, hay otros factores que dan lugar a la imagen final. Aunque Sony fabrique el sensor, los fabricantes de cámaras, sobre los mismos, entiendo que pueden especificar ciertos parámetros. Por ejemplo, para cámaras tipo ASP-C/DX Sony fabrica un sensor de 24 megapixeles, muy usado por Nikon o Fuji, mientras Nikon monta sobre el mismo el típico patrón de Bayer, Fuji optó por montar en él su patrón característico de la serie X.

Si nos vamos a Full-Frame, tenemos el caso del sensor de Sony de 36 Megapixeles, que montan por ejemplo la Sony A7r, Pentax K1 o Nikon D800/D810. Nikon con su D810 decidió ajustar su ISO base a 64, en vez de a 100, ajustando los amplificadores de señal analógica para ello. Eso hace que se una cámara que tenga el mejor rango dinámico de 35 mm y muy apreciada por la gente que hace fotografía de paisaje dado su bajo ruido a ISO base y su capacidad de capturar una escena de alto rango dinámico sin tener que empezar hacer HDR o filtros tan “pronto” como la A7r o la K1.

Ahora mismo, para cámaras fotográficas, solamente hay dos fabricantes de sensores (hay alguno más… pero insignificantes por el número de cámaras que mueven), Sony y Canon, y Canon solamente monta sus sensores en sus cámaras.

Pero todavía hay cosas que vienen de camino en el futuro: obturadores electrónicos globales, mejor rango dinámico, ISOs más altos… Sony considera su división de sensores clave, entre lo que sacan para teléfonos móviles y los que esperan vender con temas de camiones, coches inteligentes, etc… que cada vez montan más cámaras, vamos, le ven crecimiento para unos cuantos años.

Anda que no me he liado explicando esto.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

El concepto de PPP ó puntos por pulgada siempre se atragante un poquito, aquí tenéis una pregunta que me hacen al respecto:

Una última consulta, cuando imprimo desde Lightroom lo hago con la mayor cantidad de PPP que me permite la foto. Pero para entregar a un cliente en JPG y espacio de color sRGB, desde el menú exportar, ¿Con qué resolución (PPP) debería entregárselo? Para un buen uso o posterior impresión por parte del cliente.

Nieblas en Val dAran

Nieblas en Val d’Aran [Sony A7 II (Amazon, eBay) con Canon 70-200 f4 IS L (Amazon, eBay). Foto sacada a ISO100, f11, 1/6 de segundo de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.

Respuesta:

Tanto da lo que pongas en PPP. PPP es una medida que tiene sentido cuando imprimes, o cuando muestras algo en pantalla, pero el fichero de imagen, la resolución del mismo, seguirá siendo los megapixeles que tenga la cámara. En este vídeo lo intento explicar: Conceptos de resolución y puntos por pulgada

Si quieres darle la máxima calidad al cliente, cuando exportes la imagen, no le cambies el tamaño.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Ya hacía tiempo que no publicaba ningún vídeo sobre preguntas y las respuestas que yo doy a distintas personas que me siguen, ya sea por este blog, mi canal de YouTube o directamente por correo. Va siendo la hora de retomar las buenas costumbres, vamos con la siguiente pregunta de Josep:

Continuo con ruegos y preguntas al respecto, ¿Qué le ha funcionado mejor utilizar este método (Tilt conseguir mayor profundidad de campo)) o daría semejantes resultados con la hiperfocal?

Con la hiperfocal no se tiene todo enfocado. Se tiene enfocado desde la mitad de la distancia hiperfocal hasta el infinito. Te marca el punto de enfoque más cercano a la lente donde el infinito está enfocado. Con esta técnica, al cambiar el plano de enfoque, puedes llegar a conseguir tener enfocado incluso mucho más cerca que la mitad de la hiperfocal.

Primavera en Artiga de Lin

Primavera en Artiga de Lin [Sony A7 II (Amazon, eBay) con Tamron 90mm Macro (Amazon, eBay). Foto sacada a ISO100, f7,1, 1/160 de segundo de tiempo de exposición]. © David García Pérez 2017.

Pero realmente solo vale si tienes algo plano y las cosas altas al fondo. Por ejemplo, en medio de un bosque, pues resulta complicado, dado que con los árboles no se podría usar.Por ese motivo, algunas veces recurro a focus stacking

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Hace unas semanas, Leandro me hace la siguiente pregunta relacionada con panorámicas y como ajustamos el tiempo de exposición:

Eilean Donan Castle

Eilean Donan Castle [Canon 5D Mark II con Canon 70-200f4 IS L. Foto sacada a ISO100, f16 y 30 segundos de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2013.

Una pregunta David, ¿no es aconsejable a pié de campo ir modificando la velocidad de exposición en la panorámica? en caso de que varíe mucho la exposición.

No, no lo recomiendo, esto es bastante complicado después por el programa que uses para unir las fotos de hacer una transición uniforme… y que no se noten de forma brusca los cambios de exposición. Si tienes mucho rango dinámico en la panorámica que intentas hacer, te recomendaría probar con esto: Creando panorámicas HDR con Lightroom.

A ver, nunca he usado Lighroom. Uso Photoshop y mal, porqué voy muy poco a poco, aunque perfilo primero en Camera RAW. Realmente este vídeo lo veo bastante complicado para mí, pero no digo que no sea correcto. No suelo hacer muchas panorámicas, y las pocas q hago, no son a primeras horas del día….con lo cual no hay mucha diferencia de rango dinámico.
De todas formas David, antes de entrar a Photomerge ¿Es aconsejable retocar una a una cada foto antes de unirlas?
¡Y muchas gracias! ¡Cómo siempre!

El flujo de trabajo mostrado aquí es bastante similar al que emplearías usando Camera RAW + Photoshop, es más, las últimas versiones de Camera RAW ya te permiten hacer las panorámicas en el propio programa. En tú caso yo haría lo siguiente:

  1. Tal como hago aquí con Lightroom para editar las imágenes, Camera RAW te permite editar todos los RAW de forma igual… así que hacer todas las ediciones que hagas en RAW de forma igual en todas las imágenes.
  2. Después unirlas con Photomerge y continuar editando en Photoshop como cualquier otra foto…

Sí tienes un Camera RAW que permita hacer panorámicas, crea la panorámica en Camera RAW y después edita. El resultado de hacer la panorámica en Camera RAW y/o Lightroom es que la imagen final es un RAW y no pierdes nada de la flexibilidad de editar en RAW. Por eso cuando la uno con Photoshop… intento primero hacer todo lo que pueda con los RAWs para después montarlo en Photoshop, dado que Photoshop produce un TIFF o PSD… que es menos flexible a la hora de editar que un RAW.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Hace unas semanas, Víctor me hacía las siguientes preguntas:

Anochece en Larra-Belagua

Anochece en Larra-Belagua [Sony A7 II con Canon 70-200f4 IS L. Foto sacada a ISO100, f13 y 0,8 de segundo de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.

Abusando de tu generosidad quiero formularte unas preguntas o dudas sobre este tema que ya me respondiste algo en otra ocasión.

¿El rolling shutter solo se da con objetos en movimiento?

¿No produce ningún otro tipo de artefactos en elementos estáticos?

Si es así, para hacer fotografías por ejemplo de flores y usando el obturador electrónico y disparador remoto, ¿obtendríamos un extra de nitidez,aunque sea en teoría?.

La información que encuentro no se si me aclara o me confunde los conceptos.

Sí, el rolling shutter solamente se produce cuando hay movimiento en la cámara (mueves la cámara para hacer un panning en vídeo) o en lo que se fotografía (personas corriendo, coches en movimiento…).

Si la flor que comentas está estática, no debería producirse ningún artefacto.

Si usas cámaras Sony, ten en cuenta una cosa, tienen dos modos: EFCS y Silent Shutter (obturador silencioso), usa el primero, dado que cualquier vibración a la cámara y la foto te la dará la primera cortinilla… el segundo Sony pone la cámara en 12 bits en vez de 14bits con lo cual pierdes algo de detalle en las sombras.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Tal y como dije en la pregunta sobre la Pentax K–1, me da un poco de miedo hablar de equipo que conozco, como va a pasar en esta serie de preguntas sobre la Sony a6300 (fijaos que evito hablar de la Nikon D7200, por qué ni reviews leí de ella). Sin más preámbulos, aquí está la pregunta de Gabriel:

hola, ¿Qué tal David? ¿Qué opinas de una Sony a6300? ¿Es una cámara aceptable en comparación con una Nikon d7200? ¡Muchas gracias!

Praia das Furnas

Praia das Furnas [Canon 5D Mark II con Canon 17-40f4 L. Foto sacada a ISO100, f13, 1 segundo de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2011.

No conozco mucho la d7200 o la gama de lentes de Nikon para formato ASP-C/DX, así que ahí la comparación será mala. Lo que sí sé sobre la a6300, es una gran cámara, pero con un gran inconveniente. Mucha gente la compró para vídeo y tiene un problema de sobrecalentamiento, cuando graba vídeos 4k durante más de 10 minutos, así que eso puede ser un problema para ti. La batería le va a durar menos que la d7200 y en cuanto a temas de autoenfoque, no deben andar muy dispares.

La a6300 es una cámara pequeña y, para alguna gente, puede que no la encuentren cómoda en las mandos. En cuanto a sensor, mucha diferencia no debe haber entre ambas para grandes ISOs y rango dinámico, dado que el sensor lo fabrica Sony para ambos casos.

Después está la selección de ópticas. Como digo no conozco mucho la selección de ópticas DX de Nikon, pero las de Sony ASP-C no son ninguna maravilla, si quieres calidad, exceptuando que encuentres un 16–70 de Zeiss bueno, vas a tener que recurrir bastante a ópticas full-frame de Sony… que son más grandes y caras. También sé de unas cuantas de Sigma que las ponen bien, pero son fijas. Samyang también tiene algunas ópticas interesantes.

David ¡Muchas gracias por la respuesta! lo voy a tener en cuenta y ¡seguiré analizando algunas cámaras! un gran saludo

Por cierto, que se me olvidó comentar, ten en cuenta que yo nunca he probado ninguna de las dos cámaras. Mi opinión es sobre lo que he leído de la cámara por si algún día la veo baja de precio y la pillo como cámara backup de la Sony A7 II que estoy usando ahora como principal. Pero sin experiencia personal con ella. Con lo cual mi opinión puede tener bastantes limitaciones.

y en ese caso una preguntita mas… ¿Por qué razón optas por canon o la sony a7 ii?… ¿Por los objetivos? ¿por algún tema de sensor?

Por preguntar te comes tres vídeos más: Lista de reproducción de mí análisis de la Sony A7 II. Realmente solo te interesa ver el primero, donde hablo de los motivos de la compra. La verdad, porqué no me motivaba nada de lo que había de Canon en el mercado el verano pasado y veía que muchos fotógrafos de paisaje que seguía se cambiaban a Sony por el rango dinámico (ahora mismo, con la Canon 80D y la 5D Mark IV parece que Canon ya se está acercando a lo que pueden hacer los sensores de Sony). Tenía una cámara que empezaba a mostrar su edad, así que aproveché para comprar la Sony y ver que tal eran, la Sony A7 II para que la broma no me saliese tan cara como con la A7r II . El sistema me ha gustado, así que probablemente me termine cambiando… ya no habrá vuelta atrás cuando invierta en la primera lente (aún no ha pasado pero puede que sea pronto).

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Víctor me pregunta a través de los comentarios de este blog la siguiente cuestión sobre espacio de color de monitores:

Hola, tengo una duda que por más que leo no consigo esclarecer. Hace poco cambié de monitor, un Dell u2515h, que reproduce el 100% del espacio sRGB, me recomendaron ajustar el editor de imágenes a ese espacio de color y no a adobeRGB, ya que los colores no se representarían correctamente, pero leyendo artículos como el tuyo, unos cuantos van ya, siempre recomendáis trabajar con adobeRGB, imagino que dais por hecho que el monitor representa ese espacio de color.

Hayas nevadas en el Montseny

Árboles nevados en el Montseny [Sony A7 II con Canon 70-200f4 IS L. Foto sacada a ISO100, f13 y 1/13 de segundo de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2016.

Para puntualizar, recomiendo ProPhoto RGB en Photoshop para edición de imágenes. En Lightroom no te deja escoger, usan Melissa RGB te guste o no te guste. En el artículo que recomiendo el Adobe RGB hace referencia a la configuración en la cámara, con el objetivo de que el histograma que muestre la cámara en la pantalla tenga la mayor información, pero después el RAW en sí, no tiene un espacio de color asociado. Sencillamente tiene cantidades de Rojo, Verde y Azul por pixel de la imagen.

Volvamos al tema que preguntas, Lightroom usa un espacio color llamado Melissa RGB (propietario de Adobe), que es más grande que el Adobe RGB, y ya no hablemos que el sRGB. Photoshop yo siempre lo configuro para usar ProPhoto RGB. ¿Por qué usan estos espacios de color tan grandes? Por qué cuando estás editando imágenes, los cálculos intermedios de como quedaría un color cuando cambiamos exposición, contraste, etc… son mucho más precisos y dan a lugar a una tonalidad de color mucho más grande en el resultado final (por eso me refiero por suavidad en las transiciones de color), aunque después lo exportemos como sRGB…

Estos programas son inteligentes, saben que monitor tienes, y para mostrarte en pantalla la imagen que tiene más información de color que la que tú monitor puede mostrar, hacen una conversión al vuelo, de forma óptima para que los resultados se vean perfectos. Es más, si has calibrado tú monitor, probablemente tú monitor esté mostrando más que el 100% del sRGB y menos que el Adobe RGB.

Después al exportar la imagen, si la vas a colocar en la web, es importante exportarla usando un espacio de color sRGB, dado que la mayor parte de la gente la verá en programas que no tienen ni en cuenta el espacio de color de la imagen (asumirán que es sRGB) y no sabrán como mostrar esos colores. Esto incluye los navegadores web.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

En mí vídeo sobre las diferencias de DSLR y Mirrorless, Andrés me empezó a hacer una serie de preguntas girando entorno que tipo de cámara es más ideal para este tipo de fotografías. Aquí tenéis mis respuestas a esta pregunta y las siguientes que Andrés siguió preguntando a partir de la misma.

Rojo amanecer en costa brava

Rojo amanecer en Costa Brava [Canon 5D Mark II con Canon EF 17-40 F4L. Fotos sacada a IS0100, f11 y 2 segundos de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2016.

Pregunta:

¿Para hacer timelapses que cámaras en especifico recomendarías?

Dado que estaba dentro del vídeo de diferencias entre DSLR y Mirrorless entendí que iba por ahí la pregunta y me acoté a ese ámbito.

Para timelapses, la verdad es que cualquiera de los dos formatos te vale. Con tal de poder configurar un intervalómetro, ya sea por qué lo trae la cámara o se le puede conectar. Tendrías más problemas con cosas como parpadeo por apertura. Tal vez alguna cámara que permita disparo electrónico en primera y segunda cortinilla te sería más interesante, para que el obturador sufra menos, pero también genera otros problemas.

…pero lamento que no te entienda lo de parpadeo por apertura, lo de primera y segunda cortinilla tampoco lo entiendo bien eso, ¿es por flashes?. El mayor problema que veo para hacer timelapses es la cantidad de disparos que consume, ¿No seria mas conveniente una mirrorless que “aguanta más”?

Por partes:

  • Parpadeo por apertura. Lo primero indicar que solamente he jugado un poco con timelapses, así que no soy el mayor experto. Bien, el problema consiste en la forma en como funciona una cámara, habitualmente. Cuando hacemos un disparo, la cámara cierra la apertura, hace la foto, y vuelve abrir la apertura de la lente para que entre suficiente luz para que pueda enfocar (o enfocar con precisión). Uno pensaría que cuando la cámara cierra la lente a f8 ó f11 eso es preciso… pero no es así, hay un pequeño margen de error que no notamos en una foto, pero cuando montamos un vídeo, puede dar este parpadeo: Vídeo ejemplo de parpadeo por apertura. Eso es debido a que la apertura no cierra bien del todo y entra más o menos luz. Por software la verdad es que es un coñazo intentar solucionar eso, aunque hay herramientas. Esto lo había visto hace unos años cuando la gente empezaba con timelapses… no sé si ahora existen más formas de solucionar esto.

  • Primera y segunda cortinilla no deja más que describir los movimientos del obturador. La primera cortinilla es el abrir el obturador para que entre luz sobre el sensor o película, segunda cortinilla es cuando el obturador se cierra para parar la exposición. Lo de cortinilla viene a que realmente parece que estamos abriendo o cerrando una cortina sobre el sensor o película. Esto tiene que ver con los flashes, por qué dependiendo de cuando disparemos el flash tendrá un efecto o otro. Cuando hablamos de obturador electrónico se puede hacer de dos formas. Lo que algunos fabricantes llaman EFCS Electronic First Curtain Shutter (Obturador electrónico de primera cortinilla), que en este caso el obturador no se pone delante del sensor antes de hacer la foto, sino que es una señal electrónica la que le dice al sensor que mida luz, pero después, para parar de medir luz, se baja el obturador mecánico (esto es muy usado en fotografía de trípode con sensores de alta resolución para evitar vibraciones debido a subir el obturador, por este problema se hizo famosa la Sony A7r). Si el movimiento de bajar obturador también es electrónico, es decir, que realmente no baja el obturador mecánicamente, pues ambas cortinillas son electrónicas. Cada fabricante llama esto de diferentes formas. Ahora mismo solamente recuerdo la de Sony que la llama disparo silencioso.

  • No, no veo por qué una mirrorless tiene que aguantar más para timelapses que una DSLR. La DSLR la pones en liveview o bloqueas el espejo para arriba y ya no se va a mover durante la toma de fotos. El mecanismo que sufre realmente en los timelapses es el obturador mecánico. Si tú cámara permite EFCS yo lo usaría para rebajar el estrés sobre el obturador. Si permite ambas cortinas electrónicas, ya lo habría que mirar por cámara y tipo de timelapse. Por ejemplo, Sony en esa situación, baja la precisión de 14bits a 12bits, lo cual te hará que el ruido sea más significativo (supongo que tendrán alguna limitación electrónica en el sensor al hacer todo el proceso electrónico).

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

José Santiago me preguntó en mi primer preguntas y respuestas sobre la relación entre tamaño de sensor y profundidad de campo. Pero no fue hasta después de que le contestase hasta que me volvió con su duda más interesante relacionada con este tema.

Nevadas en Montseny

Nevadas en Montseny [Sony A7 II con Canon 70-200f4 IS L. Foto sacada a ISO800, f13 y 1/13 de segundo de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.

Pregunta:

Muchas gracias David por tu pronta respuesta y la solución a las dudas que tenía creadas; Aunque, con el formato medio, si dices que tiene menos profundidad de campo ¿Cómo es posible que el legendario Ansel Adams, trabajando con la barbaridad de cámara encima del coche, podía tener la nitidez y profundidad de campo que mostraba en sus fotografías cuando fotografiaba esos paisajes? Es algo que no acabo de entender.

No sé si sabes que Ansel Adams fue uno de los fundadores del Grupo F/64. Los motivos de creación del grupo y sus reivindicaciones darían para todo un libro (es más, estoy leyendo uno al respecto: Group f.64: Edward Weston, Ansel Adams, Imogen Cunningham, and the Community of Artists Who Revolutionized American Photography). El nombre viene dado de usar f/64 cuando sacaban fotos para conseguir la mayor nitidez posible. Si alguna vez has oído hablar de difracción, supongo que estarás alarmado, eso de que no pasemos de f13 por qué la imagen se vuelve suave, es cierto, en cámaras de 35mm, pero en cámaras de gran formato, eso se nota menos, y mucho menos usando película, que tenía mucha menor resolución que las cámaras digitales actuales. Por lo tanto, conseguían mayor profundidad de campo cerrando más la lente, que las lentes de largo formato lo permiten. Pero no solamente eso. Adams empleaban cámaras técnicas habitualmente, las cámaras técnicas permiten movimientos para cambiar el plano de enfoque, tal y como comento en este vídeo sobre lentes Tilt-Shift: Tilt para fotografía de paisaje.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies