Preguntas y Respuestas

Pablo me pregunta sobre como usar Lightroom en dos ordenadores:

Igual me estoy complicando, pero por intentarlo….. Quiero usar Lightroom en dos ordenadores cuando importo y edito. Es decir poder empezar algo en el portátil y después continuar con el sobremesa. Para ello quería usar Dropbox para tenerlo sincronizado. He probado hacerlo como suelo hacer las importaciones, con las fotos y todo, pero si son muchas son unos cuantos gigas, cuando importo y sincronizo. Creo que mi solución son las previsualizaciones inteligentes pero no se como usarlas en este caso. He pensado en tener un catálogo para importarlas y revelar. Pero puedo tener las previsualizaciones inteligentes de este catálogo sincronizadas mediante Dropbox?. Después este catálogo ya lo exportaría y fusionaría con el catálogo general donde tengo todo. No se, es la idea que tenía en la cabeza, pero no sé si puedo llevarla a cabo.

Otra solución sé que es trabajar con un lápiz, pero es más lento el trabajo, y me quiero complicar, jeje

La respuesta después de la imagen:

Goðafoss

Goðafoss [Sony A7 II con Canon 17-40f4 L. Foto sacada a ISO100, f13, 15 segundos de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.

Primero decir que Lightroom no está diseñado para trabajar de esa forma, y eso puede causar problemas… Lo primero que tienes que asegurarte siempre es que no tienes abierto Lightroom al mismo tiempo en los dos. El catálogo de Lightroom es una base de datos y se te puede corromper si ambas copias de Lightroom intentan escribir en él.

Bien, si vas a este artículo, verás que un catálogo de Lightroom está compuesto de 3 ficheros, necesitas asegurarte que los tres están sincronizados en tu cuenta de dropbox. Ten cuidado, tanto Previews como Smart Previews pueden crecer a tamaño considerable.

Podrás editar la imagen si tienes la Smart Preview creada… y el fichero que las contiene, el que termina en Smart Previews sincronizado por Dropbox

No sé como estás sincronizando las imágenes en ambos ordenadores, pero te tienes que asegurar que estén exactamente en una unidad que se llame igual en ambos ordenadores. Es decir, si estás en Windows y tus imágenes están en el disco: D://imagenes/… en tu otro ordenador tienen que estar en un disco que también sea el D://imagenes… de esa forma engañarás a Lightroom.

No sé si te vale para hacer lo que quieres.

A través de mi canal de YouTube me llega la siguiente pregunta:

Hola, no cuento con mucho presupuesto y mi pregunta es: ¿Invierto en un monitor que llegue a un 100% sRGB, 100% Adobe RGB, un calibrador de monitor (como el que recomiendas en tu video) o mejor agarro mi mac con mi pantonera? Tengo duda, ya que he leído muchos artículos y la verdad que hasta el día de hoy no se exactamente que es lo que ayuda mejor con el trabajo del color, porque por ahí me dijeron que al final no importa ninguno de esos factores, que lo que importa es si la imprenta usa calibración buena (es decir que la imprenta-impresora este bien calibrada). Espero puedas ayudarme con mis dudas. Gracias.

Respuesta después de la imagen:

Svöðufoss

Svöðufoss [Sony A7 II (Amazon, eBay) con Canon 70-200 f4 IS L (Amazon, eBay). Foto sacada a ISO100, f11, 0,6 segundos de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.

Todos los factores importan. Es muy importante que el plotter que usen donde imprimas las fotos tenga un perfil de color correcto para el papel que se emplee. Pero aún así, si tú en tu foto ves un color naranja, cuando realmente en el archivo de la foto va un color rojo. En la imprenta más perfecta del mundo se va a imprimir un color rojo… lo que tenga el archivo, no lo que tu veas en tu monitor.

En cuanto al monitor. Depende lo que tengas. Si es un portátil Mac, las pantallas de portátil son bastante limitadas, así que a lo mejor te convendría mirar un monitor. De lo más económico que conozco que funciona bien (no lo he probado nunca, pero por lo que he leído) es el Benq SW2700. Si tienes uno de los últimos iMac. La verdad es que ahora montan un panel que da el 100% de sRGB y, aunque no llegan al del Adobe RGB, no se deben quedar muy lejos.

En ambas situaciones, si que te recomendaría que te recomendaría que pillaras un calibrador como el X-Rite iDisplay Port. Incluso si al final sigues solamente con una pantalla de portátil.

En un vídeo sobre el patrón de Bayer me hacen la siguiente pregunta (respuesta después de la imagen):

Algún día háblanos del teorema o frecuencia de muestreo de Nyquist-Shannon (señal-ruido), ya que después de leer en varios foros, hay sensores con menos MP que producen más detalle que otros con más MP, es decir profundizar en estas tesis.

Kvernufoss

Kvernufoss [Sony A7 II (Amazon, eBay) con Sony 24-70 2.8 GM (Amazon, eBay). Foto sacada a ISO100, f11, 1 segundo de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.

El teorema de Nyquist-Shannon no nos da la relación señal-ruido… nos indica si tenemos suficientes medidas para poder reconstruir la señal.

En este vídeo me he dejado bastantes cosas en el tintero, más que nada por qué no tengo imágenes ejemplo mías para poder mostraros los efectos… Veamos, la matriz de Bayer tiene un problema principal, que es el proceso de reconstrucción del color, lo que llaman demosaicing, aquí aparece el moiré de color. ¿Te acuerdas de que antes siempre se decía que no era bueno llevar camisas de rayas para la TV? Pues patrones muy regulares como eses, aunque hoy en día tienen que tener mayor frecuencia, se le pueden atragantar a la matriz de bayer, dado que al hacer la reconstrucción de color, en los bordes de esos patrones puede dar colores falsos. Para solucionar esto, habitualmente, sensores por debajo de 24 megapixeles montan un filtrado paso bajo, que hacen la imagen un pelín más borrosa antes de que llegue al sensor, para evitar que aparezca Moire. Por encima de 24 megapixeles, muchos fabricantes dicen que aparezca Moire en patrones naturales (es decir, no pruebas de mala leche en laboratorio) es más complicado. Realmente aparecen (a ver si algún día con una cámara de estas, como la Sony A7r II o la Nikon D810 consigo grabar uno de estos patrones y os los muestro) pero son raros… y Capture ONE o Lightroom ahora incluyen un corrector de Moiré que funciona a las 1000 maravillas. Así que no es un problema.

Si te fijas, cada pixel de la matriz de Bayer usa información de color de los vecinos, así que algo de nitidez se pierde en ese proceso. En cuanto a eso que has leído en los foros, lo único que se me ocurre es que sean los sensores de Sigma, los Foveon, que al medir toda la información de color en el mismo pixel, no tienen los problemas de tener que usar parte de la luz de pixeles vecinos para obtenerla, así que con menos megapíxeles, aparentan ser más nítidos.

Esta es una pregunta que me llega de vez en cuando. Yo tengo una opinión bastante clara al respecto, pero entiendo que no todo el mundo la comparta conmigo, incluso después de mi respuesta:

Buenas noches David,

Me quedan unas dudas en lo referente a los distintos formatos de archivos, (RAW, TIFF, PSD o JPEG), por su variación de tamaño y comportamiento ante procesos futuros, etc.

Si, es cierto que cualquier tipo de archivo es susceptible de desaparecer, ya sea por motivos comerciales, de innovación tecnológica o el que fuera. En cualquier caso siempre podemos tener los archivos RAW originales bien guardados o quizás convertidos a un formato que creamos que puedan ser editados en el nuevo programa de edición y procesado de imágenes recién estrenado y acorde con las nuevas tecnologías. En caso contrario, deberíamos recurrir a los programas propietarios o compatibles creados en su momento.

Ya que el formato RAW es variable en las distintas marcas, cámaras, modelos y dado que esos fabricantes se han hecho propietarios y únicos conocedores de la encriptación de nuestros archivos, se nos puede presenta la pregunta y decisión de: ¿Qué formato y programa utilizar?.

Ya había consultado en otra ocasión algo parecido, (ya se, tal vez influenciado por J. B. Ruiz y su sistema), pero aun así, ¿No seria más lógico tras tomar la captura de la imagen en nuestra cámara, desencriptar, descifrar ese archivo cifrado RAW con el programa del fabricante y tratarlo después en un programa dedicado a la edición y/o procesado de imágenes mas completo y adecuado para eso como Photoshop, Lightroom,…?

Una vez el archivo este libre de algoritmos de encriptación, ¿No será más fácil para Photoshop, … entenderse con ese archivo, ya sea convertido a TIFF o PSD?

Otra cuestión que todavía no llego a comprender, (que seguro tendrá su explicación), es por la cual un archivo RAW de 40 Mb pasa a ocupar más del doble y hasta el triple en TIFF una vez desencriptado.

Nuevamente, muchas gracias por tu atención.

Después de la imagen mi respuesta:

Rayos de sol...

Rayos de sol… [Sony A7 II (Amazon, eBay) con Sony 24-70 2.8 GM (Amazon, eBay). Foto sacada a ISO100, f10, 1/160 segundo de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.

Empecemos primero por lo que tú llamas encriptación, que estrictamente no es eso. Sencillamente la tradición es que algunos fabricantes no comparten la información de como se almacena la información en su fichero RAW. No la encriptan de forma que no se pueda leer sin una clave de descifrado, sencillamente no le explican a nadie como almacenan eso.

Según tengo entendido, muchos fabricantes comparten esta información con Adobe, Phase ONE o otros para que sus cámaras sean soportadas lo antes posible, pero no hay mucha información al respecto.

Bien, al final un fichero RAW no deja más que indica la cantidad de carga que llegó a un pixel en un mosaico de bayer (no todos los sensores usan Matriz de Bayer, digamos que el 99% de los que están en el mercado para que las cámaras sean capaces de ve en color). A parte de eso, en el fichero RAW puede ir otra información como ISO que se usó, como estaba la cámara configurada en balance de blancos, etc…

Tengo un vídeo donde, verás que hablo de una herramienta RAW digger que te deja ver los canales de información Rojo, Verde y Azul, que realmente son 3 imágenes en blanco y negro… eso es básicamente un fichero RAW. Para poder ver la imagen que se nos muestra en pantalla, lo que tiene que hacer cualquier programa o la cámara es lo que se llama demosaicing, que básicamente consiste en coger la información de color de los pixeles vecinos, ponderada según el balance de blancos que queramos usar (es un parámetro en una ecuación matemática, por eso se dice que en RAW el balance de blancos no es información crítica), y se decidirá si ese pixel es amarillento, naranja, púrpura… etc…

Ese proceso de demosaicing es crítico hacerlo bien, para que por un lado no aparezcan artefactos y por otro obtener la mayor calidad posible. Esto es independiente de como el fabricante guarde la información en le fichero. Mi opinión personal (a partir de aquí), es que Adobe, Phase ONE y otros fabricantes de software, llevan años trabajando en como hacer esos algoritmos de demosaicing, se han convertido en expertos haciendo eso, y con mucha mayor experiencia que cualquier fabricante de cámara. Por eso creo que su software puede dar mejores resultados que los del propio fabricante.

El principal problema es que esos fabricantes de software, Canon, Nikon, etc… no les dicen que le hacen ellos, después de que aplican demosaicing a un fichero en términos de saturación, tono, contraste, etc… por eso con este software nunca vas a conseguir ver una represantación exacta de lo que viste en pantalla. Si te gusta hacer las fotos en campo y después darle dos retoques rápidos a la misma en el ordenador, entonces a lo mejor el software del fabricante te puede interesar más.

Hay otra gente, por cosas como las que tu mencionas que cree que esto no es cierto, es decir, que el software del fabricante de la cámara es mejor. Yo por los argumentos anteriores no creo que sea así, pero bueno, me he confundido en muchas ocasiones :).

Sobre varias frases que comentas. Lightroom, Adobe Camera RAW (el plugin de Photoshop que edita inicialmente los RAW antes de ser pasados a Photoshop) ó Capture ONE, entre otros, son editores de ficheros RAW, están diseñados para trabajar en RAW bajo un tipo de edición que se llama edición paramétrica. Aunque puedan editar JPEG o TIF, si le pasas esos ficheros, realmente estas desaprovechando mucho su motor interno. Photoshop es un editor de imágenes rasterizados y realmente no entiende RAW, Lightroom ó Adobe Camera RAW le pasan un representación del fichero en algo parecido a TIFF para que se sienta más cómodo.

Para terminar, me preguntas por que un TIFF ocupa más que un RAW, muy sencillo, por que almacenan información distinta. Un RAW almacena lo capturado del sensor, es decir, porcentaje de luz en forma de carga eléctrica que entró en cada pixel/fotodiodo (cada uno de estos pixeles fotodiodos está detrás de un filtro verde, azul o rojo…). Entonces por cada pixel en un RAW tenemos un único valor numérico, de nuevo, pare ver la imagen en color, se le tienen que aplicar algoritmos de demosaicing. Sin embargo, en un fichero TIFF, cada pixel tiene tres valores numéricos, cada uno de ellos representando un porcentaje de rojo, verde y azul. Por cada pixel en un TIFF tiene 3 veces más información que un RAW, por lo cual tenderán a ocupar más (si después haces capas en el TIFF en Photoshop, cada capa puede duplicar el tamaño de la imagen fácilmente).

No sé si me dejo algo por el camino que responder.

La verdad es que soy muy geek, nerd o como queráis llamarlo. Entender como funcionan las cosas siempre fue uno de mis placeres o debilidades, dado que muchas veces pierdo más tiempo en eso que en ver en como obtener resultados prácticos. Tal ver por eso disfruto mucho cuando me hacen este tipo de preguntas:

Quiero preguntarte que todos sabemos SONY es el principal proveedor de sensores, pero a veces me pregunto que el mismo sensor en un modelo u otro de cámara da resultados distintos, ¿Quién fabrica los procesadores de cada marca?, ya que el procesador ha sido y será donde haya más evolución, al fin y al cabo los sensores solo difieren la mayoría en la cantidad de MP, no creo que los fotodiodos u otras partes del sensor digital, hayan sufrido cambios importantes los últimos diez años, rectifícame si no es así.

Respuesta después de la imagen:

Nieblas en Val dAran

Nieblas en Val d’Aran [Sony A7 II (Amazon, eBay) con Sony 24-70 2.8 GM (Amazon, eBay). Foto sacada a ISO100, f8, 1,3 segundos de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.

Sí, los sensores han sufrido una evolución muy grande en los últimos 10 años. Y Sony, entre innovaciones propias y comprando otras compañías ha sabido mantenerse como un fabricante líder (el último informe de fabricantes de sensores los ponen como que fabrican casi el 40% a nivel mundial, principalmente para teléfonos móviles).

El principal impulsor de la evolución de los sensores con unas ventas de cámaras cada vez menores hasta este año ha sido los teléfonos móviles. Se ha evolucionado mucho el sensor para que con un teléfono móvil pueda hacer cada vez mejores fotos a pesar del pequeño tamaño de los sensores que montan en el mismo. Esta tecnología poco ha poco ha ido pasando a las cámaras. Esto ha hecho cosas como que hoy en día se tengan sensores con más megapixeles con menos ruido (el tamaño del sensor que captura un pixel es más pequeño con lo cual recibe menos luz, si se usase la tecnología de hace 6 o 8 años el ruido sería mucho mayor que el que tenemos ahora a ISO base). Tecnologías como el BSI que se introdujo por primera vez en una cámara full-frame con la Sony A7r II han ayudado a tener menos ruido con un sensor de 42 megapixeles a ISO base que con el anterior de 36 Megapixeles que llevaba la A7r.

Sobre tu pregunta original. Sí, no solo es el sensor, hay otros factores que dan lugar a la imagen final. Aunque Sony fabrique el sensor, los fabricantes de cámaras, sobre los mismos, entiendo que pueden especificar ciertos parámetros. Por ejemplo, para cámaras tipo ASP-C/DX Sony fabrica un sensor de 24 megapixeles, muy usado por Nikon o Fuji, mientras Nikon monta sobre el mismo el típico patrón de Bayer, Fuji optó por montar en él su patrón característico de la serie X.

Si nos vamos a Full-Frame, tenemos el caso del sensor de Sony de 36 Megapixeles, que montan por ejemplo la Sony A7r, Pentax K1 o Nikon D800/D810. Nikon con su D810 decidió ajustar su ISO base a 64, en vez de a 100, ajustando los amplificadores de señal analógica para ello. Eso hace que se una cámara que tenga el mejor rango dinámico de 35 mm y muy apreciada por la gente que hace fotografía de paisaje dado su bajo ruido a ISO base y su capacidad de capturar una escena de alto rango dinámico sin tener que empezar hacer HDR o filtros tan “pronto” como la A7r o la K1.

Ahora mismo, para cámaras fotográficas, solamente hay dos fabricantes de sensores (hay alguno más… pero insignificantes por el número de cámaras que mueven), Sony y Canon, y Canon solamente monta sus sensores en sus cámaras.

Pero todavía hay cosas que vienen de camino en el futuro: obturadores electrónicos globales, mejor rango dinámico, ISOs más altos… Sony considera su división de sensores clave, entre lo que sacan para teléfonos móviles y los que esperan vender con temas de camiones, coches inteligentes, etc… que cada vez montan más cámaras, vamos, le ven crecimiento para unos cuantos años.

Anda que no me he liado explicando esto.

El concepto de PPP ó puntos por pulgada siempre se atragante un poquito, aquí tenéis una pregunta que me hacen al respecto:

Una última consulta, cuando imprimo desde Lightroom lo hago con la mayor cantidad de PPP que me permite la foto. Pero para entregar a un cliente en JPG y espacio de color sRGB, desde el menú exportar, ¿Con qué resolución (PPP) debería entregárselo? Para un buen uso o posterior impresión por parte del cliente.

Nieblas en Val dAran

Nieblas en Val d’Aran [Sony A7 II (Amazon, eBay) con Canon 70-200 f4 IS L (Amazon, eBay). Foto sacada a ISO100, f11, 1/6 de segundo de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.

Respuesta:

Tanto da lo que pongas en PPP. PPP es una medida que tiene sentido cuando imprimes, o cuando muestras algo en pantalla, pero el fichero de imagen, la resolución del mismo, seguirá siendo los megapixeles que tenga la cámara. En este vídeo lo intento explicar: Conceptos de resolución y puntos por pulgada

Si quieres darle la máxima calidad al cliente, cuando exportes la imagen, no le cambies el tamaño.

Ya hacía tiempo que no publicaba ningún vídeo sobre preguntas y las respuestas que yo doy a distintas personas que me siguen, ya sea por este blog, mi canal de YouTube o directamente por correo. Va siendo la hora de retomar las buenas costumbres, vamos con la siguiente pregunta de Josep:

Continuo con ruegos y preguntas al respecto, ¿Qué le ha funcionado mejor utilizar este método (Tilt conseguir mayor profundidad de campo)) o daría semejantes resultados con la hiperfocal?

Con la hiperfocal no se tiene todo enfocado. Se tiene enfocado desde la mitad de la distancia hiperfocal hasta el infinito. Te marca el punto de enfoque más cercano a la lente donde el infinito está enfocado. Con esta técnica, al cambiar el plano de enfoque, puedes llegar a conseguir tener enfocado incluso mucho más cerca que la mitad de la hiperfocal.

Primavera en Artiga de Lin

Primavera en Artiga de Lin [Sony A7 II (Amazon, eBay) con Tamron 90mm Macro (Amazon, eBay). Foto sacada a ISO100, f7,1, 1/160 de segundo de tiempo de exposición]. © David García Pérez 2017.

Pero realmente solo vale si tienes algo plano y las cosas altas al fondo. Por ejemplo, en medio de un bosque, pues resulta complicado, dado que con los árboles no se podría usar.Por ese motivo, algunas veces recurro a focus stacking

Hace unas semanas, Leandro me hace la siguiente pregunta relacionada con panorámicas y como ajustamos el tiempo de exposición:

Eilean Donan Castle

Eilean Donan Castle [Canon 5D Mark II con Canon 70-200f4 IS L. Foto sacada a ISO100, f16 y 30 segundos de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2013.

Una pregunta David, ¿no es aconsejable a pié de campo ir modificando la velocidad de exposición en la panorámica? en caso de que varíe mucho la exposición.

No, no lo recomiendo, esto es bastante complicado después por el programa que uses para unir las fotos de hacer una transición uniforme… y que no se noten de forma brusca los cambios de exposición. Si tienes mucho rango dinámico en la panorámica que intentas hacer, te recomendaría probar con esto: Creando panorámicas HDR con Lightroom.

A ver, nunca he usado Lighroom. Uso Photoshop y mal, porqué voy muy poco a poco, aunque perfilo primero en Camera RAW. Realmente este vídeo lo veo bastante complicado para mí, pero no digo que no sea correcto. No suelo hacer muchas panorámicas, y las pocas q hago, no son a primeras horas del día….con lo cual no hay mucha diferencia de rango dinámico.
De todas formas David, antes de entrar a Photomerge ¿Es aconsejable retocar una a una cada foto antes de unirlas?
¡Y muchas gracias! ¡Cómo siempre!

El flujo de trabajo mostrado aquí es bastante similar al que emplearías usando Camera RAW + Photoshop, es más, las últimas versiones de Camera RAW ya te permiten hacer las panorámicas en el propio programa. En tú caso yo haría lo siguiente:

  1. Tal como hago aquí con Lightroom para editar las imágenes, Camera RAW te permite editar todos los RAW de forma igual… así que hacer todas las ediciones que hagas en RAW de forma igual en todas las imágenes.
  2. Después unirlas con Photomerge y continuar editando en Photoshop como cualquier otra foto…

Sí tienes un Camera RAW que permita hacer panorámicas, crea la panorámica en Camera RAW y después edita. El resultado de hacer la panorámica en Camera RAW y/o Lightroom es que la imagen final es un RAW y no pierdes nada de la flexibilidad de editar en RAW. Por eso cuando la uno con Photoshop… intento primero hacer todo lo que pueda con los RAWs para después montarlo en Photoshop, dado que Photoshop produce un TIFF o PSD… que es menos flexible a la hora de editar que un RAW.

Hace unas semanas, Víctor me hacía las siguientes preguntas:

Anochece en Larra-Belagua

Anochece en Larra-Belagua [Sony A7 II con Canon 70-200f4 IS L. Foto sacada a ISO100, f13 y 0,8 de segundo de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.

Abusando de tu generosidad quiero formularte unas preguntas o dudas sobre este tema que ya me respondiste algo en otra ocasión.

¿El rolling shutter solo se da con objetos en movimiento?

¿No produce ningún otro tipo de artefactos en elementos estáticos?

Si es así, para hacer fotografías por ejemplo de flores y usando el obturador electrónico y disparador remoto, ¿obtendríamos un extra de nitidez,aunque sea en teoría?.

La información que encuentro no se si me aclara o me confunde los conceptos.

Sí, el rolling shutter solamente se produce cuando hay movimiento en la cámara (mueves la cámara para hacer un panning en vídeo) o en lo que se fotografía (personas corriendo, coches en movimiento…).

Si la flor que comentas está estática, no debería producirse ningún artefacto.

Si usas cámaras Sony, ten en cuenta una cosa, tienen dos modos: EFCS y Silent Shutter (obturador silencioso), usa el primero, dado que cualquier vibración a la cámara y la foto te la dará la primera cortinilla… el segundo Sony pone la cámara en 12 bits en vez de 14bits con lo cual pierdes algo de detalle en las sombras.

Tal y como dije en la pregunta sobre la Pentax K–1, me da un poco de miedo hablar de equipo que conozco, como va a pasar en esta serie de preguntas sobre la Sony a6300 (fijaos que evito hablar de la Nikon D7200, por qué ni reviews leí de ella). Sin más preámbulos, aquí está la pregunta de Gabriel:

hola, ¿Qué tal David? ¿Qué opinas de una Sony a6300? ¿Es una cámara aceptable en comparación con una Nikon d7200? ¡Muchas gracias!

Praia das Furnas

Praia das Furnas [Canon 5D Mark II con Canon 17-40f4 L. Foto sacada a ISO100, f13, 1 segundo de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2011.

No conozco mucho la d7200 o la gama de lentes de Nikon para formato ASP-C/DX, así que ahí la comparación será mala. Lo que sí sé sobre la a6300, es una gran cámara, pero con un gran inconveniente. Mucha gente la compró para vídeo y tiene un problema de sobrecalentamiento, cuando graba vídeos 4k durante más de 10 minutos, así que eso puede ser un problema para ti. La batería le va a durar menos que la d7200 y en cuanto a temas de autoenfoque, no deben andar muy dispares.

La a6300 es una cámara pequeña y, para alguna gente, puede que no la encuentren cómoda en las mandos. En cuanto a sensor, mucha diferencia no debe haber entre ambas para grandes ISOs y rango dinámico, dado que el sensor lo fabrica Sony para ambos casos.

Después está la selección de ópticas. Como digo no conozco mucho la selección de ópticas DX de Nikon, pero las de Sony ASP-C no son ninguna maravilla, si quieres calidad, exceptuando que encuentres un 16–70 de Zeiss bueno, vas a tener que recurrir bastante a ópticas full-frame de Sony… que son más grandes y caras. También sé de unas cuantas de Sigma que las ponen bien, pero son fijas. Samyang también tiene algunas ópticas interesantes.

David ¡Muchas gracias por la respuesta! lo voy a tener en cuenta y ¡seguiré analizando algunas cámaras! un gran saludo

Por cierto, que se me olvidó comentar, ten en cuenta que yo nunca he probado ninguna de las dos cámaras. Mi opinión es sobre lo que he leído de la cámara por si algún día la veo baja de precio y la pillo como cámara backup de la Sony A7 II que estoy usando ahora como principal. Pero sin experiencia personal con ella. Con lo cual mi opinión puede tener bastantes limitaciones.

y en ese caso una preguntita mas… ¿Por qué razón optas por canon o la sony a7 ii?… ¿Por los objetivos? ¿por algún tema de sensor?

Por preguntar te comes tres vídeos más: Lista de reproducción de mí análisis de la Sony A7 II. Realmente solo te interesa ver el primero, donde hablo de los motivos de la compra. La verdad, porqué no me motivaba nada de lo que había de Canon en el mercado el verano pasado y veía que muchos fotógrafos de paisaje que seguía se cambiaban a Sony por el rango dinámico (ahora mismo, con la Canon 80D y la 5D Mark IV parece que Canon ya se está acercando a lo que pueden hacer los sensores de Sony). Tenía una cámara que empezaba a mostrar su edad, así que aproveché para comprar la Sony y ver que tal eran, la Sony A7 II para que la broma no me saliese tan cara como con la A7r II . El sistema me ha gustado, así que probablemente me termine cambiando… ya no habrá vuelta atrás cuando invierta en la primera lente (aún no ha pasado pero puede que sea pronto).

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies