• _MG_1510
  • _MG_3774-Editar
  • David García Pérez
  • David García Pérez
  • 20120218_larra-belagua_0072

Bien, quitemos de encima la parte polémica primero. Esta utilidad no está disponible para la gente que compró una licencia de Lightroom 6. Es una utilidad nueva para la gente que está pagando una de las subscripciones mensuales para usar las aplicaciones de Adobe, ya sea la licencia que te da derecho a usar mes a mes Lightroom y Photoshop ó la que te da acceso a todas las aplicaciones Creativa Cloud de Adobe. Si entiendo bien el modelo de negocio de Adobe, hasta que saquen Lightroom 7 irán añadiendo pequeños extras a Lightroom CC que solamente estarán disponibles para la gente que paga subscripción (dejando obviamente a parte si llegaremos a ver una versión de Lightroom 7, pero eso dejo que sea discutido en foros de internet…).

Anochece en Valdearenas

Anochece en Valdearenas [Canon 5D Mark II con Canon 70–200f4L IS. Toma sacada a IS0100, f13 y 1,6 seg. Trípode y disparador remoto utilizado]. © David García Pérez 2015.

Adobe actualizó hace unas semanas todas sus aplicaciones de Creative Cloud, en el caso de Lightroom y Camara RAW, se incorporó una nueva utilidad. Eliminación o añadido de neblinas. Realmente esto es algo que la gente hacía habitualmente con los controles de claridad y contraste, pero según Adobe los algoritmos que usa esta herramienta están basados en modelos de como se dispersa la luz cuando hay muchas partículas en el aire, ya sea de polvo o agua.

El control nuevo para reducir o añadir neblinas se localiza dentro de módulo de revelado, en el panel de Efectos, abajo de todo, tal y como podéis observar en dicha figura:

Controles de lightroom para la eliminación de neblinas

En la imagen con la que abro este artículo he aplicado dicho efecto, aquí tenéis la imagen original sin el mismo (aquí hay truco, la imagen final realmente es composición de dos imágenes, dado que estaba usando una lente de 200mm para que los acantilados del fondo no quedasen demasiado pequeños respecto a a las rocas de primer plano, el problema es que era imposible tener todo en foco, así que tomé dos fotos, una enfocando las rocas y otra los acantilados y las uní después en Photoshop, sin embargo el revelado en Lightroom es el mismo en ambas).

Sin haber eliminado la neblina

Como veis el efecto que he seleccionado es sutil. He movido el control de eliminación de neblinas al +21. Si empezamos a ir más allá, el efecto es completamente horrible. Mientras que elimino ligeramente la neblina causada por el spray del mar sobre los acantilados, hay que decir que también se está oscureciendo la imagen y aumentando significativamente contraste y saturación de forma global. Tal vez para resultados óptimos uno quiera después corregir la iluminación de la imagen o en Photoshop combinar dos imágenes una con la neblina quitada y otra sin ella y con una máscara ir eliminando las zonas donde no queramos que se aplique dicho efecto.

La herramienta también permite añadir neblinas, en todas las imágenes donde lo he probado los resultados no me han gustado mucho la verdad. Tengo la impresión de que no será un efecto que quiera usar.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Siempre he pensado que esto de vivir en Europa nos daba mejores derechos como ciudadanos que en Estados Unidos, pero últimamente parece que cada día que pasa esa visión se va cambiando poco a poco. Si ayer me enteraba que la unión europea está pensando romper la neutralidad de la red en Europa, hoy me entero de que corre peligro la libertad de panorama en algunos países de la Unión Europea como España.

¿Qué es la libertad de panorama? Básicamente el derecho de cualquier persona de hacer fotografías en la calle a edificios o obras de arte y poder usar esas fotografías para algo más que tenerlas en el disco duro de nuestro ordenador y mostrárselas a los colegas cuando se pasan por casa. Tal vez muchos de vosotros penséis que solamente afecta a los fotógrafos profesionales, pero realmente afecta a cualquiera que quiera publicar dichas fotos en Facebook, Instagram, etc… dado que esos sitios usan nuestras fotos para ganar dinero de forma indirecta. Adiós a compartir por las redes sociales nuestras últimas vacaciones.

En la siguiente imagen se puede observar como está la libertad de panorama actualmente en europa:

Libertad de Panorama

«Freedom of Panorama in Europe» por Blank_map_of_Europe_cropped.svg: Revolus derivative work: Quibik (talk) – Blank_map_of_Europe_cropped.svg. Disponible bajo la licencia CC BY-SA 3.0 vía Wikimedia Commons.

Los países en verde oscuro se pueden publicar sin ningún problemas fotos en el exterior y interior de edificios. En países de verde claro solamente fotos de exteriores. Países de amarillo hace falta pedir permiso si en la foto hay alguna obra de arte. Por último, países en rojo, es necesario pedir permiso a los dueños del copyright de cada uno de los edificios y obras de arte que aparezcan en la foto.

Según informa Julia Reda del Partido Pirata Alemán, el próximo día 9 de Julio se votará en el Parlamento Europeo una modificación de la ley de copyright que afectará a todos los países miembros, obligándoles a tomar la versión más restrictiva en cuando a fotografías de exteriores de edificios y/o obras de arte. A partir de ese momento, cualquiera que haga una foto o vídeo en la calle, tendrá que asegurarse de pedir permiso a los dueños de copyright de los edificios o obras de arte que aparecen. A no ser que los creadores originales de dichos edificios o obras de arte ya haga más de 50 años que se han muerto. En definitiva, no se podrán hacer fotografías o vídeos de cualquier edificio moderno y publicarlas en un simple documental, postales, facebook, etc.

Actualmente hay una petición en Change.org para solificar que esta resolución no sea votada, y Julia Reda recomienda que contáctemos a nuestros representantes nacionales para que voten en contra de la misma (aunque sería la primera vez que uno de nuestros políticos no vote lo que le diga su jefes, perdón, mi falta de fé en la clase política…).

Es también interesante y clarificadora al lectura del artículo de Julia Reda sobre quién está detrás de esta iniciativa.

Fuente: D/Y Photography.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Ya hace algunos años había publicado un vídeo sobre como intentaba derechear el histograma cuando exponía digitalmente. Pero realmente hace un par de años que ya no uso ese proceso. Desde hace un par de años simplemente uso la información del histograma RAW que ofrece Magic Lantern. Si tienes una cámara Canon compatible, ya no hace falta más trucos como bajar contraste, saturación etc… o incluso crear un ajuste de balance de blancos personalizado.

En el siguiente vídeo explico como empleo yo personalmente dicha técnica y todas las opciones disponibles que nos ofrece la gente de Magic Lantern.

Para ver como instalar Magic Lantern en vuestra cámara, visitar la siguiente entrada del blog: Instalación de Magic Lantern en vuestra cámara Canon.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Este artículo no va a ser una discusión banal sobre sí la tecnología CCD o CMOS es la superior. Dicha discusión a mediados del 2015 ya no tiene sentido. El mayor fabricante de sensores digitales, Sony, anunció a principios de año que dejaba de aceptar más pedidos para sensores de tipo CCD, claramente indicando que dejaban de fabricarlos. Pocos fabricantes usan hoy en día sensores CCD, las excepciones las encontramos en respaldos digitales de medio formato, como los de Phase One ó en algunas cámaras de vídeo como las de Blackmagic.

Amanece en Benijo

Amanece en Benijo [Canon 5D Mark II con Canon EF 17-40 F4L. Toma sacada a IS0100, f11 y 0,6 seg. Trípode
y disparador remoto utilizado]. © David García Pérez 2015.

Más adelante durante el artículo explico por que CMOS está triunfando en cuanto a número de cámaras que incorporan esta tecnología versus CCD. ¿Significa que CCD poco a poco desaparecerá? Puede… hace 20 años nadie daba un duro por CMOS (una afirmación un pelín exagerada…), puede que futuras evoluciones de la tecnología le vuelvan dar otra oportunidad al CCD o tal vez aparezca algo nuevo que jubile a ambos.

Nacimiento de los sensores digitales

La historia de los CCDs es bastante antigua. Fueron inventados en el año 1969 por Wilard Boyle y George E. Smith en los laboratorios de AT&T Bell Labs. Bautizaron a su invento Charge Bubble Devices. La idea del invento era sencilla, era un dispositivo capaz de leer una serie de valores de carga de un array uno a uno y convertirlos en señales digitales. La idea, según sus autores, tenía bastantes aplicaciones, tales como memoria o dispositivo para capturar imágenes. La primera patente aplicada para ser usada como sensor para imágenes sería Michael Tompsett en 1971. Su dispositivo era un sensor lineal de 8 píxeles que era capaz de actuar como escáner. Era el comienzo de la imagen digital, por el camino el nombre cambiaría a Charge Coupled Devices (CCD). Boyle y Smith recibirían el Premio Nobel de la física por este invento en el año 2009.

El funcionamiento de un CCD actual se puede observar en la siguiente figura:

Esquema de un sensor CCD

Por un lado tenemos los fotodiodos, estos son las partes que reciben la luz, y la convierten a una carga de electrones que es almacenada en el propio pixel. Una vez hecha la captura la carga de cada pixel es transferida una a una fila a fila a los registros de desplazamiento vertical. Y cada fila es después transmitida al registro de desplazamiento horizontal. Pixel a pixel el amplificador de salida convertirá esa carga de electrones en una señal de voltaje analógico que después será convertida a una señal digital por el conversor analógico-digital (A/D).

El otro tipo de sensor digital que se ha popularizado a lo largo de los años son los conocidos como sensores CMOS. A diferencia de los CCD, estos no reciben el nombre por como funcionan, sino por el tipo de proceso de fabricación que siguen: semiconductor complementario de óxido metálico o complementary metal-oxide-semiconductor (CMOS), que es la misma tecnología que se usa para fabricar cualquier tipo de microchip hoy en día (un detalle que resultará relevante más adelante). Un esquema muy simplificado del mismo es el ilustrado por la siguiente figura:

Esquema de un sensor de fotografía CMOS

La primera diferencia que vemos aquí con respecto del CCD es que dentro de cada pixel o fotodiodo está la electrónica que convierte esa carga de electrones que se crea cuando incide luz sobre el sensor en una señal de voltaje analógico. Voltaje que será después convertido por uno o varios conversores A/D en una señal digital.

Evolución

Como muchos sabréis, hasta hace unos años casi todos los sensores fotográficos eran del tipo CCD. Y sobre el 2000 parecía raro que esto fuese a cambiar (y cambió, de forma muy rápida). Los sensores CCD tenían una serie de ventajas inherentes a su diseño. De entrada no tienen que acomodar electrónica dentro del propio pixel como los CMOS (hay una excepción explicada más adelante), lo cual hacía que cada pixel pudiese recibir más luz, mejor señal, menos ruido. También era más fácil en los mismos aplicar lo que se conoce como obturador global (global shutter) a nivel electrónico, que evitaba el efecto conocido como rolling shutter (este efecto también se podía dar en película, dependía de como el obturador de la cámara estuviese implementado). No es que en un sensor CMOS no se pueda implementar un global shutter, sencillamente que es muchísimo más complejo.

También existe la creencia de que los sensores CCD producen mejor color que los CMOS. Realmente esto es debido a que los sensores de cámara de medio formato (hasta hace muy poco prácticamente todos CCDs) tienen un mejor filtro bayer que las cámaras CMOS de 35mm (esto también tiene un precio, cuanto más preciso es el filtro en diferenciar rojo, verde y azul, menos luz llega al fotodiodo y más ruido puede haber).

Pero los sensores CCD tienen una gran desventaja, su proceso de fabricación es distinto a como se fabrican los microchips. El principal inconveniente de esto es que no se beneficia directamente de los avances de procesos de fabricación de microchips. Al mismo tiempo, requieren que la electrónica para convertir la señal a digital vaya en un chip a parte, lo cual hace más voluminoso el resultado final. Además, también consumen más energía que su equivalente CMOS. Estos dos últimos puntos muy importantes si estás fabricando cámaras para móviles, por ejemplo.

Como indiqué más arriba, los sensores CMOS se beneficiaron en gran medida de la evolución de las tecnologías para fabricar microchips, que siguen exactamente los mismos procesos de fabricación que los que llevan este tipo de sensores. Hasta ahora el proceso de fabricación de microprocesadores se ha guiado por la famosa Ley de Moore, que en algún momento se topará con los límites de la física. Esta ley dice que la cantidad de transistores en un chip se duplicará cada dos años. La principal manera de conseguir esto es a través de hacer dichos transistores más pequeños. Esto tiene la ventaja de que los transistores encargados de hacer la transformación de carga a voltaje que ocupaban parte del pixel, cada vez es más pequeña, y tapan menos área que reciba luz (también hay que tener en cuenta que cada vez los sensores tienen más megapixeles, así que se va manteniendo un equilibrio sobre cuanto ocupa dicho lógica dentro del propio pixel).

Al mismo tiempo, otras de las desventajas fueron cayendo poco a poco. Los sensores CMOS cada vez mostraban mejor relación señal-ruido con lo cual podía alcanzar ISOs más altos sin pérdida de calidad. Un detalle donde CCD sigue manteniendo ventaja es en el tema del global shutter, es mucho más fácil de implementar a nivel electrónico en un sensor CCD que en uno CMOS.

Actualidad y futuro

Si estáis siguiendo últimamente la actualidad de cámaras nueva que salen al mercado os habréis dado cuenta que la norma es cada vez más megapixeles. Sin entrar en el eterno debate si realmente hace falta más megapixeles (tengo que la teoría que el mínimo necesario que todo el mundo dice que hace falta cambia con los años). Este incremento en el número de megapixeles ha disminuido el área de los mismos, por lo cual cada pixel recibe menos luz. Ya hace tiempo que todos los pixeles tienen una microlente encima que les ayuda a recibir más luz para así contrarrestar un poco su área más pequeña. Pero ahora surge un problema con el tamaño del pozo. Si nos fijamos en esta figura sobre un supuesto corte vertical de un sensor CMOS:

Estructura vertical de un sensor CMOS

Como se observa en el diagrama anterior, la electrónica necesaria por pixel CMOS hace que la zona fotosensible esté más profunda de lo deseado. Esto implica que la luz tiene que entrar muy directa sobre el sensor, lo cual es un problema para lentes de gran angular. Por este motivo se coloca desde hace bastante tiempo microlentes en frente de cada pixel, para intentar mejorar la cantidad de luz que recolecta cada pixel.

La primera vez que escuché hablar de este problema fue cuando salió [el respaldo digital de Phase One IQ180] (que curiosamente es CCD, su problema es que son 80 megapixeles, lo cual hace el tamaño de pixel muy pequeño). Para ciertos tipos de lente este mostraba zonas de color púrpura en los bordes de la imagen y fuertes viñeteos, debido a que la luz que salía de una lente gran angular no llega al sensor con un ángulo de 90 grados, sino inclinados y no toda la luz llegaba al fotodiodo por culpa de ello.

Este es el mismo problema por el qué se dudaba, al principio, que la serie A7 de Sony pudiese tener grandes angulares (grandes “expertos” en foros de internet lo dudaban). Al montarse la lente mucho más cerca del sensor (al no tener espejo), es muy complicado hacer un diseño de gran angular que no resulte muy voluminoso (se necesitaría un diseño de retrofocus para enderezar al final los haces de luz, lo cual, además de añadir elementos ópticos que pueden hacer perder calidad, hacen la lente mucho más grande) (supongo que la lente 16–35f4 de Sony para su montura FE hizo que estas especulaciones desapareciesen, al menos para un sensor de 36 Megapixeles como el de la A7r).

Pero el problema sigue estando ahí, cuantos más megapixeles menos luz recibe cada pixel. Curiosamente este ha sido un problema que ya se enfrentaron las compañías fabricantes de sensores para telefonía móvil, como Sony y Samsung. Para solventar dichos problemas, se introdujo un nuevo diseño de sensor denominado Back Side Iluminated CMOS. El esquema más o menos sería el siguiente:

BSI CMOS

La idea más sencilla no puede ser. Se trata de poner la zona fotosensible lo más cerca posible de las microlentes y toda la electrónica necesaria para que cada pixel funcione debajo. La idea es sencilla pero supongo que el proceso de fabricación es mucho más complicado que los típicos chips CMOS para que no empezase a verse en las cámaras hasta hace poco. De esta forma la luz recolectada por el fotodiodo es mucho mayor, haciendo posible de que a pesar de que el tamaño del pixel sea más pequeño (por la gran cantidad de megapixeles), este siga recibiendo suficiente cantidad de luz para que la relación señal ruido siga siendo buena.

Hay que entender como funciona el proceso de fabricación de un chip. Los chips se hacen en obleas de silicio, en cada oblea se van construyendo por diversos procesos físicos y químicos los chips, una vez se finaliza el proceso, la oblea se corta y salen el número correspondientes de chips que cogiesen en esa oblea. Esos chips se testean, dado que un fallo en el proceso de fabricación o impureza en los materiales como la propia oblea de silicio pueden hacer que el chip vaya directamente a la basura. Cuanto más pequeños sean los chips, más te cogen por oblea, así que el ratio entre chips que salen buenos o malos aumenta. Cuanto más grande sea el chip, la probabilidad de que te salga mal algo aumentan significativamente (por eso un sensor de full-frame es mucho más caro que un sensor de móvil).

Los sensores de teléfonos móviles son bastante pequeños, debido a ello nuevas tecnologías que requieran procesos de fabricación más complicados se testean en ellos, como es el baso de BSI CMOS. Cuando el fabricante considera que el proceso de fabricación es lo suficientemente maduro y dicha tecnología puede beneficiar al producto final, este es portado a sus hermanos mayores.

El primer fabricante en sacar una cámara con lentes intercambiables y sensor BSI CMOS fue Samsung con su NX1. Sony, con su A7r II ha sido el segundo, pero de esta vez con un chip de tamaño full-frame y 42 megapixeles. En una entrevista reciente, uno de los responsables de la división de Sony para cámaras comenta que hasta llegar al nivel de 42 megapixeles en el sensor no sintieron la necesidad de portar su tecnología BSI CMOS a las cámaras. En este caso, al ser el pixel tan pequeño, la única forma que veían de conseguir un nivel de ISO aceptable y comparable con modelos anteriores, era usando BSI CMOS (también indican que cambiando de aluminio a cobre en el proceso de fabricación les ayudó a reducir ruido en las etapas de amplificación de la señal). Curiosamente las nuevas Canon 5Ds y 5Ds R que usan tecnología CMOS típica, tienen el ISO limitado a 6400.

Desde que el mundo de sensores digitales se aplica a la fotografía “profesional” no han pasado ni 20 años y parece que las innovaciones y mejoras no paran de llegar…

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

El año pasado ya había escrito un artículo sobre la instlación de Magic Lantern en vuestra cámara Canon. En este año que ha pasado desde la escritura de ese artículo ha habido unos pequeños cambios que hacen que el proceso de instalación de Magic Lantern sea un pelín diferente. He decidido actualizar dicho manual en el siguiente vídeo:

Como comento en el vídeo, para mi las utilidades más interesantes es el histograma RAW, muy útil para los partidarios de derechear el histograma y el intervalómetro incorporado dentro de la propia cámara (Canon lo está anunciando como una gran característica en sus últimas cámaras… menos mal que la competencia tiene esta funcionalidad desde hace casi 10 años…).

Personalmente pienso que Magic Lantern es un software imprescindible para cualquier usuario de cámaras Canon. Eso sí, no voy a negar que no existan riesgos al instalarlo en vuestra cámara y que nadie se va hacer responsable si algo raro pasa a la misma.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Recientemente acabo de cambiar de ordenador, optando por un modelo con disco duro de estado sólido o SSD, dado que es una de la mejores formas de acelerar tu trabajo diario. Aunque no queda muy claro que colocar en él mismo el catálogo de Lightroom mejore en gran medida la velocidad, incluso es bastante complicado hacer estudios significativos, el consenso habitual es que todo parece ir más rápido y no viene mal ponerlo ahí (sobretodo si ponemos ahí la memoria caché del Camara RAW).

Erecteión

Erecteión [Panasonic GF-1 con Panasonic 20mm f1.7. Toma sacada a IS0100, f8 y 1/100 seg.] © David García Pérez 2015.

Mi problema es que mí catálogo ya empieza a ocupar unos 100GB y creciendo poco a poco según voy sacando más imágenes. Esto rápidamente me llenará el disco duro principal de mi ordenador por lo cual la decisión era evidente, el catálogo de Lightroom tenía que irse a un disco duro externo.

Al mismo tiempo que moverlo a un disco externo para él solo, también quería que ese disco fuese portátil. De forma que el catálogo viájase conmigo. Lo primero que se me ocurrió fue mirar discos Thunderbolt (estoy en un mac). El LaCie Thunderbolt Rugged se me antojaba caro, a parte que no veía mucha ventaja en la velocidad que daba sobre USB3 (tiene la ventaja de que el disco va bastante protegido contra golpes).

Después de mirar otras opciones Thunderbolt, la verdad es que no estaba muy ilusionado con las velocidades. El factor limitante está en la conexión típica de estos discos duros, Serial ATA ó SATA. Habitualmente es típico ver cajas Thunderbolt que montan estos tipos de disco en configuraciones RAID, pero claro, ahí se va a tomar viento mi requerimiento de portabilidad.

Después de mucho leer decidí optar por una carcasa Inateck FE2005 y un disco duro SSD Crucial MX100 de 512 GB (también me valía el Samsung EVO 850, pero en ese momento estaba un pelín más caro, el Crucial MX200 o el BX100

La carcasa Inatek F2005 es fea con ganas, básicamente hecha de plástico y más voluminosa de lo necesario. Ante cualquier golpe no creo que proteja mucho el disco en sí. El disco Crucial MX100 da una impresión completamente contraria. De todas formas el resultado por la siguiente captura de pantalla podéis ver que es excelente.

Blackmagic test de velcidad

400 MB/seg tanto de lectura como de escritura de forma sostenida según el programa de BlackMagic para testeo de velocidad de discos para edición de vídeo sobre USB 3.0 no es nada despreciable. Realmente va a ser casi lo máximo que conseguiremos sobre este tipo de conexión. Tener en cuenta que solamente conseguiréis estas velocidades si conectáis el disco directamente al ordenador, a través de un hub corréis el riesgo de que otros dispositivos os estén robando ancho de banda.

Hablando de hubs y carcasas USB 3.0, aseguraros que ambos soportan el protocolo UASP, sino, como mucho conseguiréis 250 MB/seg. de velocidad en el disco duro.

Poco a poco están apareciendo soluciones más compactas como el Samsung Memory, que acaba de bajar de precio a algo similar a lo que yo compré y ahora me da como pena no haber optado por él, sobretodo teniendo en cuenta que el tamaño es bastante similar.

Sin embargo, para los que compren ordenador a principios del año que viene, 2016, este tipo de soluciones se volverán obsoletas. Probablemente su ordenador venga con USB 3.1 (ya sea con conector USB Tipo C o parecido a los actuales). Ya he visto anunciados hace poco modelos de discos USB 3.1 que saldrán a finales de año y duplicaran la velocidad antes indicada (en este caso el disco usa un bus PCIe 2x en vez del SATA). Parece bastante interesante, la única duda que tengo es si será posible que alguien saque un adaptador de Thunderbolt 2 a USB 3.1… tengo mis dudas.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Hace unos 4 meses escribía un artículo sobre la estructura de ficheros de un catálogo en Lightroom. Con la actualización a Lightroom 6 ó Lightroom CC ese artículo ha quedado un poco anticuado en un pequeño aspecto: “en la selección de tamaño por defecto de las previsualizaciones de nuestra catálogo de Lightroom”.

Anochece en Cadaqués

Anochece en Cadaqués [Canon 5D Mark II con Canon 70–200f4L IS. Toma sacada a IS0100, f11 y 0,5 seg. Trípode y disparador remoto utilizado]. © David García Pérez 2015.

Como comentaba en dicho artículo que Lightroom genera unas previsualizaciones JPEG de todas las imágenes que hayamos importado en el catálogo. Estas previsualizaciones se utilizan para mostrar las imágenes en módulos como el biblioteca, mapas, impresión, etc… todos los módulos menos el de revelado. De esta forma Lightroom no tiene que recurrir a abrir los ficheros RAW originales que le llevaría más tiempo.

Si vamos a los ajustes del catálogo (en OS X: Lightroom -> Ajustes de catálogo; y en Windows: Archivo -> Ajustes de catálogo):

Ajustes de catálogo en Lightroom

Podremos observar que de las opciones de “tamaño de previsualización estándar” aparece una nueva: “Automática”.

tamaño de previsualización estándar

Esta opción automática, introducida en Lightroom 6/CC, nos generará imágenes con suficiente resolución para verlas bien a pantalla completa en la pantalla con mayor resolución que tengamos. En mi caso, esta resolución es 2880 píxeles para el monitor de mi portátil de 15 pulgadas. De esta forma cuando pulse en la biblioteca ver la imagen a pantalla completa, esta se verá de forma perfecta.

Obviamente cuanto mayor sea la resolución que escojamos más ocupará nuestro catálgo. Pero hay espacio en disco, así que tampoco me preocupa mucho.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Cuando compré el lector de tarjetas de memoria de Lexar hace ya varios años, no tenía un ordenador con USB3. Obviamente por compatibilidad hacia atrás, podía utilizarlo con mi viejo ordenador a través de uno de sus puertos USB2. Hace algunos días di por perdido mi lector usb de tarjetas y terminé comprando uno nuevo, esta vez de la casa Kingston, en concreto su modelo FCR-HS3 que me salía 17,90€ más barato que el lector de Lexar (Kingston tiene un modelo FCR-HS4, más caro, la única diferencia que puedo ver es que soportan tarjetas SD UHSII, de las cuales no tengo ninguna).

1000 pesetas

1000 pesetas [Canon 5D Mark II con Canon EF 17-40 F4L. Toma sacada a IS0100, f13 y 1/13 seg. Trípode
y disparador remoto utilizado]. © David García Pérez 2015.

Como suele pasar en estas cosas, el lector de Lexar apareció, y ahora he terminado con dos lectores. De paso también cambié de ordenador principal, así que ahora tengo un equipo con USB3 y puedo hacer algunas comparativa más interesante (bueno, realmente no, no tengo tarjeta de memoria suficientemente rápida como para que se muestre diferencia entre ambos, pero ya lo comento más adelante).

Empecemos describiendo un poco el model de Lexar:

Lector de tarjetas de memoria de Lexar

Está íntegramente fabricado en plástico. Como podéis observar por la foto superior, la parte de plástico negra (el lector de tarjetas en sí) se puede esconder dentro del adorno de plástico transparente, en un movimiento parecido al de una concha. El tamaño resulta de lo más práctico para llevar en una esquina en la maleta, mochila de fotos o mochila del portátil. Posee un indicador luminoso (led de color azul discreto) que nos indica si está leyendo o no de una tarjeta insertada.

Hablando de tarjetas, soporta Compact Flash y SD (micro SD si tenéis el adaptador). Es más, se pueden leer dos tarjetas de memoria al mismo tiempo, una de cada tipo, sin ningún tipo de problema.

Como se puede observar en al foto, el modelo de Kingston es más delgado pero más largo:

Lector de tarjetas FCR-HS3 de Kingston

La superficie superior del mismo parece que está fabricada en aluminio, el resto de la construcción es de plástico. A diferencia del de Lexar, este no tiene ninguna parte móvil. Aunque su tamaño también es relativamente pequeño, se me antoja menos transportable que el anterior, pero es más psicológico de verlos uno al lado del otro.

Lo que realmente no me gusta del lector de Kingston es la forma que te indica cuando hay una tarjeta en el lector o está leyendo la misma. El logotipo de Kingston es un led rojo, que se ilumina cuando tiene una tarjeta insertada y parpadea cuando lee o escribe en ella. La verdad es que es tan cantoso como feo. Una cuestión estética.

Al igual que el de Lexar, también lee tarjetas Compact Flash y SD (y varias tarjetas al mismo tiempo también). A diferencia del mismo, el lector de Kingston también es capaz de leer tarjetas MemoryStick (cada vez más raras de ver). Lo que sí es más interesante, es que tiene una ranura específica para tarjetas micro SD, sin necesidad de montarlas en un adaptador como en el caso de Lexar.

Como ya comenté anteriormente, en el momento de escribir esto, el modelo de Lexar se vendía por unos 36,20€, mientras que el de Kingston por unos 18,30€.

Lectura conectados a un puerto USB3

No hagáis mucho caso a esta prueba, la pongo aquí más que nada para comparar con las velocidades que expondré en el caso de que lo conectemos a un bus USB2. Mi tarjeta de memoria más rápida es una Compact Flash de Transcend de 32GB y velocidad 400X (lo cual debería garantizar una velocidad sostenida de lectura de 60MB/seg., según especificaciones). No es de las tarjetas más rápidas, así que más que el lector en sí, la tarjeta es la que está limitando la velocidad en la prueba.

Mi prueba consistió en copiar desde el lector 20GB de fotos al disco duro de mi ordenador (es un disco SSD, así que no debería afectar para nada la velocidad del mismo a las pruebas). Esto lo repetí unas 5 veces por lector y aquí lo que os muestro es el valor medio. En esta sencilla prueba, el lector de tarjetas de Kingston tardó 2 minutos 37 segundos en copiar los 20GB mientras que el lector de tarjetas de Lexar tardó 2 minutos 35 segundos. La diferencia es insignificante.

Si os estáis preguntado por que no he hecho ninguna prueba escribiendo a la tarjeta de memoria conectada al lector. La verdad es que casi nunca escribo nada en la tarjeta de memoria desde el lector. Las cámaras de fotos son las que se encargan de llenar la tarjeta, el lector de transferir esos datos a Lightroom.

Lectura conectados a un puerto USB2

Para ver cuanta velocidad perdía anteriormente por usar un puerto USB2 en vez USB3, hice la misma prueba que antes conectando el lector a través de un hub USB2 al ordenador. En esta ocasión la velocidad media del lector Kingston fue de 8 minutos 30 segundos en copiar los 20GB de fotos al disco duro, mientras que el lector Lexar tardó 8 minutos y 40 segundos. Si no tenías conectado uno de estos lectores de tarjetas usb a un puerto USB3 no sé a que estáis esperando.

Conclusiones

El lector Lexar lleva conmigo varios años y se ha comportado de forma excelente ese tiempo. El Kingston lleva solamente conmigo una semana, así que no haré valoraciones a la larga del mismo (tampoco asumáis que por qué a mí el lector de Lexar no me dio problema en varios años sea un lector fiable, habría que hacer una análisis de varios lectores para llegar a esa conclusión).

Dada la significativa diferencia de precio, personalmente de volver a tener que comprar uno, ahora mismo me decantaría por el Kingston. Es más feo con esa luz roja parpadeante, pero vale la mitad de precio. Ahora mismo es el que estoy usando dejando el Lexar de backup. En caso de que comience a fallar, no dudéis que os lo comentaría por aquí.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Ya había comentado hace algún tiempo que tenía contratado el servicio de copias de seguridad con Backblaze. Llevo ya más de un año con ellos y no podría estar más que contento. A pesar de que el backup inicial llevó más de 6 meses con las maravillosas líneas adsl que tenemos en este país (algún día supongo que tendré fibra en mi casa… algún día).

Amanece en Benijo

Amanece en Benijo [Canon 5D Mark II con Canon EF 17-40 F4L. Toma sacada a IS0100, f11 y 1,3 seg. Trípode
y disparador remoto utilizado]. © David García Pérez 2015.

Mi veterano iMac estaba pidiendo una vida más relajada, así que la semana pasada adquirí un nuevo ordenador para darle caña revelando fotos, montando timelapses y editando vídeos. El problema es que mi cuenta de Backblaze estaba asociada al ordenador antiguo y no me apetecía para nada volver a estar más de 6 meses subiendo cosas hasta sus servidores en California.

Afortunadamente esto es un proceso sencillo con Backblaze, simplemente hay que hacer lo que ellos llaman un Transfer State de un ordenador a otro. Backblaze se pondrá a comprobar los ficheros del nuevo ordenador y si identifica que ese fichero ya está subido todo listo, no se vuelve a subir.

El problema ha sido que después de chequear unos 100GB de ficheros que no estaba seguro si ya tenía backup de los mismos y subir otros nuevos, como mis fotos en Tenerife de este fin de semana, se paró, dando un error de que había un identificador de disco equivocado. Negándose a partir de este punto hacer ninguna copia de seguridad más.

Después de mucho buscar y de empezar a escribir un ticket para el soporte de Backblaze, encontré este artículo que hablaba sobre como Backblaze identifica discos duros. Básicamente colocan una carpeta oculto en la raíz del disco bajo el nombre “.bzvol”.

Es un poco complicada de verla en un Mac (si sabéis usar la terminal, no tendréis mucho problema). En el Finder, pulsar la combinación de teclas “Mayúsculas + Comando + G”, y ahí escribir /Volumes/NOMBRE DEL DISCO/.bzvol (Cambiar “NOMBRE DEL DISCO” por el nombre de vuestro disco duro). Con borrar el nombre del contenido de .bzvol y decirle a Backblaze que vuelva a añadir el disco. Problema solucionado. Yo al final lo tuve que hacer para todos los discos.

No sé si hay una forma más fácil de hacerlo. Pero ahora mismo el ordenador está contento subiendo mis fotos de este fin de semana las nubes…

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Categorías: Sin categoría

{ 0 comments }

Si seguís mi blog con frecuencia probablemente sepáis que tiendo a dar preferencia a la fotografía de paisaje, pero sin lugar a dudas, la fotografía callejera, que nunca se me ha dado bien (esto no quiere decir que la fotografía de paisaje se me dea bien), es un tipo de fotografía que siempre he admirado y tonteo de vez en cuanto. Por ello, cuando acabo de leer que Mary Ellen Mark ha fallecido, siento que el mundo ha perdido una de sus grandes fotógrafas.

Mary Ellen Mark

Mary Ellen Mark (March 20, 1940 – May 25, 2015)

Mary Ellen Mark nació en Filadelfia en el año 1940. Comenzó hacerse un nombre a finales de los años sesenta, cuando comenzó a desarrollar un interés en fotografiar gente, lo que la llevó a tomar fotografías tan diversas como la guerra de Vietnam, la cultura travesti o movimientos de liberación de la mujer.

Fotografía de Mary Ellen Mark

© Mary Ellen Mark

Su trabajo fotográfico ha sido siempre apreciado, pasando en publicar en revistas como Time, The Rolling Stones ó The New Yorker a publicar más de 17 libros, exposiciones en los museos más relevantes del mundo. Hablando de museos, aquí tenéis una charla que dio en el Smithsonian:

Su trabajo es muy personal, siempre fotografiando en película en blanco y negro. Sin saltar en sus últimos años al mundo digital, del cual no renegó, sencillamente se sentía cómoda con su forma de trabajo actual.

Ayer, 25 de Mayo del 2015, perderíamos para siempre a Mary Ellen Mark.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Categorías: Historia

{ 0 comments }

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR