Técnica

Este espero que sea el primer vídeo de una corta serie sobre gestión de color. No esperéis que sea la información exhaustiva, simplemente lo básico que tenemos que hacer para asegurarnos que tenemos un monitor calibrado y que cuando imprimamos, veamos lo mismo que se ve por la pantalla en el papel (dentro de unos ciertos márgenes).

Empezamos esta serie con un vídeo de como calibrar nuestro monitor con el ColorMunki Photo:

Espero que lo disfrutéis.

Probablemente las características más destacadas de Lightroom 6/CC que todo el mundo conoce es la posibilidad de crear fotografías panorámicos y HDRs, pero Adobe también le proporcionó pequeños añadidos como la posibilidad de indicarle a Lightroom que no aplique un filtro degradado o radial a una zona de la imagen donde lo hemos aplicado sencillamente pintando con una herramienta de pincel. En el siguiente vídeo tutorial detallo como funciona:

Esto mismo que habéis visto para el filtro degradado, lo podéis aplicar también para el radial.

Bien, quitemos de encima la parte polémica primero. Esta utilidad no está disponible para la gente que compró una licencia de Lightroom 6. Es una utilidad nueva para la gente que está pagando una de las subscripciones mensuales para usar las aplicaciones de Adobe, ya sea la licencia que te da derecho a usar mes a mes Lightroom y Photoshop ó la que te da acceso a todas las aplicaciones Creativa Cloud de Adobe. Si entiendo bien el modelo de negocio de Adobe, hasta que saquen Lightroom 7 irán añadiendo pequeños extras a Lightroom CC que solamente estarán disponibles para la gente que paga subscripción (dejando obviamente aparte si llegaremos a ver una versión de Lightroom 7, pero eso dejo que sea discutido en foros de internet…).

Anochece en Valdearenas

Anochece en Valdearenas [Canon 5D Mark II con Canon 70–200f4L IS. Toma sacada a IS0100, f13 y 1,6 seg. Trípode y disparador remoto utilizado]. © David García Pérez 2015.

Adobe actualizó hace unas semanas todas sus aplicaciones de Creative Cloud, en el caso de Lightroom y Camara RAW, se incorporó una nueva utilidad. Eliminación o añadido de neblinas. Realmente esto es algo que la gente hacía habitualmente con los controles de claridad y contraste, pero según Adobe los algoritmos que usa esta herramienta están basados en modelos de como se dispersa la luz cuando hay muchas partículas en el aire, ya sea de polvo o agua.

El control nuevo para reducir o añadir neblinas se localiza dentro de módulo de revelado, en el panel de Efectos, abajo de todo, tal y como podéis observar en dicha figura:

Controles de lightroom para la eliminación de neblinas

En la imagen con la que abro este artículo he aplicado dicho efecto, aquí tenéis la imagen original sin el mismo (aquí hay truco, la imagen final realmente es composición de dos imágenes, dado que estaba usando una lente de 200mm para que los acantilados del fondo no quedasen demasiado pequeños respecto a a las rocas de primer plano, el problema es que era imposible tener todo en foco, así que tomé dos fotos, una enfocando las rocas y otra los acantilados y las uní después en Photoshop, sin embargo el revelado en Lightroom es el mismo en ambas).

Sin haber eliminado la neblina

Como veis el efecto que he seleccionado es sutil. He movido el control de eliminación de neblinas al +21. Si empezamos a ir más allá, el efecto es completamente horrible. Mientras que elimino ligeramente la neblina causada por el spray del mar sobre los acantilados, hay que decir que también se está oscureciendo la imagen y aumentando significativamente contraste y saturación de forma global. Tal vez para resultados óptimos uno quiera después corregir la iluminación de la imagen o en Photoshop combinar dos imágenes una con la neblina quitada y otra sin ella y con una máscara ir eliminando las zonas donde no queramos que se aplique dicho efecto.

La herramienta también permite añadir neblinas, en todas las imágenes donde lo he probado los resultados no me han gustado mucho la verdad. Tengo la impresión de que no será un efecto que quiera usar.

Ya hace algunos años había publicado un vídeo sobre como intentaba derechear el histograma cuando exponía digitalmente. Pero realmente hace un par de años que ya no uso ese proceso. Desde hace un par de años simplemente uso la información del histograma RAW que ofrece Magic Lantern. Si tienes una cámara Canon compatible, ya no hace falta más trucos como bajar contraste, saturación etc… o incluso crear un ajuste de balance de blancos personalizado.

En el siguiente vídeo explico como empleo yo personalmente dicha técnica y todas las opciones disponibles que nos ofrece la gente de Magic Lantern.

Para ver como instalar Magic Lantern en vuestra cámara, visitar la siguiente entrada del blog: Instalación de Magic Lantern en vuestra cámara Canon.

Este artículo no va a ser una discusión banal sobre sí la tecnología CCD o CMOS es la superior. Dicha discusión a mediados del 2015 ya no tiene sentido. El mayor fabricante de sensores digitales, Sony, anunció a principios de año que dejaba de aceptar más pedidos para sensores de tipo CCD, claramente indicando que dejaban de fabricarlos. Pocos fabricantes usan hoy en día sensores CCD, las excepciones las encontramos en respaldos digitales de medio formato, como los de Phase One ó en algunas cámaras de vídeo como las de Blackmagic.

Amanece en Benijo

Amanece en Benijo [Canon 5D Mark II con Canon EF 17-40 F4L. Toma sacada a IS0100, f11 y 0,6 seg. Trípode
y disparador remoto utilizado]. © David García Pérez 2015.

Más adelante durante el artículo explico por que CMOS está triunfando en cuanto a número de cámaras que incorporan esta tecnología versus CCD. ¿Significa que CCD poco a poco desaparecerá? Puede… hace 20 años nadie daba un duro por CMOS (una afirmación un pelín exagerada…), puede que futuras evoluciones de la tecnología le vuelvan dar otra oportunidad al CCD o tal vez aparezca algo nuevo que jubile a ambos.

Nacimiento de los sensores digitales

La historia de los CCDs es bastante antigua. Fueron inventados en el año 1969 por Wilard Boyle y George E. Smith en los laboratorios de AT&T Bell Labs. Bautizaron a su invento Charge Bubble Devices. La idea del invento era sencilla, era un dispositivo capaz de leer una serie de valores de carga de un array uno a uno y convertirlos en señales digitales. La idea, según sus autores, tenía bastantes aplicaciones, tales como memoria o dispositivo para capturar imágenes. La primera patente aplicada para ser usada como sensor para imágenes sería Michael Tompsett en 1971. Su dispositivo era un sensor lineal de 8 píxeles que era capaz de actuar como escáner. Era el comienzo de la imagen digital, por el camino el nombre cambiaría a Charge Coupled Devices (CCD). Boyle y Smith recibirían el Premio Nobel de la física por este invento en el año 2009.

El funcionamiento de un CCD actual se puede observar en la siguiente figura:

Esquema de un sensor CCD

Por un lado tenemos los fotodiodos, estos son las partes que reciben la luz, y la convierten a una carga de electrones que es almacenada en el propio pixel. Una vez hecha la captura la carga de cada pixel es transferida una a una fila a fila a los registros de desplazamiento vertical. Y cada fila es después transmitida al registro de desplazamiento horizontal. Pixel a pixel el amplificador de salida convertirá esa carga de electrones en una señal de voltaje analógico que después será convertida a una señal digital por el conversor analógico-digital (A/D).

El otro tipo de sensor digital que se ha popularizado a lo largo de los años son los conocidos como sensores CMOS. A diferencia de los CCD, estos no reciben el nombre por como funcionan, sino por el tipo de proceso de fabricación que siguen: semiconductor complementario de óxido metálico o complementary metal-oxide-semiconductor (CMOS), que es la misma tecnología que se usa para fabricar cualquier tipo de microchip hoy en día (un detalle que resultará relevante más adelante). Un esquema muy simplificado del mismo es el ilustrado por la siguiente figura:

Esquema de un sensor de fotografía CMOS

La primera diferencia que vemos aquí con respecto del CCD es que dentro de cada pixel o fotodiodo está la electrónica que convierte esa carga de electrones que se crea cuando incide luz sobre el sensor en una señal de voltaje analógico. Voltaje que será después convertido por uno o varios conversores A/D en una señal digital.

Evolución

Como muchos sabréis, hasta hace unos años casi todos los sensores fotográficos eran del tipo CCD. Y sobre el 2000 parecía raro que esto fuese a cambiar (y cambió, de forma muy rápida). Los sensores CCD tenían una serie de ventajas inherentes a su diseño. De entrada no tienen que acomodar electrónica dentro del propio pixel como los CMOS (hay una excepción explicada más adelante), lo cual hacía que cada pixel pudiese recibir más luz, mejor señal, menos ruido. También era más fácil en los mismos aplicar lo que se conoce como obturador global (global shutter) a nivel electrónico, que evitaba el efecto conocido como rolling shutter (este efecto también se podía dar en película, dependía de como el obturador de la cámara estuviese implementado). No es que en un sensor CMOS no se pueda implementar un global shutter, sencillamente que es muchísimo más complejo.

También existe la creencia de que los sensores CCD producen mejor color que los CMOS. Realmente esto es debido a que los sensores de cámara de medio formato (hasta hace muy poco prácticamente todos CCDs) tienen un mejor filtro bayer que las cámaras CMOS de 35mm (esto también tiene un precio, cuanto más preciso es el filtro en diferenciar rojo, verde y azul, menos luz llega al fotodiodo y más ruido puede haber).

Pero los sensores CCD tienen una gran desventaja, su proceso de fabricación es distinto a como se fabrican los microchips. El principal inconveniente de esto es que no se beneficia directamente de los avances de procesos de fabricación de microchips. Al mismo tiempo, requieren que la electrónica para convertir la señal a digital vaya en un chip a parte, lo cual hace más voluminoso el resultado final. Además, también consumen más energía que su equivalente CMOS. Estos dos últimos puntos muy importantes si estás fabricando cámaras para móviles, por ejemplo.

Como indiqué más arriba, los sensores CMOS se beneficiaron en gran medida de la evolución de las tecnologías para fabricar microchips, que siguen exactamente los mismos procesos de fabricación que los que llevan este tipo de sensores. Hasta ahora el proceso de fabricación de microprocesadores se ha guiado por la famosa Ley de Moore, que en algún momento se topará con los límites de la física. Esta ley dice que la cantidad de transistores en un chip se duplicará cada dos años. La principal manera de conseguir esto es a través de hacer dichos transistores más pequeños. Esto tiene la ventaja de que los transistores encargados de hacer la transformación de carga a voltaje que ocupaban parte del pixel, cada vez es más pequeña, y tapan menos área que reciba luz (también hay que tener en cuenta que cada vez los sensores tienen más megapixeles, así que se va manteniendo un equilibrio sobre cuanto ocupa dicho lógica dentro del propio pixel).

Al mismo tiempo, otras de las desventajas fueron cayendo poco a poco. Los sensores CMOS cada vez mostraban mejor relación señal-ruido con lo cual podía alcanzar ISOs más altos sin pérdida de calidad. Un detalle donde CCD sigue manteniendo ventaja es en el tema del global shutter, es mucho más fácil de implementar a nivel electrónico en un sensor CCD que en uno CMOS.

Actualidad y futuro

Si estáis siguiendo últimamente la actualidad de cámaras nueva que salen al mercado os habréis dado cuenta que la norma es cada vez más megapixeles. Sin entrar en el eterno debate si realmente hace falta más megapixeles (tengo que la teoría que el mínimo necesario que todo el mundo dice que hace falta cambia con los años). Este incremento en el número de megapixeles ha disminuido el área de los mismos, por lo cual cada pixel recibe menos luz. Ya hace tiempo que todos los pixeles tienen una microlente encima que les ayuda a recibir más luz para así contrarrestar un poco su área más pequeña. Pero ahora surge un problema con el tamaño del pozo. Si nos fijamos en esta figura sobre un supuesto corte vertical de un sensor CMOS:

Estructura vertical de un sensor CMOS

Como se observa en el diagrama anterior, la electrónica necesaria por pixel CMOS hace que la zona fotosensible esté más profunda de lo deseado. Esto implica que la luz tiene que entrar muy directa sobre el sensor, lo cual es un problema para lentes de gran angular. Por este motivo se coloca desde hace bastante tiempo microlentes en frente de cada pixel, para intentar mejorar la cantidad de luz que recolecta cada pixel.

La primera vez que escuché hablar de este problema fue cuando salió [el respaldo digital de Phase One IQ180] (que curiosamente es CCD, su problema es que son 80 megapixeles, lo cual hace el tamaño de pixel muy pequeño). Para ciertos tipos de lente este mostraba zonas de color púrpura en los bordes de la imagen y fuertes viñeteos, debido a que la luz que salía de una lente gran angular no llega al sensor con un ángulo de 90 grados, sino inclinados y no toda la luz llegaba al fotodiodo por culpa de ello.

Este es el mismo problema por el qué se dudaba, al principio, que la serie A7 de Sony pudiese tener grandes angulares (grandes “expertos” en foros de internet lo dudaban). Al montarse la lente mucho más cerca del sensor (al no tener espejo), es muy complicado hacer un diseño de gran angular que no resulte muy voluminoso (se necesitaría un diseño de retrofocus para enderezar al final los haces de luz, lo cual, además de añadir elementos ópticos que pueden hacer perder calidad, hacen la lente mucho más grande) (supongo que la lente 16–35f4 de Sony para su montura FE hizo que estas especulaciones desapareciesen, al menos para un sensor de 36 Megapixeles como el de la A7r).

Pero el problema sigue estando ahí, cuantos más megapixeles menos luz recibe cada pixel. Curiosamente este ha sido un problema que ya se enfrentaron las compañías fabricantes de sensores para telefonía móvil, como Sony y Samsung. Para solventar dichos problemas, se introdujo un nuevo diseño de sensor denominado Back Side Iluminated CMOS. El esquema más o menos sería el siguiente:

BSI CMOS

La idea más sencilla no puede ser. Se trata de poner la zona fotosensible lo más cerca posible de las microlentes y toda la electrónica necesaria para que cada pixel funcione debajo. La idea es sencilla pero supongo que el proceso de fabricación es mucho más complicado que los típicos chips CMOS para que no empezase a verse en las cámaras hasta hace poco. De esta forma la luz recolectada por el fotodiodo es mucho mayor, haciendo posible de que a pesar de que el tamaño del pixel sea más pequeño (por la gran cantidad de megapixeles), este siga recibiendo suficiente cantidad de luz para que la relación señal ruido siga siendo buena.

Hay que entender como funciona el proceso de fabricación de un chip. Los chips se hacen en obleas de silicio, en cada oblea se van construyendo por diversos procesos físicos y químicos los chips, una vez se finaliza el proceso, la oblea se corta y salen el número correspondientes de chips que cogiesen en esa oblea. Esos chips se testean, dado que un fallo en el proceso de fabricación o impureza en los materiales como la propia oblea de silicio pueden hacer que el chip vaya directamente a la basura. Cuanto más pequeños sean los chips, más te cogen por oblea, así que el ratio entre chips que salen buenos o malos aumenta. Cuanto más grande sea el chip, la probabilidad de que te salga mal algo aumentan significativamente (por eso un sensor de full-frame es mucho más caro que un sensor de móvil).

Los sensores de teléfonos móviles son bastante pequeños, debido a ello nuevas tecnologías que requieran procesos de fabricación más complicados se testean en ellos, como es el baso de BSI CMOS. Cuando el fabricante considera que el proceso de fabricación es lo suficientemente maduro y dicha tecnología puede beneficiar al producto final, este es portado a sus hermanos mayores.

El primer fabricante en sacar una cámara con lentes intercambiables y sensor BSI CMOS fue Samsung con su NX1. Sony, con su A7r II ha sido el segundo, pero de esta vez con un chip de tamaño full-frame y 42 megapixeles. En una entrevista reciente, uno de los responsables de la división de Sony para cámaras comenta que hasta llegar al nivel de 42 megapixeles en el sensor no sintieron la necesidad de portar su tecnología BSI CMOS a las cámaras. En este caso, al ser el pixel tan pequeño, la única forma que veían de conseguir un nivel de ISO aceptable y comparable con modelos anteriores, era usando BSI CMOS (también indican que cambiando de aluminio a cobre en el proceso de fabricación les ayudó a reducir ruido en las etapas de amplificación de la señal). Curiosamente las nuevas Canon 5Ds y 5Ds R que usan tecnología CMOS típica, tienen el ISO limitado a 6400.

Desde que el mundo de sensores digitales se aplica a la fotografía “profesional” no han pasado ni 20 años y parece que las innovaciones y mejoras no paran de llegar…

El año pasado ya había escrito un artículo sobre la instlación de Magic Lantern en vuestra cámara Canon. En este año que ha pasado desde la escritura de ese artículo ha habido unos pequeños cambios que hacen que el proceso de instalación de Magic Lantern sea un pelín diferente. He decidido actualizar dicho manual en el siguiente vídeo:

Como comento en el vídeo, para mi las utilidades más interesantes es el histograma RAW, muy útil para los partidarios de derechear el histograma y el intervalómetro incorporado dentro de la propia cámara (Canon lo está anunciando como una gran característica en sus últimas cámaras… menos mal que la competencia tiene esta funcionalidad desde hace casi 10 años…).

Personalmente pienso que Magic Lantern es un software imprescindible para cualquier usuario de cámaras Canon. Eso sí, no voy a negar que no existan riesgos al instalarlo en vuestra cámara y que nadie se va hacer responsable si algo raro pasa a la misma.

Recientemente acabo de cambiar de ordenador, optando por un modelo con disco duro de estado sólido o SSD, dado que es una de la mejores formas de acelerar tu trabajo diario. Aunque no queda muy claro que colocar en él mismo el catálogo de Lightroom mejore en gran medida la velocidad, incluso es bastante complicado hacer estudios significativos, el consenso habitual es que todo parece ir más rápido y no viene mal ponerlo ahí (sobretodo si ponemos ahí la memoria caché del Camara RAW).

Erecteión

Erecteión [Panasonic GF-1 con Panasonic 20mm f1.7. Toma sacada a IS0100, f8 y 1/100 seg.] © David García Pérez 2015.

Mi problema es que mí catálogo ya empieza a ocupar unos 100GB y creciendo poco a poco según voy sacando más imágenes. Esto rápidamente me llenará el disco duro principal de mi ordenador por lo cual la decisión era evidente, el catálogo de Lightroom tenía que irse a un disco duro externo.

Al mismo tiempo que moverlo a un disco externo para él solo, también quería que ese disco fuese portátil. De forma que el catálogo viájase conmigo. Lo primero que se me ocurrió fue mirar discos Thunderbolt (estoy en un mac). El LaCie Thunderbolt Rugged se me antojaba caro, a parte que no veía mucha ventaja en la velocidad que daba sobre USB3 (tiene la ventaja de que el disco va bastante protegido contra golpes).

Después de mirar otras opciones Thunderbolt, la verdad es que no estaba muy ilusionado con las velocidades. El factor limitante está en la conexión típica de estos discos duros, Serial ATA ó SATA. Habitualmente es típico ver cajas Thunderbolt que montan estos tipos de disco en configuraciones RAID, pero claro, ahí se va a tomar viento mi requerimiento de portabilidad.

Después de mucho leer decidí optar por una carcasa Inateck FE2005 y un disco duro SSD Crucial MX100 de 512 GB (también me valía el Samsung EVO 850, pero en ese momento estaba un pelín más caro, el Crucial MX200 o el BX100

La carcasa Inatek F2005 es fea con ganas, básicamente hecha de plástico y más voluminosa de lo necesario. Ante cualquier golpe no creo que proteja mucho el disco en sí. El disco Crucial MX100 da una impresión completamente contraria. De todas formas el resultado por la siguiente captura de pantalla podéis ver que es excelente.

Blackmagic test de velcidad

400 MB/seg tanto de lectura como de escritura de forma sostenida según el programa de BlackMagic para testeo de velocidad de discos para edición de vídeo sobre USB 3.0 no es nada despreciable. Realmente va a ser casi lo máximo que conseguiremos sobre este tipo de conexión. Tener en cuenta que solamente conseguiréis estas velocidades si conectáis el disco directamente al ordenador, a través de un hub corréis el riesgo de que otros dispositivos os estén robando ancho de banda.

Hablando de hubs y carcasas USB 3.0, aseguraros que ambos soportan el protocolo UASP, sino, como mucho conseguiréis 250 MB/seg. de velocidad en el disco duro.

Poco a poco están apareciendo soluciones más compactas como el Samsung Memory, que acaba de bajar de precio a algo similar a lo que yo compré y ahora me da como pena no haber optado por él, sobretodo teniendo en cuenta que el tamaño es bastante similar.

Sin embargo, para los que compren ordenador a principios del año que viene, 2016, este tipo de soluciones se volverán obsoletas. Probablemente su ordenador venga con USB 3.1 (ya sea con conector USB Tipo C o parecido a los actuales). Ya he visto anunciados hace poco modelos de discos USB 3.1 que saldrán a finales de año y duplicaran la velocidad antes indicada (en este caso el disco usa un bus PCIe 2x en vez del SATA). Parece bastante interesante, la única duda que tengo es si será posible que alguien saque un adaptador de Thunderbolt 2 a USB 3.1… tengo mis dudas.

Hace unos 4 meses escribía un artículo sobre la estructura de ficheros de un catálogo en Lightroom. Con la actualización a Lightroom 6 ó Lightroom CC ese artículo ha quedado un poco anticuado en un pequeño aspecto: “en la selección de tamaño por defecto de las previsualizaciones de nuestra catálogo de Lightroom”.

Anochece en Cadaqués

Anochece en Cadaqués [Canon 5D Mark II con Canon 70–200f4L IS. Toma sacada a IS0100, f11 y 0,5 seg. Trípode y disparador remoto utilizado]. © David García Pérez 2015.

Como comentaba en dicho artículo que Lightroom genera unas previsualizaciones JPEG de todas las imágenes que hayamos importado en el catálogo. Estas previsualizaciones se utilizan para mostrar las imágenes en módulos como el biblioteca, mapas, impresión, etc… todos los módulos menos el de revelado. De esta forma Lightroom no tiene que recurrir a abrir los ficheros RAW originales que le llevaría más tiempo.

Si vamos a los ajustes del catálogo (en OS X: Lightroom -> Ajustes de catálogo; y en Windows: Archivo -> Ajustes de catálogo):

Ajustes de catálogo en Lightroom

Podremos observar que de las opciones de “tamaño de previsualización estándar” aparece una nueva: “Automática”.

tamaño de previsualización estándar

Esta opción automática, introducida en Lightroom 6/CC, nos generará imágenes con suficiente resolución para verlas bien a pantalla completa en la pantalla con mayor resolución que tengamos. En mi caso, esta resolución es 2880 píxeles para el monitor de mi portátil de 15 pulgadas. De esta forma cuando pulse en la biblioteca ver la imagen a pantalla completa, esta se verá de forma perfecta.

Obviamente cuanto mayor sea la resolución que escojamos más ocupará nuestro catálgo. Pero hay espacio en disco, así que tampoco me preocupa mucho.

Una de las características que usa Adobe para vender su nueva versión de Lightroom es la mejora de rendimiento para algunas tareas. Parte de esta mejora, en teoría, es debido al uso delegar algunas de las tareas que tiene que realizar Lightroom a la tarjeta gráfica de nuestro ordenador en vez de al procesador.

Hora azul en Costa Brava

Hora azul en Costa Brava [Canon 5D Mark II con Canon 70–200f4L IS. Toma sacada a IS0100, f13 y 13 seg. Trípode y disparador remoto utilizado]. © David García Pérez 2015.

Para los que no seáis muy técnicos, desde hace ya algunos años, las tarjetas gráficas ó GPUs (de su acrónimo en inglés: Graphical Processor Unit) se han vuelto en procesadores increíblemente eficientes para procesar gran cantidad de datos en paralelo, lo cual las beneficia para procesar gráficos 3D para animaciones o vídeo juegos. Esta habilidad ha hecho que mucha gente las empezase a usar para otras cosas que mostrar bonitos gráficos en nuestra pantalla. Por ejemplo, es muy habitual en programas de edición de vídeo recurrir a la/s tarjeta/s gráficas instalada/s en el sistema para aliviar al procesador central del mismo. Antes de emocionarnos, indicar que no son una solución universal, aceleran ciertos tipos de tareas, emplearlas para muchas de las tareas típicas que hace un ordenar, haría que nuestro sistema fuese más lento.

El beneficio de las tarjetas gráficas para procesamiento de imágenes es bastante más limitado que para vídeo. Algunos reveladores RAW ya llevan meses o algún año soportando el uso de dichos dispositivos a la hora de revelar nuestros RAW, pero Adobe pareció que se tomó su tiempo. Hasta esta nueva versión de Lightroom 6/CC. ¿El motivo? Según las palabras de Eric Chan, ingeniero de Adobe que trabaja en Lightroom, en el foro oficial de Adobe: los monitores de alta resolución que cada vez son más populares.

Mr. Chan da una explicación que convencerá a más de uno. En un típico monitor de 24“ de toda la vida, la pantalla tiene una resolución 2 megapíxeles, en un monitor de un MacBook Pro 15” retina, la pantalla tiene una resolución de 5 megapíxeles, en un monitor 4k, la pantalla tiene una resolución de 8 megapíxeles, en los últimos monitores de 5k, la pantalla tiene una resolución de 16 megapíxeles. Si tenemos en cuenta que cada vez que ajustamos uno de los controles de revelado Lightroom tiene que calcular dicho efecto en la imagen mostrada en pantalla, se entenderá que cuanta mayor sea la resolución de la misma, más le costará, computancionalmente hablando, a Lightroom mostrar dichos cambios. Por ejemplo, Chan comenta que en una pantalla 4k, sin aceleración de tarjeta gráfica, ajustar el balance de blancos, Lightroom es capaz de mostrarnos dicho efecto a 5 frames por segundo. Sin embargo, si activamos la aceleración de tarjeta gráfica (en el caso que comenta, una de última generación), Lightroom es capaz de mostrarnos el efecto de cambiar el balance de blancos a 60 frames por segundo.

Pero antes de que descorchéis el champán, indicar que el efecto que veáis sea limitado (en mi caso hasta perjudicial, más adelante explico por qué). De entrada dicha aceleración solamente afecta al módulo de Revelado, todos los demás módulos ignorarán la tarjeta gráfica que tengamos instalada en nuestro sistema. Y dentro del módulo de revelado, casi todos los controles se benefician de esto, con algunas excepciones como la corrección de manchas o el pincel de ajuste locales. Como indica Chan, esto solamente es el principio de las tarjetas gráficas en Lightroom. Según indica, cambiar cada uno de los módulos internos de procesamiento de Lightroom para que puedan usar aceleración gráfica no es una tarea fácil y ha llevado bastante tiempo, sin embargo, poco a poco irán dando soporte a otras de las funcionalidades de Lightroom, es solamente cuestión de tiempo.

A parte de esto, sin usáis, como yo, un monitor que no es de alta resolución (retina, 4k, 5k,…) no vais a ver mucho beneficio de esto. Al mismo tiempo si vuestra tarjeta gráfica no es una tarjeta de última generación adquirida en los últimos 2 o 3 años y que tenga como mínimo 1 GB de RAM (recomendados 2GB), tampoco vais a ver mucho. Es más, si es como mi caso, he notado Lightroom bastante inestable con esta opción activada y opté por desactivarla.

Para activar o desactivar esta opción, en las preferencias de Lightroom, tenéis una nueva pestaña denominada “Rendimiento” donde podéis activar o desactivar dicha opción:

Activando la aceleración por tarjeta gráfica / GPU en Lightroom

Por último, en cuanto aspectos negativos, cómo indiqué al principio del artículo, hay tareas para lo cual no es beneficioso el procesamiento con una tarjeta gráfica. En le caso de Lightroom, Chan indica que por ejemplo, cambiar a visualización 1:1 puede ir más lento si tenemos esta opción de tarjeta gráfica activada (hay que tener en cuenta que para realizar dicha actividad, el procesador del sistema tiene que copiar la imagen a la tarjeta gráfica, lo cual añade un paso extra. El efecto de este paso extra se minimiza mucho cuanto más nuevo sea nuestro sistema). También comenta que tareas como descomprimir un fichero RAW antes de revelarlo, por su naturaleza secuencial, es más perjudicial hacerlas en la GPU que en el procesador del sistema.

Como ya indiqué, en mi antiguo equipo de hace 5 años, esta nueva funcionalidad de Lightroom me hace más daño (se me ha cerrado Lightroom en el módulo de revelado) que beneficio. Mi tarjeta gráfica es bastante antigua con solamente 256 MB de memoria RAM, lejos del gigabyte mínimo que comenta Eric Chan.

Las dos últimas semanas no he publicado nada por aquí, la vida de vez en cuando se pone por medio de este blog ¡Pero no os preocupéis! No he vuelto a una de esas etapas de sequía donde no publico nada. Para volver a coger velocidad y seguir publicando cosas por aquí, nada mejor que contestando en detalle la pregunta de uno de mis lectores más frecuentes, Bieito. Probablemente, por pasarme de listo, seguramente entendí al revés la pregunta y estoy contestando a otra cosa, pero la intención es lo que cuenta, ¿no? (si hace falta, mentirme…).

Gris atardecer en la Costa Quebrada

Gris atardecer en la Costa Quebrada [Canon 5D Mark II con Canon 70–200f4L IS. Toma sacada a IS0100, f16 y 5 seg. Trípode y disparador remoto utilizado]. © David García Pérez 2015.

Lightroom ofrece múltiples formas de ordenar nuestras fotos cuando estamos en el módulo de Biblioteca para la/s colección/es o carpeta/s que tengamos seleccionada/s en ese momento. Aunque hay que decir la verdad que algunas de las opciones por que ordenar las cosas no creo que tengan mucha utilidad.

Antes de nada tenemos que asegurarnos de que en el módulo de biblioteca podemos ver al barra de herramientas en el panel central, tal y como se muestra en la imagen a continuación. Si no lo podéis ver, en le menú vista podéis seleccionar ver “Mostrar barra de herramientas”, o simplemente pulsando la tecla “T” os mostrará dicha barra (esto es válido para todos los módulos de Lightroom, no solamente el de biblioteca).

Donde seleccionar como ordenar las imágenes que se nos están mostrando en este momento

Cómo podemos observar en la imagen anterior hay dos botones que nos permiten cambiar el orden de las imágenes mostradas:

Opciones para cambiar el orden de las imágenes mostradas

Por defecto, y si nunca hemos tocado estos botones, Lightroom ordena las fotos por la fecha de captura de la misma. Si desplegamos el menú de “Orden” podremos ver más opciones:

Distintas opciones para ordenar las imágenes mostradas con Lightroom

Veamos como ordena las imágenes cada una de estas opciones (y los nombres no son para nada intuitivos…):

Hora de Captura – Esta es la opción por defecto de Lightroom, ordena las imágenes por hora de captura, al menos, la hora que puso la cámara a dichas imágenes. En Lightroom existe la opción de cambiar dicha hora en caso de que la hubiésemos configurado mal en nuestra cámara.

Orden añadido – Este es el orden en el que las imágenes fueron importadas a nuestro catálogo (sí, esta es una de las opciones donde no se me ocurre que utilidad puede tener).

Editar hora – Nos ordenará las imágenes por su hora de edición.

Editar recuento – Nos ordenará las imágenes por las veces que han sido ordenadas.

Clasificación – Nos ordenará las imágenes por el número de estrellas que le hayamos asignado.

Selección – Nos ordenará las imágenes si las hemos marcada como seleccionas o no.

Texto de etiqueta – Cómo sabéis, Lightroom ofrece cinco etiquetas de color: rojo, amarillo, verde, azul y púrpura. Si vamos al menú de Metadatos -> Conjunto de etiquetas de color -> Editar, nos aparecerá un menú donde podremos cambiar dichos nombres por defecto:

Nombres de las etiquetas de color de Lightroom

Si seleccionamos la opción de ordenar por “Texto de etiqueta”, Lightroom ordenará alfabéticamente las imágenes por el nombre de la etiqueta de color a la que hayan sido asignadas.

Color de etiqueta – Por defecto Lightroom asigna esta numeración a los distintos colores de etiqueta: Rojo -> 6, Amarillo -> 7, Verde -> 8, Azul -> 9 y Púrpura no tiene número asignado (esta numeración no puede ser cambiada). Si seleccionamos una o varias imágenes y pulsamos una de las teclas numéricas del 6 al 9, Lightroom asignará a dicha imagen la etiqueta de color correspondiente.

Si seleccionamos ordenar por Color de etiqueta, Lightroom ordenará las imágenes por la numeración del color de etiqueta que tengan asignadas (asumir en este caso que Púrpura es 10).

Nombre de archivo – Lightroom ordenará las fotos por el nombre de archivo de las mismas.

Extensión de archivo – Lightroom ordenará las fotos por la extensión del archivo de las mismas, una forma fácil de saber en una colección o carpeta que tipo de archivos tenemos (RAW, TIF, JPEG…).

Tipo de archivo – Similar a la anterior, Lightroom ordenará las fotos por el tipo de archivo que sean: vídeo o fotografía.

Proporción – Es una forma fácil de separar fotos que tengan orientación vertical o panorámicas de las que tengan un aspecto de ratio típico.

Orden personalizado – Probablemente la opción más interesante de este menú, y casi la que menciona casi todo el mundo que habla del mismo. Si la seleccionamos (solamente es posible en una carpeta o colección NO inteligente), tendremos la posibilidad de empezar a ordenar las imágenes aleatoriamente, moviéndolas con el ratón. Lightroom se acordará de dicho orden para una carpeta o colección concreta.

Por último, pulsando el botón AZ, podemos cambiar invertir el orden de cada una de las opciones anteriores:

Invirtiendo el orden de la opción seleccionada

Ahora a ver si acerté en responder a la pregunta realizada…

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies