historia

Este artículo no va a ser una discusión banal sobre sí la tecnología CCD o CMOS es la superior. Dicha discusión a mediados del 2015 ya no tiene sentido. El mayor fabricante de sensores digitales, Sony, anunció a principios de año que dejaba de aceptar más pedidos para sensores de tipo CCD, claramente indicando que dejaban de fabricarlos. Pocos fabricantes usan hoy en día sensores CCD, las excepciones las encontramos en respaldos digitales de medio formato, como los de Phase One ó en algunas cámaras de vídeo como las de Blackmagic.

Amanece en Benijo

Amanece en Benijo [Canon 5D Mark II con Canon EF 17-40 F4L. Toma sacada a IS0100, f11 y 0,6 seg. Trípode
y disparador remoto utilizado]. © David García Pérez 2015.

Más adelante durante el artículo explico por que CMOS está triunfando en cuanto a número de cámaras que incorporan esta tecnología versus CCD. ¿Significa que CCD poco a poco desaparecerá? Puede… hace 20 años nadie daba un duro por CMOS (una afirmación un pelín exagerada…), puede que futuras evoluciones de la tecnología le vuelvan dar otra oportunidad al CCD o tal vez aparezca algo nuevo que jubile a ambos.

Nacimiento de los sensores digitales

La historia de los CCDs es bastante antigua. Fueron inventados en el año 1969 por Wilard Boyle y George E. Smith en los laboratorios de AT&T Bell Labs. Bautizaron a su invento Charge Bubble Devices. La idea del invento era sencilla, era un dispositivo capaz de leer una serie de valores de carga de un array uno a uno y convertirlos en señales digitales. La idea, según sus autores, tenía bastantes aplicaciones, tales como memoria o dispositivo para capturar imágenes. La primera patente aplicada para ser usada como sensor para imágenes sería Michael Tompsett en 1971. Su dispositivo era un sensor lineal de 8 píxeles que era capaz de actuar como escáner. Era el comienzo de la imagen digital, por el camino el nombre cambiaría a Charge Coupled Devices (CCD). Boyle y Smith recibirían el Premio Nobel de la física por este invento en el año 2009.

El funcionamiento de un CCD actual se puede observar en la siguiente figura:

Esquema de un sensor CCD

Por un lado tenemos los fotodiodos, estos son las partes que reciben la luz, y la convierten a una carga de electrones que es almacenada en el propio pixel. Una vez hecha la captura la carga de cada pixel es transferida una a una fila a fila a los registros de desplazamiento vertical. Y cada fila es después transmitida al registro de desplazamiento horizontal. Pixel a pixel el amplificador de salida convertirá esa carga de electrones en una señal de voltaje analógico que después será convertida a una señal digital por el conversor analógico-digital (A/D).

El otro tipo de sensor digital que se ha popularizado a lo largo de los años son los conocidos como sensores CMOS. A diferencia de los CCD, estos no reciben el nombre por como funcionan, sino por el tipo de proceso de fabricación que siguen: semiconductor complementario de óxido metálico o complementary metal-oxide-semiconductor (CMOS), que es la misma tecnología que se usa para fabricar cualquier tipo de microchip hoy en día (un detalle que resultará relevante más adelante). Un esquema muy simplificado del mismo es el ilustrado por la siguiente figura:

Esquema de un sensor de fotografía CMOS

La primera diferencia que vemos aquí con respecto del CCD es que dentro de cada pixel o fotodiodo está la electrónica que convierte esa carga de electrones que se crea cuando incide luz sobre el sensor en una señal de voltaje analógico. Voltaje que será después convertido por uno o varios conversores A/D en una señal digital.

Evolución

Como muchos sabréis, hasta hace unos años casi todos los sensores fotográficos eran del tipo CCD. Y sobre el 2000 parecía raro que esto fuese a cambiar (y cambió, de forma muy rápida). Los sensores CCD tenían una serie de ventajas inherentes a su diseño. De entrada no tienen que acomodar electrónica dentro del propio pixel como los CMOS (hay una excepción explicada más adelante), lo cual hacía que cada pixel pudiese recibir más luz, mejor señal, menos ruido. También era más fácil en los mismos aplicar lo que se conoce como obturador global (global shutter) a nivel electrónico, que evitaba el efecto conocido como rolling shutter (este efecto también se podía dar en película, dependía de como el obturador de la cámara estuviese implementado). No es que en un sensor CMOS no se pueda implementar un global shutter, sencillamente que es muchísimo más complejo.

También existe la creencia de que los sensores CCD producen mejor color que los CMOS. Realmente esto es debido a que los sensores de cámara de medio formato (hasta hace muy poco prácticamente todos CCDs) tienen un mejor filtro bayer que las cámaras CMOS de 35mm (esto también tiene un precio, cuanto más preciso es el filtro en diferenciar rojo, verde y azul, menos luz llega al fotodiodo y más ruido puede haber).

Pero los sensores CCD tienen una gran desventaja, su proceso de fabricación es distinto a como se fabrican los microchips. El principal inconveniente de esto es que no se beneficia directamente de los avances de procesos de fabricación de microchips. Al mismo tiempo, requieren que la electrónica para convertir la señal a digital vaya en un chip a parte, lo cual hace más voluminoso el resultado final. Además, también consumen más energía que su equivalente CMOS. Estos dos últimos puntos muy importantes si estás fabricando cámaras para móviles, por ejemplo.

Como indiqué más arriba, los sensores CMOS se beneficiaron en gran medida de la evolución de las tecnologías para fabricar microchips, que siguen exactamente los mismos procesos de fabricación que los que llevan este tipo de sensores. Hasta ahora el proceso de fabricación de microprocesadores se ha guiado por la famosa Ley de Moore, que en algún momento se topará con los límites de la física. Esta ley dice que la cantidad de transistores en un chip se duplicará cada dos años. La principal manera de conseguir esto es a través de hacer dichos transistores más pequeños. Esto tiene la ventaja de que los transistores encargados de hacer la transformación de carga a voltaje que ocupaban parte del pixel, cada vez es más pequeña, y tapan menos área que reciba luz (también hay que tener en cuenta que cada vez los sensores tienen más megapixeles, así que se va manteniendo un equilibrio sobre cuanto ocupa dicho lógica dentro del propio pixel).

Al mismo tiempo, otras de las desventajas fueron cayendo poco a poco. Los sensores CMOS cada vez mostraban mejor relación señal-ruido con lo cual podía alcanzar ISOs más altos sin pérdida de calidad. Un detalle donde CCD sigue manteniendo ventaja es en el tema del global shutter, es mucho más fácil de implementar a nivel electrónico en un sensor CCD que en uno CMOS.

Actualidad y futuro

Si estáis siguiendo últimamente la actualidad de cámaras nueva que salen al mercado os habréis dado cuenta que la norma es cada vez más megapixeles. Sin entrar en el eterno debate si realmente hace falta más megapixeles (tengo que la teoría que el mínimo necesario que todo el mundo dice que hace falta cambia con los años). Este incremento en el número de megapixeles ha disminuido el área de los mismos, por lo cual cada pixel recibe menos luz. Ya hace tiempo que todos los pixeles tienen una microlente encima que les ayuda a recibir más luz para así contrarrestar un poco su área más pequeña. Pero ahora surge un problema con el tamaño del pozo. Si nos fijamos en esta figura sobre un supuesto corte vertical de un sensor CMOS:

Estructura vertical de un sensor CMOS

Como se observa en el diagrama anterior, la electrónica necesaria por pixel CMOS hace que la zona fotosensible esté más profunda de lo deseado. Esto implica que la luz tiene que entrar muy directa sobre el sensor, lo cual es un problema para lentes de gran angular. Por este motivo se coloca desde hace bastante tiempo microlentes en frente de cada pixel, para intentar mejorar la cantidad de luz que recolecta cada pixel.

La primera vez que escuché hablar de este problema fue cuando salió [el respaldo digital de Phase One IQ180] (que curiosamente es CCD, su problema es que son 80 megapixeles, lo cual hace el tamaño de pixel muy pequeño). Para ciertos tipos de lente este mostraba zonas de color púrpura en los bordes de la imagen y fuertes viñeteos, debido a que la luz que salía de una lente gran angular no llega al sensor con un ángulo de 90 grados, sino inclinados y no toda la luz llegaba al fotodiodo por culpa de ello.

Este es el mismo problema por el qué se dudaba, al principio, que la serie A7 de Sony pudiese tener grandes angulares (grandes “expertos” en foros de internet lo dudaban). Al montarse la lente mucho más cerca del sensor (al no tener espejo), es muy complicado hacer un diseño de gran angular que no resulte muy voluminoso (se necesitaría un diseño de retrofocus para enderezar al final los haces de luz, lo cual, además de añadir elementos ópticos que pueden hacer perder calidad, hacen la lente mucho más grande) (supongo que la lente 16–35f4 de Sony para su montura FE hizo que estas especulaciones desapareciesen, al menos para un sensor de 36 Megapixeles como el de la A7r).

Pero el problema sigue estando ahí, cuantos más megapixeles menos luz recibe cada pixel. Curiosamente este ha sido un problema que ya se enfrentaron las compañías fabricantes de sensores para telefonía móvil, como Sony y Samsung. Para solventar dichos problemas, se introdujo un nuevo diseño de sensor denominado Back Side Iluminated CMOS. El esquema más o menos sería el siguiente:

BSI CMOS

La idea más sencilla no puede ser. Se trata de poner la zona fotosensible lo más cerca posible de las microlentes y toda la electrónica necesaria para que cada pixel funcione debajo. La idea es sencilla pero supongo que el proceso de fabricación es mucho más complicado que los típicos chips CMOS para que no empezase a verse en las cámaras hasta hace poco. De esta forma la luz recolectada por el fotodiodo es mucho mayor, haciendo posible de que a pesar de que el tamaño del pixel sea más pequeño (por la gran cantidad de megapixeles), este siga recibiendo suficiente cantidad de luz para que la relación señal ruido siga siendo buena.

Hay que entender como funciona el proceso de fabricación de un chip. Los chips se hacen en obleas de silicio, en cada oblea se van construyendo por diversos procesos físicos y químicos los chips, una vez se finaliza el proceso, la oblea se corta y salen el número correspondientes de chips que cogiesen en esa oblea. Esos chips se testean, dado que un fallo en el proceso de fabricación o impureza en los materiales como la propia oblea de silicio pueden hacer que el chip vaya directamente a la basura. Cuanto más pequeños sean los chips, más te cogen por oblea, así que el ratio entre chips que salen buenos o malos aumenta. Cuanto más grande sea el chip, la probabilidad de que te salga mal algo aumentan significativamente (por eso un sensor de full-frame es mucho más caro que un sensor de móvil).

Los sensores de teléfonos móviles son bastante pequeños, debido a ello nuevas tecnologías que requieran procesos de fabricación más complicados se testean en ellos, como es el baso de BSI CMOS. Cuando el fabricante considera que el proceso de fabricación es lo suficientemente maduro y dicha tecnología puede beneficiar al producto final, este es portado a sus hermanos mayores.

El primer fabricante en sacar una cámara con lentes intercambiables y sensor BSI CMOS fue Samsung con su NX1. Sony, con su A7r II ha sido el segundo, pero de esta vez con un chip de tamaño full-frame y 42 megapixeles. En una entrevista reciente, uno de los responsables de la división de Sony para cámaras comenta que hasta llegar al nivel de 42 megapixeles en el sensor no sintieron la necesidad de portar su tecnología BSI CMOS a las cámaras. En este caso, al ser el pixel tan pequeño, la única forma que veían de conseguir un nivel de ISO aceptable y comparable con modelos anteriores, era usando BSI CMOS (también indican que cambiando de aluminio a cobre en el proceso de fabricación les ayudó a reducir ruido en las etapas de amplificación de la señal). Curiosamente las nuevas Canon 5Ds y 5Ds R que usan tecnología CMOS típica, tienen el ISO limitado a 6400.

Desde que el mundo de sensores digitales se aplica a la fotografía “profesional” no han pasado ni 20 años y parece que las innovaciones y mejoras no paran de llegar…

Ya hace un par de semanas leía el artículo: How high ISO has revolutionazied photography – and why dynamic range is next (¡Cómo el ISO alto ha revolucionado la fotografía y por qué el rango dinámico es lo siguiente!) y realmente no puedo estar más de acuerdo. Y para demostrar esto vamos hacer un poco de repaso histórico, aunque resulte irónico para una persona que saca la mayoría de sus fotografías a ISO 100.

Anochece en los Pirineos

Anochece en los Pirineos [Canon 5D Mark II con Canon 70–200f4L IS. Toma sacada a IS0200, f7,1 y 0,3 seg. Trípode y disparador remoto utilizado]. © David García Pérez 2015.

Cuando pensamos en sensores de cámaras digitales solemos pensar en su ISO más alto que nos da resultados que no sean simplemente ruido, su cantidad de megapíxeles y, en mucha menor medida aunque cada vez pillando más relevancia, rango dinámico. Pero veamos poco a poco como evolucionó cada uno de estos parámetros.

El mundo de las cámaras digitales profesionales empezó a evolucionar poco a poco en la década pasada. Varios modelos fueron apareciendo pualatinamente, cada uno de ellos incrementando la cantidad de megapíxeles, hasta que Canon dio el batacazo. En agosto de 2007 presentó la 1Ds Mark III, su primera cámara con 21 megapíxeles (en esta historia estoy dejando un poco de lado los respaldos digitales de medio formato). En la carrera de los megapíxeles Canon empezaba a sacar ventaja.

La 1Ds Mark III, a pesar de tener bastante éxito en profesionales, sobretodo para fotografía de estudio y/o paisaje, no hizo tanto daño en el mercado como lo que salió al año siguiente, la Canon 5D Mark II. De nuevo, otra cámara con sensor de 21 megapíxeles, mucho más barata que la serie 1 de Canon y con mejor calidad ISO que la anterior.

La 5D Mark II permitiría hacer cosas con ISO que antes no se hacían, sobretodo en temas de fotografía nocturna. Disparar a ISOs 3200 o 6400 empezaban a ser común, y con buenos resultados, algo totalmente impensable unos años antes, y aún más si recordamos la época de película.

En temas de ISO los demás fabricantes se pusieron rápidamente a la altura. En tema de megapíxeles las cosas tardaron un pelín más. Pero todo parecía tranquilo. Entre 20 a 24 megapíxeles parecía que se estaban conformando todos los fabricantes de cámaras de 35 mm (en medio formato saltarían a 80 Megapixeles en febrero del 2011, con el respaldo digital Phase One IQ180).

Pero estos 5 años de tranquilidad en la carrera de megapíxeles pronto tendrían fin, Nikon lanzaba su cámara con sensor de 36 megapíxeles, la D800/D800E (el sensor es fabricado por Sony). Muchos fotógrafos saltaron a ella por esa resolución extra que ya empezaba a mostrar que esas lentes que algunos creían pata negra fallaban en los bordes. Pero sin embargo, más que los megapíxeles, uno empezaba a escuchar pasado el tiempo otro comentario: el sensor era capaz de registrar hasta 14 pasos de luz de rango dinámico.

Tal vez para alguien que hace fotos de moda, bodas, estudio, etc. este factor no era importante, pero a la gente que le gusta hacer fotografía de paisaje, que se levanta para pillar amaneceres y se acuesta tarde para pillar atardeceres era un dato relevante. Uno ya no tenía que recurrir tanto a técnicas como HDR o filtros degradados para ser capaz de capturar las escenas que tenía delante. Todo esto con un excelente ISOs altos.

Nikon disfrutaría de una año de esta exclusividad, hasta que Sony decide que esto de las cámaras réflex no es tan divertido como esperaban y sacan las primeras full-frame sin espejo al mercado, la A7 y A7r, la última con el mismo sensor de 36 megapixeles que tiene la D800/D800E (después de todo lo fabrican ellos).

Y mientras la resolución seguía aumentando y la gente se acostumbraba hacer fotos a ISO 6400 sin despeinarse, Sony aún tenía un nuevo as en la manga para que la gente se fijase aún más en su serie de cámaras de formato complejo sin espejo, la A7s. La verdad es que cuando la vi pensé que la cámara no resultaba muy interesante. Su máximo atractivo, poder grabar a 4K, hacía falta tener un grabador externo que costaba tanto que la cámara misma, haciendo que su precio no resultase tan atractivo para otras alternativas para grabar vídeo. ¡Qué equivocado estaba!

Subestimé la capacidad de disparar a ISOs altos con la cámara. Para gente que graba vídeo esto se convirtió en una de sus grandes ventajas, podían grabar escenas nocturnas fácilmente, a ISOs por encima del 6400 y con poco ruido, siendo fácil de corregir en post-producción. Si seguís cualquier foro o blog sobre vídeo, veréis que la A7s se ha convertido en una pequeña cámara de culto (y con un sensor que Sony ya ha dejado claro que por el momento no se lo presta a nadie).

Si os fijáis, desde el 2008 no ha vuelto a mencionar el nombre de Canon. Mientras que a ISOs altos no tenían mucho problema, en temas de rango dinámico (a ISOs bajos, el que me importa a mí, 99% de mis fotos son a ISO100) y resolución hacía tiempo que se habían quedado atrás. No es que esto afectase especialmente a sus ventas, dado que seguían y siguen siendo el fabricante que más cámaras de lentes intercambiables vende en el mundo. Pero desde luego, si exceptuamos los fanboys, poca gente hablaba bien de sus sensores en los foros (en temas de vídeo hacían cosas interesantes).

Este año decidieron dar un pequeño golpe en la mesa y anunciaron la nueva serie 5Ds/5Ds R. Una cámara con un sensor de 50 megapíxeles. Curiosamente limitada a ISO 6400, no queda muy claro si por alguna limitación técnica, decisión de diseño, o decisión de marketing (para que cuando saquen la 5D Mark IV esta tenga el atractivo de tener un ISO más alto). Hace falta que alguien haga un análisis de rango dinámico, pero si damos por ciertos los comentarios de algunos directivos de Canon será el mismo que el de la 5D Mark III, con lo cual lo sensores Sony seguirán ganando en este aspecto por goleada… pero hace falta que alguien evalúe la cámara parcialmente.

No dudo que Sony y Nikon seguirán los pasos de Canon más pronto que tarde y saquen un sensor de 50 megapíxeles o similar. Pero no me preocupa, me interesa más que ese sensor Sony pueda superar la actual rey de rango dinámico, la Nikon D810 (sí, el sensor también lo fabrica Sony). Con 14,8 pasos de luz, estos sensores cada vez se aproximan más al rango dinámico que un ojo humano puede ver. No es que me importe mucho este aspecto, pero si esto me ayuda a no tener que usar filtros degradados y no tener que recurrir a HDRs, mejor que mejor. El ISO y la cantidad de megapíxiles por mí lo pueden dejar como está (una vez tengamos el rango dinámico, volveré a insistir en los otros aspectos).

¿Por qué la coletilla del título de “por el momento”? No lo digo por seguir la anterior frase donde después los fabricantes pueden empezar a subir megapíxeles y ISO, no, lo digo por que a ver si nos olvidamos de una vez de la dichosa matriz de Bayer. Sensores como los foveon que montan las cámaras Sigma son insuperables en cuanto a reproducción de color y detalle (para ser una cámara de 14 megapíxeles). El único problema que tienen es que mejor no las saques de ISO 100 y no hay un buen revelador de sus ficheros RAW (sino, aún me pensaría pillar alguna).

Los sensores foveon nos darían mejor color, pero también tenemos el problema de que aumentar los megapíxeles supone problemas a la hora de diseño de lentes. Los rayos de luz en las esquinas tienen que llegar lo más perpendiculares posibles, esto creó muchos problemas en cámaras técnicas con respaldos Phase One cuando sacaron su IQ180 de 80 megapíxeles. Con lentes grandes angulares se producían variaciones de color difíciles de corregir (hasta que actualizaron el Capture One). También pasa lo mismo con la Sony A7r y algunas lentes adaptadas a la misma (especialmente los grandes angulares de Leica). Estas lentes no estaban diseñadas para trabajar tan cerca del sensor con tantos megapíxeles, y por tanto que cada píxel captura poca luz, introduciendo en las esquinas cambios de color y nitidez inesperados.

Fueron, son y serán tiempos interesantes para la evolución de lo que podremos hacer con una cámara digital. Esto no acaba más que empezar.

En una entrada un poco atípica a las habituales en mi blog voy a contar la historia detrás de una fotografía, la que el joven Yousuf Karsh hizo a Wiston Churchill en su visita a Canada en plena segunda guerra mundial. Fotografía que lanzaría a Karsh a la fama internacional y que marcó el espíritu de una nación en sus años más oscuros. La nación del discurso de que jamás nos rendiremos.

Autoretrato de Yousuf Karsh

Yousuf Karsh – autoretrato. © Yousuf Karsh.

Antes de hablar de la fotografía pongamos un poco las cosas en contexto. Estamos en el año 1941, la Alemania nazi controla toda Europa continental. Acaban de poner una marioneta a cargo del gobierno de Francia, la costa europea mirando a las islas británicas están llenas de soldados hostiles, y el año antes los británicos por los pelos consiguieron salvar al grueso de sus tropas en territorio continental de vuelta a territorio amigo.

A pesar de que colonias y ex-colonias británicas se habían unido y declarado la guerra a la Alemania nazi (Estados Unidos todavía no había entrado en la segunda guerra mundial, sería el año que viene cuando Japón atacó Pearl Harbour), el Reino Unido estaba sola frente a los continuos ataques de la aviación y flota naval alemana. Había comenzado lo que se conocía como la Batalla de Gran Bretaña, y todo apuntaba a que pronto se convertirían en otra de las nuevas conquistas de los nazis.

Durante ese año 1941 (entre otros de la guerra), muchos soldados canadienses viajaron a Gran Bretaña para ayudar con la defensa del país. A parte, Canada prestaba ayuda económica y de recursos a unas islas aisladas al otro lado del atlántico. Durante ese año Wiston Churchill viajó a Canada para comentar la situación en persona con el primer ministro canadiense, Mackenzie King.

Wiston Churchill por Yousuf Karsh

El famoso retrato de Wiston Churchill por Yousuf Karsh. © Yousuf Karsh.

Durante esa época, un joven armenio que había emigrado con sus padres de niño a Canada comenzaba su carrera fotográfica profesional en la capital canadiense: Ottawa. Tenía en mente el objetivo de retratar a las personas más influyentes de su época y pensó que vivir en la capital le podría dar esa oportunidad.

Empezó a trabajar en un teatro fotografiando a los diversos actores y aprendiendo de iluminación artificial (no tan fácil de aprender en aquella época como ahora). Su estadía en el teatro le llevó a conocer a diversa gente y por casualidades de la vida, a Mackenzie King, de quién se hizo amigo y le ofreció la posibilidad de trabajar para el gobierno canadiense fotografiando las visitas de diversos mandatarios extranjeros en la capital.

Yousuf Karsh se estrenaría en dicha posición fotografiando la primera visita de Roosevelt a Canada (y la primera vez que un presidente de Estados Unidos visitaba dicho país… menos mal que eran vecinos…). Cuando Churchill visitó Ottawa, Karsh fue llamado para hacerle la fotografía.

En su libro, Faces of Our Time, Karsh recuenta la historia de dicha fotografía. Karsh había preparado su equipo en una sala junto al parlamento candiense, donde Churchill estaba dando un discurso. Karsh había medido la luz empleando a una persona de dimensiones parecidas a las de Churchill, todo estaba listo.

Cuando Churchill fue llevado a la sala, este no estaba de humor para la foto (en algunas referencias mencionan que nadie había avisado a Churchill de la sesión fotográfica y se lo había tomado a mal), en las propias palabras de Karsh:

No estaba de humor para un retrato y dos minutos para ello era todo lo que estaba dispuesto a darme mientras pasaba del parlamento a otra sala. Dos míseros minutos en los cuales yo debía intentar poner en película a un hombre del que se habían escrito o inspirado una biblioteca de libros, desconcertado a sus guionistas, llenado el mundo con su fama, y a mí, en esta ocasión, de pavor.

Churchill que no estaba de humor en ese momento para la fotografía, habiendo permitido a Karsh solamente hacerle una, empezó a fumar uno de esos cigarros tan característicos de él. El cigarro no entraba en la imagen que quería hacer Karsh de dicho líder. En palabras de Karsh, esto es lo que pasó a continuación:

El cigarro de Churchill estaba continuamente presente. Saqué un cenicero, pero no se deshizo del cigarro. Regresé a mi cámara y comprobé que todo estaba bien técnicamente. Y esperé; continuó a fumar vigorosamente su cigarro. Y esperé. Entonces caminé hacia él, y sin premeditación, pero respetuosamente, dije, “perdóneme, señor,” y le arranqué el cigarrillo de la boca. Para cuando estaba de vuelta a mi cámara, me miraba tan fijamente que me podría haber devorado. Fue en ese instante cuando le hice la foto.

Esa fotografía se convertiría en una de las más famosos retratos, y en ese momento, usada por diversas revistas de la época, retrató el espíritu de la Gran Bretaña que no se iba a rendir ante lo que parecía una causa perdida.

La historia cuenta que Churchill se acercó a Karsh sonriendo y mientras le daba la mano le comentaba: “Podrías hacer que un león rugiente se quedase quieto para ser fotografiado, me puedes hacer otra fotografía”. Y la segunda fotografía que Karsh le haría muestra a un Churchill sonriente ante la cámara.

Segundo retrato de Churchill por Yousuf Karsh

El retrato más amigable de Wiston Churchill por Yousuf Karsh. © Yousuf Karsh.

Fuentes: Petapixel: In His Iconic Portrait, Winston Churchill is Scowling Over a Lost Cigar; Boston Public Library; Iconic Photos: Winston Churchill by Yousef Karsh; y Smithsonian: The Day Wiston Churchill Lost his Cigar.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies