Comprendiendo

Si hay una herramienta básica en la fotografía digital este es el histograma. Entender la información que nos está aportando o no nos está aportando pienso que es fundamental. En el siguiente vídeo intento explicar de forma breve qué es y la utilidad del mismo a la hora de usarlo cuando hacemos fotos o trabajamos con ellas en el ordenador.

Ya hace años había explicado en una entrada en este blog este mismo concepto.

Este breve vídeo trata de poner de ejemplo como cambia la relación entre el primer plano y el fondo según el tipo de lente que empleemos. El objetivo del vídeo no es una clase de composición, sino sencillamente dar una pequeña idea de una de las consecuencias de escoger una lente u otra. Fuera de la idea de que sencillamente valen para hacer zoom.

Este artículo no va a ser una discusión banal sobre sí la tecnología CCD o CMOS es la superior. Dicha discusión a mediados del 2015 ya no tiene sentido. El mayor fabricante de sensores digitales, Sony, anunció a principios de año que dejaba de aceptar más pedidos para sensores de tipo CCD, claramente indicando que dejaban de fabricarlos. Pocos fabricantes usan hoy en día sensores CCD, las excepciones las encontramos en respaldos digitales de medio formato, como los de Phase One ó en algunas cámaras de vídeo como las de Blackmagic.

Amanece en Benijo

Amanece en Benijo [Canon 5D Mark II con Canon EF 17-40 F4L. Toma sacada a IS0100, f11 y 0,6 seg. Trípode
y disparador remoto utilizado]. © David García Pérez 2015.

Más adelante durante el artículo explico por que CMOS está triunfando en cuanto a número de cámaras que incorporan esta tecnología versus CCD. ¿Significa que CCD poco a poco desaparecerá? Puede… hace 20 años nadie daba un duro por CMOS (una afirmación un pelín exagerada…), puede que futuras evoluciones de la tecnología le vuelvan dar otra oportunidad al CCD o tal vez aparezca algo nuevo que jubile a ambos.

Nacimiento de los sensores digitales

La historia de los CCDs es bastante antigua. Fueron inventados en el año 1969 por Wilard Boyle y George E. Smith en los laboratorios de AT&T Bell Labs. Bautizaron a su invento Charge Bubble Devices. La idea del invento era sencilla, era un dispositivo capaz de leer una serie de valores de carga de un array uno a uno y convertirlos en señales digitales. La idea, según sus autores, tenía bastantes aplicaciones, tales como memoria o dispositivo para capturar imágenes. La primera patente aplicada para ser usada como sensor para imágenes sería Michael Tompsett en 1971. Su dispositivo era un sensor lineal de 8 píxeles que era capaz de actuar como escáner. Era el comienzo de la imagen digital, por el camino el nombre cambiaría a Charge Coupled Devices (CCD). Boyle y Smith recibirían el Premio Nobel de la física por este invento en el año 2009.

El funcionamiento de un CCD actual se puede observar en la siguiente figura:

Esquema de un sensor CCD

Por un lado tenemos los fotodiodos, estos son las partes que reciben la luz, y la convierten a una carga de electrones que es almacenada en el propio pixel. Una vez hecha la captura la carga de cada pixel es transferida una a una fila a fila a los registros de desplazamiento vertical. Y cada fila es después transmitida al registro de desplazamiento horizontal. Pixel a pixel el amplificador de salida convertirá esa carga de electrones en una señal de voltaje analógico que después será convertida a una señal digital por el conversor analógico-digital (A/D).

El otro tipo de sensor digital que se ha popularizado a lo largo de los años son los conocidos como sensores CMOS. A diferencia de los CCD, estos no reciben el nombre por como funcionan, sino por el tipo de proceso de fabricación que siguen: semiconductor complementario de óxido metálico o complementary metal-oxide-semiconductor (CMOS), que es la misma tecnología que se usa para fabricar cualquier tipo de microchip hoy en día (un detalle que resultará relevante más adelante). Un esquema muy simplificado del mismo es el ilustrado por la siguiente figura:

Esquema de un sensor de fotografía CMOS

La primera diferencia que vemos aquí con respecto del CCD es que dentro de cada pixel o fotodiodo está la electrónica que convierte esa carga de electrones que se crea cuando incide luz sobre el sensor en una señal de voltaje analógico. Voltaje que será después convertido por uno o varios conversores A/D en una señal digital.

Evolución

Como muchos sabréis, hasta hace unos años casi todos los sensores fotográficos eran del tipo CCD. Y sobre el 2000 parecía raro que esto fuese a cambiar (y cambió, de forma muy rápida). Los sensores CCD tenían una serie de ventajas inherentes a su diseño. De entrada no tienen que acomodar electrónica dentro del propio pixel como los CMOS (hay una excepción explicada más adelante), lo cual hacía que cada pixel pudiese recibir más luz, mejor señal, menos ruido. También era más fácil en los mismos aplicar lo que se conoce como obturador global (global shutter) a nivel electrónico, que evitaba el efecto conocido como rolling shutter (este efecto también se podía dar en película, dependía de como el obturador de la cámara estuviese implementado). No es que en un sensor CMOS no se pueda implementar un global shutter, sencillamente que es muchísimo más complejo.

También existe la creencia de que los sensores CCD producen mejor color que los CMOS. Realmente esto es debido a que los sensores de cámara de medio formato (hasta hace muy poco prácticamente todos CCDs) tienen un mejor filtro bayer que las cámaras CMOS de 35mm (esto también tiene un precio, cuanto más preciso es el filtro en diferenciar rojo, verde y azul, menos luz llega al fotodiodo y más ruido puede haber).

Pero los sensores CCD tienen una gran desventaja, su proceso de fabricación es distinto a como se fabrican los microchips. El principal inconveniente de esto es que no se beneficia directamente de los avances de procesos de fabricación de microchips. Al mismo tiempo, requieren que la electrónica para convertir la señal a digital vaya en un chip a parte, lo cual hace más voluminoso el resultado final. Además, también consumen más energía que su equivalente CMOS. Estos dos últimos puntos muy importantes si estás fabricando cámaras para móviles, por ejemplo.

Como indiqué más arriba, los sensores CMOS se beneficiaron en gran medida de la evolución de las tecnologías para fabricar microchips, que siguen exactamente los mismos procesos de fabricación que los que llevan este tipo de sensores. Hasta ahora el proceso de fabricación de microprocesadores se ha guiado por la famosa Ley de Moore, que en algún momento se topará con los límites de la física. Esta ley dice que la cantidad de transistores en un chip se duplicará cada dos años. La principal manera de conseguir esto es a través de hacer dichos transistores más pequeños. Esto tiene la ventaja de que los transistores encargados de hacer la transformación de carga a voltaje que ocupaban parte del pixel, cada vez es más pequeña, y tapan menos área que reciba luz (también hay que tener en cuenta que cada vez los sensores tienen más megapixeles, así que se va manteniendo un equilibrio sobre cuanto ocupa dicho lógica dentro del propio pixel).

Al mismo tiempo, otras de las desventajas fueron cayendo poco a poco. Los sensores CMOS cada vez mostraban mejor relación señal-ruido con lo cual podía alcanzar ISOs más altos sin pérdida de calidad. Un detalle donde CCD sigue manteniendo ventaja es en el tema del global shutter, es mucho más fácil de implementar a nivel electrónico en un sensor CCD que en uno CMOS.

Actualidad y futuro

Si estáis siguiendo últimamente la actualidad de cámaras nueva que salen al mercado os habréis dado cuenta que la norma es cada vez más megapixeles. Sin entrar en el eterno debate si realmente hace falta más megapixeles (tengo que la teoría que el mínimo necesario que todo el mundo dice que hace falta cambia con los años). Este incremento en el número de megapixeles ha disminuido el área de los mismos, por lo cual cada pixel recibe menos luz. Ya hace tiempo que todos los pixeles tienen una microlente encima que les ayuda a recibir más luz para así contrarrestar un poco su área más pequeña. Pero ahora surge un problema con el tamaño del pozo. Si nos fijamos en esta figura sobre un supuesto corte vertical de un sensor CMOS:

Estructura vertical de un sensor CMOS

Como se observa en el diagrama anterior, la electrónica necesaria por pixel CMOS hace que la zona fotosensible esté más profunda de lo deseado. Esto implica que la luz tiene que entrar muy directa sobre el sensor, lo cual es un problema para lentes de gran angular. Por este motivo se coloca desde hace bastante tiempo microlentes en frente de cada pixel, para intentar mejorar la cantidad de luz que recolecta cada pixel.

La primera vez que escuché hablar de este problema fue cuando salió [el respaldo digital de Phase One IQ180] (que curiosamente es CCD, su problema es que son 80 megapixeles, lo cual hace el tamaño de pixel muy pequeño). Para ciertos tipos de lente este mostraba zonas de color púrpura en los bordes de la imagen y fuertes viñeteos, debido a que la luz que salía de una lente gran angular no llega al sensor con un ángulo de 90 grados, sino inclinados y no toda la luz llegaba al fotodiodo por culpa de ello.

Este es el mismo problema por el qué se dudaba, al principio, que la serie A7 de Sony pudiese tener grandes angulares (grandes “expertos” en foros de internet lo dudaban). Al montarse la lente mucho más cerca del sensor (al no tener espejo), es muy complicado hacer un diseño de gran angular que no resulte muy voluminoso (se necesitaría un diseño de retrofocus para enderezar al final los haces de luz, lo cual, además de añadir elementos ópticos que pueden hacer perder calidad, hacen la lente mucho más grande) (supongo que la lente 16–35f4 de Sony para su montura FE hizo que estas especulaciones desapareciesen, al menos para un sensor de 36 Megapixeles como el de la A7r).

Pero el problema sigue estando ahí, cuantos más megapixeles menos luz recibe cada pixel. Curiosamente este ha sido un problema que ya se enfrentaron las compañías fabricantes de sensores para telefonía móvil, como Sony y Samsung. Para solventar dichos problemas, se introdujo un nuevo diseño de sensor denominado Back Side Iluminated CMOS. El esquema más o menos sería el siguiente:

BSI CMOS

La idea más sencilla no puede ser. Se trata de poner la zona fotosensible lo más cerca posible de las microlentes y toda la electrónica necesaria para que cada pixel funcione debajo. La idea es sencilla pero supongo que el proceso de fabricación es mucho más complicado que los típicos chips CMOS para que no empezase a verse en las cámaras hasta hace poco. De esta forma la luz recolectada por el fotodiodo es mucho mayor, haciendo posible de que a pesar de que el tamaño del pixel sea más pequeño (por la gran cantidad de megapixeles), este siga recibiendo suficiente cantidad de luz para que la relación señal ruido siga siendo buena.

Hay que entender como funciona el proceso de fabricación de un chip. Los chips se hacen en obleas de silicio, en cada oblea se van construyendo por diversos procesos físicos y químicos los chips, una vez se finaliza el proceso, la oblea se corta y salen el número correspondientes de chips que cogiesen en esa oblea. Esos chips se testean, dado que un fallo en el proceso de fabricación o impureza en los materiales como la propia oblea de silicio pueden hacer que el chip vaya directamente a la basura. Cuanto más pequeños sean los chips, más te cogen por oblea, así que el ratio entre chips que salen buenos o malos aumenta. Cuanto más grande sea el chip, la probabilidad de que te salga mal algo aumentan significativamente (por eso un sensor de full-frame es mucho más caro que un sensor de móvil).

Los sensores de teléfonos móviles son bastante pequeños, debido a ello nuevas tecnologías que requieran procesos de fabricación más complicados se testean en ellos, como es el baso de BSI CMOS. Cuando el fabricante considera que el proceso de fabricación es lo suficientemente maduro y dicha tecnología puede beneficiar al producto final, este es portado a sus hermanos mayores.

El primer fabricante en sacar una cámara con lentes intercambiables y sensor BSI CMOS fue Samsung con su NX1. Sony, con su A7r II ha sido el segundo, pero de esta vez con un chip de tamaño full-frame y 42 megapixeles. En una entrevista reciente, uno de los responsables de la división de Sony para cámaras comenta que hasta llegar al nivel de 42 megapixeles en el sensor no sintieron la necesidad de portar su tecnología BSI CMOS a las cámaras. En este caso, al ser el pixel tan pequeño, la única forma que veían de conseguir un nivel de ISO aceptable y comparable con modelos anteriores, era usando BSI CMOS (también indican que cambiando de aluminio a cobre en el proceso de fabricación les ayudó a reducir ruido en las etapas de amplificación de la señal). Curiosamente las nuevas Canon 5Ds y 5Ds R que usan tecnología CMOS típica, tienen el ISO limitado a 6400.

Desde que el mundo de sensores digitales se aplica a la fotografía “profesional” no han pasado ni 20 años y parece que las innovaciones y mejoras no paran de llegar…

Hace algún tiempo publiqué un artículo sobre como funcionaba un sistema de auto enfoque y la historia detrás su evolución. Resumiendo el artículo, básicamente hoy en día hay dos sistemas de autoenfoque, por detección de fase (el más rápido) y por contraste (habitualmente más preciso), incluso en algunas cámaras modernas son capaces de tener ambos funcionando al mismo tiempo.

A través del blog Image Sensors World, me encuentro dos vídeos publicados por Sony sobre como funcionan ambos sistemas. Ya os advierto que los vídeos en sí son sutiles.

El primer vídeo tenemos un sistema de autoenfoque por detección de fase:

Básicamente el vídeo muestra como la cámara estaba enfocada en las casas de fondo, y cuando el coche de juguete se pone delante, rápidamente es capaz de enfocarlo, sin tener que ir para adelante o para atrás para asegurarse que está bien enfocado. Cuando el coche sale de la escena, vuelve a enfocar las casas a la primera.

El segundo vídeo nos muestra como funciona un sistema de enfoque por contraste:

Aquí podemos ver como al aparecer el coche, la cámara lo intenta enfocar, pasa por el punto de enfoque máximo, se da cuenta que se ha pasado y tiene que volver para atrás, y es ahí cuando ya enfoca el coche. Lo mismo pasa cuando después enfocan las casas de nuevo. Este vídeo nos deja claro por qué el sistema de autoenfoque por detección de fase es más rápido de forma gráfica.

La gente que me conoce notará que hay cierto cinismo por mi parte al hacer un artículo de sobre como funciona un sistema de autoenfoque, más que nada por que yo para el 90% de mis fotos enfoco la cámara de forma manual.

Anochecer sobre el Aneto

Anochecer sobre el Aneto [Canon 5D Mark II con Canon 70 -200f4L IS. Toma sacada a IS0100, f11 y 1 seg. Trípode y disparador remoto utilizado]. © David García Pérez 2014.

La idea de este artículo me surgió un pelín de rebote. Estaba leyendo una entrevista a Jay Kelbley de Samsung sobre el anuncio de la nueva NX1. Durante la lectura de dicha entrevista hubo un párrafo que me llamó la atención. El entrevistador le pregunta al representante de Samsung si teniendo 200 puntos de enfoque por detección de fase en el propio sensor eso no hace que la imagen pierda calidad dado que los píxeles, en el sensor, usados para hacer sensor de autoenfoque no captaban tan bien la luz como los píxeles normales (el entrevistado aclararía que el porcentaje de píxeles afectados por esto es mínimo y que no afecta la imagen, cálculos a ojo del entrevistador ponen ese porcentaje por debajo del 1% de todos los píxeles del sensor).

En ese momento me di cuenta de que realmente no sabía como funcionaban dichos sistemas, ni por que al ponerlos en el sensor afectaría a que zonas del sensor no pudiesen captar tan bien la luz como otras zonas. Así que decidí leer un poco sobre el tema, con la inevitable consecuencia de terminar por convertirse en artículo para este blog.

Historia

Como muchas de las ideas de al fotografía actual, la historia de los sistemas de autoenfoque empieza con una marca: Leica. Aunque la época en la que comienza esta historia era conocida como Leitz.

En el año 1960, Leica patentaría los primeros sistemas de autoenfoque. Seguiría jugando con diversas ideas de como hacer un sistema de autoenfoque hasta que en el año 1976 presentarían durante el Photokina la Leitz Correfot, una cámara que utilizaba un sistema de confirmación de enfoque parecido a los sistemas de detección de fase que se emplean en la actualidad (explicación detrás de esta idea más adelante). Esta cámara no dejaría ser un prototipo que no se comercializó, al igual que la reflex que presentarían en el siguiente Photokina en el año 1978 (los Photokina tiene una periocidad de dos años).

Mientras tanto, una compañía americana, Honeywell, poco conocida en el mundo de la fotografía, publicaría durante los 70 cuatro patentes con las ideas de lo que hoy conocemos como sistema de enfoque por detección de fase (“Electronic Focus for Cameras”, por N. Stauffer y D. Wilwerding March, Scientific Honeyweller, Volumen 3, N. 1 Marzo 1982) y que gran parte de las cámaras de hoy en día usan (bueno, una evolución de esas ideas iniciales).

Honeywell no comercializaría una cámara basadas en su idea, que denominaban “Visitronic AF system”. Sería Konica con su Konica C35 AF la primera en comercializar una cámara con dicho sistema (pagando a Honeywell los respectivos derechos de pantente), convirtiéndose al mismo tiempo en la primera cámara producida en masa en comercializarse con un sistema de autoenfoque.

Konica abrió la caja de pandora y otras marcas rápido la seguirían, empezando con la Polaroid SX–70 que se comercializaría el año siguiente, 1978. Está era la primera cámara réflex con sistema de autoenfoque, pero usaría un sistema activo en vez de pasivo como la anterior C35 (un sistema activo emite una luz infraroja o ultrasonidos para ayudar al sistema de autoenfoque a enofocar, a diferencia de los pasivos como el de la C35 que son los que se usan habitualmente hoy en día).

Pero realmente los sistemas anteriores no serían lo que hoy en día entendemos como 100% sistemas de autoenfoque. Simplemente confirmaban que la lente estaba enfocada, pero no había motores que moviesen la lente. No sería hasta el año 1981 que Pentax lanzaría su Pentax ME-F, la primera cámara réflex que tenía un motor que movía el anillo de enfoque de la lente en coordinación con el sistema de autoenfoque. Era un sistema bastante antiestético, dado que los motores eléctricos que movían el anillo de enfoque sobresalían por debajo de la lente.

Nikon seguiría a Pentax con su Nikon F3AF en el año 1983. Pero no sería hasta el año 1985 que Minolta saca su Minolta 7000, la primera cámara que incorporaría tanto motor de autoenfoque como sistema de autoenfoque en el propio cuerpo de la cámara, haciendo que las lentes fuesen mucho más atractivas en cuanto a diseño con respecto a los sistemas de autoenfoque de otras marcas. Esto idea sería seguida por otros fabricantes como Nikon.

Pero Minolta, al igual que casi el resto de fabricantes de cámaras con sistemas de autoenfoque con detección de fase, como Nikon o Canon, tuvieron un pequeño contratiempo económico. Honeywell no le hizo gracia que la gente no pagase por el uso de sus patentes y empezó demandado a Minolta, que se vería obligada a pagar casi 100 millones de euros por el uso de las patentes de Honeywell. Otros fabricantes seguirían la suerte de Minolta.

Canon, a pesar de tener cámaras compactas con sistemas de autoenfoque desde hace años, como la Canon AF35M, no entraría en el mercado de las réflex con sistema de autoenfoque hasta el año 1987, con la introducción de su serie EOS. Aquí volvería a poner los motores de autoenfoque en la lente, de esta vez sin abultados añadidos debajo de la misma. Diseño al que ya todos estamos acostumbrados hoy en día.

Funcionamiento

Aunque hay más sistemas, los algoritmos de detección de autoenfoque por contraste y por detección de fase, que presento a continuación, son los que se emplean en la mayoría de las cámaras de fotografía actuales, ya sea tu teléfono móvil y o tu réflex que te costó como la entrada de un coche de gama alta (algunas incluso como el coche mismo).

Enfoque por contraste

Empiezo explicando la idea de funcionamiento de autoenfoque por contraste dado que es la más sencilla de todas. La hipótesis es muy sencilla: “Una zona de la imagen estará enfocada cuando el contraste es máximo para ese región”.

El algoritmo de enfoque por contraste funciona de la siguiente forma: Primero, en la región de la imagen que quiero que esté enfocada (puede ser una región pequeña o toda la imagen, depende de lo que configuremos) analizo el histograma y saco una medida del contraste de la imagen. Segundo, muevo un pelín la lente en una dirección, si el contraste aumenta, sigo en esa dirección, sino, empiezo a mover el enfoque de la lente en dirección contraria. Sigo haciendo esto mientras el contraste de la zona a analizar aumente, una vez empiece a disminuir, significa que me he pasado, y tengo que volver hacia atrás, hasta encontrar de nuevo ese punto de máximo enfoque.

Tal vez habéis notado que este algoritmo tiene una desventaja principal, la cámara no sabe hacia donde tiene que mover la lente para conseguir enfocar, lo cual puede hacer que se pierda tiempo intentando enfocar la lente en el sentido contrario al deseado, a parte de cuando se alcanza el punto máximo de enfoque, la cámara no la sabe, por lo que necesita pasarse un poco para comprobar que el histograma disminuye su contraste y volver para atrás. En resumen, los sistemas de autoenfoque por contraste son más lentos que los sistemas de enfoque por detección de fase que comento en la siguiente sección.

Pero no todo son desventajas. Como explicaré más adelante, la detección por contraste en cámaras digitales se hace en sobre el propio sensor, lo cual hará que sean mucho más precisos que los sistemas tradicionales de detección de fase (a parte de que no necesitan ninguna calibración), aunque esto está cambiando con los nuevos sistemas de detección híbridos que comentaré más adelante.

Enfoque por detección de fase

La explicación de como funcionan los sistemas de detección de fase es un pelín más complicada que la de contraste y está basada en el siguiente principio: “cuando un punto está enfocado, los rayos de luz provenientes de dicho objeto/zona iluminarán de forma igual puntos opuestos de la lente (la lente está en ”fase“)”.

Empleando este principio, los fabricantes de cámara son capaces de crear sensores que que recogen la luz proveniente de los bordes de la lente en diversas zonas de la imagen. Miden la luz proveniente de uno de los bordes con un sensor y del borde diametralmente opuesto con otro (la siguiente figura muestra un esquema de como funciona). Este sistema es capaz de detectar en que sentido se tiene que mover la lente para que esté bien enfocada.

Enfoque por detección de fase

La anterior figura intenta explicar como funciona el sistema de enfoque por detección de fase. A la izquierda tenemos un punto negro que entendemos que es lo que queremos enfocar. Tenemos nuestra lente en el medio que en cada caso pasará de estar enfocada a un punto muy cercano del objeto (1), después correctamente enfocada (2), y por último, demasiado lejos del punto de enfoque ideal (3). La barrera negra con dos agujeros representa como el fabricante es capaz de separar la luz de de dos zonas distintas de la lente (en realizad el fabricante usaran un separador de rayos (beans splitter) que algunas veces veo representado por una pieza óptica en forma de trapecio… pero ya me he olvidado de mis clases de óptica geométrica en la carrera, así que no me hagáis caso). Después del separador de rayos (traducción muy liberal por mi parte) tenemos un par de microlentes que ayudan a enfocar la luz sobre el sensor (los rectángulos amarillos).

Como veis en los diagramas la luz llega a ambos sensores de diferentes zonas de la lente diametralmente opuestas. Analizando la intensidad recibida en ambas sensores y comparando la gráficas la cámara es capaz de saber si la lente está enfocada (2), dado que ambas señales están en “fase” (sobrelapadas), o cuanto de lejos y en que sentido tiene que mover los motores de autoenfoque según lo como sea esa diferencia de fase. Gracias a esto último, hace que los sistemas de detección de fase sean, habitualmente, más rápidos que los sistemas de enfoque por contraste.

Implementaciones en las cámaras

Ahora que tenemos una idea más o menos clara de como estos algoritmos funcionan, veamos como los fabricantes han decidido implementarlos en las cámaras digitales modernas (bueno, modernas al momento de escribir el artículo -finales del 2014-).

Lo obvio, por detección de contraste

Los sistemas de autoenfoque por detección de contraste eran hasta hace unos años usados de forma casi en exclusiva por cámaras de vídeo digitales o cámaras de fotografía compactas, pero la situación cambió bastante con la introducción de cámaras sin espejo, las cuales no podían llevar los sistemas de autoenfoque por detección de fase como veréis en la siguiente sección (también la introducción de liveview forzó a los fabricantes de réflex a añadir esta tecnología en sus cámaras).

Todas las cámaras actuales ofrecen la posibilidad de enfoque por contraste y básicamente esta se emplea cuando la cámara está en liveview o es una cámara sin espejo (esta frase cada vez es menos cierta, sino, leer hacia el final del artículo la sección "Detección de fase en el sensor digital"). Es el propio sensor el que hace de sensor de autoenfoque. La cámara lee la señal que viene del sensor, del área que queremos tener enfocada, y por software calcula el histograma de la misma y el contraste, y después empieza a mover el motor de autoenfoque tal y como indiqué anteriormente.

Como ya dije el sistema es lento, pero su principal ventaja es que se hace sobre el sensor, así que no hay problemas de calibraciones como comentaré en la siguiente sección, por lo cual será un sistema de enfoque muy preciso.

Montaje típico de detección de fase

Heredando de la época de película, dónde el sensor de autoenfoque no podía estar delante de la propia película, los fabricantes de cámaras digitales tipo réflex optaron por el montaje de sensor de autoenfoque como se muestra en la siguiente figura.

Montaje típico de sensor de autoenfoque por detección de fase

Cuando el espejo está bajado, una pequeña zona del mismo es semitransparente, lo cual permite que parte de la luz viaje hasta el sensor de autoenfoque (gracias a un segundo espejo) que reside en la parte inferior del habitáculo del sensor/espejo de una cámara digital. Cuando se hace la foto, la combinación de espejos se levanta en conjunto y la luz en su totalidad llega al sensor, ya sea película o digital. Por eso hasta hace muy poco (ver la parte de sensores híbridos) era imposible usar un el sistema de autoenfoque por detección de fase cuando una cámara réflex estaba en liveview.

Como pequeño detalle, indicar que habitualmente estos sensores de autoenfoque (hay uno por cada punto de autoenfoque que tenga nuestra cámara) suelen ser horizontales, lo cual hacen que se detecten mejor las características verticales (según leo, las imágenes tienden a contener más características verticales que horizontales). De todas formas, desde hace unos años, algunas cámaras incorporan un sensor vertical que cruza algunos de los horizontales para darle mayor precisión al mecanismo de enfoque, es lo que habitualmente se conoce como puntos de autoenfoque en cruz.

Problemas de esta solución

Esta solución, aunque es la más usada por las cámaras profesionales, tiene sus desventajas. Empecemos por la más agravante de todas: falsos positivos. Dado que el sensor de autoenfoque no está colocado en el mismo plano que el sensor, o sobre el sensor mismo, si el sistema no viene bien ajustado de fabrica podemos tener problemas de calibración, donde veamos que para algunas lentes enfoca bien pero para otras no.

Para solventar este problema, las cámaras modernas suelen venir con un menú especial donde se puede especificar la corrección para cada lente que tengamos, habitualmente usando un sistema como LensAlign para conseguir un perfecto calibrado.

Sí os acordáis de la explicación de como funcionaba el sistema de autoenfoque por detección de fase, había comentado que lo que utiliza es rayos de luz proveniente de puntos diametralmente opuestos de la lente, donde habitualmente intentan que sea lo más lejos del centro de la lente posible. Por este motivo muchas veces vemos que para la cámara X algunos puntos de autoenfoque solamente funcionan a f2,8, o f4… etc. Cuanto más cerremos la lente, más probable es que estemos tapando la zona de la lente que usa el sensor de autoenfoque para determinar lo enfocada o no que esté una lente.

Detección de fase en el sensor digital – Sistemas híbridos

Desde hace unos años hasta la actualidad estamos viendo dos “revoluciones” en términos de cámaras fotográficas. Por un lado las cámaras sin espejo parece que por fin están empezando a ganar mercado de forma decisiva sobre las tradicionales réflex, y por otro lado tenemos la revolución del vídeo con cámaras fotográficas.

Las cámaras sin espejo obviamente no pueden usar un sistema de autoenfoque por detección de fase como el mostrado en la sección anterior. Al mismo tiempo, cuando una cámara réflex está grabando vídeo, el espejo está levantado, por lo cual no llega luz al sensor de autoenfoque. Por estos motivos los fabricantes de cámaras han terminado montando los sistemas de autoenfoque por detección de fase en el propio sensor digital.

Con el aumento de los megapíxeles en las cámaras, para conseguir que los sensores de luz cada vez más pequeños recibiesen igual o mismo luz que el mismo sensor pero con menos megapíxeles de la generación anterior, los fabricantes de cámaras desde hace unos años han empezado a poner pequeñas microlentes encima de cada fotodiodo de los sensores.

Aprovechando esto los fabricantes de cámaras digitales consiguen crear en el propio sensor de forma relativamente sencilla un detector de autoenfoque por detección de fase. La siguiente figura presenta más o menos la estrategia “típica” (y va entre comillas por que aquí todavía no hay tanta información por internet como para el sistema tradicional, la única excepción que conozco hasta el momento la explico más adelante en una sección particular).

Sistema de Autoenfoque Híbrido

Como ya expliqué anteriormente, un sensor de detección de autoenfoque por detección de fase se basa en que el sensor reciba la luz de dos partes diametralmente opuestas de la lente. Para ello, justo detrás de la microlente que hay sobre el fotodiodo (habitualemente en un sensor con una matriz de Bayer se usan píxeles de color verde), se pone una máscara que tape la mitad de la luz que llegue al fotodiodo, y en el fotodiodo adjacente, se hace lo mismo, pero se tapa la mitad opuesta.

Para cada punto de autoenfoque los fabricantes usan más de dos píxeles para obtener mayor precisión. Cada píxel usado para esta tarea recibirá el 50% de la intensidad de la luz que sus píxeles vecinos. Básicamente verán peor. Los fabricantes de cámaras aseguran que la cantidad de píxeles para estos menesteres es ínfima comparada con el número total de píxeles del sensor. Por algoritmos de software los fabricantes son capaces de recuperar la información perdida hasta cierto punto y realmente nadie es capaz de notar la diferencia.

Este tipo de sistemas se denomina híbrido por que a parte de hacer detección de fase, el algoritmo de autoenfoque puesto del fabricante también puede usar en combinación detección de autoenfoque por contraste para refinar los resultados.

Canon Dual Pixel

Canon decidió ir por otro camino para implementar su sistema de autoenfoque por detección de fase en el sensor, que explican bastante bien en un artículo en su página web.

La idea es bastante sencilla, cuando decimos que un sensor tiene 20 Megapixeles (por decir una cifra), lo que tiene realmente son 20 millones de microlentes que por debajo tienen 20 millones de fotodiodos (simplificando mucho las cosas). Canon lo que hizo fue dejar esos 20 millones de microlentes, pero por debajo puso 40 millones de fotodiodos (realmente la cifra es inferior, dado en los bordes del sensor se usan los típicos fotodiodos de toda la vida, es decir, una microlente, un fotodiodo). Entonces por cada microlente tenemos dos fotodiodos (de ahí el nombre de Dual Pixel).

De esta forma cada “píxel” del sensor es capaz de medir la luz proveniente de cada lado de la lente y esta medida ser empleada por algoritmos de detección de autoenfoque por detección de fase. Una vez el usuario está listo para tomar la foto, lo que hace el software de la cámara es medir la luz en ambos fotodiodos y sumarla para crear la medida final para crear la hipotética imagen de 20 Megapíxeles.

La principal ventaja de este sistema es que no tenemos ningún píxel que pierda la mitad de luz como en el caso anterior.

Realmente este artículo debería haberlo titulado: ¿Por qué el punto de enfoque cambia con la distancia focal en gran parte de los objetivos zoom? Pero vayamos por partes, en el mercado hay dos clases de lentes tipo zoom: Varifocal – Un objetivo tipo zoom que cuando cambiamos la distancia focal del mismo (el zoom) cambia el punto de enfoque y Parfocal – un objetivo cuyo punto de enfoque se mantiene constante si cambiamos la distancia focal (el zoom).

Amanecer en Val d'Arán

Amanece en Val d’Aran [Canon 5D Mark II con Canon 70-200f4L IS. Toma sacada a IS0100, f11 y 0,6 seg. Trípode y disparador remoto utilizado]. © David García Pérez 2014.

La gran mayoría de los objetivos zoom específicos para fotografía son del tipo varifocal, si cambiamos el zoom del mismo es necesario reenfocar la lente para seguir manteniendo el enfoque en el punto seleccionado. Los fabricantes de cámaras cuentan con que el sistema de autoenfoque corrija el enfoque según vayamos cambiando el zoom/distancia focal de nuestra lente. Esto hace que los requisitos de fabricación de la lente bajen, es más fácil diseñar la lente, y mucho más importante, más barato.

El problema se presenta para la gente que graba vídeo con cámaras fotográficas. Una de las técnicas empleadas por videógrafos es hacer zoom mientras graban una escena para enfocar la atención del espectador en algo. Obviamente, se desea que el enfoque se mantenga constante en ese punto de interés mientras el zoom cambia, lo cual no ocurre. Los sistemas de autoenfoque en vídeo funcionan de aquella manera y habitualmente estas lentes se suelen usar con enfoque manual. Obligando a corregir el zoom y el enfoque al mismo tiempo.

Por otro lado, si sois como yo, que prácticamente eso del autoenfoque es una característica inútil que trae la cámara y enfocáis manualmente con LiveView, es un detalle importante a tener en cuenta.

Aquí tenéis unas pequeñas pruebas que realicé con mi Canon 70–200f4L IS. Más que nada para ilustrar mejor el efecto, dado que suele ser más crítico en lentes con focales más largas. Para ver como el enfoque varia con esta lente, nada mejor que la fotografía de una regla:

Imagen original de la regla sin recortar

El procedimiento es muy sencillo: pongo la lente en un trípode, encuadro la regla, ajusto exposición y la dejo en manual para el resto de las fotos, me aseguro que la lente esté en enfoque manual y el estabilizador desactivado para que no afecte de ninguna forma a la nitidez de la imagen y, finalmente, enfoco manualmente con LiveView en la marca de 20mm de la regla.

Una vez todo preparado comienzo una serie de imágenes donde lo único que vario es la distancia focal de las mismas. La primera con la lente en su focal de 70mm se puede ver perfectamente el 20 enfocado en el siguiente recorte de la imagen (todas las imágenes a partir de ahora están recortadas para mostrar más o menos siempre el mismo área):

Recorte de la imagen inicial con la lente enfocada en 20 mm.

La segunda imagen ya incremento la focal a 100mm, el 20 aún se sigue teniendo un aspecto “pasable”.

Imagen recortada con la lente a distancia focal de 100mm

La tercera imagen pongo la lente en 135mm, como antes, no he modificado en ningún momento el enfoque. Se observa claramente que el 20 ya está desenfocado con respecto a la primera imagen de 70mm, la que empleé para enfocar la lente.

Imagen con la distancia focal de la lente seleccionada a 135mm

Ajusto el zoom de la lente a 176mm, aquí claramente vemos que simplemente por cambiar la distancia focal de lente, el punto de enfoque de la imagen se ha movido entre las marcas de 15 y 16mm de la regla.

Imagen recortada con la lente a distancia focal de 176mm

Última imagen de la serie, a 200mm de distancia focal en la lente. Ya empieza a ser complicado distinguir el 20 en la regla.

Imagen recortada con la lente a distancia focal de 200mm

Todas las imágenes fueron recortadas más o menos al mismo tamaño para facilitar la comparación entre ellas. Por otro lado, son recortes de los ficheros tal cual salieron de la cámara, en ningún momento he aplicado ningún algoritmo de enfocado.

Obviamente todas las imágenes están hechas a la apertura máxima de la lente, que en este caso es f4. Aperturas más cerradas podrían ocultar esta “característica/problema” de la lente, dado que incrementaría la profundidad de campo.

Hay lentes zoom que no presentan este “problema”, como por ejemplo las lentes para cine que crear Zeiss, específicamente diseñadas para ser lentes del tipo parfocal. Eso sí, su modelo 70–200, tiene el módico precio de unos $20.000, y sin autoenfoque. Con ese precio casi me sigo quedando con mi veterano Canon 70–200f4L IS.

Continuo con la serie de vídeos sobre lentes Tilt-Shift o basculantes descentrables. En esta ocasión completamente centrado en su utilidad de conseguir corrección de perspectiva para que no parezca que un edificio se cae sobre nosotros o hacia atrás. Aunque quien dice edificio también se puede aplicar a otras cosas como montañas, árboles, etc…

Perdonar la calidad del sonido, está claro que tengo que buscar mejores soluciones para el viento.

Desde que empecé en esto de la fotografía, siempre hubo un tipo de lentes que me llamaron un montón la atención, las del tipo Tilt-Shift o Descentrables Basculantes. Tal vez fuese debido a que siempre quise una cámara de largo formato que están fuera del alcance de mi bolsillo. O tal vez fuese la influencia de alguno de los fotógrafos canadienses que sigo, que publican libros sobre este tipo de lentes. Sea como fuese, ya hace más de un año terminé en mis manos con una Canon TS-E 24mm f/3.5L II, y con este vídeo empiezo una serie describiendo las posibilidades de estas lentes.

Durante los próximos meses, más información sobre las mismas. Con el objetivo de picaros la curiosidad a vosotros, pero casi más importante, el objetivo de yo terminar de enterderlas al 100% de una vez por todas.

Tal vez en alguna de vuestras lentes ponga la palabra macro, y si es una lente macro de verdad, incluso puede que al lado de esas letras ponga unos números del estilo 1:1 (ojo, no confundir como tal vez la lente indique su apertura máxima). Ese número suele indicarnos el factor de multiplicación de la lente, y nos indicará cuanto podrá ampliar la lente un objeto, a su distancia mínima de enfoque.

Setas

Setas. [Canon 5D Mark II con Tamron 90 mm. Toma sacada a f4 con un tiempo de exposición de 0,5 segundos a ISO100. En la toma de la foto fue empleado disparador remoto y trípode].

La magnificación o factor de multiplicación es simplemente la relación entre el objeto natural enfocado con respecto a su proyección sobre el sensor de nuestra cámara. Por ejemplo, imaginar que tenemos una hoja que mide 10 cm (100 mm), y su proyección sobre nuestro es de solamente 2,5 cm (25 mm). Entonces el factor de multiplicación será en este caso 25/100, o lo que es lo mismo 1/4 (los fabricantes de indicarlo lo pondrían como 1:4 sobre la lente, de nuevo, no confundir con la apertura). Básicamente nos está diciendo que cada 4 mm de la realidad se reducirán a 1 mm cuando este sea proyecto en el sensor, después de que la luz viaje a través de la lente, tal y como podéis ver en la siguiente figura.

Esquema de como multiplica una imagen la lente

El factor de multiplicación de la lente es 1:4. 10 cm de imagen una vez proyectados sobre el sensor de la cámara se convierten en 2,5 cm.

Volviendo a los números que nos indican los fabricantes de lentes. Cuando un fabricante indica que una lente macro tiene un factor de multiplicación de 1:1 nos quiere decir que 1 mm en la realidad tendrá una proyección de exactamente 1 mm en la imagen proyectada sobre el sensor, cuando la lente está enfocada a su mínima distancia y solamente para el objeto que se encuentre en ese punto de enfoque.

Esto es fácilmente comprobable por uno mismo. Por ejemplo, en este caso he cogido una regla que tenía por casa, he montado mi Tamron 90 mm macro sobre mi Canon 5D Mark II y ambos los he colocado sobre mí trípode. Tanto la regla como el sensor estaban más o menos paralelos y he realizado varias fotos acercando cada vez más la cámara a la regla y reenfocando la lente cada vez que me aproximaba. Para cuando la lente está enfocada en su mínima distancia, 1 mm de la escala de la regla se corresponde con 1 mm del sensor. Teniendo en cuenta que el sensor de la 5D tiene un tamaño de 24×36 mm, deberíamos estar viendo solamente un ancho de 36 mm de la regla, tal y como demuestran las siguientes imágenes.

Ejemplo regla lente macro - 1 de 3

La lente se encuentra a 0,37 cm de la regla, como podemos ver estamos lejos del factor de multiplicación de 1:1.

Ejemplo regla lente macro - 2 de 3

La lente se encuentra a 0,31 cm de la regla, estamos cerca, pero todavía no es 1:1.

Ejemplo regla lente macro - 3 de 3

La lente se encuentra a 0,29 cm de la regla, distancia mínima de enfoque para esta lente, como podéis observar 1 mm de la regla se corresponde con 1 mm del sensor.

Este factor de multiplicación depende únicamente de dos parámetros, de la distancia focal de la lente y la distancia mínima la cual haya sido diseñada para enfocarse. Podéis encontrar más información sobre este tema en:

Cuando apuntamos nuestra cámara en vertical hacia un objeto alto, como puede ser un edificio, la foto final tendrá el aspecto de que el objeto está cayendo hacia atrás. Si por el contrario, apuntamos la cámara hacia abajo, el efecto será como si el edificio o sujeto a fotografiar esté cayendo sobre nosotros. Este efecto se conoce como keystone y básicamente se produce cuando el plano del sensor de nuestra cámara no está paralelo al objeto a fotografiar. Los siguientes esquemas muestran de forma gráfica la posición de la cámara con respecto a un hipotético edifico.

La cámara y el edificio están paralelos, no problema de keystone o perspectiva

En este esquema tanto el edificio como el sensor de la cámara están paralelos, la fotografía no tendrá ningún problema de perspectiva.

La cámara al apuntar hacia arriba hará que la foto del edificio resultante, este parezca que se está cayendo hacia atrás

En este esquema el sensor/cámara está apuntando hacia arriba del edificio, la foto resultante tendrá el aspecto de como el edificio se está cayendo hacia atrás.

En este caso la cámara está haciendo un picado hacia el edificio, la foto resultante tendrá el aspecto de que el edificio se cae hacia nosotros

En este esquema la cámara/sensor está apuntando hacia abajo, haciendo un picado hacia el edificio, en la foto resultante, el edificio tendrá el aspecto de que se cae hacia nosotros.

Pero más que esquemas, el siguiente ejemplo práctico muestra claramente el problema:

En esta fotografía, la cámara apuntaba hacia arriba, para poder sacar el edificio entero, como veis, da la sensación de que se está cayendo hacia atrás.

En esta fotografía, la cámara apuntaba hacia arriba, para poder sacar el edificio entero, como veis, da la sensación de que se está cayendo hacia atrás..

En esta fotografía, la cámara/sensor se han colocado paralelos al edificio, con lo cual no da sensación de que este se caiga hacia atrás o hacia adelante.

En esta fotografía, la cámara/sensor se han colocado paralelos al edificio, con lo cual no da sensación de que este se caiga hacia atrás o hacia adelante..

La solución más obvia, la de colocar siempre el sensor de nuestra cámara paralelo al sujeto a fotografiar rara vez funciona, dado que rara vez de esa forma es posible encontrar la composición buscada. Herramientas como Adobe Lightroom ó Adobe Photoshop soportan la corrección por software de este efecto, con el handicap de perder parte de la imagen tomada. Por otro lado, existen cámaras y lentes especializadas, nada baratas, que permiten movimientos de desplazamiento que permiten corregir en el momento de sacar la foto dicho efecto, con la consiguiente ventaja de que así podemos estar seguro de que nuestro encuadre tendrá una vez corregido toda la escena que queremos tomar.

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies