sensor

El siguiente vídeo corre el riesgo de ser demasiado teórico para realmente ser práctico para nadie, pero era un término que necesitaba explicar para poder sacar mi siguiente vídeo sobre hiperfocales. Así que aquí os dejo con la explicación teórica sobre el círculo de confusión:

Sí, ya lo sé, los siguientes enlaces son para engañaros a que entréis en Amazon con mis códigos de afiliados, pero aquí van, las cámaras que menciono en el vídeo. Las full-frame o de 35 mm: Canon 5Ds, Nikon D810, Sony A7r II, Pentax K1 y Sony A7r. Las ASP-C ó formato DX: Nikon D7200, Canon 7D Mark II, y Sony a6300.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Este artículo no va a ser una discusión banal sobre sí la tecnología CCD o CMOS es la superior. Dicha discusión a mediados del 2015 ya no tiene sentido. El mayor fabricante de sensores digitales, Sony, anunció a principios de año que dejaba de aceptar más pedidos para sensores de tipo CCD, claramente indicando que dejaban de fabricarlos. Pocos fabricantes usan hoy en día sensores CCD, las excepciones las encontramos en respaldos digitales de medio formato, como los de Phase One ó en algunas cámaras de vídeo como las de Blackmagic.

Amanece en Benijo

Amanece en Benijo [Canon 5D Mark II con Canon EF 17-40 F4L. Toma sacada a IS0100, f11 y 0,6 seg. Trípode
y disparador remoto utilizado]. © David García Pérez 2015.

Más adelante durante el artículo explico por que CMOS está triunfando en cuanto a número de cámaras que incorporan esta tecnología versus CCD. ¿Significa que CCD poco a poco desaparecerá? Puede… hace 20 años nadie daba un duro por CMOS (una afirmación un pelín exagerada…), puede que futuras evoluciones de la tecnología le vuelvan dar otra oportunidad al CCD o tal vez aparezca algo nuevo que jubile a ambos.

Nacimiento de los sensores digitales

La historia de los CCDs es bastante antigua. Fueron inventados en el año 1969 por Wilard Boyle y George E. Smith en los laboratorios de AT&T Bell Labs. Bautizaron a su invento Charge Bubble Devices. La idea del invento era sencilla, era un dispositivo capaz de leer una serie de valores de carga de un array uno a uno y convertirlos en señales digitales. La idea, según sus autores, tenía bastantes aplicaciones, tales como memoria o dispositivo para capturar imágenes. La primera patente aplicada para ser usada como sensor para imágenes sería Michael Tompsett en 1971. Su dispositivo era un sensor lineal de 8 píxeles que era capaz de actuar como escáner. Era el comienzo de la imagen digital, por el camino el nombre cambiaría a Charge Coupled Devices (CCD). Boyle y Smith recibirían el Premio Nobel de la física por este invento en el año 2009.

El funcionamiento de un CCD actual se puede observar en la siguiente figura:

Esquema de un sensor CCD

Por un lado tenemos los fotodiodos, estos son las partes que reciben la luz, y la convierten a una carga de electrones que es almacenada en el propio pixel. Una vez hecha la captura la carga de cada pixel es transferida una a una fila a fila a los registros de desplazamiento vertical. Y cada fila es después transmitida al registro de desplazamiento horizontal. Pixel a pixel el amplificador de salida convertirá esa carga de electrones en una señal de voltaje analógico que después será convertida a una señal digital por el conversor analógico-digital (A/D).

El otro tipo de sensor digital que se ha popularizado a lo largo de los años son los conocidos como sensores CMOS. A diferencia de los CCD, estos no reciben el nombre por como funcionan, sino por el tipo de proceso de fabricación que siguen: semiconductor complementario de óxido metálico o complementary metal-oxide-semiconductor (CMOS), que es la misma tecnología que se usa para fabricar cualquier tipo de microchip hoy en día (un detalle que resultará relevante más adelante). Un esquema muy simplificado del mismo es el ilustrado por la siguiente figura:

Esquema de un sensor de fotografía CMOS

La primera diferencia que vemos aquí con respecto del CCD es que dentro de cada pixel o fotodiodo está la electrónica que convierte esa carga de electrones que se crea cuando incide luz sobre el sensor en una señal de voltaje analógico. Voltaje que será después convertido por uno o varios conversores A/D en una señal digital.

Evolución

Como muchos sabréis, hasta hace unos años casi todos los sensores fotográficos eran del tipo CCD. Y sobre el 2000 parecía raro que esto fuese a cambiar (y cambió, de forma muy rápida). Los sensores CCD tenían una serie de ventajas inherentes a su diseño. De entrada no tienen que acomodar electrónica dentro del propio pixel como los CMOS (hay una excepción explicada más adelante), lo cual hacía que cada pixel pudiese recibir más luz, mejor señal, menos ruido. También era más fácil en los mismos aplicar lo que se conoce como obturador global (global shutter) a nivel electrónico, que evitaba el efecto conocido como rolling shutter (este efecto también se podía dar en película, dependía de como el obturador de la cámara estuviese implementado). No es que en un sensor CMOS no se pueda implementar un global shutter, sencillamente que es muchísimo más complejo.

También existe la creencia de que los sensores CCD producen mejor color que los CMOS. Realmente esto es debido a que los sensores de cámara de medio formato (hasta hace muy poco prácticamente todos CCDs) tienen un mejor filtro bayer que las cámaras CMOS de 35mm (esto también tiene un precio, cuanto más preciso es el filtro en diferenciar rojo, verde y azul, menos luz llega al fotodiodo y más ruido puede haber).

Pero los sensores CCD tienen una gran desventaja, su proceso de fabricación es distinto a como se fabrican los microchips. El principal inconveniente de esto es que no se beneficia directamente de los avances de procesos de fabricación de microchips. Al mismo tiempo, requieren que la electrónica para convertir la señal a digital vaya en un chip a parte, lo cual hace más voluminoso el resultado final. Además, también consumen más energía que su equivalente CMOS. Estos dos últimos puntos muy importantes si estás fabricando cámaras para móviles, por ejemplo.

Como indiqué más arriba, los sensores CMOS se beneficiaron en gran medida de la evolución de las tecnologías para fabricar microchips, que siguen exactamente los mismos procesos de fabricación que los que llevan este tipo de sensores. Hasta ahora el proceso de fabricación de microprocesadores se ha guiado por la famosa Ley de Moore, que en algún momento se topará con los límites de la física. Esta ley dice que la cantidad de transistores en un chip se duplicará cada dos años. La principal manera de conseguir esto es a través de hacer dichos transistores más pequeños. Esto tiene la ventaja de que los transistores encargados de hacer la transformación de carga a voltaje que ocupaban parte del pixel, cada vez es más pequeña, y tapan menos área que reciba luz (también hay que tener en cuenta que cada vez los sensores tienen más megapixeles, así que se va manteniendo un equilibrio sobre cuanto ocupa dicho lógica dentro del propio pixel).

Al mismo tiempo, otras de las desventajas fueron cayendo poco a poco. Los sensores CMOS cada vez mostraban mejor relación señal-ruido con lo cual podía alcanzar ISOs más altos sin pérdida de calidad. Un detalle donde CCD sigue manteniendo ventaja es en el tema del global shutter, es mucho más fácil de implementar a nivel electrónico en un sensor CCD que en uno CMOS.

Actualidad y futuro

Si estáis siguiendo últimamente la actualidad de cámaras nueva que salen al mercado os habréis dado cuenta que la norma es cada vez más megapixeles. Sin entrar en el eterno debate si realmente hace falta más megapixeles (tengo que la teoría que el mínimo necesario que todo el mundo dice que hace falta cambia con los años). Este incremento en el número de megapixeles ha disminuido el área de los mismos, por lo cual cada pixel recibe menos luz. Ya hace tiempo que todos los pixeles tienen una microlente encima que les ayuda a recibir más luz para así contrarrestar un poco su área más pequeña. Pero ahora surge un problema con el tamaño del pozo. Si nos fijamos en esta figura sobre un supuesto corte vertical de un sensor CMOS:

Estructura vertical de un sensor CMOS

Como se observa en el diagrama anterior, la electrónica necesaria por pixel CMOS hace que la zona fotosensible esté más profunda de lo deseado. Esto implica que la luz tiene que entrar muy directa sobre el sensor, lo cual es un problema para lentes de gran angular. Por este motivo se coloca desde hace bastante tiempo microlentes en frente de cada pixel, para intentar mejorar la cantidad de luz que recolecta cada pixel.

La primera vez que escuché hablar de este problema fue cuando salió [el respaldo digital de Phase One IQ180] (que curiosamente es CCD, su problema es que son 80 megapixeles, lo cual hace el tamaño de pixel muy pequeño). Para ciertos tipos de lente este mostraba zonas de color púrpura en los bordes de la imagen y fuertes viñeteos, debido a que la luz que salía de una lente gran angular no llega al sensor con un ángulo de 90 grados, sino inclinados y no toda la luz llegaba al fotodiodo por culpa de ello.

Este es el mismo problema por el qué se dudaba, al principio, que la serie A7 de Sony pudiese tener grandes angulares (grandes “expertos” en foros de internet lo dudaban). Al montarse la lente mucho más cerca del sensor (al no tener espejo), es muy complicado hacer un diseño de gran angular que no resulte muy voluminoso (se necesitaría un diseño de retrofocus para enderezar al final los haces de luz, lo cual, además de añadir elementos ópticos que pueden hacer perder calidad, hacen la lente mucho más grande) (supongo que la lente 16–35f4 de Sony para su montura FE hizo que estas especulaciones desapareciesen, al menos para un sensor de 36 Megapixeles como el de la A7r).

Pero el problema sigue estando ahí, cuantos más megapixeles menos luz recibe cada pixel. Curiosamente este ha sido un problema que ya se enfrentaron las compañías fabricantes de sensores para telefonía móvil, como Sony y Samsung. Para solventar dichos problemas, se introdujo un nuevo diseño de sensor denominado Back Side Iluminated CMOS. El esquema más o menos sería el siguiente:

BSI CMOS

La idea más sencilla no puede ser. Se trata de poner la zona fotosensible lo más cerca posible de las microlentes y toda la electrónica necesaria para que cada pixel funcione debajo. La idea es sencilla pero supongo que el proceso de fabricación es mucho más complicado que los típicos chips CMOS para que no empezase a verse en las cámaras hasta hace poco. De esta forma la luz recolectada por el fotodiodo es mucho mayor, haciendo posible de que a pesar de que el tamaño del pixel sea más pequeño (por la gran cantidad de megapixeles), este siga recibiendo suficiente cantidad de luz para que la relación señal ruido siga siendo buena.

Hay que entender como funciona el proceso de fabricación de un chip. Los chips se hacen en obleas de silicio, en cada oblea se van construyendo por diversos procesos físicos y químicos los chips, una vez se finaliza el proceso, la oblea se corta y salen el número correspondientes de chips que cogiesen en esa oblea. Esos chips se testean, dado que un fallo en el proceso de fabricación o impureza en los materiales como la propia oblea de silicio pueden hacer que el chip vaya directamente a la basura. Cuanto más pequeños sean los chips, más te cogen por oblea, así que el ratio entre chips que salen buenos o malos aumenta. Cuanto más grande sea el chip, la probabilidad de que te salga mal algo aumentan significativamente (por eso un sensor de full-frame es mucho más caro que un sensor de móvil).

Los sensores de teléfonos móviles son bastante pequeños, debido a ello nuevas tecnologías que requieran procesos de fabricación más complicados se testean en ellos, como es el baso de BSI CMOS. Cuando el fabricante considera que el proceso de fabricación es lo suficientemente maduro y dicha tecnología puede beneficiar al producto final, este es portado a sus hermanos mayores.

El primer fabricante en sacar una cámara con lentes intercambiables y sensor BSI CMOS fue Samsung con su NX1. Sony, con su A7r II ha sido el segundo, pero de esta vez con un chip de tamaño full-frame y 42 megapixeles. En una entrevista reciente, uno de los responsables de la división de Sony para cámaras comenta que hasta llegar al nivel de 42 megapixeles en el sensor no sintieron la necesidad de portar su tecnología BSI CMOS a las cámaras. En este caso, al ser el pixel tan pequeño, la única forma que veían de conseguir un nivel de ISO aceptable y comparable con modelos anteriores, era usando BSI CMOS (también indican que cambiando de aluminio a cobre en el proceso de fabricación les ayudó a reducir ruido en las etapas de amplificación de la señal). Curiosamente las nuevas Canon 5Ds y 5Ds R que usan tecnología CMOS típica, tienen el ISO limitado a 6400.

Desde que el mundo de sensores digitales se aplica a la fotografía “profesional” no han pasado ni 20 años y parece que las innovaciones y mejoras no paran de llegar…

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

La gente que me conoce notará que hay cierto cinismo por mi parte al hacer un artículo de sobre como funciona un sistema de autoenfoque, más que nada por que yo para el 90% de mis fotos enfoco la cámara de forma manual.

Anochecer sobre el Aneto

Anochecer sobre el Aneto [Canon 5D Mark II con Canon 70 -200f4L IS. Toma sacada a IS0100, f11 y 1 seg. Trípode y disparador remoto utilizado]. © David García Pérez 2014.

La idea de este artículo me surgió un pelín de rebote. Estaba leyendo una entrevista a Jay Kelbley de Samsung sobre el anuncio de la nueva NX1. Durante la lectura de dicha entrevista hubo un párrafo que me llamó la atención. El entrevistador le pregunta al representante de Samsung si teniendo 200 puntos de enfoque por detección de fase en el propio sensor eso no hace que la imagen pierda calidad dado que los píxeles, en el sensor, usados para hacer sensor de autoenfoque no captaban tan bien la luz como los píxeles normales (el entrevistado aclararía que el porcentaje de píxeles afectados por esto es mínimo y que no afecta la imagen, cálculos a ojo del entrevistador ponen ese porcentaje por debajo del 1% de todos los píxeles del sensor).

En ese momento me di cuenta de que realmente no sabía como funcionaban dichos sistemas, ni por que al ponerlos en el sensor afectaría a que zonas del sensor no pudiesen captar tan bien la luz como otras zonas. Así que decidí leer un poco sobre el tema, con la inevitable consecuencia de terminar por convertirse en artículo para este blog.

Historia

Como muchas de las ideas de al fotografía actual, la historia de los sistemas de autoenfoque empieza con una marca: Leica. Aunque la época en la que comienza esta historia era conocida como Leitz.

En el año 1960, Leica patentaría los primeros sistemas de autoenfoque. Seguiría jugando con diversas ideas de como hacer un sistema de autoenfoque hasta que en el año 1976 presentarían durante el Photokina la Leitz Correfot, una cámara que utilizaba un sistema de confirmación de enfoque parecido a los sistemas de detección de fase que se emplean en la actualidad (explicación detrás de esta idea más adelante). Esta cámara no dejaría ser un prototipo que no se comercializó, al igual que la reflex que presentarían en el siguiente Photokina en el año 1978 (los Photokina tiene una periocidad de dos años).

Mientras tanto, una compañía americana, Honeywell, poco conocida en el mundo de la fotografía, publicaría durante los 70 cuatro patentes con las ideas de lo que hoy conocemos como sistema de enfoque por detección de fase (“Electronic Focus for Cameras”, por N. Stauffer y D. Wilwerding March, Scientific Honeyweller, Volumen 3, N. 1 Marzo 1982) y que gran parte de las cámaras de hoy en día usan (bueno, una evolución de esas ideas iniciales).

Honeywell no comercializaría una cámara basadas en su idea, que denominaban “Visitronic AF system”. Sería Konica con su Konica C35 AF la primera en comercializar una cámara con dicho sistema (pagando a Honeywell los respectivos derechos de pantente), convirtiéndose al mismo tiempo en la primera cámara producida en masa en comercializarse con un sistema de autoenfoque.

Konica abrió la caja de pandora y otras marcas rápido la seguirían, empezando con la Polaroid SX–70 que se comercializaría el año siguiente, 1978. Está era la primera cámara réflex con sistema de autoenfoque, pero usaría un sistema activo en vez de pasivo como la anterior C35 (un sistema activo emite una luz infraroja o ultrasonidos para ayudar al sistema de autoenfoque a enofocar, a diferencia de los pasivos como el de la C35 que son los que se usan habitualmente hoy en día).

Pero realmente los sistemas anteriores no serían lo que hoy en día entendemos como 100% sistemas de autoenfoque. Simplemente confirmaban que la lente estaba enfocada, pero no había motores que moviesen la lente. No sería hasta el año 1981 que Pentax lanzaría su Pentax ME-F, la primera cámara réflex que tenía un motor que movía el anillo de enfoque de la lente en coordinación con el sistema de autoenfoque. Era un sistema bastante antiestético, dado que los motores eléctricos que movían el anillo de enfoque sobresalían por debajo de la lente.

Nikon seguiría a Pentax con su Nikon F3AF en el año 1983. Pero no sería hasta el año 1985 que Minolta saca su Minolta 7000, la primera cámara que incorporaría tanto motor de autoenfoque como sistema de autoenfoque en el propio cuerpo de la cámara, haciendo que las lentes fuesen mucho más atractivas en cuanto a diseño con respecto a los sistemas de autoenfoque de otras marcas. Esto idea sería seguida por otros fabricantes como Nikon.

Pero Minolta, al igual que casi el resto de fabricantes de cámaras con sistemas de autoenfoque con detección de fase, como Nikon o Canon, tuvieron un pequeño contratiempo económico. Honeywell no le hizo gracia que la gente no pagase por el uso de sus patentes y empezó demandado a Minolta, que se vería obligada a pagar casi 100 millones de euros por el uso de las patentes de Honeywell. Otros fabricantes seguirían la suerte de Minolta.

Canon, a pesar de tener cámaras compactas con sistemas de autoenfoque desde hace años, como la Canon AF35M, no entraría en el mercado de las réflex con sistema de autoenfoque hasta el año 1987, con la introducción de su serie EOS. Aquí volvería a poner los motores de autoenfoque en la lente, de esta vez sin abultados añadidos debajo de la misma. Diseño al que ya todos estamos acostumbrados hoy en día.

Funcionamiento

Aunque hay más sistemas, los algoritmos de detección de autoenfoque por contraste y por detección de fase, que presento a continuación, son los que se emplean en la mayoría de las cámaras de fotografía actuales, ya sea tu teléfono móvil y o tu réflex que te costó como la entrada de un coche de gama alta (algunas incluso como el coche mismo).

Enfoque por contraste

Empiezo explicando la idea de funcionamiento de autoenfoque por contraste dado que es la más sencilla de todas. La hipótesis es muy sencilla: “Una zona de la imagen estará enfocada cuando el contraste es máximo para ese región”.

El algoritmo de enfoque por contraste funciona de la siguiente forma: Primero, en la región de la imagen que quiero que esté enfocada (puede ser una región pequeña o toda la imagen, depende de lo que configuremos) analizo el histograma y saco una medida del contraste de la imagen. Segundo, muevo un pelín la lente en una dirección, si el contraste aumenta, sigo en esa dirección, sino, empiezo a mover el enfoque de la lente en dirección contraria. Sigo haciendo esto mientras el contraste de la zona a analizar aumente, una vez empiece a disminuir, significa que me he pasado, y tengo que volver hacia atrás, hasta encontrar de nuevo ese punto de máximo enfoque.

Tal vez habéis notado que este algoritmo tiene una desventaja principal, la cámara no sabe hacia donde tiene que mover la lente para conseguir enfocar, lo cual puede hacer que se pierda tiempo intentando enfocar la lente en el sentido contrario al deseado, a parte de cuando se alcanza el punto máximo de enfoque, la cámara no la sabe, por lo que necesita pasarse un poco para comprobar que el histograma disminuye su contraste y volver para atrás. En resumen, los sistemas de autoenfoque por contraste son más lentos que los sistemas de enfoque por detección de fase que comento en la siguiente sección.

Pero no todo son desventajas. Como explicaré más adelante, la detección por contraste en cámaras digitales se hace en sobre el propio sensor, lo cual hará que sean mucho más precisos que los sistemas tradicionales de detección de fase (a parte de que no necesitan ninguna calibración), aunque esto está cambiando con los nuevos sistemas de detección híbridos que comentaré más adelante.

Enfoque por detección de fase

La explicación de como funcionan los sistemas de detección de fase es un pelín más complicada que la de contraste y está basada en el siguiente principio: “cuando un punto está enfocado, los rayos de luz provenientes de dicho objeto/zona iluminarán de forma igual puntos opuestos de la lente (la lente está en ”fase“)”.

Empleando este principio, los fabricantes de cámara son capaces de crear sensores que que recogen la luz proveniente de los bordes de la lente en diversas zonas de la imagen. Miden la luz proveniente de uno de los bordes con un sensor y del borde diametralmente opuesto con otro (la siguiente figura muestra un esquema de como funciona). Este sistema es capaz de detectar en que sentido se tiene que mover la lente para que esté bien enfocada.

Enfoque por detección de fase

La anterior figura intenta explicar como funciona el sistema de enfoque por detección de fase. A la izquierda tenemos un punto negro que entendemos que es lo que queremos enfocar. Tenemos nuestra lente en el medio que en cada caso pasará de estar enfocada a un punto muy cercano del objeto (1), después correctamente enfocada (2), y por último, demasiado lejos del punto de enfoque ideal (3). La barrera negra con dos agujeros representa como el fabricante es capaz de separar la luz de de dos zonas distintas de la lente (en realizad el fabricante usaran un separador de rayos (beans splitter) que algunas veces veo representado por una pieza óptica en forma de trapecio… pero ya me he olvidado de mis clases de óptica geométrica en la carrera, así que no me hagáis caso). Después del separador de rayos (traducción muy liberal por mi parte) tenemos un par de microlentes que ayudan a enfocar la luz sobre el sensor (los rectángulos amarillos).

Como veis en los diagramas la luz llega a ambos sensores de diferentes zonas de la lente diametralmente opuestas. Analizando la intensidad recibida en ambas sensores y comparando la gráficas la cámara es capaz de saber si la lente está enfocada (2), dado que ambas señales están en “fase” (sobrelapadas), o cuanto de lejos y en que sentido tiene que mover los motores de autoenfoque según lo como sea esa diferencia de fase. Gracias a esto último, hace que los sistemas de detección de fase sean, habitualmente, más rápidos que los sistemas de enfoque por contraste.

Implementaciones en las cámaras

Ahora que tenemos una idea más o menos clara de como estos algoritmos funcionan, veamos como los fabricantes han decidido implementarlos en las cámaras digitales modernas (bueno, modernas al momento de escribir el artículo -finales del 2014-).

Lo obvio, por detección de contraste

Los sistemas de autoenfoque por detección de contraste eran hasta hace unos años usados de forma casi en exclusiva por cámaras de vídeo digitales o cámaras de fotografía compactas, pero la situación cambió bastante con la introducción de cámaras sin espejo, las cuales no podían llevar los sistemas de autoenfoque por detección de fase como veréis en la siguiente sección (también la introducción de liveview forzó a los fabricantes de réflex a añadir esta tecnología en sus cámaras).

Todas las cámaras actuales ofrecen la posibilidad de enfoque por contraste y básicamente esta se emplea cuando la cámara está en liveview o es una cámara sin espejo (esta frase cada vez es menos cierta, sino, leer hacia el final del artículo la sección "Detección de fase en el sensor digital"). Es el propio sensor el que hace de sensor de autoenfoque. La cámara lee la señal que viene del sensor, del área que queremos tener enfocada, y por software calcula el histograma de la misma y el contraste, y después empieza a mover el motor de autoenfoque tal y como indiqué anteriormente.

Como ya dije el sistema es lento, pero su principal ventaja es que se hace sobre el sensor, así que no hay problemas de calibraciones como comentaré en la siguiente sección, por lo cual será un sistema de enfoque muy preciso.

Montaje típico de detección de fase

Heredando de la época de película, dónde el sensor de autoenfoque no podía estar delante de la propia película, los fabricantes de cámaras digitales tipo réflex optaron por el montaje de sensor de autoenfoque como se muestra en la siguiente figura.

Montaje típico de sensor de autoenfoque por detección de fase

Cuando el espejo está bajado, una pequeña zona del mismo es semitransparente, lo cual permite que parte de la luz viaje hasta el sensor de autoenfoque (gracias a un segundo espejo) que reside en la parte inferior del habitáculo del sensor/espejo de una cámara digital. Cuando se hace la foto, la combinación de espejos se levanta en conjunto y la luz en su totalidad llega al sensor, ya sea película o digital. Por eso hasta hace muy poco (ver la parte de sensores híbridos) era imposible usar un el sistema de autoenfoque por detección de fase cuando una cámara réflex estaba en liveview.

Como pequeño detalle, indicar que habitualmente estos sensores de autoenfoque (hay uno por cada punto de autoenfoque que tenga nuestra cámara) suelen ser horizontales, lo cual hacen que se detecten mejor las características verticales (según leo, las imágenes tienden a contener más características verticales que horizontales). De todas formas, desde hace unos años, algunas cámaras incorporan un sensor vertical que cruza algunos de los horizontales para darle mayor precisión al mecanismo de enfoque, es lo que habitualmente se conoce como puntos de autoenfoque en cruz.

Problemas de esta solución

Esta solución, aunque es la más usada por las cámaras profesionales, tiene sus desventajas. Empecemos por la más agravante de todas: falsos positivos. Dado que el sensor de autoenfoque no está colocado en el mismo plano que el sensor, o sobre el sensor mismo, si el sistema no viene bien ajustado de fabrica podemos tener problemas de calibración, donde veamos que para algunas lentes enfoca bien pero para otras no.

Para solventar este problema, las cámaras modernas suelen venir con un menú especial donde se puede especificar la corrección para cada lente que tengamos, habitualmente usando un sistema como LensAlign para conseguir un perfecto calibrado.

Sí os acordáis de la explicación de como funcionaba el sistema de autoenfoque por detección de fase, había comentado que lo que utiliza es rayos de luz proveniente de puntos diametralmente opuestos de la lente, donde habitualmente intentan que sea lo más lejos del centro de la lente posible. Por este motivo muchas veces vemos que para la cámara X algunos puntos de autoenfoque solamente funcionan a f2,8, o f4… etc. Cuanto más cerremos la lente, más probable es que estemos tapando la zona de la lente que usa el sensor de autoenfoque para determinar lo enfocada o no que esté una lente.

Detección de fase en el sensor digital – Sistemas híbridos

Desde hace unos años hasta la actualidad estamos viendo dos “revoluciones” en términos de cámaras fotográficas. Por un lado las cámaras sin espejo parece que por fin están empezando a ganar mercado de forma decisiva sobre las tradicionales réflex, y por otro lado tenemos la revolución del vídeo con cámaras fotográficas.

Las cámaras sin espejo obviamente no pueden usar un sistema de autoenfoque por detección de fase como el mostrado en la sección anterior. Al mismo tiempo, cuando una cámara réflex está grabando vídeo, el espejo está levantado, por lo cual no llega luz al sensor de autoenfoque. Por estos motivos los fabricantes de cámaras han terminado montando los sistemas de autoenfoque por detección de fase en el propio sensor digital.

Con el aumento de los megapíxeles en las cámaras, para conseguir que los sensores de luz cada vez más pequeños recibiesen igual o mismo luz que el mismo sensor pero con menos megapíxeles de la generación anterior, los fabricantes de cámaras desde hace unos años han empezado a poner pequeñas microlentes encima de cada fotodiodo de los sensores.

Aprovechando esto los fabricantes de cámaras digitales consiguen crear en el propio sensor de forma relativamente sencilla un detector de autoenfoque por detección de fase. La siguiente figura presenta más o menos la estrategia “típica” (y va entre comillas por que aquí todavía no hay tanta información por internet como para el sistema tradicional, la única excepción que conozco hasta el momento la explico más adelante en una sección particular).

Sistema de Autoenfoque Híbrido

Como ya expliqué anteriormente, un sensor de detección de autoenfoque por detección de fase se basa en que el sensor reciba la luz de dos partes diametralmente opuestas de la lente. Para ello, justo detrás de la microlente que hay sobre el fotodiodo (habitualemente en un sensor con una matriz de Bayer se usan píxeles de color verde), se pone una máscara que tape la mitad de la luz que llegue al fotodiodo, y en el fotodiodo adjacente, se hace lo mismo, pero se tapa la mitad opuesta.

Para cada punto de autoenfoque los fabricantes usan más de dos píxeles para obtener mayor precisión. Cada píxel usado para esta tarea recibirá el 50% de la intensidad de la luz que sus píxeles vecinos. Básicamente verán peor. Los fabricantes de cámaras aseguran que la cantidad de píxeles para estos menesteres es ínfima comparada con el número total de píxeles del sensor. Por algoritmos de software los fabricantes son capaces de recuperar la información perdida hasta cierto punto y realmente nadie es capaz de notar la diferencia.

Este tipo de sistemas se denomina híbrido por que a parte de hacer detección de fase, el algoritmo de autoenfoque puesto del fabricante también puede usar en combinación detección de autoenfoque por contraste para refinar los resultados.

Canon Dual Pixel

Canon decidió ir por otro camino para implementar su sistema de autoenfoque por detección de fase en el sensor, que explican bastante bien en un artículo en su página web.

La idea es bastante sencilla, cuando decimos que un sensor tiene 20 Megapixeles (por decir una cifra), lo que tiene realmente son 20 millones de microlentes que por debajo tienen 20 millones de fotodiodos (simplificando mucho las cosas). Canon lo que hizo fue dejar esos 20 millones de microlentes, pero por debajo puso 40 millones de fotodiodos (realmente la cifra es inferior, dado en los bordes del sensor se usan los típicos fotodiodos de toda la vida, es decir, una microlente, un fotodiodo). Entonces por cada microlente tenemos dos fotodiodos (de ahí el nombre de Dual Pixel).

De esta forma cada “píxel” del sensor es capaz de medir la luz proveniente de cada lado de la lente y esta medida ser empleada por algoritmos de detección de autoenfoque por detección de fase. Una vez el usuario está listo para tomar la foto, lo que hace el software de la cámara es medir la luz en ambos fotodiodos y sumarla para crear la medida final para crear la hipotética imagen de 20 Megapíxeles.

La principal ventaja de este sistema es que no tenemos ningún píxel que pierda la mitad de luz como en el caso anterior.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Tal vez en alguna de vuestras lentes ponga la palabra macro, y si es una lente macro de verdad, incluso puede que al lado de esas letras ponga unos números del estilo 1:1 (ojo, no confundir como tal vez la lente indique su apertura máxima). Ese número suele indicarnos el factor de multiplicación de la lente, y nos indicará cuanto podrá ampliar la lente un objeto, a su distancia mínima de enfoque.

Setas

Setas. [Canon 5D Mark II con Tamron 90 mm. Toma sacada a f4 con un tiempo de exposición de 0,5 segundos a ISO100. En la toma de la foto fue empleado disparador remoto y trípode].

La magnificación o factor de multiplicación es simplemente la relación entre el objeto natural enfocado con respecto a su proyección sobre el sensor de nuestra cámara. Por ejemplo, imaginar que tenemos una hoja que mide 10 cm (100 mm), y su proyección sobre nuestro es de solamente 2,5 cm (25 mm). Entonces el factor de multiplicación será en este caso 25/100, o lo que es lo mismo 1/4 (los fabricantes de indicarlo lo pondrían como 1:4 sobre la lente, de nuevo, no confundir con la apertura). Básicamente nos está diciendo que cada 4 mm de la realidad se reducirán a 1 mm cuando este sea proyecto en el sensor, después de que la luz viaje a través de la lente, tal y como podéis ver en la siguiente figura.

Esquema de como multiplica una imagen la lente

El factor de multiplicación de la lente es 1:4. 10 cm de imagen una vez proyectados sobre el sensor de la cámara se convierten en 2,5 cm.

Volviendo a los números que nos indican los fabricantes de lentes. Cuando un fabricante indica que una lente macro tiene un factor de multiplicación de 1:1 nos quiere decir que 1 mm en la realidad tendrá una proyección de exactamente 1 mm en la imagen proyectada sobre el sensor, cuando la lente está enfocada a su mínima distancia y solamente para el objeto que se encuentre en ese punto de enfoque.

Esto es fácilmente comprobable por uno mismo. Por ejemplo, en este caso he cogido una regla que tenía por casa, he montado mi Tamron 90 mm macro sobre mi Canon 5D Mark II y ambos los he colocado sobre mí trípode. Tanto la regla como el sensor estaban más o menos paralelos y he realizado varias fotos acercando cada vez más la cámara a la regla y reenfocando la lente cada vez que me aproximaba. Para cuando la lente está enfocada en su mínima distancia, 1 mm de la escala de la regla se corresponde con 1 mm del sensor. Teniendo en cuenta que el sensor de la 5D tiene un tamaño de 24×36 mm, deberíamos estar viendo solamente un ancho de 36 mm de la regla, tal y como demuestran las siguientes imágenes.

Ejemplo regla lente macro - 1 de 3

La lente se encuentra a 0,37 cm de la regla, como podemos ver estamos lejos del factor de multiplicación de 1:1.

Ejemplo regla lente macro - 2 de 3

La lente se encuentra a 0,31 cm de la regla, estamos cerca, pero todavía no es 1:1.

Ejemplo regla lente macro - 3 de 3

La lente se encuentra a 0,29 cm de la regla, distancia mínima de enfoque para esta lente, como podéis observar 1 mm de la regla se corresponde con 1 mm del sensor.

Este factor de multiplicación depende únicamente de dos parámetros, de la distancia focal de la lente y la distancia mínima la cual haya sido diseñada para enfocarse. Podéis encontrar más información sobre este tema en:

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Cuando apuntamos nuestra cámara en vertical hacia un objeto alto, como puede ser un edificio, la foto final tendrá el aspecto de que el objeto está cayendo hacia atrás. Si por el contrario, apuntamos la cámara hacia abajo, el efecto será como si el edificio o sujeto a fotografiar esté cayendo sobre nosotros. Este efecto se conoce como keystone y básicamente se produce cuando el plano del sensor de nuestra cámara no está paralelo al objeto a fotografiar. Los siguientes esquemas muestran de forma gráfica la posición de la cámara con respecto a un hipotético edifico.

La cámara y el edificio están paralelos, no problema de keystone o perspectiva

En este esquema tanto el edificio como el sensor de la cámara están paralelos, la fotografía no tendrá ningún problema de perspectiva.

La cámara al apuntar hacia arriba hará que la foto del edificio resultante, este parezca que se está cayendo hacia atrás

En este esquema el sensor/cámara está apuntando hacia arriba del edificio, la foto resultante tendrá el aspecto de como el edificio se está cayendo hacia atrás.

En este caso la cámara está haciendo un picado hacia el edificio, la foto resultante tendrá el aspecto de que el edificio se cae hacia nosotros

En este esquema la cámara/sensor está apuntando hacia abajo, haciendo un picado hacia el edificio, en la foto resultante, el edificio tendrá el aspecto de que se cae hacia nosotros.

Pero más que esquemas, el siguiente ejemplo práctico muestra claramente el problema:

En esta fotografía, la cámara apuntaba hacia arriba, para poder sacar el edificio entero, como veis, da la sensación de que se está cayendo hacia atrás.

En esta fotografía, la cámara apuntaba hacia arriba, para poder sacar el edificio entero, como veis, da la sensación de que se está cayendo hacia atrás..

En esta fotografía, la cámara/sensor se han colocado paralelos al edificio, con lo cual no da sensación de que este se caiga hacia atrás o hacia adelante.

En esta fotografía, la cámara/sensor se han colocado paralelos al edificio, con lo cual no da sensación de que este se caiga hacia atrás o hacia adelante..

La solución más obvia, la de colocar siempre el sensor de nuestra cámara paralelo al sujeto a fotografiar rara vez funciona, dado que rara vez de esa forma es posible encontrar la composición buscada. Herramientas como Adobe Lightroom ó Adobe Photoshop soportan la corrección por software de este efecto, con el handicap de perder parte de la imagen tomada. Por otro lado, existen cámaras y lentes especializadas, nada baratas, que permiten movimientos de desplazamiento que permiten corregir en el momento de sacar la foto dicho efecto, con la consiguiente ventaja de que así podemos estar seguro de que nuestro encuadre tendrá una vez corregido toda la escena que queremos tomar.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Tal vez una de las características que menos le prestamos atención, en particular si no hacemos fotografía macro, es la distancia mínima de enfoque de una lente. Por lo normal todas las lentes que tenemos en nuestra mochila serán capaces de enfocar a una distancia “infinita”, cuyo valor real variará de lente en lente. Pero al mismo tiempo tienen una distancia mínima de enfoque, a partir de la cual la lente es capaz de enfocar un objeto. Algo más cerca de esta distancia, saldrá borroso sí o sí, dado que la óptica no es capaz de enfocarlo

Distancia mínima de enfoque en el Tamron 90mm macro

La distancia mínima de enfoque en este objetivo Tamron 90mm Macro es de 0,29m.

Y sobretodo, desde el punto de vista de fotografía macro, es muy importante saber que esta distancia se mide a partir del sensor/película de nuestra cámara. En el ejemplo que podéis ver encima de este texto, la distancia mínima de enfoque es de 29 cm, lo cual nos permite acercar bastante la cámara al objeto que estamos fotografiando.

Diagrama de distancia mínima de enfoque

La distancia mínima de enfoque se mide desde el plano del sensor, tal y como se indica en este esquema gráfico.

Para poder saber a que altura está nuestro sensor en nuestras cámaras, estas suelen incorporar una marca indicando el plano del mismo. A partir de ella es desde donde tendríamos que medir para saber si el objeto que tenemos delante se puede enfocar o no.

Marca indicando la posición del plano del sensor dentro de la cámara

Marca indicando donde se encuentra el plano del sensor a partir del cual se mide la distancia mínima de enfoque en una cámara.

En la vida práctica, uno simplemente se va echando hacia atrás hasta que empieza a ver el punto que desea enfocado a través del visor ó pantalla de la cámara.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

En este comienzo de año, el anuncio de dos cámaras, la Fuji X-Pro 1 y la Nikon D800E, han vuelto a levantar la polémica sobre la necesidad de usar un filtro antialiasing para eliminar posibles problemas de Moiré en fotografías digitales (sí, es un problema exclusivo de la fotografía digital). Con todo lo que se estaba escribiendo en los foros pensé que tal vez fuese una buena idea explicar que es dicho efecto, y cómo se ha intentando solucionar a lo largo de la historia con o sin filtro antialiasing (los dos modelos de cámara que he comentado antes son solamente los dos últimos ejemplos). Obviamente la idea era tan evidente que alguien ya se me adelantó: The Naked Sensor.

Cae el sol en el Monte Perdido

Cae el sol en Monte Perdido. [Cámara: Canon 40D. Lente: Canon 17-40Lf4. Filtro: Polarizador Heliopan y filtro degradado Lee de 3 pasos. Exposición: ISO100, f11 y 0.5 seg. Toma sacada con trípode, disparador remoto, y espejo levantado.]. © David García Pérez 2011.

Ya en su momento hablé de que los sensores fotográficos digitales suelen estar dispuestos en lo que se conoce como patrón de Bayer. En ese pequeño artículo comentaba que a través de algoritmos de demosaicing se recreaba la imagen a partir del archivo RAW generado por la cámara. Esto funciona muy bien en la mayoría de las ocasiones, pero puede presentar graves problemas si la imagen contiene patrones repetitivos, como en los ejemplos que podemos ver aquí.

La mayor parte de los fabricantes de cámaras digitales optan por emplear lo que se denomina un filtro antialiasing justamente delante del sensor. La misión principal de este filtro es de hacer la imagen un pelín más borrosa de lo que llega de en la lente. De esta forma, lo que conseguimos es que los ejes del patrón regular que causan el efecto Moiré no sean tan perfectos, haciendo que después el algoritmo de demosaicing no cometa errores al reconstruir la información proveniente del fichero RAW.

Y aquí es donde empieza la polémica, tal y como habéis leído en el párrafo anterior, nuestro fantástica lente, que tanta nos costó, que tan nítida dicen que es, no puede ser usada a su máximo potencial dado que justamente delante del sensor hay un pequeño filtro cuyo única intención es emborronar un poco la imagen, lo suficiente para que no se produzcan efectos Moiré en el hipotético caso de que estemos fotografiando patrones regulares.

En el mundo de los sensores digitales para cámaras de medio formato (sensores mucho más grande que un 35mm usadas en cámaras de casas como Phase One ó Hasselblad, entre muchas otras), es típico que los sensores no lleven ningún filtro antialiasing. Según fabricantes como Phase One debido a que estos sensores cada vez tienen más megapixeles, cada vez es más difícil encontrar un patrón en la vida real que produzca un efecto Moiré. En contra, la nitidez que ganan las imágenes, los detalles minúsculos que se pueden apreciar en ellas, consiguiendo ese aspecto característico de foto de medio formato, hace que a muchos profesionales se les olvide cualquier mínima preocupación que puedan tener por su ausencia.

En el mundo de sensores de 35 mm y hermanos más pequeños, las primera cámaras sin filtro antialiasing vino de la mano de mítica Kodak, ahora mismo en bancarrota, con su cámara digital DCS 14n, cámara que no tuvo mucho éxito comercial. Leica seguiría los pasos de Kodak (es más, usa sensores fabricados y diseñados por ellos), en sus modelos M8 y M9 (en este caso las malas lenguas comentan que realmente la decisión de no usar estos filtros delante del sensor vino debida a que no tenían espacio físico para ellos, siempre y cuando Leica quisiese mantener la compatibilidad con su mítica serie de lentes M).

Un caso particular es Sigma y su serie de cámaras que utilizan un sensor Foveon. Estos sensores no utilizan un patrón de Bayer, cada pixel es capaz de recoger simultáneamente los valores de rojo, azul y verde, con lo cual son completamente inmunes al efecto Moiré. El precio y su bajo rendimiento a ISOs altos han hecho que estas cámaras no tuviesen un gran éxito en el mercado.

Ricoh introdujo el año pasado para su sistema de cámaras modules un nuevo módulo que incorpora un sensor sin filtro Antialising. La solución de este sistema de cámaras de Ricoh dónde el sensor va asociado a las ópticas, tampoco ha cuajado mucho en el mercado.

Una compañía que fue todo un referente en el mundo analógico, al igual que Kodak, es Fuji. Pero a diferencia de la compañía americana, esta empresa japonesa le ha visto los dientes al lobo digital y se ha dedicado abrirse un hueco muy rentable en un mercado muy competitivo. En busca del fotógrafo que esta dispuesto en pagar por un equipo de alta calidad y pensado para él (algunas veces te preguntas si quienes diseñan cámaras digitales las usan después, solucionarían en grandes problemas de usabilidad que presentan muchas de las marcas supuestamente líderes del mercado), consiguió un gran éxito con su cámara X100, éxito que esperan continuar con la hermana mayor de la misma que sacan este año, la X-Pro1. Este último modelo tampoco lleva filtro antialiasing, pero incorpora un patrón de Bayer particular, bajo lo que ellos denominan el X-Trans CMOS. Este patrón intenta añadir algo de aleatoridad, haciendo que la probabilidad de que en la vida real nos encontremos un patrón que provoque Moiré sea muy baja.

Y llegamos al último fabricante en jugar a este juego, Nikon, que con su D800E ha llamado la atención de todo el mundo. Realmente esta cámara si que tiene un filtro antialiasing, lo que pasa es que justamente después de este le ponen otro que anula su efecto, no sé exactamente por qué, pero obviamente sus motivos tendrán. Pero Nikon no se la quiere jugar, no se quiere arriesgar a que los clientes no les compren las cámaras por que todo el mundo empiece a ver Moiré en sus fotos. Por ello la Nikon D800E viene acompañada por una hermana gemela, la Nikon D800, que no tiene el filtro antialiasing anulado. De esta forma, Nikon deja en las manos del comprador la decisión a tomar de que cámara mejor le conviene a su fotografía (a mí que me gusta la fotografía de paisaje, desde luego iría de cabeza por la D800E, pero primero esperaría a ver los análisis de la misma).

Es bastante curioso, pero que un fabricante mayoritario como Nikon lanza una cámara sin filtro antialiasing justamente después de que Adobe anunciase el Lightroom 4, que incorpora una herramienta de corrección de Moiré en la misma. Digo curioso por qué Nikon suele ser uno de los fabricantes que da poca información a terceras empresas de como abrir sus ficheros RAW propietarios, teniendo estas que hacer ingeniería inversa.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

RAW vs JPEG (y II)

Mientras escribía mi entrada sobre las diferencias entre RAW vs JPEG se me estaba viniendo una idea a la cabeza. No importa mucho las desventajas o ventajas de disparar en un formato u el otro, lo que importa es lo que sucede en la cámara que da como resultado uno de los dos archivos. Tomemos como ejemplo el siguiente diagrama.

esquema de como convierte una camara de RAW a JPEG

Una vez la cámara captura una imagen en RAW, esta puede convertirla a JPEG procesándola primera, con una serie de pasos muy similares a los que hacemos nosotros en Lightroom o Photoshop.

En ese diagrama, tal vez demasiado simplón, lo que quiero ilustrar es lo siguiente, una vez se pulsa el disparador de la cámara, el sensor digital de la misma toma la imagen y obtiene un fichero RAW. Si le hemos indicado a nuestra cámara que solamente queremos la imagen en RAW, esta lo que hace es almacenarla directamente a tarjeta.

Si le hemos dicho que queremos guardar la imagen en JPEG, la cámara tomará ese RAW, aplicará una serie de procesados al mismo, cosas como aplicar un algoritmo de demosaicing, para después ajustar el contraste, saturación, temperatura del color de la imagen… vamos, típicas cosas que nosotros haríamos en Photoshop o Lightroom, para después convertir la imagen a JPEG, comprimiéndola, desechando información que no considera oportuna para tener un fichero más pequeño.

Y en el último párrafo está la clave de por qué es mejor RAW que JPEG. En el proceso anteriormente descrito, un ingeniero en Alemania, Japón o dónde haya sido diseñada la cámara, ha decidido que es un foto correcta, y como esta debe ser procesada. Pero si nosotros queremos buscar la máxima calidad posible (¡ojo! esto no quiere decir la máxima realidad posible), nosotros somos los que tenemos que tomar las decisiones, los que tenemos que ajustar ese contraste, esa saturación, esa temperatura de color…

Puede sonar algo así como idealista, pero mi objetivo siempre es tener la mayor calidad posible en cada foto con los medios que tengo en mis manos. Puede que no sean los óptimos, pero intento exprimirlos al máximo.

Hay que tener cuidado con un detalle, de los párrafos anteriores se puede intuir que si almacenamos las imágenes en nuestra tarjeta en RAW, en ningún momento se van a convertir a JPEG. Eso no es cierto, la imagen que nos va a mostrar la cámara en pantalla es una conversión del RAW a JPEG (la cámara realiza esta conversión en su memoria interna, sin grabar el JPEG en la tarjeta de memoria), al igual que el histograma que nos muestra en pantalla, el cual se calcula a partir de la imagen JPEG que la cámara calcula del RAW. Esto último será un detalle clave a la hora de exponer correctamente una fotografía, pero lo mejor lo dejamos para otro artículo.

Por otro lado, indicar que si disparamos en RAW, pero usamos el software que suele venir en cámaras como Canon, Olympus, Pentax, o Nikon, este software nos hará algo similar a lo que hace la cámara de forma interna, aunque suelen dejar cierto control limitado de dicho ajuste.

Más información sobre el tema:

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Un amigo mío siempre me dice que me voy para las ramas para explicar las cosas, que un día llegaré a decir algo así como “y al principio de los tiempos estaban los dinosaurios,” y realmente este artículo va a ser una de estas situaciones. Mi intención era escribir un artículo sobre las diferencias entre RAW y JPEG, pero me acabo de dar cuenta que primero necesito hablar de como es un sensor digital. Bueno, la ventaja del blog, es que añadir artículos al mismo es un proceso gratis (si descontamos el tiempo que me lleva escribirlos).

Cuando escribí los artículos sobre explicaciones sencillas sobre el concepto de histograma, ya había dicho que una imagen era una matriz, donde cada elemento de la matriz tenía información de que color hay en ese pixel. El sensor es algo parecido, es una superficie plana, la cual tiene definida una malla de sensores de luz. Cuando leemos que una cámara digital tiene X Megapixeles, básicamente los que nos está diciendo es que su sensor tiene X millones de estos sensores de luz.

Distribución en matriz de los píxeles de un sensor

Patrón de los sensores digitales típicos, donde cada sensor está distribuido en una matriz que después se transformará en un pixel de la imagen.

Cada uno de estos sensores mide luz, no saben distinguir de colores. Para ello lo que suelen hacer los fabricantes de los mismos es colocar un filtro delante de cada sensor, este filtro hará que el sensor solamente mida un color específico, en la mayoría de los casos, rojo, verde o azul. Pero ahora hay que añadir la particularidad de que estos filtros están dispuestos en un orden en particular, en la mayoría de los casos siguiendo lo que se conoce como un patrón/mosaico de Bayer, donde cada fila de la matriz del sensor tiene sensores de luz que alternan entre los colores verde-azul o verde-rojo.

Distribución de Bayer de los píeles de un sensor digital

Distribución de Bayer de los píxeles de una matriz digital.

Como se puede ver en la imagen anterior, queda claro que los sensores digitales suelen ser más sensitivos al verde que a los otros dos colores primarios, el azul y el rojo. Esto es debido a que el ojo humano es mucho más sensible al color verde, haciendo que el resultado de una cámara más sensible al verde resulte visualmente tener menos ruido que si fuese más sensible a cualquiera de los otros colores, o que si los tres colores tuviesen igual importancia.

¿Y cómo se obtiene una imagen de color donde cada pixel tenga información de rojo, verde y azul? Pues la cámara o nuestro programa de edición de RAW emplea unos algoritmos que se denominan algoritmos de demosaicing, que básicamente usan información de los píxeles vecinos para calcular los valores de color que faltan para un pixel concreto.

Aunque os parezca que el principal problema es esta perdida de información, realmente el principal problema de usar un algoritmo de este tipo es que puede dar lugar a patrones raros en las imágenes. Si tenemos una imagen con una textura muy repetitiva, puede dar lugar a que aparezcan efectos moiré. Aunque de todas formas, algoritmos más modernos, así como el incremento de número de megapixeles, hacen que dichos efectos sean cada vez más raros.

En cuanto a tema de sensor realmente solo he empezado a raspar la superficie. Pero más información sobre esto tendrá que esperar a futuros artículos.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

El polvo siempre ha sido el gran enemigo de la fotografía, pero ahora con la fotografía digital, cada vez que cambiamos la lente corremos el riesgo de que motas de polvo se pongan sobre nuestro sensor digital de nuestras cámaras. Es el precio que debemos pagar por la versatilidad que ofrecen las cámaras con lentes intercambiables. Sin embargo, a parte de limpiar con cierta frecuencia el sensor de nuestras cámaras, también tenemos soluciones para esas fotos ya tomadas con manchitas. Este pequeño vídeo comento como se hace dicho proceso en Adobe Lightroom.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Categorías Técnica

{ 0 comentarios }

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies