Un amigo mío siempre me dice que me voy para las ramas para explicar las cosas, que un día llegaré a decir algo así como «y al principio de los tiempos estaban los dinosaurios,» y realmente este artículo va a ser una de estas situaciones. Mi intención era escribir un artículo sobre las diferencias entre RAW y JPEG, pero me acabo de dar cuenta que primero necesito hablar de como es un sensor digital. Bueno, la ventaja del blog, es que añadir artículos al mismo es un proceso gratis (si descontamos el tiempo que me lleva escribirlos).

Cuando escribí los artículos sobre explicaciones sencillas sobre el concepto de histograma, ya había dicho que una imagen era una matriz, donde cada elemento de la matriz tenía información de que color hay en ese pixel. El sensor es algo parecido, es una superficie plana, la cual tiene definida una malla de sensores de luz. Cuando leemos que una cámara digital tiene X Megapixeles, básicamente los que nos está diciendo es que su sensor tiene X millones de estos sensores de luz.

Distribución en matriz de los píxeles de un sensor

Patrón de los sensores digitales típicos, donde cada sensor está distribuido en una matriz que después se transformará en un pixel de la imagen.

Cada uno de estos sensores mide luz, no saben distinguir de colores. Para ello lo que suelen hacer los fabricantes de los mismos es colocar un filtro delante de cada sensor, este filtro hará que el sensor solamente mida un color específico, en la mayoría de los casos, rojo, verde o azul. Pero ahora hay que añadir la particularidad de que estos filtros están dispuestos en un orden en particular, en la mayoría de los casos siguiendo lo que se conoce como un patrón/mosaico de Bayer, donde cada fila de la matriz del sensor tiene sensores de luz que alternan entre los colores verde-azul o verde-rojo.

Distribución de Bayer de los píeles de un sensor digital

Distribución de Bayer de los píxeles de una matriz digital.

Como se puede ver en la imagen anterior, queda claro que los sensores digitales suelen ser más sensitivos al verde que a los otros dos colores primarios, el azul y el rojo. Esto es debido a que el ojo humano es mucho más sensible al color verde, haciendo que el resultado de una cámara más sensible al verde resulte visualmente tener menos ruido que si fuese más sensible a cualquiera de los otros colores, o que si los tres colores tuviesen igual importancia.

¿Y cómo se obtiene una imagen de color donde cada pixel tenga información de rojo, verde y azul? Pues la cámara o nuestro programa de edición de RAW emplea unos algoritmos que se denominan algoritmos de demosaicing, que básicamente usan información de los píxeles vecinos para calcular los valores de color que faltan para un pixel concreto.

Aunque os parezca que el principal problema es esta perdida de información, realmente el principal problema de usar un algoritmo de este tipo es que puede dar lugar a patrones raros en las imágenes. Si tenemos una imagen con una textura muy repetitiva, puede dar lugar a que aparezcan efectos moiré. Aunque de todas formas, algoritmos más modernos, así como el incremento de número de megapixeles, hacen que dichos efectos sean cada vez más raros.

En cuanto a tema de sensor realmente solo he empezado a raspar la superficie. Pero más información sobre esto tendrá que esperar a futuros artículos.

Leave a Comment

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies