patrón

En un vídeo sobre el patrón de Bayer me hacen la siguiente pregunta (respuesta después de la imagen):

Algún día háblanos del teorema o frecuencia de muestreo de Nyquist-Shannon (señal-ruido), ya que después de leer en varios foros, hay sensores con menos MP que producen más detalle que otros con más MP, es decir profundizar en estas tesis.

Kvernufoss

Kvernufoss [Sony A7 II (Amazon, eBay) con Sony 24-70 2.8 GM (Amazon, eBay). Foto sacada a ISO100, f11, 1 segundo de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.

El teorema de Nyquist-Shannon no nos da la relación señal-ruido… nos indica si tenemos suficientes medidas para poder reconstruir la señal.

En este vídeo me he dejado bastantes cosas en el tintero, más que nada por qué no tengo imágenes ejemplo mías para poder mostraros los efectos… Veamos, la matriz de Bayer tiene un problema principal, que es el proceso de reconstrucción del color, lo que llaman demosaicing, aquí aparece el moiré de color. ¿Te acuerdas de que antes siempre se decía que no era bueno llevar camisas de rayas para la TV? Pues patrones muy regulares como eses, aunque hoy en día tienen que tener mayor frecuencia, se le pueden atragantar a la matriz de bayer, dado que al hacer la reconstrucción de color, en los bordes de esos patrones puede dar colores falsos. Para solucionar esto, habitualmente, sensores por debajo de 24 megapixeles montan un filtrado paso bajo, que hacen la imagen un pelín más borrosa antes de que llegue al sensor, para evitar que aparezca Moire. Por encima de 24 megapixeles, muchos fabricantes dicen que aparezca Moire en patrones naturales (es decir, no pruebas de mala leche en laboratorio) es más complicado. Realmente aparecen (a ver si algún día con una cámara de estas, como la Sony A7r II o la Nikon D810 consigo grabar uno de estos patrones y os los muestro) pero son raros… y Capture ONE o Lightroom ahora incluyen un corrector de Moiré que funciona a las 1000 maravillas. Así que no es un problema.

Si te fijas, cada pixel de la matriz de Bayer usa información de color de los vecinos, así que algo de nitidez se pierde en ese proceso. En cuanto a eso que has leído en los foros, lo único que se me ocurre es que sean los sensores de Sigma, los Foveon, que al medir toda la información de color en el mismo pixel, no tienen los problemas de tener que usar parte de la luz de pixeles vecinos para obtenerla, así que con menos megapíxeles, aparentan ser más nítidos.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Mosaico de Bayer

En este vídeo tutorial vuelvo a explicar un concepto sobre diseño de sensores digitales que no os harán hacer mejores fotografías, pero sí saber como funcionan vuestras cámaras digitales. En concreto, en esta ocasión vamos a ver lo que se conoce como Mosaico de Bayer, algunas veces también llamado patrón, o matriz.

Durante este vídeo menciono algunas cámaras:

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Un amigo mío siempre me dice que me voy para las ramas para explicar las cosas, que un día llegaré a decir algo así como “y al principio de los tiempos estaban los dinosaurios,” y realmente este artículo va a ser una de estas situaciones. Mi intención era escribir un artículo sobre las diferencias entre RAW y JPEG, pero me acabo de dar cuenta que primero necesito hablar de como es un sensor digital. Bueno, la ventaja del blog, es que añadir artículos al mismo es un proceso gratis (si descontamos el tiempo que me lleva escribirlos).

Cuando escribí los artículos sobre explicaciones sencillas sobre el concepto de histograma, ya había dicho que una imagen era una matriz, donde cada elemento de la matriz tenía información de que color hay en ese pixel. El sensor es algo parecido, es una superficie plana, la cual tiene definida una malla de sensores de luz. Cuando leemos que una cámara digital tiene X Megapixeles, básicamente los que nos está diciendo es que su sensor tiene X millones de estos sensores de luz.

Distribución en matriz de los píxeles de un sensor

Patrón de los sensores digitales típicos, donde cada sensor está distribuido en una matriz que después se transformará en un pixel de la imagen.

Cada uno de estos sensores mide luz, no saben distinguir de colores. Para ello lo que suelen hacer los fabricantes de los mismos es colocar un filtro delante de cada sensor, este filtro hará que el sensor solamente mida un color específico, en la mayoría de los casos, rojo, verde o azul. Pero ahora hay que añadir la particularidad de que estos filtros están dispuestos en un orden en particular, en la mayoría de los casos siguiendo lo que se conoce como un patrón/mosaico de Bayer, donde cada fila de la matriz del sensor tiene sensores de luz que alternan entre los colores verde-azul o verde-rojo.

Distribución de Bayer de los píeles de un sensor digital

Distribución de Bayer de los píxeles de una matriz digital.

Como se puede ver en la imagen anterior, queda claro que los sensores digitales suelen ser más sensitivos al verde que a los otros dos colores primarios, el azul y el rojo. Esto es debido a que el ojo humano es mucho más sensible al color verde, haciendo que el resultado de una cámara más sensible al verde resulte visualmente tener menos ruido que si fuese más sensible a cualquiera de los otros colores, o que si los tres colores tuviesen igual importancia.

¿Y cómo se obtiene una imagen de color donde cada pixel tenga información de rojo, verde y azul? Pues la cámara o nuestro programa de edición de RAW emplea unos algoritmos que se denominan algoritmos de demosaicing, que básicamente usan información de los píxeles vecinos para calcular los valores de color que faltan para un pixel concreto.

Aunque os parezca que el principal problema es esta perdida de información, realmente el principal problema de usar un algoritmo de este tipo es que puede dar lugar a patrones raros en las imágenes. Si tenemos una imagen con una textura muy repetitiva, puede dar lugar a que aparezcan efectos moiré. Aunque de todas formas, algoritmos más modernos, así como el incremento de número de megapixeles, hacen que dichos efectos sean cada vez más raros.

En cuanto a tema de sensor realmente solo he empezado a raspar la superficie. Pero más información sobre esto tendrá que esperar a futuros artículos.

Share on FacebookShare on Google+Tweet about this on TwitterEmail this to someone

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies