En un vídeo sobre el patrón de Bayer me hacen la siguiente pregunta (respuesta después de la imagen):
Algún día háblanos del teorema o frecuencia de muestreo de Nyquist-Shannon (señal-ruido), ya que después de leer en varios foros, hay sensores con menos MP que producen más detalle que otros con más MP, es decir profundizar en estas tesis.
Kvernufoss [Sony A7 II (Amazon, eBay) con Sony 24-70 2.8 GM (Amazon, eBay). Foto sacada a ISO100, f11, 1 segundo de tiempo de exposición. Trípode y disparador remoto utilizado]. © David García Pérez 2017.
El teorema de Nyquist-Shannon no nos da la relación señal-ruido… nos indica si tenemos suficientes medidas para poder reconstruir la señal.
En este vídeo me he dejado bastantes cosas en el tintero, más que nada por qué no tengo imágenes ejemplo mías para poder mostraros los efectos… Veamos, la matriz de Bayer tiene un problema principal, que es el proceso de reconstrucción del color, lo que llaman demosaicing, aquí aparece el moiré de color. ¿Te acuerdas de que antes siempre se decía que no era bueno llevar camisas de rayas para la TV? Pues patrones muy regulares como eses, aunque hoy en día tienen que tener mayor frecuencia, se le pueden atragantar a la matriz de bayer, dado que al hacer la reconstrucción de color, en los bordes de esos patrones puede dar colores falsos. Para solucionar esto, habitualmente, sensores por debajo de 24 megapixeles montan un filtrado paso bajo, que hacen la imagen un pelín más borrosa antes de que llegue al sensor, para evitar que aparezca Moire. Por encima de 24 megapixeles, muchos fabricantes dicen que aparezca Moire en patrones naturales (es decir, no pruebas de mala leche en laboratorio) es más complicado. Realmente aparecen (a ver si algún día con una cámara de estas, como la Sony A7r II o la Nikon D810 consigo grabar uno de estos patrones y os los muestro) pero son raros… y Capture ONE o Lightroom ahora incluyen un corrector de Moiré que funciona a las 1000 maravillas. Así que no es un problema.
Si te fijas, cada pixel de la matriz de Bayer usa información de color de los vecinos, así que algo de nitidez se pierde en ese proceso. En cuanto a eso que has leído en los foros, lo único que se me ocurre es que sean los sensores de Sigma, los Foveon, que al medir toda la información de color en el mismo pixel, no tienen los problemas de tener que usar parte de la luz de pixeles vecinos para obtenerla, así que con menos megapíxeles, aparentan ser más nítidos.