No repitas estos errores sobre espacios de color y HDR: insights de la demo “Debunking HDR” de Steve Yedlin (Parte 2)
- Daniel Bañuelos
- 10 jun
- 6 Min. de lectura

El otro día en clase…
Estaba en una asesoría con alumnos que están por terminar la universidad. Estaban lidiando con los últimos ajustes de un comercial y se estaban rompiendo la cabeza con la gestión de color. El material se veía bien en cámara, decente en el monitor del set… pero en post nada cuadraba: los colores se salían de los niveles legales, y nada de lo que hacían parecía resolverlo.
La cámara que usaron, cuyo fabricante no revelaré porque algún día quiero que me patrocinen (uno tiene que comer), se vendía como una opción “sencilla pero profesional”, capaz de grabar en "en log". Muy trucutrú, claro… hasta que descubrimos el detalle incómodo: lo logarítmico solo aplicaba a la función de transferencia, no al gamut. Era un archivo 8 bits, con un gamut muy limitado, casi como BT.1886, pero envuelto en un log marketing-friendly.
Mis alumnos, de forma bastante lógica, habían asumido que si grababan en un espacio logarítmico, eso implicaba automáticamente un gamut amplio. No es una locura pensarlo, especialmente con todo lo que uno escucha sobre cámaras “cinematográficas”.
Pero no. El problema no era su culpa, era una verdad a medias que hemos aprendido a repetir sin revisar. En cuanto ajustamos la IDT para que asumiera un gamut Rec.709 en lugar del gamut de cine del fabricante, los colores se alinearon perfectamente con lo que habían visto en el set.
Y ahí me cayó el veinte.
¿Cuántas veces en la post (y en la industria, en general) operamos desde ese lugar: repitiendo verdades que en realidad son estrategias de venta bien disfrazadas?
Y es justo por eso que la demo Debunking HDR de Steve Yedlin me parece tan fundamental. Porque no sólo señala los errores técnicos, sino que nos recuerda que hay que pensar. Como bien dice uno de los personajes de Glass Onion, película que por cierto Yedlin mismo fotografió:
“It’s a dangerous thing to mistake speaking without thought for speaking the truth.”
1. ¿Qué es un espacio de color? (Y por qué dejar de tratarlo como si fuera un LUT)
Esta fue una de las secciones que más disfruté de la demo. Yedlin, sin apuros, nos recuerda que un espacio de color es solo tres cosas:
“La única forma confiable de hacer que dos monitores totalmente diferentes muestren la misma imagen es coincidir en tres cosas: la función de transferencia, los primarios y el punto blanco.”
Así de simple. Y lo demuestra en vivo. Dos monitores con especificaciones completamente distintas que, al respetar esos tres elementos, se ven idénticos.
Entonces, ¿qué son esos tres elementos?
1. Función de transferencia (Transfer Function)
Traduce el valor digital a luz real. Pero ojo, no es una curva lineal. Mandar 0.5 no da 50% de luz. Da aproximadamente un 18% en Rec.1886 (de ahí el gris medio o gris 18%).
Yedlin lo explica con un gráfico muy claro, demostrando por qué no podemos asumir proporciones lineales en nuestras decisiones de codificación.
2. Primarios
No cualquier rojo es rojo. El RGB de un espacio se define con coordenadas físicas exactas. Cambiar eso, aunque sea poquito, cambia toda la imagen.
3. Punto blanco (White Point)
Cuando mandás un valor parejo, como (0.5, 0.5, 0.5), ¿qué color es ese? Ese resultado depende del punto blanco. Cambiarlo cambia toda la percepción de balance.
2. El ojo no ve en nits absolutos (ni debería)
Esto es clave para entender por qué algunos sistemas HDR terminan luciendo raros o “aplastados”. Cito a Edi Walger:
“El sistema visual humano evolucionó adaptándose a un medio en donde la luz natural varía constantemente […] permitiendo percibir con constancia de color a los objetos que observamos.”
El sistema visual se ancla. Si ves una imagen con un punto muy brillante, ese punto redefine tu percepción de todo lo demás. Esto se llama anclaje visual, y es lo que hace que un blanco en el monitor de 100 nits y un blanco en uno de 1000 nits puedan percibirse igual.
El brillo extremo no mejora necesariamente la imagen. De hecho, muchas veces complica la percepción de las zonas oscuras si no está bien gestionado.
3. Colores reales y el mito del gamut infinito
¿Rec.2020 se ve mejor porque tiene más colores? Nope.
Edi lo deja claro:
“La paleta de colores reproducibles de los dispositivos modernos pretende crecer por la pureza de los tres primarios, lo cual repercute en la fidelidad de la reproducción.”
Más gamut no significa más realismo. De hecho, muchos de esos colores extremos ni existen en la naturaleza. Y lo que es peor, al usar primarios muy puros, se amplifican las diferencias genéticas en la percepción visual humana (fallas metaméricas). Es decir: dos personas pueden ver colores distintos en el mismo monitor.
4. Umbral de discernimiento (JND)
Este concepto es esencial para codificación y compresión, y sin embargo casi nunca lo mencionamos.
“Si el observador está adaptado a 100 nits, un cambio de 2 nits ya es suficiente para superar el umbral de discernimiento.” —Edi Walger
Ese cambio mínimo que el ojo puede detectar es el JND (Just-noticeable difference o diferencia apenas perceptible). Y si tu codificación lo supera, la imagen empieza a mostrar artefactos: banding, machas tonales, ruido no deseado.
Por eso HDR necesita mínimo 10 bits. Porque distribuye parte del rango para los objetos brillantes y otra parte para los tonos sutiles que usamos todo el tiempo.
5. Color Space Mumbo Jumbo (o: por qué decir “Rec.709” casi siempre está mal)
Este es un clásico que todos hemos dicho, y que probablemente seguiremos diciendo por inercia… pero vale la pena entender por qué está mal.
Yedlin lo aclara sin pelos en la lengua: cuando la gente dice “Rec.709”, lo que en realidad está queriendo decir —sin saberlo— es Rec.1886.
“Rec.709 es un documento de codificación. No sirve para monitoreo, no define cómo debe comportarse un monitor. Cuando decís ‘Rec.709’ como espacio de visualización, estás usando el término equivocado.”
¿Y entonces qué es Rec.709? Es un estándar de codificación, no de reproducción. Te dice cómo una cámara debería grabar o cómo codificar una señal para broadcast… pero no cómo debe verse en un monitor.
¿Y entonces qué usamos? Rec.1886, que sí es un documento de decodificación para monitores. Define la curva gamma 2.4 y es el verdadero estándar que usamos todos los días en post para visualización SDR.
Y Yedlin lo resume muy bien:
“No voy a ser pedante y corregir a alguien cada vez que dice Rec.709, porque sé perfectamente a qué se refiere. Pero yo no lo uso, porque tengo los documentos aquí mismo, y Rec.709 no dice nada sobre cómo debe decodificar un monitor. De hecho, te dice que leas el documento de Rec.1886.”
Boom. Case closed.
Ahora, cuando hablamos de HDR, lo que sí usamos es Rec.2100, que es una especificación mucho más completa. Y aquí Yedlin también hace una distinción importante:
“Cuando hablo de Rec.2100, me refiero solo a la parte de decodificación para monitores, no a la parte de codificación de cámara. Esa parte nadie la usa: todas las cámaras usan sus propios formatos logarítmicos (Log-C, S-Log, RedLog, etc.).”
Rec.2100 está implementado de forma real en los flujos HDR actuales. De hecho, cuando decimos PQ (Perceptual Quantizer) o ST2084, estamos hablando de lo mismo. Son dos nombres distintos para exactamente la misma curva HDR, pero definidos por distintas instituciones (ITU y SMPTE, respectivamente).
Y si eso no fuera suficiente para confundir, hay otros espacios en circulación:
DCI-P3: usado casi exclusivamente en salas de cine digital.
Display P3: el espacio de color de los monitores de Apple, que en muchos casos simplemente mapean desde Rec.1886.
Rec.2020: es Rec.1886 con un gamut más amplio.
sRGB: es casi igual a Rec.1886, pero con una curva de transferencia ligeramente distinta. Se usa mucho para imágenes en web (JPEGs, etc.).
¿Y todo esto por qué importa? Porque si no diferenciamos bien entre espacios de codificación y espacios de visualización, terminamos haciendo ajustes sobre una base inestable. Y lo que parecía una imagen “mal” en realidad era una señal mal interpretada.
6. ¿Y Rec.2035?
Para cerrar con un clásico malentendido:
Rec.2035 no es un espacio de color. No es HDR. No es una curva.
Es un documento del ITU para metodologías de evaluación subjetiva de calidad visual. Sirve para testeo de percepción, no para producción.
No todo lo que es Rec es espacio de color...
Y entonces, ¿qué hacemos con todo esto?
Pues empezar por dejar de repetir sin entender. Tener la humildad de aceptar que no lo sabemos todo —y más importante aún—, aspirar a seguir aprendiendo y creciendo en nuestro oficio.
Porque si no cultivamos esa curiosidad, si no nos tomamos el tiempo para cuestionar lo que damos por hecho, la industria difícilmente va a alcanzar el nivel de profesionalización al que realmente podemos llegar.
Muchas de las discusiones que escuchamos (o incluso protagonizamos) sobre HDR, color, formatos y codificación, están más ancladas en discurso de marketing que en fundamentos técnicos sólidos. Así que la próxima vez que escuches (o digas) algo como “es que Rec.709 es el espacio SDR por defecto”… quizás valga la pena parar, revisar el documento original y preguntarte: ¿esto es conocimiento, o solo costumbre?
Y ahí sí, aplica perfectamente otra joya sacada de Glass Onion:
—“It’s so dumb, it’s brilliant.” —“No… it’s just dumb.”
Comentarios