Noticia La biblia del HDR: qué es, cuáles son los estándares actuales y cómo no todo lo que dicen que es HDR lo es en realidad

Publicado originalmente en Xataka

La biblia del HDR: qué es, cuáles son los estándares actuales y cómo no todo lo que dicen que es HDR lo es en realidad



La tecnología HDR aterrizó en nuestros televisores hace cuatro años. Desde entonces ha generado tanto debate y está tan presente en el marketing de las marcas que es probable que muchos usuarios tengamos la sensación de que lleva más tiempo en nuestras vidas. Pero no, los principales fabricantes comenzaron a introducirla en sus televisores en 2015.

La alianza que han forjado la tecnología HDR y las teles es muy sólida, pero, en realidad, esta técnica nació en la década de los años 30 del siglo pasado de la mano del estadounidense Charles Wales Wyckoff. Este fotoquímico la concibió con el propósito de dotar a sus fotografías de un rango dinámico mucho más alto que el habitual en las tomas de la época. Conocer su origen puede ayudarnos a poner esta tecnología en perspectiva, y este es un buen punto de partida para alcanzar el objetivo de este artículo: descubrir qué nos ofrece esta técnica hoy en nuestros televisores y cuáles son las claves que nos interesa conocer para no dejarnos intimidar por ella.

Qué es el HDR y qué impacto tiene en la calidad de imagen


Soy consciente de que la mayor parte de las personas que estáis leyendo este texto estáis familiarizadas con la tecnología HDR y sabéis con más o menos precisión qué es, pero no está de más que lo repasemos para afianzar bien la base de este artículo. La sigla HDR procede de la denominación en inglés High Dynamic Range, que significa alta gama dinámica, lo que nos permite intuir que estamos hablando de una innovación que persigue ofrecernos unas imágenes con una gama de luminancia muy amplia. Una forma sencilla, aunque no del todo rigurosa, de definir la luminancia consiste en interpretarla como la intensidad luminosa o cantidad de luz que es capaz de proyectar una superficie.


En Xataka
HDR en televisión: así es la revolución llamada a eclipsar al 4K/UHD


Cuando recurrimos al concepto «gama de luminancia» en este contexto lo que estamos describiendo no es más que la capacidad que tiene un televisor de entregarnos un conjunto de niveles de diferente intensidad luminosa. O una escala de luminosidad con una gradación concreta. La gama dinámica de un televisor será mayor a medida que se incrementa la distancia que separa la intensidad de las zonas más oscuras de las imágenes de la intensidad que tienen las zonas más iluminadas. Esto nos permite intuir que la capacidad de entrega mínima y máxima de brillo que tiene un televisor importa mucho en este contexto.

Pero no solo es importante el brillo que es capaz de ofrecernos el televisor, sino también el número de niveles de luminosidad con diferente intensidad que consigue reproducir. Cuantos más niveles con diferente capacidad de entrega de brillo tengamos entre los niveles mínimo y máximo, mejor. Un número mayor de niveles contribuirá a que el televisor sea capaz de recuperar más información tanto en las zonas menos iluminadas como en altas luces (las zonas más iluminadas).

La calidad del HDR que nos ofrece un televisor está condicionada por su capacidad de entrega de brillo, su relación de contraste y el espacio de color que es capaz de reproducir

Una vez que hemos llegado a este punto la ecuación se complica porque hay otras tecnologías que tienen un impacto importante en la calidad del HDR, y que, sobre todo, condicionan el contraste del televisor: el tipo de panel y el esquema de retroiluminación que utiliza siempre que se trate de un panel LCD. Cada una de las diminutas celdillas orgánicas de un panel OLED es capaz de generar su propia luz, por lo que estos paneles pueden encender y apagar cada uno de sus píxeles de forma completamente independiente. Esta propiedad les permite entregar un contraste nativo altísimo y unos negros muy profundos. Y este contraste tan elevado tiene un impacto positivo en el HDR porque unos negros muy intensos acentúan nuestra percepción subjetiva de la intensidad de las zonas más iluminadas de las imágenes por comparación directa.

Calidadhdr


Los televisores que apuestan por un panel LCD, a diferencia de los OLED, requieren una fuente de luz adicional debido a que el propio panel no es capaz de emitirla. Esta necesidad puede resolverse recurriendo a una de estas dos estrategias: retroiluminación LED periférica y retroiluminación LED FALD (Full Array Local Dimming). En la primera la fuente de luz está colocada en los márgenes del panel, mientras que la segunda se caracteriza por utilizar una matriz de diodos LED colocada justo detrás del panel. Esta última opción permite controlar con más precisión la atenuación de la retroiluminación por zonas, por lo que es la que nos ofrece los mejores resultados al alcanzar un contraste más alto y recuperar más información en las áreas más oscuras.

Como hemos visto, el diseño de los paneles OLED les permite entregarnos el contraste nativo más alto y los negros más profundos, mientras que la necesidad de contar con una fuente de luz adicional que tienen los paneles LCD les permite entregarnos más luz. Una vez que hemos llegado a este punto es razonable que nos preguntemos cuál de estas dos tecnologías nos ofrece la mejor experiencia al reproducir contenidos HDR. La respuesta es interesante: el resultado está condicionado por todas las tecnologías que tienen un impacto directo en la calidad de imagen del televisor, y no solo por el tipo de panel que utiliza.


UHD Alliance ha definido dos estándares HDR diferentes: uno para los televisores LCD LED y otro para los modelos OLED


Un modelo con panel OLED puede ser menos luminoso que un televisor LCD LED de precio equiparable, y, aun así, ofrecernos un HDR espectacular porque la combinación de su alto contraste nativo, su habilidad a la hora de recuperar información en las zonas oscuras y las altas luces, y su capacidad de entrega de luz lo hacen posible. Y, a la par, un televisor LCD con retroiluminación FALD también puede ofrecernos un HDR estupendo, a pesar de tener un contraste nativo muy inferior al de un modelo OLED, porque su alta capacidad de entrega de brillo puede compensar en cierta medida la ausencia de unos negros tan profundos como los de la tecnología OLED.

En nuestra percepción de la gama dinámica son tan importantes los niveles de intensidad de las zonas más oscuras como los de las áreas más iluminadas porque se construye a partir de la relación entre unos y otros. De hecho, son más importantes la distancia que separa ambos límites y el número de niveles entre ellos, aceptando que un límite es el mínimo nivel de intensidad luminosa posible y el otro el máximo nivel de brillo, que su valor absoluto. Podemos imaginar esta idea como una receta cuyo sabor se beneficia más del equilibrio que existe entre todos los ingredientes que del predominio de uno de ellos.

Ultrahdpremium


Las compañías y los organismos involucrados en la definición de los estándares HDR conocen esta «receta», lo que ha provocado que UHD Alliance, una asociación en la que están representadas prácticamente todas las marcas de electrónica de consumo, las productoras cinematográficas y los estudios de televisión, haya decidido definir dos estándares diferentes: uno para los televisores LCD y otro para los modelos OLED.

Los primeros, los LCD, serán compatibles con HDR si son capaces de entregar al menos picos de brillo de 1.000 nits y un nivel de intensidad luminosa mínima igual o inferior a los 0,05 nits. Los televisores OLED, en cambio, podrán reproducir contenidos HDR si consiguen entregar picos de brillo de al menos 540 nits y su nivel de intensidad luminosa mínima es igual o inferior a 0,0005 nits. Como veis, estos estándares están adaptados a las características de los paneles LCD y OLED, pero estas no son las únicas condiciones que debe cumplir un televisor para reproducir contenidos HDR.

La profundidad de color también importa, y mucho


La tecnología HDR llegó al mundo de los televisores con la ambición de ofrecernos imágenes más parecidas a las que podemos observar en el mundo real, y este objetivo solo es posible si, además de la capacidad de entrega de brillo y la relación de contraste, atacamos otros frentes. El que está claramente definido en los formatos HDR que compiten por afianzarse con más fuerza en el mercado es la profundidad de color, que nos indica cuántos tonos es capaz de reproducir un televisor. Como podemos intuir una mayor capacidad de reproducción del color permite a un televisor ofrecernos unas imágenes más parecidas a las que podemos observar en el mundo real. Y este es el objetivo.


En Xataka
No todo es 4K y HDR: si eres un jugón, esto es en lo que fijarte al comprar una nueva tele


En la siguiente sección del artículo indagaremos en las «reglas» que estipulan los estándares HDR actuales, pero en este momento nos viene bien saber que la especificación HDR10 requiere una profundidad de color de 10 bits (aunque existen trucos que permiten sortear esta exigencia, como veremos a continuación), y Dolby Vision trabaja con 10 bits, pero propone como ideal una profundidad de color de 12 bits. Los televisores que podemos encontrar actualmente en el mercado incorporan paneles de 8 o 10 bits, por lo que los 12 bits quedan como una ambición que por el momento solo podemos rozar con la punta de los dedos.


Los paneles de 10 bits pueden reproducir un espacio de más de 1.073 millones de colores diferentes


Un panel de 8 bits puede reproducir 256 tonos diferentes (28) de cada uno de los colores básicos que componen las imágenes (rojo, verde y azul). Esto significa que los televisores que los utilizan consiguen reproducir un espacio de hasta 16,7 millones de colores diferentes (2563). Esta gama de color no está mal, pero palidece si la comparamos con el espacio de color que son capaces de reproducir los paneles de 10 bits. Si hacemos los mismos cálculos con estos últimos paneles comprobaremos que son capaces de representar cada color básico con un abanico de 1.024 tonos distintos (210).

En consecuencia, los paneles con una profundidad de color de 10 bits consiguen reproducir un espacio de algo más de 1.073 millones de tonos diferentes (1.0243). Como veis, la diferencia entre unos y otros es enorme, lo que provoca que el realismo de las imágenes de los paneles de 10 bits y su precisión cromática sean sensiblemente mayores que los que nos ofrecen los paneles de 8 bits.

Technicolor


No obstante, existe una técnica que en cierta medida puede ayudar a los paneles de 8 bits a ofrecer una reproducción del color un poco más precisa. Se trata de un algoritmo de procesado que recurre a técnicas FRC (Frame Rate Control) para generar un espacio de color más amplio utilizando píxeles adyacentes de colores diferentes que nos brindan la sensación de que estamos viendo un tercer color que, en realidad, no forma parte del espacio de color original del panel de 8 bits. Hace varias semanas tuvimos la ocasión de analizar el televisor ULED H65U9A de Hisense, que tiene un panel VA de 8 bits y utiliza esta técnica, y su colorimetría durante nuestras pruebas fue convincente, pero no consigue igualar el rendimiento en este ámbito de un panel de 10 bits.

Curiosamente, también hay televisores equipados con paneles de 10 bits nativos que llevan a cabo un procesado y una gestión del color de 12 bits, lo que aporta un plus de calidad que también merece la pena tener en cuenta. No obstante, esta técnica solo suele estar presente en los modelos de las gamas alta y premium, por lo que su precio casi siempre es más elevado que el de los televisores que incorporan un panel de 10 bits normal y carecen de este procesado.

Estos son los estándares HDR consolidados actualmente


Antes de que indaguemos en las características de los formatos HDR que podemos encontrar hoy en el mercado es importante que tengamos en cuenta que esta tecnología no depende únicamente del dispositivo de visualización, independientemente de que se trate de un televisor, un proyector o un monitor. El primer eslabón de la cadena de reproducción es el contenido, y si este no contempla esta técnica y no respeta lo que estipula alguno de los estándares que vamos a ver a continuación, no hay nada que hacer.

Afortunadamente, algunos servicios de vídeo bajo demanda, como Netflix, Amazon Prime Video o Rakuten TV, tienen un catálogo de contenidos con HDR cada vez más amplio. También tenemos opciones interesantes, aunque es un formato menos popular, si nos ceñimos a las películas en Blu-ray 4K, que también suelen apostar por el HDR. En cualquier caso, la oferta no deja de incrementarse y es probable que a medio plazo prácticamente todas las películas y series de cierta entidad incorporen esta tecnología.

HDR10


Este es, sin duda, el estándar más extendido por dos razones fundamentales: sus requisitos son los menos exigentes y es abierto, por lo que cualquier fabricante de dispositivos de electrónica de consumo puede utilizarlo sin pagar derechos de licencia. Para que un televisor sea compatible con HDR10 debe tener un panel con una profundidad de color de 10 bits y tiene que ser capaz de entregar, al menos, picos de brillo de 1.000 nits. Un apunte interesante: estos picos de luminosidad se miden en algunas zonas de la pantalla y no en todo el panel simultáneamente, lo que facilita a las marcas alcanzar esta marca.


HDR10 exige una profundidad de color de 10 bits y una capacidad de entrega de brillo máxima de al menos 1.000 nits


Una carencia importante de este estándar que, como veremos a continuación, resuelven otras opciones, consiste en que no tiene metadatos dinámicos. Por esta razón, el televisor recibe al comenzar la reproducción de un contenido instrucciones precisas acerca de cómo debe tratar la iluminación, y esas condiciones no varían durante toda la reproducción. En cualquier caso, todos los televisores que tengan la certificación Ultra HD Premium son, al menos, compatibles con HDR10. Este estándar fue definido por el consorcio UHD Alliance para establecer unos requisitos comunes que deben satisfacer todos los televisores de última generación que aspiren a lucir este logotipo.

Un televisor Ultra HD Premium, sea de la marca que sea, tiene que tener un panel de 10 bits, al menos resolución 4K UHD (3.840 x 2.160 puntos), debe ser capaz de reproducir al menos el 90% del espacio de color DCI-P3 y tiene que cumplir las condiciones de entrega de luminosidad que repasamos unos párrafos más arriba: los modelos OLED deben entregar un brillo mínimo no superior a 0,0005 nits y un brillo máximo de al menos 540 nits, mientras que los LCD LED se mueven entre los 0,05 nits y los 1.000 nits o más.

Hdr10


En el mercado podemos encontrar televisores que no lucen el logotipo Ultra HD Premium, y, por tanto, no suelen satisfacer al menos una de las exigencias de esta certificación, pero que, curiosamente, sí presumen de ser capaces de reproducir contenidos HDR. Normalmente no son UHD Premium porque utilizan un panel de 8 bits o no consiguen entregar picos de brillo de al menos 1.000 nits. Meter todos estos modelos en el mismo saco puede provocar que cometamos alguna injusticia, pero lo razonable es desconfiar si damos con alguno de ellos porque normalmente la experiencia que nos ofrecen con los contenidos HDR no está a la altura de lo que cabe esperar de esta tecnología.

HDR10+


Este estándar es una extensión de HDR10 y, como tal, requiere que los televisores que aspiran a incorporarlo utilicen un panel de 10 bits y sean capaces de entregar picos de brillo de al menos 1.000 nits. Inicialmente fue apoyado por Samsung, Amazon y Panasonic, pero cada vez más empresas apuestan por él porque, al igual que HDR10, es un estándar libre y no requiere pagar derechos de licencia.

Hdr10ex


Lo interesante es que hay una diferencia muy importante entre HDR10 y HDR10+ que permite a esta última especificación ofrecernos una experiencia con los contenidos HDR más lograda: puede trabajar con metadatos dinámicos. Esta información está asociada al contenido que estamos reproduciendo e indica con precisión al televisor cómo debe tratar la iluminación. La diferencia que existe entre los metadatos de HDR10 y los de HDR10+ es que estos últimos son dinámicos, y, por tanto, indican al televisor cómo debe iluminar cada secuencia, en vez de hacerlo solo al principio de la reproducción y sin posibilidad de actuar a posteriori. Esta mejora coloca a HDR10+ un poco más cerca de Dolby Vision, una propuesta que, como vamos a ver a continuación, es más ambiciosa en otros frentes.

Dolby Vision


Desde un punto de vista estrictamente técnico el estándar que propone Dolby es el más ambicioso. Y es que ha sido diseñado para trabajar con paneles con una profundidad de color de 12 bits y está capacitado para administrar entregas de brillo de hasta 10.000 nits. Actualmente ningún televisor nos ofrece estas prestaciones (ni los paneles de 12 bits ni la luminosidad máxima de 10.000 nits), por lo que los modelos que ya son compatibles con esta tecnología se conforman con paneles de 10 bits y entregas de brillo más modestas. Esta situación conlleva algo importante: aún no podemos sacar todo el partido al potencial de Dolby Vision.

Dolbyvision


Además, este estándar utiliza metadatos dinámicos. De hecho, HDR10+ se inspiró de alguna manera en esta prestación de Dolby Vision para reducir la distancia que separaba a HDR10 de la propuesta de Dolby. Como veis, hasta aquí todo pinta de maravilla, pero ahora viene la principal debilidad de esta especificación: esta tecnología pertenece a Dolby, y, por esta razón, los fabricantes de televisores y otros dispositivos que quieran utilizarla deben pagar los pertinentes derechos de licencia a la empresa de San Francisco e introducir un chip específico de procesado en sus productos. El impacto que tiene la implementación de esta certificación en el precio de los televisores ha provocado que solo algunas marcas apuesten por Dolby Vision, como LG o Sony, y, además, únicamente en sus televisores de las gamas alta y premium.

HLG (Hybrid Log-Gamma)


Este formato de HDR no es una alternativa a HDR10+ o Dolby Vision. En realidad es un complemento que pretende llegar allí donde estos dos últimos estándares no «han atacado»: a las transmisiones de televisión, sean en directo o diferido. De hecho, sus creadores y principales promotores son BBC y NHK, que son los servicios públicos de televisión y radio de Reino Unido y Japón respectivamente. HLG ha sido muy bien recibido por los fabricantes de electrónica de consumo desde el principio porque es un formato libre, lo que ha provocado que casi todos los fabricantes de televisores lo introduzcan en sus propuestas.

Este estándar tiene una gran ventaja: puede convivir sin ningún problema con el parque de televisores que, por su antigüedad, no es compatible con HDR. Si un modelo recibe una señal con HLG y no es capaz de interpretarla, sencillamente reproducirá el contenido con total normalidad. Sin HDR. Pero cuando un televisor con HLG recibe una señal que incorpora esta tecnología, la interpreta correctamente y muestra el contenido con HDR.

Hlg


Eso sí, es importante que tengamos en cuenta que este estándar no usa metadatos, por lo que su impacto en nuestra experiencia es menor que el de HDR10+ y Dolby Vision. Además, esta tecnología aún está siendo desplegada y solo se ha usado en la transmisión de algunos eventos deportivos, por lo que no parece que vayamos a poder disfrutarla masivamente a corto plazo.

Technicolor HDR o Advanced HDR


Este estándar hasta ahora ha recibido una acogida muy tímida por parte de las marcas de electrónica de consumo (la que lo está defendiendo con más rotundidad es LG), por lo que está más rezagado que HDR10+, Dolby Vision y HLG. Detrás de él está Technicolor, una compañía francesa muy bien afianzada en la industria cinematográfica prácticamente desde sus inicios. Aun así, aunque ha sido desarrollado por una empresa que, como es lógico, tiene intereses comerciales, es un estándar abierto, a diferencia de Dolby Vision.

Advanced HDR ofrece soluciones para dos escenarios de uso diferentes: la transmisión de emisiones televisivas con HDR a través de DVB-T/T2 o satélite y la conversión de contenidos que carecen de HDR para dotarlos de esta tecnología. Su forma de proceder en el primero de estos escenarios consiste en codificar el contenido durante la grabación con HDR y una profundidad de color de 10 bits utilizando la norma de compresión de vídeo HEVC. A continuación, el codificador procesa el vídeo con HDR para generar, por un lado, una trama de vídeo sin HDR y con una profundidad de color de 8 bits, y, por otra parte, los metadatos necesarios para recuperar la información asociada al HDR.

Technicolorhdr


Esta estrategia tiene dos ventajas que pueden marcar la diferencia en las transmisiones televisivas: por un lado, ahorra ancho de banda al emitir el contenido tanto en HD como a 4K UHD, y, además, permite que los contenidos sean reproducidos correctamente por los televisores que carecen de HDR, que, sencillamente, ignorarán los metadatos. Por otro lado, Technicolor ha desarrollado un algoritmo que, según esta empresa, permite llevar a cabo una «gestión inteligente del color» capaz de analizar en tiempo real el contenido sin HDR con el propósito de ajustar la luminancia de las regiones oscuras, los tonos medios y las zonas más iluminadas para dotar al contenido de HDR. Sobre el papel no pinta mal, pero no podemos sacar conclusiones sin saber qué impacto real tiene esta tecnología en la calidad de imagen.

Y las opciones que generan confusión: Q HDR 1000, HDR Converter y otras


Los cinco formatos de HDR que hemos revisado hasta ahora son los que cuentan con más respaldo, se han erigido como estándares y tienen una clara vocación de adopción multimarca, incluso aunque hayan sido desarrollados por una sola empresa. Sin embargo, basta darse un paseo por cualquier comercio que venda televisores o indagar en la página web de los principales fabricantes para darse cuenta de que las marcas utilizan muchas otras denominaciones para describir las capacidades HDR de sus televisores. Samsung, por ejemplo, recurre a los logos Q HDR 1000, Q HDR 1500, Q HDR 2000, etc. En realidad, sus modelos más avanzados son compatibles con HDR10+ y el número que persigue a la denominación «Q HDR» nos indica la capacidad máxima de entrega de brillo de cada modelo. Sencillamente, refleja los nits máximos. Es evidente que estos logos no son más que una estrategia de marketing.

Todos los fabricantes utilizan denominaciones propias para describir las capacidades HDR de sus televisores que pueden generar confusión entre los usuarios

Todas las marcas realizan movimientos similares a este. LG, por ejemplo, implementa en sus televisores OLED la tecnología HDR Converter, que no es otra cosa que un algoritmo que ajusta el color, el brillo y el contraste en tiempo real para emular el HDR en los contenidos que carecen de esta prestación. No es una mala idea, pero es importante que los usuarios seamos capaces de distinguir los auténticos estándares HDR, que proponen una estrategia de codificación y reproducción de los contenidos que tiene un impacto claro en la calidad de imagen y puede ser adoptada por cualquier marca, pagando o no por el uso del formato, de las tecnologías propietarias que las marcas desarrollan exclusivamente para sí mismas y de las denominaciones que solo persiguen llamar la atención de posibles compradores y no cuentan con el respaldo de otras marcas.


En Xataka
No todos los conectores HDMI de tu televisor son iguales: todo lo que hay que saber para usarlos bien y evitar problemas

Quién es quién en la batalla del HDR


El estándar HDR que por el momento cuenta con el mayor respaldo es, sin lugar a dudas, HDR10. Como hemos visto, es una norma libre, y, como tal, ha sido bendecida por prácticamente todas las marcas de electrónica de consumo, por los creadores de contenidos y por las principales plataformas de vídeo bajo demanda. La acogida de HDR10+ es más tímida, lo que ha provocado que, por ahora, lo apoyen Samsung, 20th Century Fox, Amazon (a través de su plataforma Prime Video) y Panasonic, aunque es posible que poco a poco lo respalden también otras marcas debido a que su capacidad de manejar metadatos dinámicos lo coloca como la alternativa más consistente a Dolby Vision.

Esta última propuesta, la de Dolby, es la más ambiciosa si nos ceñimos a la calidad de imagen que es capaz de ofrecernos. Cuenta con un respaldo relativamente importante, pero claramente inferior al que ha recibido HDR10, algo comprensible si tenemos en cuenta que se trata de un estándar propietario. Algunas de las empresas que lo apoyan son LG, Sony, Amazon (a través de su plataforma Prime Video), Netflix, Rakuten TV, Apple (mediante el servicio de películas de iTunes), VUDU, Google (a través de Chromecast Ultra), Hisense, TCL o Vizio.

Batallahdr


El estándar HLG también tiene un respaldo relativamente importante. Lo defienden Sony, LG, Samsung, Philips, Loewe, JVC, Panasonic, Apple, Hisense o Toshiba, entre otras marcas. Y probablemente en el futuro lo apoyarán más empresas porque es una norma no propietaria relativamente fácil de implementar en cualquier dispositivo que ya es compatible con HDR10. El punto de inflexión se producirá, posiblemente, cuando se complete el despliegue de esta tecnología y las cadenas de televisión comiencen a emitir contenidos con HLG. En ese momento es razonable prever que recibirá aún más respaldo.

Por último, la propuesta de Technicolor cuenta, por el momento, con un apoyo bastante tímido si nos ceñimos al mercado de consumo. En la industria cinematográfica sí tiene un respaldo potente y podemos encontrarla en muchas de las películas que se están exhibiendo en los cines. Pero si nos quedamos con el mercado de la electrónica de consumo Advanced HDR es respaldado actualmente por LG, Philips y Funai. Es posible que algunos fabricantes chinos de televisores, como Hisense o TCL, se suban al carro porque varias cadenas de televisión chinas han confirmado que utilizarán este formato en el futuro, pero su situación actual parece indicar que aún tiene un largo camino por delante.

El HDR y los videojuegos


Los videojuegos se benefician tanto de la tecnología HDR como las películas. Y su impacto en nuestra experiencia es igual de contundente siempre que todos los eslabones de la cadena la reproduzcan correctamente. Actualmente podemos disfrutar un juego con HDR utilizando un PC equipado con una tarjeta gráfica GeForce GTX 10 de NVIDIA o posterior, o AMD con GPU Polaris o posterior, así como un monitor compatible con HDR.

Hdrvideojuegos


Si nos ceñimos a las consolas, PlayStation 4, PlayStation 4 Pro, Xbox One S y Xbox One X pueden procesar juegos con HDR. Además, como es lógico, necesitamos conectarlas a un televisor con HDR. Pero, ¿qué tipo de HDR? Sencillamente, HDR10. Es el estándar más utilizado en el mundo de los videojuegos, aunque Dolby Vision también tiene cierto respaldo, mínimo, en Windows y Xbox. No obstante, la tecnología de Dolby más popular en el sector de los videojuegos es Atmos. Un último apunte importante: tal y como sucede con las películas, el HDR debe estar implementado en los juegos. De lo contrario, aunque nuestra consola y nuestro televisor incorporen esta tecnología, no podremos disfrutarla.


En Xataka
Cuándo te interesa comprar un televisor frente a cuándo te interesa comprar un monitor

Así podemos averiguar qué HDR tiene nuestro nuevo televisor


Confirmar si un televisor implementa cualquiera de los estándares HDR de los que hemos hablado en este artículo no debería requerir ningún esfuerzo por parte del usuario. Esta tecnología es lo suficientemente importante para que las marcas la reflejen con claridad tanto en el embalaje de sus televisores como en la publicidad. Y así suelen hacerlo. Esta información también aparece reseñada casi siempre en las especificaciones que podemos encontrar en el manual del televisor y en la página web de la marca.


Las apps de los servicios de vídeo bajo demanda pueden identificar los estándares HDR con los que es capaz de trabajar nuestro televisor


Aun así, os propongo que imaginemos que tenemos un televisor relativamente moderno y no conservamos ni sus instrucciones ni su embalaje. Para rizar aún más el rizo, aceptemos que tampoco localizamos sus especificaciones en la página web del fabricante. Esta situación es poco probable, pero todavía tenemos margen de maniobra. La forma más sencilla de saber si el televisor es o no compatible con la tecnología HDR pasa por recurrir a un servicio de vídeo bajo demanda que sepamos con total seguridad que tiene contenidos con HDR.

Damos por hecho que estamos lidiando con un televisor relativamente moderno que tiene preinstalada alguna plataforma Smart TV. De lo contrario, podemos zanjar el asunto de un plumazo porque casi con total seguridad no tendrá HDR. Una vez que hemos asumido este punto de partida podemos dar por hecho que tendrá preinstalada, al menos, la app de Netflix, que posiblemente es una de las más populares actualmente.

Vodhdr


Esta plataforma tiene una cantidad importante de contenido compatible con HDR10 y Dolby Vision, por lo que solo tenemos que buscar una película cualquiera que sepamos con certeza que cuenta con HDR, como, por ejemplo, ‘Aniquilación’, o la serie ‘Mindhunter‘, entre muchas otras opciones. Si nuestro televisor es compatible con HDR la app de Netflix lo reflejará con claridad en la ficha de la película. Esta misma operación también podemos llevarla a cabo con Amazon Prime Video, Rakuten TV u otras plataformas de vídeo bajo demanda. Si después de hacer todo esto confirmamos que, efectivamente, nuestra tele tiene HDR, solo nos queda preocuparnos por ponernos cómodos y encontrar el contenido que nos permita disfrutar de forma plena esta tecnología.

También te recomendamos

Nintendo Switch: 21 trucos y consejos (y algún extra) para exprimir la consola de Nintendo

Tecnología de los materiales y sensores de control del sueño, los verdaderos ingredientes para un descanso de calidad

Exploramos ‘New World’, el primer gran videojuego de Amazon. Un ambicioso MMO para miles de jugadores simultáneos

-
La noticia La biblia del HDR: qué es, cuáles son los estándares actuales y cómo no todo lo que dicen que es HDR lo es en realidad fue publicada originalmente en Xataka .

FewnRIsICkI


Continúar leyendo...