HD-MAC - HD-MAC

HD-MAC fue un estándar de sistemas de transmisión de televisión propuesto por la Comisión Europea en 1986 ( estándar MAC ), una parte del proyecto Eureka 95. Es uno de los primeros intentos de la CEE de ofrecer televisión de alta definición (HDTV) en Europa . Es una mezcla compleja de señal analógica ( Componentes Analógicos Multiplexados ), multiplexada con sonido digital y datos de asistencia para decodificación (DATV). La señal de vídeo (1250 (1152 visibles) líneas / 50 campos por segundo en una relación de aspecto de 16: 9 ) se codificó con un codificador D2-MAC modificado .

HD-MAC podía decodificarse mediante receptores D2-MAC estándar ( SDTV ), pero en ese modo solo eran visibles 625 (576) líneas y ciertos artefactos. Para decodificar la señal en resolución completa se requiere un sintonizador HD-MAC específico.

Convenio de denominación

La descripción del formato de video de la Unión Europea de Radiodifusión es la siguiente: ancho x alto [tipo de escaneo: iop] / número de fotogramas completos por segundo

Por ejemplo, el formato 1280 × 720p / 60 proporciona sesenta imágenes escaneadas progresivamente de 1280x720 píxeles por segundo. Las líneas se transmiten en la secuencia natural: 1, 2, 3, 4, etc.

Las transmisiones de definición estándar europea utilizan 720 × 576i / 25, lo que significa 25 720 píxeles de ancho y 576 píxeles de alto fotogramas entrelazados: las líneas impares (1, 3, 5 ...) se agrupan para construir el campo impar, que se transmite primero, luego va seguido del campo par que contiene las líneas 2, 4, 6 ... Por lo tanto, hay dos campos en una trama, lo que da como resultado una frecuencia de campo de 25 × 2 = 50 Hz.

La parte visible de la señal de video proporcionada por un receptor HD-MAC era 1152i / 25, que duplica exactamente la resolución vertical de la definición estándar. La cantidad de información se multiplica por 4, considerando que el codificador inició sus operaciones desde una cuadrícula de muestreo de 1440x1152i / 25.

Historia estándar

El trabajo en la especificación HD-MAC comenzó oficialmente en mayo de 1986. El propósito era reaccionar contra una propuesta japonesa, apoyada por los EE. UU., Que tenía como objetivo establecer el sistema Hi-vision diseñado por NHK como estándar mundial. Además de la preservación de la industria electrónica europea, también existía la necesidad de producir un estándar que cumpliera con los sistemas de frecuencia de campo de 50 Hz (utilizados por una gran mayoría de países del mundo). A decir verdad, los 60 Hz precisos de la propuesta japonesa también preocupaban a los EE. UU., Ya que su infraestructura de definición estándar basada en NTSC M utilizaba una frecuencia práctica de 59,94 Hz. Esta diferencia aparentemente menor tenía el potencial de causar muchos problemas.

En septiembre de 1988, los japoneses realizaron las primeras retransmisiones en alta definición de los Juegos Olímpicos, utilizando su sistema Hi-Vision ( NHK produjo material utilizando este formato desde 1982). En ese mismo mes de septiembre, Europa mostró por primera vez una alternativa creíble, a saber, una cadena de transmisión HD-MAC completa, en IBC 88 en Brighton . Este espectáculo incluyó los primeros prototipos de cámaras de vídeo HD de barrido progresivo (Thomson / LER).

Para los Juegos Olímpicos de Invierno de Albertville 1992 y los Juegos Olímpicos de Verano de Barcelona 1992 , tuvo lugar una demostración pública de transmisión HD-MAC. Se instalaron 60 receptores HD-MAC para los juegos de Albertville y 700 para los juegos de Barcelona en "Eurosites" para mostrar las capacidades del estándar. Se utilizaron 1250 líneas (1152 visibles) proyectores CRT para crear una imagen de unos metros de ancho en los espacios públicos de Barcelona para los Juegos Olímpicos. También había algunos televisores Thomson "Space system" 16: 9 CRT. El proyecto a veces utilizaba televisores de retroproyección . Además, unos 80.000 espectadores de receptores D2-MAC también pudieron ver el canal (aunque no en HD). Se estima que 350.000 personas en toda Europa pudieron ver esta demostración de HDTV europea. Este proyecto fue financiado por la CEE. La señal convertida a PAL fue utilizada por las principales emisoras como SWR , BR y 3sat . El estándar HD-MAC también se demostró en Sevilla Expo '92 , utilizando exclusivamente equipos diseñados para trabajar con el estándar como cámaras Plumbicon y CCD , televisores CRT de visión directa y retroproyección, VTR BCH 1000 Tipo B, cables de fibra óptica monomodo, y reproductores de Laserdisc con sus respectivos discos. El equipo de producción era visible para el público a través de las ventanas.

Debido a que el ancho de banda de reserva de UHF era muy escaso, HD-MAC era utilizable "de facto" solo para proveedores de cable y satélite, donde su ancho de banda estaba menos restringido, de manera similar a Hi-Vision que solo transmitía la NHK a través de un canal de satélite dedicado llamado BShi. . Sin embargo, el estándar nunca se hizo popular entre las emisoras. Por todo esto, la HDTV analógica no podría reemplazar la SDTV (terrestre) PAL / SECAM convencional, lo que hace que los equipos HD-MAC no sean atractivos para los consumidores potenciales.

Se requirió que todas las emisoras por satélite de alta potencia usaran MAC desde 1986. Sin embargo, el lanzamiento de satélites de potencia media por SES y el uso de PAL permitió a las emisoras evitar HD-MAC, reduciendo sus costos de transmisión. Sin embargo, HD-MAC (la variante de alta definición de MAC) se dejó para enlaces por satélite transcontinentales.

El estándar HD-MAC se abandonó en 1993 y, desde entonces, todos los esfuerzos de la UE y la EBU se han centrado en el sistema DVB (Digital Video Broadcasting), que permite tanto SDTV como HDTV.

Este artículo sobre IFA 1993 proporciona una vista del estado del proyecto cerca de su final. Menciona "una compilación especial de la BBC codificada en HD-MAC y reproducida desde una grabadora de cintas de vídeo D1".

El desarrollo de HD-MAC se detuvo junto con el proyecto EUREKA en 1996, porque la calidad de imagen no se consideró lo suficientemente buena, los televisores receptores no tenían suficiente resolución, la relación de aspecto 16: 9 que luego se convertiría en estándar se consideró exótica y Los televisores receptores no eran lo suficientemente grandes para exhibir la calidad de imagen del estándar, y los que sí lo eran eran televisores CRT, lo que los hacía extremadamente pesados.

Detalles técnicos

Transmisión de componentes analógicos multiplexados (simulación) .jpg

Transmisión

Las transmisiones SDTV analógicas PAL / SECAM utilizan 6-, 7- ( VHF ) u 8 MHz ( UHF ). La línea 819 (sistema E) utilizó canales VHF de 14 MHz de ancho. Para HD-MAC, el medio de transmisión debe garantizar un ancho de banda de banda base de al menos 11,14 MHz. Esto se traduce en una separación de canales de 12 MHz en las redes de cable. La especificación permite canales de 8 MHz, pero en este caso los datos de asistencia ya no se pueden decodificar correctamente y solo es posible extraer una señal de definición estándar, utilizando un receptor D2-MAC. Para la radiodifusión por satélite, debido a la expansión del espectro de modulación de FM, se utilizaría un transpondedor de satélite completo, lo que daría como resultado 27 a 36 MHz de ancho de banda. La situación es prácticamente la misma en la definición estándar analógica: un transpondedor determinado solo puede admitir un canal analógico. Entonces, desde este punto de vista, pasar a HD no representa un inconveniente.

Reducción de ancho de banda

La operación BRE (Codificación de reducción de ancho de banda) comenzó con video HD analógico (incluso cuando la fuente era una grabadora digital, se reconvirtió a analógica para alimentar el codificador). Se especificó que tuviera una frecuencia de campo de 50 Hz. Podría entrelazarse, con 25 fotogramas por segundo (denominado 1250/50/2 en la recomendación), o podría escanearse progresivamente con 50 fotogramas completos por segundo (denominado 1250/50/1). La versión entrelazada fue la que se utilizó en la práctica. En cualquier caso, el número de líneas visibles fue de 1152, el doble de la definición vertical estándar de 576 líneas. El número total de líneas en un período de trama, incluidas aquellas que no se pueden mostrar, fue 1250. Esto hizo para un período de línea de 32 µs. Según la recomendación de la UIT para los parámetros de los estándares de HDTV, la parte activa de la línea tenía una longitud de 26,67 µs (véase también el documento de la cámara LDK 9000).

Si se hubiera aplicado la tendencia moderna de píxeles cuadrados, esto habría producido una cuadrícula de muestreo de 2048x1152. Sin embargo, no existía tal requisito en el estándar, ya que los monitores CRT no necesitan ninguna escala adicional para poder mostrar píxeles no cuadrados. Según la especificación, la frecuencia de muestreo para la entrada entrelazada a utilizar fue de 72 MHz, lo que resulta en 72 x 26,67 = 1920 muestras horizontales. Luego se reconvirtió a 1440 desde dentro del dominio muestreado. La señal de entrada a menudo se originó a partir de fuentes previamente muestreadas a solo 54 MHz, por razones económicas y, por lo tanto, ya no contenía más que el equivalente analógico de 1440 muestras por línea. De todos modos, el punto de partida para BRE fue una cuadrícula de muestreo de 1440x1152 (el doble de las resoluciones horizontal y vertical de la SD digital), entrelazada, a 25 fps.

Para mejorar la resolución horizontal de la norma D2-MAC , solo se tuvo que aumentar su ancho de banda. Esto se hizo fácilmente ya que, a diferencia de PAL , el sonido no se envía a una subportadora, sino que se multiplexa con la imagen. Sin embargo, aumentar el ancho de banda vertical era más complejo, ya que la frecuencia de la línea tenía que permanecer en 15,625 kHz para ser compatible con D2-MAC. Esto ofreció tres opciones:

  • 50 cuadros por segundo con solo 288 líneas para escenas de movimiento rápido (modo de 20 ms)
  • 25 fotogramas por segundo con 576 líneas para escenas en movimiento normal (modo de 40 ms)
  • 12,5 fotogramas por segundo con las 1152 líneas para cámara lenta (modo de 80 ms)

Como ninguno de los tres modos habría sido suficiente, la elección durante la codificación no se hizo para toda la imagen, sino para pequeños bloques de 16 × 16 píxeles. La señal luego contenía sugerencias (el flujo digital DATV) que controlaba qué método de desentrelazado debía usar el decodificador.

El modo de 20 ms ofrecía una resolución temporal mejorada, pero el de 80 ms era el único que proporcionaba una alta definición espacial en el sentido habitual. El modo de 40 ms descartó uno de los campos HD y lo reconstruyó en el receptor con la ayuda de datos de compensación de movimiento. También se proporcionaron algunas indicaciones en caso de un movimiento de fotograma completo (panorámica de la cámara, ..) para mejorar la calidad de la reconstrucción.

El codificador podría funcionar en el modo de funcionamiento "Cámara", utilizando los tres modos de codificación, pero también en el modo "película", donde no se utilizó el modo de codificación de 20 ms.

El modo de 80 ms aprovechó su velocidad de cuadro reducida de 12,5 fps para distribuir el contenido de un cuadro HD en dos cuadros SD, es decir, cuatro campos de 20 ms = 80 ms, de ahí el nombre.

Pero eso no fue suficiente, ya que un solo cuadro HD contiene el equivalente a 4 cuadros SD. Esto podría haberse "resuelto" duplicando el ancho de banda de la señal D2-MAC, aumentando así la resolución horizontal permitida en el mismo factor. En cambio, se conservó el ancho de banda del canal D2-MAC estándar y se eliminó un píxel de cada dos de cada línea. Este submuestreo se realizó en un patrón quincux. Suponiendo píxeles en una línea numerados independientemente de 1 a 1440, solo los píxeles 1,3,5 ... se conservaron de la primera línea, los píxeles 2, 4, 6 ... de la segunda, 1, 3, 5 ... de nuevo a partir del tercero, y así sucesivamente. De esa manera, la información de todas las columnas de la trama HD se transmitió al receptor. Cada píxel que faltaba estaba rodeado por 4 transmitidos (excepto en los lados) y se podía interpolar a partir de ellos. La resolución horizontal de 720 resultante se truncó aún más hasta el límite de 697 muestras por línea del multiplex de video D2-HDMAC.

Como consecuencia de esas operaciones, se logró un factor de reducción de 4: 1, lo que permitió transportar la señal de video de alta definición en un canal D2-MAC estándar. Las muestras retenidas por el BRE se reunieron en una señal de visión D2-MAC de definición estándar válida y finalmente se convirtieron a analógicas para su transmisión. Los parámetros de modulación fueron tales que se conservó la independencia de las muestras.

Para decodificar completamente la imagen, el receptor tuvo que muestrear la señal nuevamente y luego leer de la memoria varias veces. El BRD (Decodificador de restauración de ancho de banda) en el receptor reconstruiría una cuadrícula de muestreo de 1394x1152 a partir de él, bajo el control del flujo DATV, para ser alimentado a su DAC.

La salida final fue una señal de video HD analógica entrelazada de 1250 (1152 visibles) líneas, 25 fps, con una frecuencia de campo de 50 Hz.

Escaneo progresivo

Los sistemas europeos se conocen generalmente como estándares de 50 Hz (frecuencia de campo). Los dos campos están separados por 20 ms en el tiempo. El proyecto Eu95 afirmó que evolucionaría hacia 1152p / 50, y se tiene en cuenta como una posible fuente en la especificación D2-HDMAC. En ese formato, se captura un fotograma completo cada 20 ms, preservando así la calidad del movimiento de la televisión y superponiéndola con fotogramas sólidos libres de artefactos que representan solo un instante en el tiempo, como se hace para el cine. Sin embargo, la frecuencia de cuadro de 24 fps del cine es un poco baja y se requiere una cantidad generosa de difuminado de movimiento para permitir que el ojo perciba un movimiento suave. 50 Hz es más del doble de esa velocidad, y la mancha de movimiento se puede reducir en proporción, lo que permite imágenes más nítidas.

En la práctica, 50P no se utilizó mucho. Incluso se hicieron algunas pruebas filmando una película a 50 fps y luego telecine.

Thomson / LER presentó una cámara progresiva. Sin embargo, utilizó una forma de muestreo quincunx y, por lo tanto, tenía algunas limitaciones de ancho de banda.

Este requisito significó traspasar los límites tecnológicos de la época y se habría sumado a la notoria falta de sensibilidad de algunas cámaras Eu 95 (particularmente las CRT). Esta sed de luz fue uno de los problemas que atormentaron a los operadores que filmaron la película francesa "L'affaire Seznec (El caso Seznec)" en 1250i. Algunas cámaras CCD se desarrollaron en el contexto del proyecto; consulte, por ejemplo, LDK9000  : relación señal / ruido de 50 DB a 30 MHz, 1000 lux en F / 4.

El sistema Eu95 habría proporcionado una mejor compatibilidad con la tecnología del cine que su competidor, primero debido al escaneo progresivo y segundo debido a la conveniencia y calidad de la transferencia entre los estándares de 50 Hz y la película (sin artefactos de movimiento, solo se necesita invertir lo habitual " PAL aceleración "proceso al reducir la velocidad de fotogramas en una proporción de 25/24). Tomar un fotograma de dos de una transmisión 50P habría proporcionado un video 25P adecuado como punto de partida para esta operación. Si la secuencia se graba a 50 P con un obturador completamente abierto, producirá la misma cantidad de manchas de movimiento que una toma 25P con un obturador medio abierto, un ajuste común cuando se graba con una cámara de cine estándar.

En la práctica, Hi-Vision parece haber tenido más éxito en ese sentido, ya que se ha utilizado para películas como Giulia e Giulia (1987) y Prospero's books (1991) .

Grabación

Carrete a carrete BCH 1000 HD-MAC VTR

Consumidor

En 1988 se presentó un prototipo de grabadora de cinta de consumo. Tenía un tiempo de grabación de 80 minutos y utilizaba una cinta "metálica" de 1,25 cm. El ancho de banda era de 10,125 MHz y la relación señal / ruido de 42 dB.

También se ha diseñado un prototipo de videodisco HD-MAC . La versión que se presentó en 1988 podía grabar 20 minutos por cara de un disco de 30 cm. El ancho de banda fue de 12 MHz y S / N 32 dB. Este medio se utilizó durante varias horas en la Expo 92.

Equipo profesional

Por el lado del estudio y la producción, fue completamente diferente. Las técnicas de reducción de ancho de banda HD-MAC reducen la tasa de píxeles de HD al nivel de SD. Entonces, en teoría, habría sido posible usar una grabadora de video digital SD, asumiendo que proporciona suficiente espacio para el flujo de asistencia DATV, que requiere menos de 1.1 Mbit / s. El video SD que usa formato 4: 2: 0 (12 bits por píxel) necesita 720x576x25x12 bits por segundo, que es un poco menos de 125 Mbit / s, en comparación con los 270 Mbit / s disponibles en una máquina D-1 .

Pero no hay ninguna razón real para que el equipo de estudio esté limitado por HD-MAC, ya que este último es solo un estándar de transmisión, utilizado para transmitir el material HD desde el transmisor a los espectadores. Además, los recursos técnicos y financieros están disponibles para almacenar el video HD con mejor calidad, para editarlo y archivarlo.

Entonces, en la práctica, se utilizaron otros métodos. Al comienzo del proyecto Eureka95, el único medio de grabar la señal HD de una cámara era en una enorme máquina de cinta de carrete a carrete de 1 pulgada, la BTS BCH 1000, que se basaba en el formato de cinta de vídeo Tipo B pero con 8 cabezales de video en lugar de los dos que se utilizan normalmente, junto con una velocidad de cinta lineal más alta de 66 cm / s, lo que se adapta a los requisitos de mayor ancho de banda de HD-MAC.

El plan dentro del proyecto Eureka95 era desarrollar una grabadora digital de muestreo de 72 MHz sin comprimir, denominada grabadora "Gigabit". Se esperaba que tardaría un año en desarrollarse, por lo que, mientras tanto, se ensamblaron dos sistemas de grabación digital alternativos, ambos utilizando la definición estándar "D1" de la grabadora de componentes digitales sin comprimir como puntos de partida.

El sistema Quincunx-submuestreo o doble / dual D1 desarrollado por Thomson utilizó dos grabadores digitales D-1 que estaban sincronizados en una relación maestro / esclavo. Los campos impares se podrían registrar en uno de los D-1 y los campos pares en el otro. Horizontalmente, el sistema registró solo la mitad del ancho de banda horizontal, con muestras tomadas en una cuadrícula de muestreo de quincunx. Esto le dio al sistema un rendimiento de ancho de banda completo en la dirección diagonal, pero se redujo a la mitad horizontal o verticalmente según las características exactas de la imagen espacio-temporal.

El sistema Quadriga fue desarrollado por la BBC en 1988 utilizando 4 grabadores D1 sincronizados, muestreo de 54 MHz, y distribuía la señal de tal forma que se enviaban bloques de 4 píxeles a cada grabador uno por uno. Por lo tanto, si se visualizara una sola cinta, la imagen aparecería como una representación justa pero distorsionada de la imagen completa, lo que permitiría tomar decisiones de edición en una sola grabación, y sería posible una edición de tres máquinas en una sola cuadriga procesando cada uno de los elementos. los cuatro canales a su vez, con ediciones idénticas realizadas en los otros tres canales posteriormente bajo el control de un controlador de edición programado.

Los grabadores D1 originales estaban restringidos a una interfaz de video paralela con cables cortos muy voluminosos, pero esto no fue un problema, ya que las señales digitales estaban contenidas con los 5 racks de media altura (4 D1 y el rack de interfaz / control / intercalado) que componían la Quadriga, e inicialmente todas las señales externas eran componentes analógicos. La introducción de SDI (la interfaz digital en serie de 270 Mbit / s) simplificó el cableado cuando la BBC construyó una segunda Quadriga.

Philips también construyó una Quadriga pero usó un formato ligeramente diferente, con la imagen HD dividida en cuatro cuadrantes, cada cuadrante yendo a una de las cuatro grabadoras. A excepción de un retraso de procesamiento un poco más largo, por lo demás funcionó de manera similar al enfoque de la BBC, y ambas versiones del equipo Quadriga se hicieron para ser interoperables, conmutables entre los modos intercalado y cuadrante.

Aproximadamente en 1993, Philips, en una empresa conjunta con Bosch ( BTS ), produjo un sistema de grabación "BRR" (o reducción de velocidad de bits) para permitir que la señal Full HD se grabara en una sola grabadora D1 (o D5 HD ). Se podía ver una versión de baja resolución de la imagen en el centro de la pantalla si la cinta se reproducía en una grabadora D1 convencional y estaba rodeada de lo que parecía ser ruido, pero en realidad eran simplemente datos codificados / comprimidos, en una de forma similar a las técnicas de compresión digital MPEG posteriores, con una tasa de compresión de 5: 1, comenzando con un muestreo de 72 MHz. Algunos equipos BRR también contenían interfaces Quadriga, para facilitar la conversión entre formatos de grabación, pudiendo también cambiarse entre las versiones BBC y Philips del formato Quadriga. En ese momento, las señales de Quadriga se transportaban a través de cuatro cables SDI.

Finalmente, con la ayuda de Toshiba, alrededor de 2000, se produjo la grabadora Gigabit, ahora conocida como D6 HDTV VTR "Voodoo", algunos años después de que el trabajo en el sistema de 1250 líneas había cesado en favor del formato de imagen común. el sistema HDTV como se lo conoce hoy.

Por lo tanto, la calidad de los archivos Eureka 95 es superior a la que los espectadores podrían ver en la salida de un decodificador HD-MAC.

Transferir a la película

Para la realización de la película basada en HD L'affaire Seznec , la empresa Thomson certificó que podría transferir HD a película de 35 mm. Pero ninguno de los intentos tuvo éxito (el disparo se realizó en dual-D1). Sin embargo, otra película francesa filmada en 1994, Du fond du coeur: Germaine et Benjamin , supuestamente logró tal transferencia. Se dice que fue filmado en alta definición digital, en 1250 líneas. Si es así, podría decirse que sería la primera película digital de alta definición, con una frecuencia de campo de 50 Hz apta para películas, 7 años antes de Vidocq y 8 años antes de Star Wars: Episodio II - El ataque de los clones . Para una perspectiva histórica en HD -películas originadas, se pueden mencionar los primeros intentos como ' Harlow ', filmada en 1965 utilizando un proceso analógico de 819 líneas casi HD que luego evolucionó a resoluciones más altas (ver Electronovisión ).

Más allá del proyecto

Se adquirió experiencia en importantes componentes básicos como la grabación digital HD, el procesamiento digital que incluye compensación de movimiento, las cámaras CCD HD y también en los factores que impulsan la aceptación o el rechazo de un nuevo formato por parte de los profesionales, y todo eso se aprovechó en el futuro. Proyecto de difusión de vídeo digital que, a diferencia de HD-MAC, es un gran éxito mundial. A pesar de las primeras afirmaciones de los competidores de que no podía hacer HD, pronto se implementó en Australia precisamente con ese propósito.

Las cámaras y grabadoras se reutilizaron para los primeros experimentos en el cine digital de alta definición.

Estados Unidos trajo a casa algunas de las cámaras Eu95 para estudiarlas en el contexto de su propio esfuerzo de desarrollo de estándares HDTV.

En Francia, una empresa llamada VTHR (Video Transmission Haute Resolution) utilizó el hardware Eu95 durante algún tiempo para retransmitir eventos culturales a pueblos pequeños (más tarde, cambiaron a MPEG2 SD de 15 Mbit / s mejorado).

En 1993, Texas Instruments construyó un prototipo DMD de 2048x1152. En los documentos no se expone ninguna justificación para elegir esta resolución específica sobre el sistema japonés de líneas activas 1035 o, alternativamente, duplicar las 480 líneas del televisor estándar de EE. UU. A 960, pero de esa manera podría cubrir todas las resoluciones que se espera estén presentes en el mercado. y eso incluía el europeo, que resultó ser el más alto. Se puede ver algo del legado de este desarrollo en proyectores de películas digitales "2K" y "4K" que utilizan chips DLP de TI, que ejecutan una resolución ligeramente más ancha de lo habitual de 2048 x 1080 o 4096 x 2160, lo que proporciona una relación de aspecto de 1.896: 1 sin estiramiento anamórfico (en comparación con 1.778: 1 de 16: 9 normal, con 1920 o 3840 píxeles horizontales), dan un poco (6,7%) más de resolución horizontal con lentes anamórficas al mostrar películas de 2,21: 1 (o más anchas) preparadas específicamente para ellas, y una mejora adicional (~ 13,78% ) a través de formato letterbox reducido si se usa sin tales lentes.

A partir de 2010, estaban disponibles algunos monitores de computadora con una resolución de 2048x1152 (por ejemplo, Samsung 2343BWX 23, Dell SP2309W). Es poco probable que esto se refiera a Eu95, especialmente porque la frecuencia de actualización generalmente estará predeterminada en "60 Hz" (o 59,94 Hz), pero simplemente una conveniente resolución "HD +" hecha para presumir sobre los omnipresentes paneles HD de 1920 x 1080, con el menor tamaño posible. mejora de la resolución real mientras se mantiene la misma resolución 16: 9 para la reproducción de video sin recortar ni en formato letterbox (la siguiente resolución 16: 9 "conveniente" más cercana es comparativamente mucho más grande, mucho más costosa 2560x1600 "2.5K" que se usa en, por ejemplo, Apple Cinema y pantallas Retina); también tiene un ancho de potencia de 2 "ordenado", el doble del ancho del XGA estándar de una sola vez (por ejemplo, los sitios web diseñados para ese ancho se pueden ampliar sin problemas al 200%), y resulta ser 4 veces el tamaño del Paneles de 1024x576 que se usan comúnmente para netbooks y tabletas móviles más baratas (tanto como el estándar 2.5K es 4 veces el WXGA de 1280x800 usado en computadoras portátiles ultraportátiles y tabletas de rango medio). De esta manera, puede considerarse una forma de evolución de especificación convergente; aunque hay pocas posibilidades de que los dos estándares estén directamente relacionados, sus detalles se habrán obtenido mediante métodos ampliamente similares.

Aunque el hecho es ahora principalmente de interés histórico, la mayoría de los monitores CRT de PC de tubo más grande tenían una velocidad de exploración horizontal máxima de 70 kHz o más, lo que significa que podrían haber manejado 2048x1152 a 60 Hz progresivos si se configuraban para usar una resolución personalizada (con una resolución más delgada). márgenes de supresión vertical que el propio HD-MAC / Eu95 para aquellos clasificados para menos de 75 kHz). Los monitores capaces de admitir la frecuencia de actualización más baja, incluidos los modelos más pequeños incapaces de 70 kHz pero buenos para al menos 58 kHz (preferiblemente 62,5 kHz) y capaces de admitir la frecuencia de actualización vertical más baja, podrían configurarse para ejecutar 50 Hz progresivos, o incluso 100 Hz entrelazado para evitar el parpadeo que de otro modo causaría.

Ver también

Sistemas de transmisión de TV

Estándares relacionados:

Referencias

enlaces externos