Red de Respuestas Legales - Derecho de propiedad intelectual - ¿Se pueden comprimir transmisiones de video en tiempo real en una PC?

¿Se pueden comprimir transmisiones de video en tiempo real en una PC?

Tecnología de compresión de video

Principios básicos de codificación de video

Los datos de imágenes de video tienen una fuerte correlación, es decir, hay una gran cantidad de información redundante. Entre ellos, la información redundante se puede dividir en información redundante espacial e información redundante en el tiempo. La tecnología de compresión consiste en eliminar información redundante en los datos (eliminar la correlación entre datos). La tecnología de compresión incluye tecnología de compresión de datos de imágenes dentro del cuadro, tecnología de compresión de datos de imágenes entre cuadros y tecnología de compresión de codificación de entropía.

Información redundante en el dominio del tiempo

La tecnología de codificación entre cuadros puede eliminar información redundante en el dominio del tiempo, que incluye las siguientes tres partes:

-Compensación de movimiento

La compensación de movimiento consiste en predecir y compensar la imagen parcial actual a través de la imagen parcial anterior, y es un método eficaz para reducir la información redundante en secuencias de fotogramas.

-Rendimiento del movimiento

Las imágenes en diferentes áreas requieren diferentes vectores de movimiento para describir la información del movimiento. Los vectores de movimiento se comprimen mediante codificación entrópica.

-Estimación de movimiento

La estimación de movimiento es un conjunto de técnicas para extraer información de movimiento de secuencias de vídeo.

Nota: Los estándares de compresión comunes utilizan memc basado en bloques.

Eliminar información espacial redundante

Utilizar principalmente tecnología de codificación entre cuadros y tecnología de codificación de entropía:

-Codificación de transformación

Intra-cuadro imagen y señales diferenciales predichas con información de alta redundancia espacial. La codificación transformada transforma la señal espacial en otro espacio vectorial ortogonal, lo que reduce su correlación y redundancia de datos.

-Codificación de cuantificación

Después de la codificación de transformación, se generan una serie de coeficientes de transformación y estos coeficientes se cuantifican para que la salida del codificador alcance una determinada velocidad de bits. Este proceso da como resultado una pérdida de precisión.

-Codificación de entropía

La codificación de entropía es codificación sin pérdidas. Comprime aún más los coeficientes y la información de movimiento obtenidos después de la transformación y cuantificación.

Marco básico de codificación de vídeo (imagen)

La historia del desarrollo de los estándares internacionales de compresión de audio y vídeo

H.261

H .261 El estándar está diseñado para RDSI y se utiliza principalmente para codificación y decodificación en tiempo real. El retraso de las señales comprimidas y descomprimidas no supera los 150 ms y la velocidad del código es px64 kbps (p = 1 ~ 30).

El estándar H.261 utiliza principalmente tecnologías de compresión como predicción entre cuadros con compensación de movimiento, transformación DCT, cuantificación adaptativa y codificación de entropía. Solo hay cuadros I y cuadros P, pero no cuadros B, y la precisión de la estimación del movimiento es solo a nivel de píxeles. Admite dos formatos de escaneo de imágenes: QCIF y CIF.

263

El estándar H.263 es un estándar internacional de velocidad de bits muy baja para codificación de imágenes. Por un lado, se basa en H.261, con codificación híbrida como núcleo. Su diagrama de bloques de principio básico es muy similar al H.261, y la organización del flujo de código y datos originales también es muy similar. Por otro lado, H.263 también absorbe algunas partes efectivas y razonables de otros estándares internacionales como MPEG, como la estimación de movimiento de precisión de medio píxel, la predicción de fotogramas PB, etc., lo que hace que su rendimiento sea mejor que H.261.

La velocidad de bits utilizada por H.263 puede ser inferior a 64 Kb/s y no es necesario que la velocidad de bits de transmisión sea fija (velocidad de bits variable). H.263 admite múltiples resoluciones: SQCIF (128x96), QCIF, CIF, 4CIF, 16CIF.

Estándares internacionales relacionados con H.261 y H.263

Estándares internacionales relacionados con H.261

H.320: Sistema de Videofonía de Banda Estrecha y equipos terminales;

H.221: Estructura de trama de canales de 64~1 920Kb/s en servicios de telecomunicaciones audiovisuales;

H.230: Control de sincronización de trama y señales de indicación para sistemas audiovisuales;

H.242: Un sistema terminal audiovisual que utiliza canales digitales de hasta 2MB/s..

Estándares internacionales relacionados con H.263

H .324: Equipo terminal de comunicación multimedia de muy baja velocidad binaria;

H.223: Protocolo compuesto de comunicación multimedia de muy baja velocidad binaria;

H.245: Protocolo de control de comunicación multimedia;

p>

G.723.1.1: Codificador de voz con velocidades de transmisión de 5,3 Kb/s y 6,3 KB/s.

Grupo Conjunto de Expertos en Fotografía

1986, La Organización Internacional de Normalización estableció el Grupo Conjunto de Expertos en Fotografía (JPEG), que se dedica principalmente a desarrollar estándares de codificación de compresión de imágenes digitales para tonos continuos, escala de grises multinivel e imágenes fijas. El método de codificación común basado en la transformada de coseno discreta (DCT) es el contenido principal del algoritmo JPEG.

MPEG-1/2

El estándar MPEG-1 se utiliza para codificar imágenes en movimiento y los sonidos que las acompañan en el almacenamiento digital. Su velocidad digital es de 1,5 Mb/s/s. El diagrama de bloques del principio de vídeo de MPEG-1 es similar al H.261.

Características de la tecnología de compresión de vídeo MPEG-1: 1. Acceso aleatorio; 2. Búsqueda de avance/rebobinado rápido; 3. Reproducción inversa; 4. Sincronización audiovisual. 5. Tolerancia a fallos. Estrategia de compresión de vídeo MPEG-1: para mejorar la relación de compresión, se debe utilizar simultáneamente la tecnología de compresión de datos de imágenes intra-cuadro/entre-cuadro.

El algoritmo de compresión intracuadro es casi el mismo que el algoritmo de compresión JPEG y utiliza tecnología de codificación de transformación basada en DCT para reducir la información redundante en el dominio espacial. El algoritmo de compresión entre cuadros utiliza métodos de predicción e interpolación. El error de predicción se puede comprimir aún más mediante codificación de transformación DCT. La tecnología de codificación entre cuadros puede reducir la información redundante en la dirección del eje del tiempo.

MPEG-2 es llamado el "estándar de televisión del siglo XXI". Tiene muchas extensiones y mejoras importantes basadas en MPEG-1, pero su algoritmo básico es el mismo que el de MPEG-1.

MPEG-4

El estándar MPEG-4 no reemplaza a MPEG-2. Se centra en diferentes áreas de aplicación. La intención original de MPEG-4 era principalmente satisfacer las necesidades de compresión de velocidad de bits ultrabaja (menos de 64 Kb/s) para videoconferencias y videoteléfonos. Durante el proceso de formulación, la organización MPEG sintió profundamente que la demanda de la gente de información multimedia, especialmente información en vídeo, ha cambiado de la reproducción al acceso, recuperación y operación basados ​​en contenido.

MPEG-4 es muy diferente de JPEG y MPEG-1/2 mencionados anteriormente. Proporciona una plataforma más amplia para la compresión y codificación de datos multimedia. Define un formato y un marco en lugar de un algoritmo específico. Espera establecer un entorno más libre para la comunicación y el desarrollo. Por lo tanto, el nuevo objetivo de MPEG-4 es soportar diversas aplicaciones multimedia, especialmente la recuperación basada en contenidos y el acceso a información multimedia, y configurar decodificadores in situ según los diferentes requisitos de la aplicación. El sistema de codificación también es abierto y en cualquier momento se pueden añadir módulos de algoritmos nuevos y eficaces. Las aplicaciones incluyen comunicaciones audiovisuales en tiempo real, comunicaciones multimedia, monitoreo/vigilancia remota, video a pedido, compras/entretenimiento desde el hogar, etc.

JVT: Estándar de compresión de vídeo de nueva generación

JVT es un grupo de vídeo conjunto establecido por ISO/IEC MPEG y ITU-T VCEG y está comprometido a desarrollar una nueva generación de compresión de vídeo digital. estándares.

El nombre oficial del estándar JVT en ISO/IEC es: estándar MPEG-4 AVC (parte 10); el nombre en ITU-T: H.264 (anteriormente conocido como H.26L)

H264/AVC

H264 combina las ventajas de estándares anteriores y absorbe la experiencia acumulada en la formulación de estándares anteriores. El diseño es simple y más fácil de promocionar que MPEG4-4. H.264 fue pionero en nuevas tecnologías de compresión, como cuadros de referencia múltiple, tipos de bloques múltiples, transformación de enteros y predicción intracuadro, y utilizó vectores de movimiento de subpíxeles más finos (1/4, 1/8) y una nueva generación de filtros de bucle., mejorando enormemente el rendimiento de la compresión y mejorando el sistema.

H.264 tiene las siguientes ventajas:

-Compresión eficiente: en comparación con H.263+ y MPEG-4SP, la velocidad de código se reduce en un 50%.

-Buena flexibilidad en cuanto a limitaciones de tiempo.

-Tolerancia a fallos

-Complejidad y escalabilidad de codificación/decodificación

-Decodificación en todos sus detalles: sin desajustes.

-Aplicación de alta calidad

-Amigable con la red

Tecnología de codificación de video en vigilancia

En la actualidad, MJPEG, varias codificaciones de video tecnologías como MPEG1/2, MPEG4 (SP/ASP) y H.264/AVC. Para el usuario final, sus principales preocupaciones son: claridad, capacidad de almacenamiento (ancho de banda), estabilidad y precio. El uso de diferentes técnicas de compresión puede afectar en gran medida los factores anteriores.

MJPEG

La tecnología de compresión MJPEG (Motion JPEG) se basa principalmente en la compresión de vídeo estático. Su característica principal es que básicamente no considera los cambios entre diferentes cuadros en la transmisión de video y solo comprime un cuadro determinado.

La tecnología de compresión MJPEG puede obtener imágenes de vídeo de alta definición y ajustar dinámicamente la velocidad de fotogramas y la resolución. Sin embargo, dado que no se consideran los cambios entre fotogramas, se almacena repetidamente una gran cantidad de información redundante, por lo que un solo fotograma de vídeo ocupa una gran cantidad de espacio. La actualmente popular tecnología MJPEG sólo puede alcanzar un máximo de 3 kilobytes por cuadro, normalmente entre 8 y 20 kilobytes.

MPEG-1/2

El estándar MPEG-1 apunta principalmente a la resolución del estándar SIF (el formato NTSC es 352X240; el formato PAL es 352X288). El objetivo principal de la velocidad de bits de compresión es 1,5 Mb/s/s. En comparación con la tecnología MJPEG, MPEG1 tiene mejoras significativas en la compresión en tiempo real, el volumen de datos por cuadro y la velocidad de procesamiento. Pero MPEG1 también tiene muchas deficiencias: la capacidad de almacenamiento sigue siendo demasiado grande, la definición no es lo suficientemente alta y la transmisión por red es difícil.

MPEG-2 se ha ampliado y actualizado sobre la base de MPEG-1. La compatibilidad con versiones anteriores de MPEG-1 se utiliza principalmente en medios de almacenamiento, televisión digital, alta definición y otros campos de aplicaciones. Las resoluciones son: baja (352x288), media (720x480) y segunda alta (1440x65438). En comparación con MPEG-1, el vídeo MPEG-2 tiene una resolución mejorada y cumple con los requisitos de alta definición de los usuarios. Sin embargo, debido a la pequeña mejora en el rendimiento de la compresión, la capacidad de almacenamiento sigue siendo demasiado grande y no es adecuada para la transmisión por red.

MPEG-4

En comparación con MPEG-1/2, el algoritmo de compresión de vídeo MPEG-4 tiene mejoras significativas en la compresión de baja velocidad de bits.

En el caso de CIF (352*288) o de mayor definición (768*576), la compresión de vídeo tiene mayores ventajas que MPEG-1 en términos de definición y capacidad de almacenamiento, y es más adecuada para la transmisión en red. Además, MPEG-4 puede ajustar fácilmente y dinámicamente la velocidad de fotogramas y la velocidad de bits para reducir la capacidad de almacenamiento.

Debido a que el diseño del sistema de MPEG-4 es demasiado complejo, es difícil que MPEG-4 sea completamente compatible y también es difícil implementarlo en campos como la videoconferencia y la videotelefonía, que se desvía de la intención original. Además, las empresas chinas tienen que afrontar el problema de las elevadas tasas de patentes. Normativa vigente:

-Cada dispositivo decodificador debe pagar MPEG-LA 0,25.

-Los equipos de codificación y decodificación también deben pagarse por tiempo (4 centavos/día = 1,2 USD/mes = 14,4 USD/año).

H.264/AVC

H.264 combina las ventajas de los estándares anteriores y ha logrado grandes avances en muchos campos, lo que le permite obtener resultados mucho mejores que los estándares anteriores. :

-En comparación con H.263+ y MPEG-4 SP, puede ahorrar hasta un 50% de velocidad de bits y reducir en gran medida la capacidad de almacenamiento;

H.264 puede proporcionar un alto calidad de vídeo en diferentes resoluciones y velocidades de bits;

-Adopta una estructura y sintaxis "compatibles con la red" para hacerlo más propicio para la transmisión de red.

H.264 adopta un diseño simple, es más fácil de popularizar que MPEG4-4, es más fácil de implementar en videoconferencias y videoteléfonos, es más fácil de lograr la interconexión y se puede integrar fácilmente con G.729. , etc. La compresión de voz de baja tasa de bits se combina para formar un sistema completo.

MPEG LA ha absorbido los elevados costes de patentes de MPEG-4 y es difícil de popularizar. MPEG LA ha establecido los siguientes estándares de carga H.264 de bajo costo: H.264 es básicamente gratuito cuando se reproduce, cuando el códec H.264 está integrado en un producto, la producción anual es inferior a 654,38 millones de unidades; la producción anual es de 0,2 dólares estadounidenses por más de 654,38 millones de unidades, 0,1 dólares estadounidenses por más de 5 millones de unidades. Las bajas tarifas de patentes facilitan la globalización de los productos de vigilancia H.264 de China.

Selección de la resolución de codificación de vídeo en vigilancia

Actualmente, la industria de la vigilancia utiliza principalmente las siguientes resoluciones: SQCIF, QCIF, CIF y 4CIF.

Las ventajas de SQCIF y QCIF son su baja capacidad de almacenamiento y su uso en banda estrecha. Los productos con esta resolución son económicos. La desventaja es que la calidad de la imagen suele ser deficiente e inaceptable para los usuarios.

CIF es actualmente la solución principal en la industria de la monitorización. Sus ventajas son la baja capacidad de almacenamiento, la transmisión en redes de banda ancha ordinarias, el precio relativamente bajo y la buena calidad de imagen, y es aceptado por la mayoría de los usuarios. La desventaja es que la calidad de la imagen no cumple con los requisitos de la alta definición.

4CIF es una resolución de definición estándar, y la ventaja es que la imagen es clara. Las desventajas son la gran capacidad de almacenamiento, los altos requisitos de ancho de banda de transmisión de la red y el alto precio.

Nueva opción de resolución: 528x384

Algunos productos han adoptado 2CIF (704x288) para resolver las deficiencias de 4CIF, como la baja definición, la gran capacidad de almacenamiento y el alto precio. Sin embargo, dado que 704x288 sólo aumenta la resolución horizontal, la mejora en la calidad de la imagen no es particularmente obvia.

Después de las pruebas, descubrimos que otra resolución 2CIF es 528x384, que puede resolver los problemas de CIF y 4CIF mejor que 704x288. Especialmente a una velocidad de bits de 512 kbps-1 mbps, se pueden obtener imágenes estables de alta calidad, satisfaciendo los requisitos de los usuarios de mayor calidad de imagen. En la actualidad, esta solución ha sido adoptada por muchas emisoras multimedia en red y aceptada por un gran número de usuarios. Por ejemplo, Hangzhou Netcom Online Cinema utiliza una resolución de 512x384 y puede obtener de manera estable una calidad de imagen similar a la de un DVD a 768k.

La mejor manera de implementar la codificación de video en vigilancia

Actualmente, la codificación de video se encuentra en un período de rápidos cambios tecnológicos y el rendimiento de compresión de la codificación de video también mejora constantemente.

ASCI y DSP se utilizan principalmente para monitorización. Debido a que el ciclo de diseño y producción de los chips ASIC es demasiado largo, no puede seguir el ritmo de desarrollo de la codificación de video. El chip DSP, debido a su diseño universal, puede implementar varios algoritmos de codificación de video y puede actualizar el codificador de video a tiempo para mantenerse al día con la velocidad de desarrollo de la codificación de video. Además, el uso de chips DSP puede configurar el codificador de manera más flexible que ASIC, lo que permite que el codificador alcance un rendimiento óptimo.

El nivel técnico actual de los productos Hikvision.

Los productos Hikvision utilizan el algoritmo de compresión de vídeo H.264 más avanzado y un procesador DSP de alto rendimiento.

El potente motor de compresión de vídeo H.264 permite que el producto alcance una relación de compresión extremadamente alta, una calidad de imagen de alta calidad y un buen rendimiento de transmisión de red. El procesador DSP de alto rendimiento puede configurar de manera flexible el códec de video: establecer dinámicamente resolución, velocidad de fotogramas, velocidad de bits, calidad de imagen, etc. Puede generar flujos duales para realizar las funciones de almacenamiento local y transmisión de red.

Utilizando los productos DSP TM130X, un solo chip puede comprimir un canal de vídeo en tiempo real con las siguientes resoluciones: SQCIF, QCIF, CIF, 2CIF (PAL: 704x288 o 528x384).

Con productos que utilizan DM642 DSP, un solo chip puede comprimir vídeo en tiempo real con resoluciones inferiores a 4 canales: SQCIF, QCIF, CIF y 2CIF (PAL: 704x288 o 528x384). Un solo chip puede comprimir 2 canales de vídeo 4CIF en tiempo real.

La digitalización y la creación de redes en la producción de programas de televisión se han convertido en un tema de gran preocupación. Una de las tecnologías importantes es la compresión de vídeo digital. El Grupo de Expertos en Imágenes en Movimiento (MPEG) es un grupo de trabajo ISO/IEC responsable de formular estándares internacionales para la compresión, descompresión, procesamiento y codificación de imágenes en movimiento, audio y su información mixta. MPEG ha desarrollado los estándares MPEG-1, MPEG-2 y MPEG-4. MPEG-1 y MPEG-2 se han utilizado ampliamente en industrias multimedia, como TV digital, CD, vídeo bajo demanda, archivo, música en línea, etc. MPEG-4 se utiliza principalmente para codificación de audio y vídeo de baja velocidad por debajo de 64 kb/s, y se utiliza en comunicaciones multimedia de banda estrecha y otros campos. MPEG está desarrollando actualmente MPEG-7 y MPEG-21. M-JPEG, MPEG-2 y DV han ocupado una posición dominante en la tecnología de compresión de vídeo actual, mostrando un estado de irremplazabilidad, competencia feroz y desarrollo común.

Tanto M-JPEG como DV utilizan compresión intracuadro y la eficiencia de la compresión es inferior a la de MPEG-2. A velocidades de bits bajas, MPEG-2 puede proporcionar una relación de compresión más alta que M-JPEG y mantener una mejor calidad de imagen. Cuando se requiere una alta calidad de imagen (como en la edición y posproducción de programas), la diferencia entre MPEG-2, M-JPEG y DV es mucho menor. La diversidad de servicios de televisión requiere estándares de compresión que puedan proporcionar una variedad de velocidades de bits. La tasa de bits variable (VBR) es muy importante para que las estaciones de televisión utilicen los recursos de manera eficiente. MPEG-2 puede ajustar la velocidad de bits de salida cambiando la estructura GOP y los parámetros de DCT y codificación Huffman. M-JPEG puede ajustar la relación de compresión cambiando los parámetros de codificación DCT y Huffman; el formato DV no proporciona VBR debido a sus características de aplicación. M-JPEG se desarrolló anteriormente y se ha utilizado en la edición de vídeo no lineal durante muchos años. Las tecnologías de software y hardware están maduras y el costo es bajo. En lo que respecta a la plataforma de hardware actual, es aproximadamente 5.000 dólares más barata que la plataforma MPEG-2 en promedio. En la actualidad, M-JPEG, DV y MPEG-2 tienen cada uno sus propias ventajas y sus equipos se han utilizado ampliamente. Japón y América del Norte utilizan principalmente el formato DV para la postproducción; en la declaración técnica de D84 y D85 de 1999, la UER recomendó que las estaciones de televisión utilizaran MPEG-2 de fotograma I puro de 50 Mb/s 4:2:2p en el estudio. En China, M-JPEG se utiliza ampliamente y se discute activamente la edición del formato MPEG-2 IBP.

La siguiente es una comparación de dos tecnologías de compresión de vídeo, M-JPEG y MPEG-2, que se utilizan principalmente en redes digitales de estaciones de TV. Finalmente, se proporciona un breve resumen de MPEG-7.

M-JPEG se conoce como compresión JPEG optimizada para imágenes en movimiento. JPEG comprime datos de imagen basándose en la transformación DCT de un cuadro de imagen, y JPEG comprime cada cuadro de una señal digital de televisión (datos 4:2:2). Dado que la edición de televisión y la producción de efectos especiales requieren cuadros como unidad básica, el formato M-JPEG que comprime cuadros (compresión intracuadro) se ha utilizado con éxito en sistemas de video digital, especialmente sistemas de edición de programas digitales no lineales. Actualmente, la mayoría de los sistemas de edición no lineal en China utilizan compresión 4:1 M-JPEG, que se considera un nivel de reproducción aceptable. Después de que la señal digital PAL 4:2:2 se comprime 4:1, su velocidad de datos es de 5 MB/s (40 M b/s) y el programa de vídeo ocupa 18 GB de espacio de almacenamiento por hora. Dado que M-JPEG es un método de compresión intracuadro, puede proporcionar acceso aleatorio con precisión de cuadro sin ningún retraso de acceso y puede lograr una edición de programas con precisión de cuadro. La llamada compresión MPEG-2 se basa en el principio de que existe una cierta similitud entre fotogramas adyacentes de imágenes en movimiento. A través de la predicción de movimiento, en referencia a la similitud entre el cuadro anterior y este cuadro, se eliminan los datos redundantes similares al cuadro anterior y solo se graban los datos diferentes del cuadro anterior, lo que mejora en gran medida la eficiencia de compresión de los datos de video. Este método de compresión también se denomina compresión dependiente del cuadro. Debido a la adopción del método de compresión relacionado con fotogramas de predicción de movimiento, tiene un buen efecto en la compresión de video. Bajo la premisa de obtener una calidad de video digital a nivel de transmisión, la eficiencia de compresión puede alcanzar 20:1, la velocidad de datos se puede reducir a 1 MB/s (8 M b/s) y un programa de video de una hora ocupa 3,6 GB. del espacio. La utilización del espacio de almacenamiento de datos es alta y la eficiencia de transmisión de la red es más de 5 veces mayor que la del sistema M-JPEG. Esto aporta grandes beneficios al almacenamiento, transmisión, edición y reproducción de vídeos comprimidos basados ​​en MPEG-2, lo que puede ahorrar enormemente en costes de almacenamiento y puede introducir varios tipos de medios de almacenamiento, como discos duros, discos ópticos, cintas de datos y memoria. patatas fritas.

Sin embargo, dado que el formato MPEG-2 solo tiene un cuadro completo, es decir, el cuadro I, causará algunas dificultades cuando el televisor requiera un empalme de cuadros preciso, lo que requiere el soporte de una placa de hardware o sistema de software. MPEG-2 tiene dos modos de compresión: compresión intracuadro y compresión entre cuadros, utilizando tres tipos de imágenes, a saber, cuadros I, cuadros P y cuadros B. Los fotogramas I utilizan compresión intracuadro sin compensación de movimiento, lo que proporciona una relación de compresión moderada. Debido a que el cuadro I no depende de otros cuadros, es el punto de entrada para el acceso aleatorio y el cuadro de referencia para la decodificación.

Los fotogramas P se predicen en función del fotograma I o fotograma P anterior y se comprimen utilizando un algoritmo de compensación de movimiento. La relación de compresión es mayor que la de los fotogramas I. El cuadro P es el cuadro de referencia para decodificar los cuadros B y los cuadros P posteriores. Él mismo tiene errores y provocará la propagación de errores. La trama b es una trama reconstruida mediante interpolación, basada en las dos tramas IP o tramas PP antes y después, y no propaga errores. Utiliza predicción bidireccional para la compresión, proporcionando una relación de compresión más alta. Actualmente, varios fabricantes de placas de hardware están trabajando arduamente para resolver el problema de la edición de cuadros IBP basada en MPEG-2. En la actualidad, muchas empresas nacionales, como OVC, Sobel y Dayang, han utilizado software para resolver el problema de la edición precisa de cuadros IBP, haciendo que el formato MPEG-2 sea aplicable a la producción, transmisión, almacenamiento y transmisión de programas de televisión. y es posible construir las bases para todos los sistemas de redes digitales.

En junio de 1996, el Grupo de Expertos en Imágenes en Movimiento comenzó a resolver el problema de la descripción de contenido multimedia, concretamente la Interfaz de descripción de contenido multimedia (MPEG-7 para abreviar). MPEG-7 ampliará los límites de capacidad existentes para identificar contenido e incluirá más tipos de datos. El objetivo de MPEG-7 es admitir una variedad de descripciones de audio y vídeo, incluido texto libre, estructura espaciotemporal de n dimensiones, información estadística, atributos objetivos, atributos subjetivos, atributos de producción e información combinada. Para información visual, las descripciones incluirán colores, objetos visuales, texturas, bocetos, formas, volúmenes, relaciones espaciales, movimiento y transformaciones.

El objetivo de MPEG-7 es proporcionar un método para describir materiales multimedia basado en el nivel abstracto de información, expresando así las necesidades de información de los usuarios en diferentes niveles. Tomando el contenido visual como ejemplo, los niveles de abstracción más bajos incluirían descripciones de forma, tamaño, textura, color, movimiento (trayectoria) y ubicación. Los niveles de abstracción más bajos de audio incluyen el tono, el patrón, la velocidad del sonido, los cambios de velocidad del sonido y la ubicación espacial del sonido. El objetivo de MPEG-7 es respaldar la flexibilidad de la gestión de datos, la globalización y la interoperabilidad de los recursos de datos.

Para futuros servicios multimedia, la representación y la descripción del contenido deben considerarse juntas. Es decir, muchos servicios que implican representación del contenido deben abordar primero la descripción del contenido. Al utilizar MPEG-7 para describir la información audiovisual disponible, podemos encontrar rápidamente la información que queremos, interactuar con contenido multimedia más libremente, reutilizar el contenido de la información audiovisual o combinar ciertos componentes de este contenido de nuevas maneras. .

La tecnología de codificación y decodificación ha seguido avanzando durante la última década. Las últimas tecnologías de códec (H.264/AVC y VC-1) representan la tercera generación de tecnología de compresión de vídeo. Seleccionar el códec adecuado para una aplicación específica y optimizar su implementación en tiempo real sigue siendo un gran desafío. El diseño óptimo debe equilibrar la eficiencia de la compresión con la potencia informática disponible. …

La compresión de vídeo es un factor importante para todos los nuevos e interesantes productos de vídeo. Seleccionar el códec adecuado para una aplicación específica y optimizar su procesamiento en tiempo real sigue siendo un gran desafío. El diseño óptimo debe equilibrar la eficiencia de la compresión con la potencia informática disponible. Además, también es una gran pregunta cómo obtener la mejor eficiencia de compresión con una potencia informática limitada.

Un desafío importante con el vídeo digital es que el vídeo sin procesar o sin comprimir requiere que se almacenen o transmitan grandes cantidades de datos. Por ejemplo, la digitalización de vídeo NTSC de definición estándar es generalmente de 30 fotogramas por segundo, utilizando 4:2:2 YCrCb y 720×480, lo que requiere una velocidad de datos de más de 165 Mbps. Guardar un vídeo de 90 minutos requiere 110 GB, que es más de 25 veces la capacidad de almacenamiento de un DVD-R estándar, incluso para vídeos de baja resolución comúnmente utilizados en aplicaciones de transmisión de vídeo (como CIF: 352×288 4:2:0 , 30 fotogramas por segundo) también requiere velocidades de datos superiores a 36,5 Mbps, que es muchas veces la velocidad de las redes de banda ancha como ADSL o 3G inalámbrica. Actualmente, las redes de banda ancha pueden proporcionar capacidades de transmisión continua de 1 ~ 10 Mbps. Evidentemente, el almacenamiento o transmisión de vídeo digital requiere tecnología de compresión.

El objetivo de la compresión de vídeo es codificar vídeo digital para que ocupe el menor espacio posible manteniendo la calidad del vídeo. La base teórica de la tecnología de codificación y decodificación es el principio matemático de la teoría de la información. Sin embargo, el desarrollo de una tecnología de códec práctica requiere una previsión artística.

Compensaciones de compresión

Al elegir una tecnología de códec para un sistema de vídeo digital, hay muchos factores a considerar. Los factores clave incluyen los requisitos de calidad de vídeo de la aplicación, el entorno del canal de transmisión o medio de almacenamiento (velocidad, latencia, características de error) y el formato del contenido fuente. También son importantes la resolución prevista, la tasa de bits objetivo, la profundidad del color, los fotogramas por segundo y si el contenido y la visualización son progresivos o entrelazados. La compresión a menudo requiere un equilibrio entre los requisitos de calidad del vídeo y otros requisitos de la aplicación. ¿Es para almacenamiento primero o unidifusión, multidifusión, comunicación bidireccional o transmisión? Para aplicaciones de almacenamiento, ¿cuánta capacidad de almacenamiento hay disponible y cuánto tiempo llevará? ¿Cuál es la tasa de bits máxima para la aplicación además del almacenamiento? ¿Cuál es la tolerancia al retraso o el retraso permitido del sistema de un extremo a otro para las comunicaciones de vídeo bidireccionales? Si no existe comunicación bidireccional, ¿es necesario codificar el contenido fuera de línea con anticipación o en tiempo real? ¿Qué tolerancia a fallos tiene la red o el medio de almacenamiento? Los diferentes estándares de compresión manejan estas compensaciones de diferentes maneras, dependiendo de la aplicación de destino subyacente.

Por otro lado, es necesario sopesar el coste del procesamiento en tiempo real del códec. Los nuevos algoritmos que pueden lograr relaciones de compresión más altas, como H.264/AVC o WMV9/VC-1, requieren mayor potencia de procesamiento, lo que afectará el costo del equipo de códec, el consumo de energía del sistema y la memoria del sistema.

……

Los estándares son muy importantes para la popularización de la tecnología de códec. Debido a las economías de escala, los usuarios buscan productos basándose en criterios de asequibilidad. La industria está dispuesta a invertir en estándares porque garantiza la interoperabilidad entre los fabricantes. Los proveedores de contenido también favorecen los estándares porque su contenido puede disfrutar de un ciclo de vida largo y una demanda generalizada. Aunque casi todos los estándares de vídeo están dirigidos a unas pocas aplicaciones específicas, si se pueden aplicar, también pueden ofrecer ventajas en otras aplicaciones.

Para lograr una mejor compresión y obtener nuevas oportunidades de mercado, la UIT y MPEG han estado desarrollando tecnología de compresión y nuevos estándares. China desarrolló recientemente un estándar nacional de codificación de video llamado AVS, que también presentaremos más adelante. Los estándares que se están formulando actualmente incluyen codificación de vídeo escalable conjunta ITU/MPEG (versión revisada de H264/AVC) y codificación de vídeo multivisión MPEG. Además, los estándares existentes evolucionan constantemente para cumplir con los nuevos requisitos de las aplicaciones. Por ejemplo, H.264 definió recientemente un nuevo modo llamado Fidelity Range Extension para satisfacer las nuevas necesidades del mercado, como la edición digital profesional, HD-DVD y codificación sin pérdidas.

Los dispositivos finales que utilizan tecnología de compresión de vídeo digital van desde dispositivos portátiles que funcionan con baterías hasta dispositivos básicos de alto rendimiento.

La mejor solución de procesador para vídeo digital depende de la aplicación de destino específica. TI tiene una variedad de DSP que admiten múltiples estándares y cumplen con las principales restricciones de diseño y sistema. TI tiene una amplia gama de soluciones, que incluyen procesadores de aplicaciones OMAP móviles y DSP C5000 de bajo consumo, DSP C6000 de alto rendimiento y procesadores de medios digitales DM64x y DM644x de alto rendimiento optimizados para video.

Los procesadores de la serie DM de Texas Instruments (TI) están especialmente diseñados para los requisitos de los sistemas de vídeo de alta gama. El último procesador de esta serie es el potente DM6446[15], que utiliza la tecnología DaVinci de TI[16]. La arquitectura de doble núcleo del DM6446 combina las ventajas de la tecnología DSP y RISC, integrando el núcleo c64x+ DSP con una frecuencia de reloj de 594MHz y el núcleo ARM926EJ-S. El DSP c64x+ de nueva generación es el DSP fijo de mayor rendimiento en la plataforma DSP TMS320C6000(tm), basado en una versión mejorada de la arquitectura VLIW avanzada de alto rendimiento de segunda generación desarrollada por TI. C64x+ es compatible con el código de plataforma DSP C6000 de la generación anterior. Los procesadores de medios digitales programables, como el DM644x, pueden admitir todos los formatos de vídeo propietarios y estándar de la industria existentes con un único procesador de medios digitales programable. El DM6446 también cuenta con memoria en chip, que incluye un caché de nivel 2 y varios periféricos con funciones específicas de video. El DM6446 también incluye un coprocesador de vídeo/vídeo (VICP) para descargar vídeo pesado y procesamiento de vídeo desde el núcleo DSP para algoritmos relacionados como JPEG, H.264, MPEG4-4 y VC-1 para permitir más MIPS DSP para post-video. procesamiento u otras funciones paralelas.

El estándar de compresión especifica la sintaxis requerida y las herramientas disponibles, pero muchos resultados de algoritmos dependen de la implementación específica. Las variables clave incluyen: algoritmo de control de velocidad, codificación de paso único y múltiple, relación de fotogramas I/B/P, rango de búsqueda de movimiento, algoritmo de búsqueda de movimiento, herramientas individuales y modos seleccionados. Esta flexibilidad nos permite hacer diferentes compensaciones entre carga computacional y calidad mejorada. Obviamente, todos los codificadores pueden alcanzar diferentes niveles de calidad de vídeo con frecuencias altas o bajas.

Cada vez más estándares de compresión de vídeo pueden proporcionar una eficiencia de compresión cada vez mayor y herramientas más completas para aplicaciones finales específicas. Además, la tendencia hacia la creación de redes significa que muchos productos necesitan cada vez más ser compatibles con múltiples estándares. La prevalencia de múltiples estándares y algoritmos propietarios también dificulta la selección de un único estándar, especialmente cuando las decisiones sobre el hardware suelen preceder a la implementación del producto. Además, cada algoritmo de codificación de vídeo proporciona un amplio conjunto de herramientas y funciones para equilibrar la complejidad de la eficiencia de la compresión. La selección de herramientas y funciones es un proceso iterativo estrechamente vinculado a aplicaciones y casos de uso específicos. La adopción de procesadores de medios flexibles en sistemas de vídeo digital se ha convertido en una tendencia importante debido al aumento en la cantidad de códecs que deben admitirse y a la creciente variedad de códecs optimizados para soluciones y aplicaciones específicas. Los procesadores de medios digitales como el DM6446 cumplen plenamente los requisitos de procesamiento de rendimiento y tienen una arquitectura flexible para que se puedan lanzar al mercado nuevos estándares rápidamente, incluidos H.264, AVS y WMV9. Podemos implementar algoritmos durante la fase de definición del estándar y mantener actualizados los algoritmos y herramientas de software para realizar un seguimiento de las revisiones del estándar y cumplir con los requisitos cambiantes de calidad de las aplicaciones.

Editar entrada

/Others/2004-10-15/1438441503 shtml.