Inicio Noticiero Digital El primer códec de vídeo de la historia era un desastre, pero...

El primer códec de vídeo de la historia era un desastre, pero fue un hito tras más de 50 años

Ver películas en un ordenador es hoy en día algo trivial, pero el camino para transformar bits y píxeles en un vídeo codificado que no ocupe una inmensidad no fue nada sencillo. El primer formato de comprensión de vídeo digital fue publicado en 1984 y el resultado fue tan desastroso que casi no hubo implementaciones. Sin embargo, fue todo un hito que pronto conduciría a otros códecs mucho más extendidos.


Hablamos del formato H.120, pero para llegar a él hicieron falta más de 50 años de investigación y búsqueda de algoritmos. Hay que remontarse a 1929 para encontrar el origen de la idea de la compresión inter-frame. La técnica que intenta averiguar la relación entre frames consecutivos para poder guardar solo los cambios de un frame a otro. Sin esta idea, los vídeos de hoy en día ocuparían un espacio enorme que haría prácticamente inviable poder reproducirlos.

El británico R.D Kell fue quien ideó el concepto, aunque lo hizo pensando en el vídeo analógico. Pese a ello, es el vídeo digital el que se ha beneficiado de ello y hoy en día los códecs más modernos siguen basándose en esta idea.

Fue en los Bell Labs, míticos laboratorios de AT&T, donde se realizó el siguiente paso para lograr una compresión de vídeo efectiva. En 1952, Bernard M. Oliver y C.W. Harrison sugirieron que se podía usar la modulación de código de pulso diferencial (DPCM) para el vídeo, además de la radio que es donde se utiliza habitualmente. Se trata de una técnica en la que se toman muestras y luego se intenta reconstruir una imagen futura en base a predicciones. No se consigue tener una gran precisión, pero tampoco se necesitan tantos datos.

De los key frames al primer estándar de compresión de vídeo

Estos trabajos de intentar predecir las imágenes para poder comprimir el vídeo acabaron transformándose en el concepto de key frames, presentado en 1959 por NHK (The Japan Broadcasting Corporation). Se trata de elegir un conjunto de fotogramas clave, espaciados en el vídeo y luego solo codificar los cambios entre ellos. Puntos de referencia repartidos por el transcurso del vídeo que permiten ahorrar mucho espacio.

Keyframe

En los primeros tiempos del vídeo digital, en los años 70, las técnicas utilizadas eran equivalentes a las de televisión y las telecomunicaciones. Pero convertir el vídeo analógico en digital no era muy eficiente. Ahí fue cuando empezó a cobrar fuerza la necesidad de tener mejores técnicas de compresión de vídeo.

En 1974, el profesor Nasir Ahmed de la Universidad de Kansas publicó la transformada de coseno discreta (DCT). Una técnica matemática que acabó convirtiéndose en el primer algoritmo funcional de compresión de vídeo digital. La DCT divide las imágenes en partes de diferentes frecuencias.

Durante un proceso se eliminan las frecuencias menos importantes y se dejan solo aquellas que permiten reconstruir la imagen con suficiente. Esta eliminación de frecuencias permite que el vídeo ocupe muchísimo menos, sin afectar tanto al resultado. Era simplemente el concepto de key frames, pero aplicándolo a través de las frecuencias.

Este algoritmo DCT fue optimizado por múltiples ingenieros y empresas durante varios años, hasta que en 1977, Wen-Hsiung Chen, combinó toda la investigación previa y publicó un trabajo describiendo cómo funcionaba la compresión de video DCT con compensación de movimiento. Ahí se acabó de definir la técnica de compresión de vídeo que se utiliza desde entonces. Unos pocos años más tarde, en 1984, este conocimiento derivó en la creación del estándar H.120.

H261play

Pero este primer estándar de compresión fue un desastre, hasta tal punto que no se crearon códecs existentes para este formato. La calidad del vídeo no era óptima y se perdía mucha calidad de un fotograma a otro. H.120 funcionaba bien con vídeos semi-estáticos como los de una videoconferencia, pero a la que cambiaba la imagen mucho se perdía demasiada información. Este primer estándar funcionaba para NTSC a 1.544 kbps y 2.048 kbps para PAL .

La solución llegó en 1988 con el códec H.261, el primer algoritmo de compresión que sí utilizaba técnicas efectivas y el primero en tener éxito comercial. Si el H.120 fue prácticamente olvidado, con H.261 se creó un estándar utilizado y apoyado por empresas de vídeo tan importantes como Hitachi, NTT o Toshiba.

H.261 introdujo una técnica de codificación basada en bloques que se sigue utilizando en los códecs más modernos. Su resolución máxima era de 352 x 288 píxeles.

Desde entonces han llegado otros códecs más modernos como MPEG-1 o H.263, así como los recientes H.266/VVC o AV1, pero los primeros vídeos digitales codificados llegaron en los años 80. No eran tan eficientes como ahora, pero sin estos primeros algoritmos de compresión no podríamos tener ahora vídeos 4K con un bitrate enorme ocupando poco más que unos GBs.

En Xataka | Diez documentales sobre la historia de la informática que no te puedes perder