¿Qué es el bitrate o tasa de bits de una señal de televisión?

Por | 07/09/2014

Una señal de televisión digital y un video que tengas almacenado en tu ordenador son similares. En ambos casos puedes verlos a ambos como una colección de datos que se transmiten de un lugar a otro.

Siempre que enviamos una señal da igual que sea digital o analógica debemos de tener en cuenta lo que se denomina ancho de banda. Cuanto mayor sea la calidad que queremos enviar necesitaremos más espacio radioeléctrico.

Este es limitado, está controlado por los distintos gobiernos que lo alquilan a las compañías que después envían sus datos a través de ellos.

Es por eso que es muy importante intentar que esta señal ocupe lo mínimo posible siempre dando la máxima calidad posible. Gracias al uso de técnicas digitales en la señal de televisión se puede procesar antes de ser enviada para reducir su tamaño a esto es a lo que llamamos compresión.

El bitrate o la tasa de bits de una señal de televisión no es más que una medida de la cantidad de información que llega a tu televisor por segundo. Esto lo puedes aplicar tanto a la señal que llega a tu casa como la que obtienes de un DVD.

¿Cómo se consigue comprimir un video?

Los principios básicos en que se basan la compresión de videos son bastante fáciles de entender:

Se manda menos información que la original. Todos estos algoritmos envían la información con menor calidad que la que en principio tiene la señal original. Por ejemplo una película en Full HD en un Blu Ray tendría que enviar 1920×1080 por 3 bytes por pixel, para enviar la información del color, por imagen. Si tenemos 24 de ellas eso significa 142 megas por segundo o lo que es lo mismo 500 GB por cada hora de video sin sonido. Si un Blu Ray tiene 25 GB está claro que hay que comprimir esa señal para que pueda albergar una película sin problemas.

Se intenta reducir toda la información que el ser humano no es capaz de procesar. Lo primero que se hace es reducir toda la información que sabemos que como seres humanos no vamos a ser capaces de notar. Por ejemplo somos más sensitivos a los cambios en el color verde que en los demás colores primarios o sea que podemos reducir la cantidad de información usada para los otros. Algo parecido se hace con el sonido ya que es bien conocido que tenemos problemas para distinguir las frecuencias altas.

Por ejemplo también nos cuesta ver los detalles cuando existe mucho movimiento así que por qué no usar menos bits para codificar eso cuadros si pasan muy rápido delante del televisor.

Se intenta aprovechar de la información ya enviada. Imagínate una serie de televisión la cual se graba con el mismo decorado de fondo. Si ya lo hemos mandado una vez por que no solo mandar las diferencias que se produzcan a lo largo del capitulo.

De esta forma se evita el envió de mucha información.

¿Se nota la pérdida de calidad respecto a los originales?

Obviamente sí, pero esta es menos visible cuanto mayor es el bitrate asociado a la señal. En un Blu Ray tienes compresión pero es difícil verla a simple vista incluso parando la imagen.

Sin embargo es excesivamente sencillo verlo en la señal de TDT que llega a tu casa sobre todo si tienes una televisión de gran tamaño.

¿Por qué los algoritmos cada vez comprimen más?

Cuando la señal original se comprime se usa una serie de técnicas que conocemos de forma genérica como algoritmo. Tanto el equipo que se encarga de codificar la imagen como el que después la descomprime debe de usar el mismo algoritmo.

Esto quiere decir que tu tele necesita un decodificador especial dependiendo del tipo de señal que quieras ver. Esta es la razón por la cual un decodificador de TDT normal no puede mostrarte la TDT HD.

Simplificando, un algoritmo mejor es aquel que es capaz de dar la misma calidad de imagen que otro pero usando menos bits por segundo. O sea es capaz de mostrar la misma calidad enviando menos información.

Normalmente cuanto más complicados son los algoritmos más potencia de proceso se necesita y mejores resultados ofrecen.

Resumiendo, históricamente nos encontramos con los siguientes algoritmos:

MPEG-2. Se utiliza en los DVD y en la TDT normal conocida también como SD.

MPEG-4 o H.264. La utilizada en los Blu Ray y en la TDT HD. Una de sus mejoras más importantes es que permite un alto rango de bitrate lo cual lo hace perfecto para la transmisión de video por internet. Necesita más capacidad de procesamiento por eso hay videos que en ordenadores antiguos iban a saltos.

HECV o H.265. El que se espera que usaran las televisiones con resolución 4K del futuro. Nos ofrece la misma calidad que la anterior usando la mitad de información.

Author: Ángel Luis

Hola, mi nombre es Ángel y estoy aquí para explicarte todo lo relacionado con las nuevas tecnologías.