¿Qué es el vídeo?
Según el Diccionario de la Real
Academia Española (RAE) se conoce como “vídeo”, entre otras definiciones, el
Sistema de grabación y reproducción de imágenes, acompañadas o no de sonidos,
mediante cinta magnética u otros medios electrónicos.
También podemos considerar el
vídeo como el conjunto de fotogramas que se reproducen a gran velocidad
provocando la sensación de movimiento de forma imperceptible al ojo humano.
Características del vídeo
-Dimensiones: tamaño del vídeo (ancho x alto)
expresados píxeles. Un vídeo en formato AVI puede tener cualquier ancho y alto,
mientras que los estándares de VideoCD son 352×288 y DVD 720×576
-Fotogramas por segundo: número de fotogramas que
componen un segundo del vídeo. Con la cámara pueden seleccionarse los f/s que
desean capturarse por segundo. Normalmente los vídeos se graban a 50-60 f/s,
aunque actualmente existen cámaras que graban muchos más, y que permiten
realizar cámaras lentas de mucha calidad, ya que no es necesario estirar o
congelar el fotograma.
Normalmente se emplean 15 f/s para dibujos animados y 24 f/s para
largometrajes.
-Fotogramas clave: fotogramas que se almacenan
íntegros en los archivos comprimidos y que sirven para reconstruir el resto de
fotogramas intermedios en el proceso de descompresión.
-Proporción o ratio de aspecto: se trata de la proporción entre
anchura y altura (dimensiones) en un vídeo.
Los televisores y monitores
tradicionales tenían 4:3 (1,33:1): cuando se convierte un vídeo original para
ser visto en $:3 hay que recurrir a recortar parte de los lados y al
“Letterbox” (rellenar con bandas negras) para no distorsionar la imagen.
Las nuevas pantallas panorámicas tienen 16:9 (1,78:1).
Las pantallas de cine (CinemaScope) (2,35:1).
-Resolución de vídeo: es el tamaño del cuadro
(area), y generalmente se mide por cantidad píxeles. Existe la resolución SD
(720×480) que se corresponde con la resolución de la televisión tradicional .
Le sigue la resolución HD 720 (1280×720). A esa le sigue la resolución HD1080
(1920×1080), también conocida como Full HD. Seguidamente, continua la 2K
(2048×1080) y después 4K (4096X2160).
Este valor repercute directamente en la calidad del video a la hora de
visualizarlo. El número de píxeles que contiene la imagen de cada “fotograma”
determina el tamaño máximo al que se puede ver la imagen sin que se produzca
“pixelado”.
Sistemas de transmisión televisivos
Actualmente existen tres
estándares televisivos a nivel mundial, el NTFS, PAL y SECAM. La diferencia
entre ellos estriba en la velocidad en la que se emiten los fotogramas y su
resolución, que es ligeramente mayor en el formato PAL.
Cada país tiene uno de los tres
sistemas de transmisión televisiva. Todos los aparatos utilizados, cámaras de
filmación de vídeo, televisiones, etc., se encuentran acordes con el sistema de
transmisión estándar propio de cada país. En el caso de PC u ordenadores, se
encuentran preparados para visualizar varios sistemas.
NTSC (National Televisión Systems
Committee) es el
que se utiliza los países de Japón y Estados Unidos. La forma de transmisión en
NTSC, es de 525 líneas en la pantalla a una velocidad de unos 30 fotogramas por
segundo.
PAL (Phase Alernating Line) es el estándar utilizado en
Europa, Australia, China y Suramérica, con lo cual España utiliza este sistema
de transmisión. El sistema PAL emite 625 líneas a través de una serie de
ráfagas producidas por electrones sobre la pantalla del televisor a una
velocidad o frecuencia de 25 fotogramas.
Sistema SECAM (Séquentiel Couleur
avec Mémoire) es el
que se utiliza en los países de Francia y Japón. La transmisión televisiva en
SECAM, se forma escaneando la pantalla del televisor a 625 líneas y a una frecuencia
de 25 frames por segundo.
Este sistema es compatible con el
sistema PAL, ya que utilizan los mismos formatos de escaneo y velocidades en
los frames, la diferencia es la forma de cómo se codifica el color. Con esto
queremos decir que podemos reproducir filmaciones en aparatos de sistema SECAM
o a la inversa.
Compresión
-Códec: se trata de un algoritmo que se
aplica al vídeo original y que reduce el número de bytes que ocupa el archivo
de vídeo generando un archivo comprimido para ser transmitido o guardado. Los
archivos que se codifican con un códec tienen que decodificarse con el
algoritmo inverso para ser descodificados. Hay tres grandes familias de codecs:
Divx, Xvid y x264.
Dentro de cada familia hay
multitud de versiones. Sirven para crear pistas de vídeo comprimido que después
se empaquetan en formatos
Básicamente hay que diferenciar entre MPEG-2, vídeo en formato DVD, compatible
con reproductores DVD y MPEG-4 formato comprimido basado en codecs de
compresión Divx O Xvid que solo se podrán reproducir en ordenadores o
reproductores de sobremesa que tengan Divx o en discos duros multimedia.
Para que un dispositivo sea capaz
de reproducir el archivo debe llevar integrado los códecs. VideoLan (VLC) es un
programa reproductor de vídeo libre con una gran cantidad de códecs integrados
que permite reproducir prácticamente cualquier archivo.
-Velocidad de transmisión (bitrate o flujo de bits): es el valor que define la cantidad de espacio físico (en bits) que ocupa un segundo de duración del vídeo. A bitrate obtendremos mejor calidad y el archivo que lo contiene tendrá más peso.
El bitrate puede ser fijo o variable. El variable consigue mejor calidad porque
recoge más calidad en escenas muy cargadas o con mucho movimiento y ahorra en
las estáticas.
-Formatos: es la forma en al que se
comprime el vídeo según la finalidad de este. Los vídeos digitales se pueden
guardar en archivos de diferentes formatos, y cada uno corresponde a una
extensión específica. Cada tipo de archivo admite un códec de compresión distinto.
Los formatos de archivos más utilizados son:
-AVI: formato estándar de
almacenamiento de vídeo digital que permite contener una calidad excelente, con
un peso del archivo muy elevado (por lo que no es recomendable utilizarlo para
Internet). Puede ser visualizado en la mayoría de los reproductores.
Cuando se captura un vídeo de una cámara digital al ordenador, se suele
almacenar en este formato con el códec DV.
-MPEG: formato estándar para la
compresión de vídeo que se reproducen con Windows Media Player y QuickTime.
Admite distintos tipos de códecs de compresión: MPEG-1, MPEG-2, MPEG-3 y
MPEG-4.
-MOV: es el formato desarrollado por
Apple, se reproduce en QuickTime y se recomienda para publicar vídeos en
Internet por su ratio calidad/peso. Utiliza un códec propio y admite streaming.
-WMV: desarrollado por Microsoft, solo
se puede visualizar en una versión actualizada de Windows (a partir de 7) y es
ideal para publicar vídeos en Internet por su ratio calidad/peso. Utiliza un
códec MPEG-4 y admite streaming.
-RM: desarrollado por Real Networks,
se visualiza en Real Player, un reproductor específico. Es recomendable para
publicar vídeos en Internet por su ratio calidad/peso. Utiliza un códec propio
y admite streaming.
-FLV: formato que utiliza el
reproductor Adobe Flash para visualizar vídeo en Interntet, es el formato más
recomendable para la web por su accesibilidad, ya que permite configurar
distintos parámetros de vídeo para conseguir una aceptable calidad/peso.
Los repositorios de vídeo más
conocidos en Internet utilizan este formato para la difusión (YouTube, Google
Video, etc). Utiliza el códec Sorenson Spark y el códec On2 VP6 que permiten
una alta calidad visual con bitrates reducidos y admite streaming.
-Método de compresión:
Las técnicas de compresión de
vídeo consisten en reproducir y eliminar datos redundantes del vídeo para que
el archivo se pueda transmitir y almacenar. Con técnicas de compresión eficaces
se puede reducir considerablemente el tamaño del fichero sin que afecte a la
calidad de imagen.
Existen diferentes técnicas de compresión, tanto patentadas como estándar. Hoy
en día, la mayoría de proveedores de vídeo utilizan técnicas de compresión
estándar, que son importantes para asegurar la compatibilidad e
interoperabilidad.
Distribución
Streaming: término que referencia la
distribución digital de multimedia a través de una red de ordenadores de manera
que el usuario consume el producto, audio y vídeo, de forma simultánea a la
descarga con un tiempo de espera mínimo.
Esta tecnología funciona mediante
un búfer de datos (fragmento de datos enviados secuencialmente a través de la
red) que almacena la descarga en la estación del usuario para mostrarle el
material descargado, contraponiéndose con el habitual mecanismo de de descarga
de archivos.
Cuando se realiza una transmisión
en vivo, se denomina live streaming.
Los formatos más comunes de
streaming son Vídeo Flash (FLV), RealVideo (extensión RM o RAM) y Windows Media
(extensión ASX o WMV).
Algunas de las plataformas más conocidas de reproducción de contenido multimedia en streaming son YouTube para vídeo y Spotify para audio.
El vídeo digital a diferencia del
analógico, representa las imágenes en movimiento gracias a la codificación
de datos digitales en lugar de utilizar señales. Entre sus ventajas se
incluye la posibilidad de hacer copias del resultado final sin perder calidad,
la variedad de soportes para el almacenamiento como DVD, Blu-Ray, memorias y
discos sólidos, etc. y sus posibilidades para la edición “no lineal” de la
película.
Te contamos cuáles son los aspectos que hay que tener en cuenta para producir, grabar y editar vídeo actualmente. Conocer estos términos y lo que significan resultará muy útil para el planteamiento y la realización de cualquier trabajo de vídeo, allá vamos.
Empezamos por un concepto
sencillo, lógicamente la duración de un vídeo depende inicialmente del tiempo
de grabación o captura en el caso de una secuencia continua. Pero lo habitual
es seleccionar diferentes clips o partes de secuencias de duración más
corta para su edición de una forma previamente planificada.
Cuanto más clips y de más duración hay que montar, más larga es la línea de tiempo y más capas será necesario ocupar en los programas de edición. Esto afecta directamente al tamaño y manejabilidad del archivo nativo en el que se edita el vídeo.
Los recursos de hardware
guardan una relación directa para trabajar con mayor o menor fluidez, según
el tipo de vídeos que se desea producir. Por ello hay que tener en cuenta sobre
todo las características de determinados componentes:
- La cantidad y tipo de memoria en placa del ordenador para almacenar mayores cantidades de información con vídeos de gran duración y muchas capas. También para efectos de postproducción con elementos como partículas para generar efectos visuales.
- Las posibilidades de la tarjeta gráfica influyen en la manipulación
y previsualización de fragmentos de vídeo más complejos en la fase de
edición y posproducción. Aunque también pueden contribuir en la fluidez
del almacenamiento y hasta en el renderizado según la tecnología empleada.
- La potencia, núcleos y velocidad del
procesador
está directamente relacionada con los tiempos de renderizado para generar
la película final. Algo muy a tener en cuenta sobre todo en trabajos que requieran
mayores exigencias o deban estar mejor elaborados.
Vídeos de mucha duración pueden
causar tiempos de renderizado, subida o alojamiento online, y descarga,
excesivamente largos, pero reducir estos tiempos depende también de otros
factores que veremos a continuación.
Obviamente, entre los fundamentos
del vídeo digital, el tamaño del marco tiene un impacto directo en el tamaño
del archivo. La cantidad de datos requeridos para crear vídeos de mayor
resolución como 2K o 4K puede llegar a ser prohibitiva para muchos equipos,
aplicaciones de escritorio y web. El tamaño de fotograma más común hoy en día
por la relación de calidad y tiempo de creación, además de por su versatilidad
para visualizarlo en diferentes dispositivos o aparatos es el FULL HD, con
1920×1080 píxeles. El tamaño anterior a este es el HD de 1280×720 píxeles, y
por encima siguen el QHD o 2K con 2560×1440, y a continuación el UHD o 4K con
3840×2160 píxeles.
Una práctica recomendable es capturar
y editar los vídeos a la mayor resolución con la que el equipo u ordenador
empleado en la edición sea capaz de trabajar con fluided. Esto permite
conservar una mayor calidad y también generar el archivo de salida con
resoluciones menores, sobre todo si el resultado está destinado a ser
visualizado a través de plataformas online.
Las posibilidades de aumentar el
tamaño y la resolución del vídeo aumentan a lo largo del tiempo en la medida en
la que los dispositivos y las tecnologías asociadas a las telecomunicaciones
mejoran. La evolución en este último aspecto a ido en aumento gracias a las
redes 2G, 3G, 4G y más adelante 5G, que permiten visualizar vídeo con cada
vez más calidad utilizando conexiones inalámbricas como Wifi o Bluetooth.
Durante el proceso de
transcodificación es generalmente cuando la resolución pierde mayor calidad. La
transmisión de velocidad de múltiples bits basada en el ancho de banda de los
usuarios permite obtener una resolución adaptable, más alta o más baja,
según los requerimientos. Para mencionar el formato a menudo se toma como
referencia la altura del marco en píxeles, como por ejemplo 1080p (la “p” de
vídeo progresivo) para el vídeo en Full HD, que realmente hace referencia a los
1920×1080 píxeles
Se trata de la relación de
proporcionalidad entre la anchura y la altura del vídeo. Las
relaciones de aspecto más comunmente utilizadas en vídeo digital son 4:3 (4
partes de ancho y 3 de alto), 16: 9 (16 partes de ancho y 9 de alto), y 16:10
(16 partes de ancho y 10 de alto).
- 4:3 (1.33: 1): Está actualmente en desuso,
ya que la industria favorece los formatos panorámicos.
- 16:9 (1.78: 1): Es por regla general el más
utilizada para casi todos los contenidosde vídeo, también en TV de
pantalla ancha y alta definición desde que irrumpió el HDTV.
En el primer caso de 4:3 los
píxeles son totalmente cuadrados, mientras que en el 16:9 y 16:10 puede existir
cierta deformación adaptada a la proporcionalidad rectangular. Es importante
tenerlo en cuenta sobre todo en procesos de trascodificación de vídeos de una
dimensión a otra.
Uno de los fundamentos del vídeo
digital más importante es que la velocidad de cuadro se mide en número de
fotogramas por segundo (fps). Dicho de otra manera, los cuadros por segundo o
fps, representan la cantidad de fotogramas o imágenes estáticas por segundo
de vídeo.
El vídeo estándar de calidad para
TV utiliza una velocidad determinada de fotogramas por segundo para crear el
efecto de movimiento suave. Para la Web, una velocidad de fotogramas de 15 o
incluso 10 fps puede llegar a ser suficiente según el caso.
Para el primer plano de un
personaje y otros casos en los que el sujeto tenga poca movilidad en la escena,
estas las tasas de fotogramas más bajos pueden ser satisfactorias. Las
transmisiones comerciales en Internet las utilizaban hasta hace poco para
favorecer la fluidez del vídeo con anchos de banda muy ajustados.
Normalmente, la televisión de
América del Norte, Centro América y Sur América se acoge al sistema NTSC,
cuya normativa impone 29.97 fps. La televisión y el vídeo en Europa y Asia
lo hace en PAL, que son 25 fps.
Muchas aplicaciones de edición de
vídeo permiten establecer la calidad general de la imagen. El grado en que los
algoritmos de compresión validan o descartan los datos está determinado por
la configuración que se aplique y la calidad necesaria para cada tipo de
trabajo.
Una compresión bastante alta da
como resultado una calidad media o baja, pero puede ser apropiada para la
entrega en la web. Frecuencia de fotogramas y calidad son conceptos que a
menudo tienen una relación muy directa entre sí.
Determinar la combinación
adecuada depende de los medios de difusión y de los objetivos a cumplir,
como en el caso de los vídeos corporativos. También hay que considerar
los dispositivos en los que se vaya a visualizar el trabajo de forma
preferente.
El tamaño del vídeo se ve
afectado también por la cantidad y variedad de colores representados en los
píxeles de cada fotograma. Disminuir su número estableciendo una
profundidad de color que cambie de 24 a 8 bits reducirá drásticamente el tamaño
del archivo de vídeo, sobre todo en las piezas de contenido o clips con
imágenes fijas.
Buscar el equilibrio en este
aspecto es vital, ya que por supuesto, también se sacrifica la calidad de la
imagen en las partes de la película con mayores dosis de acción o movimiento.
Un aspecto a considerar entre los fundamentos del vídeo digital.
Esta es la velocidad a la que
se deben transferir los datos para que el vídeo se reproduzca sin
interrupciones. La velocidad de datos (también llamada “velocidad de bits”
o “bit rate”) para una película se mide en kilobytes por segundo (K/seg o
Kbps). Se puede calcular dividiendo el tamaño del archivo (en K) por la
duración de la película (en segundos). Por ejemplo, un fragmento de vídeo
altamente comprimido de 1900K (1.9 MB) y 40 segundos de duración tiene una
velocidad de datos de 47.5K/seg.
Para los medios de transmisión en
particular, la velocidad de datos de un archivo pueder ser más importante
que su tamaño total. Esto se debe al hecho de que el ancho de banda
disponible para la entrega puede ser limitado, particularmente a través de una
conexión de acceso telefónico o inalámbrica.
El vídeo digital no sería posible
sin métodos para comprimir la gran cantidad de datos necesarios para
describir el sonido y las imágenes con sus sucesivos cuadros. Los archivos
de vídeo se pueden comprimir de varias maneras. Comprender estas opciones
conlleva tomar mejores decisiones para optimizar los archivos de vídeo. Por
supuesto cuanto mayor sea la velocidad de bits de un vídeo, mayor será su
calidad.
La compresión puede ser “sin
pérdida”, lo que significa que la imagen no pierde información y el archivo
final renderizado es idéntico al original. Algo importante en los fundamentos
del vídeo digital.
La mayoría de los esquemas de
compresión usan formas de compresión con pérdida. La pérdida de compresión
sacrifica algunos datos del archivo para lograr tasas de compresión mucho más
altas.
Los esquemas de compresión con
pérdida, como MPEG, usan algoritmos complicados que manejan y filtran datos
para el sonido y los detalles de la imagen, y que no son discernibles para el
oído o el ojo humano. El archivo descomprimido tiene un carácter extremadamente
similar al original, pero no es idéntico. Esto es similar a la forma en que
JPEG maneja las imágenes fijas.
El el proceso de compresión de
vídeo hay que diferenciar otros dos conceptos importantes:
- La compresión espacial (o intra-frame) tiene lugar
en cada fotograma individual del vídeo, comprimiendo la información del
píxel como si fuera una imagen fija.
- La compresión temporal (o inter-frame) ocurre en
una serie de cuadros o marcos, y aprovecha las áreas de la imagen que
permanecen sin cambios de cuadro a cuadro, arrojando datos para píxeles repetidos.
Esta compresión temporal se basa
en la colocación de fotogramas clave intercalados en toda la secuencia de
fotogramas. Y estos cuadros clave se usan como maestros, contra los cuales se
comparan los siguientes cuadros (llamados cuadros delta). Se recomienda colocar
un cuadro clave una vez por segundo; por lo tanto, si tiene una velocidad de
fotogramas de 15 fps, la frecuencia de fotogramas clave se configura una vez
cada 15 fotogramas.
Los vídeos sin mucho movimiento,
como los primeros planos comentados anteriormente, aprovechan al máximo la
compresión temporal. Mientras que de nuevo, los vídeos con mucha acción o
movimientos, se comprimen de manera menos eficiente. Esto es algo muy a tener
en cuenta a la hora de planificar por ejemplo vídeos de producto y otros de carácter comercial.
Existen variedad de códecs
(algoritmos de compresión/descompresión) que se pueden usar para comprimir
archivos de vídeo y obtener diferentes resultados, incluyendo los
destinados a su visualización en la Web. Muchos de estos códecs se pueden
aplicar a varios formatos de archivo diferentes.
La información sobre cada cuadro
individual se reduce al almacenar solo las diferencias entre un cuadro y el
siguiente. Debido a que la mayoría de los vídeos cambian poco de un cuadro
a otro, los códecs permiten altas tasas de compresión, lo que da como resultado
tamaños de archivo más pequeños.
Los paquetes de software de
edición de vídeo, ofrecen a menudo entre sus características una larga lista de
códecs, que suelen disponer entre las opciones de determinados módulos o listas
de compresores. Aquí nos enfocamos en aquellos que son más relevantes para
vídeos destinados a la entrega en la web.
Algunos códecs más comunes y
mejor reputados por su relación de compresión y calidad a lo largo del tiempo
son H.264 (también conocido como MPEG-4/AVC, el estándar), On2 VP6 (no tan
bueno), y Sorenson Media Spark H.263. Como referencia, comentar que la
compresión H.264 suele ser de 4 a 1 (4>1), ¿una reducción considerable
verdad?.
Los archivos de vídeo maestros
creados con equipos de captura o producción de vídeo como cámaras digitales
para su posterior edición, a menudo son demasiado grandes. Si no están en el
formato adecuado para enviarlos a canales online u otros destinos, deberán
sufrir una transformación:
- La codificación de un archivo de vídeo o
audio va desde un formato sin comprimir (por ejemplo, WAV), a un formato
de flujo de bits codificado con pérdida (por ejemplo, MP4).
- La transcodificación de un archivo va de un
formato con pérdida a otro también con pérdida, pero con un algoritmo
diferente (por ejemplo, de formato FLV a MP4). También puede tener el
mismo formato, pero diferente resolución, velocidad de bits, etc…
Para convertir el vídeo digital
al formato y especificaciones adecuados para la reproducción en diferentes
pantallas, los archivos de vídeo pueden estar codificados o transcodificados.
Tanto en el proceso de codificación como en el de transcodificación, el
objetivo es comprimir el vídeo para lograr un tamaño y peso de archivo más
eficiente, normalmente óptimo para la entrega en la web y en dispositivos
móviles.
Similar a un archivo ZIP, un formato de archivo de vídeo determina cómo otros archivos y códecs están contenidos en el archivo padre. Se trata de un archivo de contenedor, elemento imprescindible a tener en cuenta entre los fundamentos del vídeo digital.
Un archivo de vídeo contenedor generalmente contiene varias pistas, una pista
de vídeo (sin audio) y una o más pistas de audio (sin vídeo), que están
interrelacionadas y sincronizadas.
El formato de archivo de vídeo
determina cómo se organizan estas diferentes pistas de datos y metadatos.
Algunos ejemplos de formatos de archivos de vídeo son MPEG, MOV, MXF, WMV y
AVI.
Volvemos al desempeño del codec,
y es que el formato de archivo solo no ayuda a determinar cómo se entrega o
codifica el vídeo. El códec de vídeo es el que describe el algoritmo por el
cual un vídeo está codificado.
Aquí entra en juego el
software reproductor de vídeo, que decodifica el vídeo interpretando su códec,
y luego muestra una serie de imágenes o marcos en la pantalla. Tal y como
comentamos anteriormente, los códecs minimizan la cantidad de información que
requieren los archivos de vídeo para ser almacenados, facilitando la tarea de
carga del reproductor.
Conocer los fundamentos del vídeo
digital es importante para establecer un planteamiento antes de realizar
cualquier proyecto audiovisual. Gracias a ello podremos definir mejor los
ingredientes que necesitamos para facilitar la grabación, edición y
postproducción de las imágenes.
Desde luego, no es lo mismo crear
un vídeo de un sujeto estático con un fondo de color plano, que hacerlo con el
mismo sujeto en movimiento y efectos de luz o degradados. La dificultad y
calidad necesaria para mantener la calidad y el detalle en todos los fotogramas
será muy diferente.
El tratamiento óptimo de las
imágenes de vídeo para obtener el mejor resultado dentro de un ámbito
profesional, requiere disponer de conocimientos, práctica y variedad de
recursos de hardware y software.
5 programas de edición de vídeo