Tema 4 - Grabación y Edición de Vídeo. Formatos PDF

Summary

This document is about video recording and editing, with an introduction to the differences between analog and digital signals and how the process of digitalizing video signals works. It highlights the key roles played by the analog-to-digital converter (ADC) and digital-to-analog converter (DAC) in this transformation.

Full Transcript

T.-4-MAVIS.pdf veronica_rdrgz Tecnología de los Medios Audiovisuales 2º Grado en Publicidad y Relaciones Públicas Facultad de Comunicación Universidad de Sevilla Reservados todos los derechos. No se permite la exp...

T.-4-MAVIS.pdf veronica_rdrgz Tecnología de los Medios Audiovisuales 2º Grado en Publicidad y Relaciones Públicas Facultad de Comunicación Universidad de Sevilla Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10255438 T. 4 Grabación y edición de vídeo. Formatos 1. SEÑALES ANALÓGICAS Y DIGITALES El sensor de imagen (CCD o CMOS), que es el verdadero transductor óptico-eléctrico de la cámara de vídeo, convierte la luz (la imagen que capta el objetivo) en electricidad (señal vídeo). Esa señal vídeo es analógica, sus valores eléctricos varían según la luz (cuantos más fotones llegan al sensor, más electrones salen del sensor), es decir, existe analogía (proporcionalidad) entre la cantidad de luz y el valor eléctrico de la señal. En sus inicios, la TV y el vídeo eran analógicos. En los años 90 se produce un avance que cambia el mundo de los medios audiovisuales → digitalización de señales. Con la digitalización, la señal de vídeo analógica que nos proporciona el sensor se convierte en un flujo de bits. Así pues, para poder digitalizar previamente tenemos que obtener una señal analógica Es aquella cuyas variaciones guardan analogía (proporcionalidad, similitud) con lo que se verifica en la naturaleza. Señal analógica Una señal analógica es una señal continua, lo que significa que podemos conocer su valor en cualquier instante del tiempo. Es una señal discreta, es decir, conocemos su valor en instantes de tiempo discretos, entre un instante y el siguiente no conocemos su valor. La principal ventaja de la información binaria es que solo presenta dos estados → 0 ó 1 Señal digital (el 0 corresponde a baja tensión eléctrica y el 1 corresponde a alta tensión eléctrica). Se expresa como una sucesión de ceros y unos (código binario). Cero = ausencia de impulso eléctrico Uno = impulso eléctrico 1.1 De analógico a digital Una cámara de vídeo analógica y una cámara de vídeo digital presentan muchas similitudes tecnológicas: óptica, división en colores primarios, sensores (que son analógicos). Lo que las diferencia es la conversión a código binario de la señal que proporciona el sensor. Mediante la digitalización convertimos la señal vídeo original en una aproximación a ella codificada en código binario, o sea, expresada en bits. Esta transformación se realiza en un conversor analógico-digital (ADC) → Codificar. El conversor ADC es un procesador muy rápido que convierte (codifica) la señal analógica en una señal digital (flujo digital de datos binarios) para poder ser almacenada o transmitida. Para poder ver esa información en un monitor o televisor previamente hay que convertir la señal digital de nuevo a señal analógica en un conversor digital-analógico (DAC) → Decodificar. Este proceso de digitalización genera una gran cantidad de datos. Esta gran cantidad de bits obliga a reducir la información para tener un flujo de datos manejable La digitalización de una señal analógica requiere de 2 operaciones fundamentales → Muestreo y cuantificación. Posteriormente, dada la cantidad ingente de datos resultado de estas dos operaciones es necesario comprimir y codificar los bits obtenidos. Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10255438 1.2 Muestreo (sampling) El proceso de muestreo consiste en tomar muestras a intervalos regulares de tiempo de los valores de la señal analógica. Cada una de estas muestras son las que luego convertiremos a números (0 y 1). si hay pocas muestras (frecuencia demasiado baja) → no son capaces de representar la señal. si hay demasiadas muestras (frecuencia demasiado alta) → resultan redundantes. Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. Posteriormente, en un convertidor DAC la señal puede recuperarse completamente a partir de las muestras. Frecuencia de muestreo o tasa de muestreo (sampling rate) ↳ número de muestras que tomo por segundo. ↳ cuanto mayor sea la cantidad de muestras que tengamos de la señal analógica, mejor podremos reconstruirla. 1.3 Cuantificación La cuantificación es el proceso de expresar todas y cada una de las muestras en código binario. Se preestablecen una serie de niveles de cuantificación y a cada uno se le da un valor en código binario. El procesador ADC trabaja a una velocidad increíble para ver qué nivel toma cada una de las muestras. Cuando una muestra se encuadra en un nivel, se le asigna el valor binario correspondiente. El número de niveles de cuantificación que se pueden establecer es una característica de los distintos formatos de vídeo. El estándar para cada muestra que tomamos es que se definan en 8 bits, con un máximo de 256 niveles de cuantificación (gama de grises). Cuantos más grises distintos, mejor. Cuanto mayor es el número de bits por muestra, mayor es el número de niveles de cuantificación preestablecidos posibles, mayor es el tamaño del archivo resultante y más calidad tiene la imagen digital. La frecuencia de muestreo y número de bits de cada muestra (cuantificación) son las dos características fundamentales del vídeo y el audio digital. Sabiendo el número de bits por muestra podemos calcular el número de niveles de cuantificación posibles con la sencilla fórmula 2ⁿ, siendo n = número de bits por muestra. ejemplo → si cada muestra se compone de 1 bit, podemos establecer dos niveles de cuantificación distintos: nivel 0 y nivel 1 y, por tanto, cada muestra puede tomar uno de esos dos valores, ninguno más / Un formato en que cada muestra tiene 2 bits permite establecer 4 niveles: 00, 01, 10, 11. 1.4 Codificación Entendemos codificar como agrupar los bits según unas normas o códigos. Los codificadores utilizan un determinado patrón, una determinada manera preestablecida de organizar los datos binarios. Dada la ingente cantidad de datos que genera la digitalización lo usual es comprimir (reducir) los datos. Los datos binarios se someten a un proceso de codificación y decodificación (códec). Los codificamos para almacenarlos o transmitirlos y los decodificamos (descomprimir e interpretar los datos) para reproducirlos. Los datos de vídeo organizados según un determinado códec tienen que ser reproducidos en el dispositivo de visionado con el mismo códec. Las descargas sin publicidad se realizan con las coins a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10255438 Hay una gran variedad de códecs, no hay un único códec adecuado para todas las situaciones. ejemplo → un códec para comprimir imágenes de vídeo sobre las que vamos a realizar efectos digitales en postproducción para un spot publicitario no suele ser el más adecuado para comprimir vídeos que vamos a colgar en nuestro blog de internet. 1.5 Compresión Los datos obtenidos del muestreo y la cuantificación se convierten en una ingente cantidad de datos digitales, por lo que, si los almacenamos, conformarían un archivo de gran tamaño. Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. Para transmitirlos y reproducirlos, dada la gran velocidad de bits requerida → bits rate (bitrate): bits por segundos que tenemos que transmitir, almacenar… por los archivos de vídeo, necesitaríamos una conexión a internet muy rápida. Comprimir (reducir) esos datos es, por tanto, esencial para reducir el tamaño del archivo de vídeo y disminuir la velocidad de bits necesaria. Para procesar, almacenar o transmitir esta excesiva información hay que comprimirla eliminando la redundancia de los datos, de tal manera que los dígitos binarios no se codifican tal y como salen de la cuantificación, sino que se comprimen para reducir peso y flujo de datos o bitrate. Así surgen distintas soluciones técnicas que buscan reducir la cantidad de datos: ↳ lossless → compresión sin pérdida de datos donde no hay una pérdida de la calidad de la imagen a pesar de la reducción de datos. ↳ lossy → compresión con pérdida de información donde se descarta información y se reduce el número de bits, lo que implica una cierta pérdida de calidad, aunque en muchos casos sigue siendo una imagen de alta calidad. Para la compresión de la información en vídeo se recurre a la eliminación de la información redundante (datos que son repetitivos o predecibles) y a las cualidades de la percepción visual humana. Hay algoritmos que comprimen la información de vídeo usando dos caminos fundamentalmente: compresión intra-frame y compresión inter-frame Intra-frame → se aplica sobre un fotograma independientemente de los fotogramas que le rodean. En un frame eliminamos la información relativa a algunos píxeles que tienen la misma información que píxeles vecinos o información muy similar que el ojo humano no puede diferenciar. Inter-frame → se aplica sobre un grupo de frames sucesivos o GOP (Group Of Pictures) eliminando la información que se repite en varios de ellos (elimina pues la redundancia temporal). Compara un grupo de frames, reduce información a partir de las similitudes entre dichos frames, y se envía y/o almacena la información que cambia de un frame a otro. 2. FORMATOS DE VÍDEO DIGITAL (pregunta examen) Para valorar las características de un formato digital de vídeo debemos considerar cinco conceptos fundamentales: Definición o Resolución (Resolution) Muestreo de color (Color sampling) Profundidad de color (Color Depth o Bitdepth) Velocidad de fotogramas o Frecuencia de imágenes (Framerate) Compresión (Compression) Los diferentes formatos se basan en la manera en que gestionan estos parámetros básicos del vídeo digital y en cómo comprimen la información. Un mismo formato puede ofrecer distintos valores en alguno de estos parámetros (lo más usual es que ofrezca distintas resoluciones y frecuencia de imágenes). Las descargas sin publicidad se realizan con las coins a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10255438 2.1 Definición/Resolución (Resolution) Resolución → número de píxeles que tiene la imagen Horizontal: nº de píxeles por línea. Vertical: nº de líneas horizontales. Resolución estándar alta definición (HD) 1920 x 1080. Cuantos más píxeles tenga la imagen, más resolución tendrá y con más nitidez veremos la imagen, pero más peso tendrá el archivo digital. La manera usual de expresar la definición de una imagen en vídeo es: ↳ Nº de píxel por línea (resolución horizontal) x Nº de líneas (resolución vertical) / frames por segundo. ejemplo → 1920 x 1080/25 = 1920 píxel por línea; 1080 líneas con exploración entrelazada; 25 frames/segundo Atendiendo a la definición/resolución existen varios estándares en televisión: SD (Standard Definition) digital HD (High Definition) 4K o UHD (Ultra Alta Definición) ↳ PAL (720x576) ↳ HD Ready (1280x720) ↳ 3840x2160 6k 8k ↳ NTSC (720x480) ↳ Full HD (1920x1080) ↳ 4096x2160 2.2 Muestreo de color (Color sampling) Para que la TV analógica en color y la TV en blanco y negro fueran compatibles, y para optimizar el espacio radioeléctrico, se recurrió a la codificación de la señal RGB en dos señales: Luminancia (Y) → información de la intensidad de luz, toda la información en blanco y negro. Crominancia (C) → información del color. Estas señales Y y C llegan a un televisor donde se decodifican para obtener una señal RGB que permite estimular cada celda de color (o subpíxel) R, G y B por separado y obtener (síntesis aditiva) un píxel a “todo color”. En vídeo digital también se codifica en Luminancia y Crominancia. La información de luminancia SIEMPRE debe estar completa, pero la de crominancia se minimiza para reducir información y peso. Esto puede hacerse sin ser perceptible para el ojo humano. A esto se le denomina muestreo de color. La información de crominancia consta de dos componentes de color que se denominan CB (azul) y CR (rojo). El muestreo de color se expresa: Y:CB:CR (nº de muestras de luminancia : nº de muestras de CB : nºmuestras de CR) Muestreo 4:4:4 (muestreo completo) → se muestrea y digitaliza toda la información de Y, CB y CR para cada uno de los píxeles, es sinónimo de RGB. Muestreo 4:2:2 → por cada 4 muestras de Y se obtienen 2 de CB y 2 de CR. Es el tipo de muestreo de color que se utiliza en televisión y significa la mitad de información de color que de luminancia (no presenta pérdidas aparentes de calidad). Muestreo 4:2:0 → se obtienen en una fila de píxeles: 4 muestras de Y, 2 de CB, 0 de CR, en la siguiente fila de píxeles: 4 muestras de Y, 0 de CB, 2 de CR. La proporción es de ¼ de información de color en relación a la información de luminancia (hay pérdida de la calidad de color). Muestreo 4:0:0 → equivale al B & N. Resumiendo (a grosso modo): Los formatos con muestreo 4:4:4 tienen toda la información de color. Son los que utiliza el cine digital de calidad. Los formatos 4:2:2 proporcionan la mitad de información de color que los 4:4:4 y los formatos 4:2:0 un cuarto de información de color. Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10255438 2.3 Profundidad de color (Colordepth o Bitdepth) La profundidad de color nos indica cuántos bits se utilizan para definir el color de cada píxel, por lo que se mide en número de bits. Cuantos más bits utilicemos por muestra, más niveles de cuantificación podremos establecer para digitalizar la señal de vídeo en color, más niveles o tonos distintos de cada color primario R, G, B podremos establecer y por tanto más calidad de la imagen en color. Imagen en Blanco y Negro: Si establecemos 8 bits (1 Byte) por muestra como característica del formato, tendremos 256 niveles Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. de cuantificación distintos. Por tanto, cada píxel en la pantalla podrá tomar 256 valores distintos de gris (incluidos el blanco y el negro). En conclusión, con una profundidad de color de 8 bits obtenemos una imagen en blanco y negro a partir de 256 valores distintos de gris. La imagen derecha no tiene gama de grises, se forma con píxeles blancos y negros. La profundidad de color es de 1 bits, que nos permite que una muestra tome el valor 0 o 1, ningún otro (valor de la muestra 0 = píxel blanco / valor de muestra 1 = píxel negro). La imagen izquierda tiene una profundidad de color de 8 bits y está formada con muestras que pueden tomar 256 valores distintos y, por tanto, cada píxel puede mostrar 256 niveles distintos de gris. Imagen en color: Cuantos más bits por muestra apliquemos para digitalizar la señal vídeo, mayor será el número de matices de color distintos que puede tomar cada píxel, pero también un mayor el tamaño del archivo que obtenemos. El número de bits por muestra más utilizado en la televisión en color es también de 8 bits, pero en este caso 8 bits por cada color R, G y B. Esto significa que en un píxel su celda roja puede tomar 256 valores distintos de rojo, igual en la celda azul e igual en la verde. Ese píxel puede tomar todos los matices de color que permite la mezcla aditiva de rojo, verde y azul pudiendo tomar cada uno de los colores primarios 256 niveles o gradaciones distintas. En SD y HD se utilizan 8 bits por canal, 256 niveles distintos para cada color primario. En total 24 bits (8 x 3). Otras profundidades de color utilizadas son 10 bits y 12 bits que, lógicamente, significan mayor riqueza cromática pero mucha más información. 2.4 Frecuencia o Velocidad de fotogramas (Framerate) *pregunta examen La Frecuencia o Velocidad de fotogramas es el número de imágenes por segundo. Cuanta más elevada sea la velocidad, con más suavidad se reproducen los movimientos. Pero cuantos más fotogramas, más datos y archivos más grandes. Las velocidades de fotogramas estandarizadas son: ↳ Cine: 24 fps ↳ TV: 25 ó 30 fps Barrido se refiere a cómo se forma cada uno de los frames en el monitor o televisor: Entrelazado (i) → cada frame contiene la mitad de sus líneas en el campo impar (líneas con numeración impar: 1, 3, 5…) y la otra mitad en el campo par (líneas 2, 4, 6…). El vídeo entrelazado es propio de la televisión. Progresivo (p) → se muestran todas las líneas del frame de arriba abajo. Los monitores de los ordenadores trabajan con vídeo progresivo. Las descargas sin publicidad se realizan con las coins a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10255438 2.5 Compresión Como ya vimos, dada la enorme cantidad de datos que es necesario manejar en la imagen digital, se hace necesario comprimir para reducir peso (tamaño en Byte de los archivos) y bitrate (flujo de datos medido en bits por segundo). Una secuencia promedio en vídeo HD requiere aproximadamente 155 megabits/segundo. La manera de comprimir y descomprimir los datos para que ocupen menos espacio origina los distintos códec. Cuando elegimos un códec la información se comprime según los patrones de compresión del codificador de dicho códec. Para poder abrir y reproducir ese archivo fluidamente Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. necesitamos el decodificador de ese códec, que permite descomprimir e interpretar los datos. 3. FORMATOS DIGITALES MÁS FRECUENTES 3.1 Formatos TV Para emisión y distribución por TV las normas de compresión están muy estandarizadas para facilitar el acceso de la audiencia. Todas las empresas deben trabajar con los mismos estándares definidos por organismos internacionales. Los estándares más implantados en TV digital son: SDTV y HDTV. La televisión utiliza sistemas de codificación de la familia mpeg: ↳ mpeg2 para la televisión SD ↳ mpeg4 para la televisión HD 3.2 Códecs Como vimos anteriormente, la información en vídeo con una resolución aceptable ocupa mucho espacio de almacenamiento y un flujo de datos (bitrate) muy alto. La finalidad de los códecs es comprimir la información en el momento de guardarla y descomprimirla en tiempo real para la visualización. La eficiencia en la compresión será más alta cuanto mayor sea la compresión y menor la pérdida de información relevante. Se específica por medio de una relación tipo X:1 ejemplo → compresión 5:1 significa que se reduce 5 veces el tamaño original. En general , los códecs pretenden mantener la calidad subjetiva de la imagen y el sonido con una menor cantidad de datos y hacer más eficientes los sistemas de compresión. Pero en el complejo universo de los códecs también intervienen intereses comerciales y políticos que a veces complican el flujo de trabajo con archivos de vídeo y audio digital. Códecs propietarios o cerrados → aquellos sujetos a una licencia o patente propiedad de una empresa. Códecs abiertos → aquellos que se pueden utilizar sin necesidad de pagar derechos o royalties. Son desarrollados por organismos internacionales, el más conocido es la familia de códecs mpeg. Códecs de vídeo Los que se utilizan en la grabación → comprimen la información de la imagen en “ficheros de captación o nativos“ para almacenar los datos en el dispositivo de grabación (cinta, tarjeta o disco). Los que se utilizan en la edición y postproducción → permiten ahorrar espacio y optimizar el disco duro en el ordenador de edición, facilitan los efectos en tiempo real y acortan el tiempo de renderización (tiempo que duran los procesos informáticos de la imagen). Los que se utilizan en la distribución y emisión de señales → con estos códecs obtenemos “ficheros de distribución” Las descargas sin publicidad se realizan con las coins a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10255438 3.3 Archivos contenedores Los archivos contenedores son una especie de cajón en el que guardamos vídeo, audio, subtítulos... Suelen tener una pista de vídeo, dos o más pistas de audio y un canal de metadatos (datos sobre los archivos que van dentro, por ejemplo: resolución, velocidad de frames, códecs usados, relación de aspecto, información de idiomas y subtítulos…). El audio y el vídeo van comprimidos utilizando distintos códecs, o sea, dentro de un archivo contenedor podemos encontrar distintos tipos de archivos codificados con códecs distintos. Necesitamos que el entorno de hardware y software con el que trabajamos reconozca el archivo contenedor y también los códecs que utilizan los ficheros que contiene para descomprimirlo en la reproducción. Algunos de ellos son el Quick Time (.mov), desarrollado por Apple, y el MP4 (.mp4), sistema contenedor de audio y vídeo definido dentro del estándar MPEG-4. 4. EDICIÓN DE VÍDEO Podemos definir edición como la selección, ordenación y posterior combinación de las imágenes y sonidos obtenidos durante el rodaje (además de imágenes y sonidos de archivo, gráficos, efectos especiales, rótulos…) para componer nuestro programa final. La edición se encuadra en la última fase de elaboración de un programa audiovisual, en la denominada postproducción La edición de imágenes electrónicas comienza a finales de los años 50 de forma similar al montaje de imágenes cinematográficas (corte físico y unión con adhesivo especial.) Este método tan laborioso pervive hasta principios de los años 70, cuando se instaura la edición lineal por copia (transferencia) de imágenes y sonidos. Actualmente se utiliza la edición no lineal. 4.1 Edición lineal La edición lineal era la edición característica del vídeo analógico, aunque también se utilizó con cintas de vídeo digital (está prácticamente en desuso). Trabaja directamente con las cintas de vídeo. Se basa en la copia (transferencia) de fragmentos seleccionados de audio y/o video desde el magnetoscopio lector (donde está la cinta de rodaje) al magnetoscopio grabador (donde está la cinta máster). La edición lineal obliga a montar los planos sucesivamente desde el principio hasta el final (de ahí su nombre), cualquier corrección en el orden y la duración de los planos es complicada y puede implicar comenzar de nuevo toda la edición. Hay dos modos de grabación (transferencia) en la edición lineal: Por ensamble (assembly) Por inserto (insert) 4.2 Edición no lineal La edición no lineal es la edición característica del vídeo digital, la cual comienza a implantarse en los años 90. Se captura en el disco duro de un ordenador la información de audio y vídeo. Cuando damos órdenes de edición, el ordenador no realiza ninguna copia de audio y/o video de un lugar a otro, lo que hace es mostrar de manera virtual el resultado de nuestras órdenes de edición. Es en la última fase cuando se renderizan las órdenes de edición y el resultado se exporta a un dispositivo de almacenamiento o se comparte en internet. Las ventajas de la edición no lineal son numerosas → ahorro de tiempo y coste, calidad, libertad para experimentar opciones de edición, cambiar o modificar escenas y planos con facilidad… Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. a64b0469ff35958ef4ab887a898bd50bdfbbe91a-10255438 Las fases fundamentales de la edición no lineal son: Capturar (hablamos también de importar o de “ingesta”) → transferir al disco duro del ordenador de edición el material grabado por cámara (que tenemos en cinta, disco duro, tarjeta de memoria…) y otros medias (imágenes fijas, gráficos, material de archivo, música…) susceptibles de ser utilizados en la edición. Editar → montar (ordenar, manipular, ajustar, corregir…) el material capturado y darle una línea narrativa. Exportar (“Compartir”) → pasar el montaje definitivo a un soporte para su almacenamiento y/o visionado final (DVD, disco duro externo, tarjeta, internet…). Cuando lo pasamos a cinta se suele Reservados todos los derechos. No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad. decir “volcar” en lugar de exportar. 4.3 Edición o -line La edición o ine es una edición provisional. Es una preedición con un equipo no profesional donde se hacen copias en baja calidad del material grabado (con el mismo código de tiempo) y se monta un máster en baja calidad, normalmente en un ordenador personal. Su objetivo primordial es ver la estructura del programa, los puntos de corte… sin soportar los costes de una sala de edición profesional sofisticada. Con esta se obtiene una EDL (edit list o lista de decisiones de edición). 4.4 Edición on-line La edición online es la edición definitiva. Es la edición en una sala de edición profesional, con el material grabado en buena calidad, cuyo resultado es el máster definitivo. Si previamente hemos confeccionado la EDL (Edit Decision List) en la edición o -line, ahorramos tiempo y dinero porque ya hemos fijado el orden y los puntos de entrada y salida de cada plano, y, además, conocemos sus códigos de tiempo (TC) porque son los mismos en ambas ediciones (o -line y on-line). Las descargas sin publicidad se realizan con las coins

Use Quizgecko on...
Browser
Browser