Técnicas y Registro de Postproducción - Resumen PDF
Document Details
Uploaded by TimeHonoredCornet
Tags
Summary
This document summarizes post-production techniques and video recording. It covers human vision physiology, including the composition of the human eye, resolution, and perception of depth, including factors influencing video quality like resolution, contrast, and color resolution. The document also explores concepts of spatial and temporal resolution in digital television.
Full Transcript
Técnicas y Registro de Postproducción - Resumen 1- FISIOLOGÍA DE LA VISIÓN ➤ Aspectos fisiológicos de la visión humana. Definición de la visión humana: El globo ocular (ojo), es un órgano de extensión del cerebro, de forma esférica perfecta (excepto en casos de discapacidad). Los es...
Técnicas y Registro de Postproducción - Resumen 1- FISIOLOGÍA DE LA VISIÓN ➤ Aspectos fisiológicos de la visión humana. Definición de la visión humana: El globo ocular (ojo), es un órgano de extensión del cerebro, de forma esférica perfecta (excepto en casos de discapacidad). Los estímulos luminosos que percibe el organismo, provienen de la función visual, que capta distintas formas y colores, enfoca a distintas distancias y se adapta a diferentes grados de iluminación. Mediante tener dos ojos (visión binocular), se obtiene la visión en profundidad (visión tridimensional). Las formas de los objetos se aprecian por la diferencia de iluminación en diferentes de sus sectores, esta variedad de estímulos en la visión humana, impresiona a los fotorreceptores (conos y bastones) en forma desigual, lo que permite la captación de esas diferencias. Como esta compuesto el ojo humano: - Córnea: Es la parte que está enfrente del ojo, lo protege y siempre se encuentra húmeda. Esta misma es transparente, no tiene cicatrices ni rayones, esto permite que entren los distintos rayos de luz con mayor facilidad. La córnea a diferencia de la pupila, mide 500 micrones (1 micrón = 1 milésimo de mm). De allí la extrema fragilidad de esta capa. - Esclerótica: Es lo que llamamos “lo blanco del ojo”. En la esclerótica, están los músculos externos que mueven a los ojos. Contienen fibras nerviosas (nervios ópticos). - Iris: Se encuentra entre la córnea y el cristalino. Es el circulo de color que va desde marron oscuro, pasando por varias tonalidad ya sean verdes, celestes o grises. Este, actúa como diafragma, ya que se cierra ante la presencia de mucha luz o se abre cuando es escasa o nula. También tiene participación en el sistema dióptrico del ojo (contribuye en la convergencia de rayos de luz). - Cristalino: Es una lente biconvexa, transparente e incolora. Está ubicada detrás del iris. Su diámetro es de 10mm y su espesor de 4mm. - Retina: Es el fotocaptor del ojo. Es una estructura delgada y transparente, formada por tejido nervioso. - Conos y Bastones: Los fotorreceptores en la retina están clasificados en dos grupos, denominados de acuerdo a su morfología. Los bastones son altamente fotosensibles con una función en la visión nocturna, mientras que los conos son capaces de detectar un amplio espectro de fotones y son responsables por la visión a color. Resolución Ocular: El ojo tiene la capacidad de resolver o distinguir dos objetos que están muy juntos. Hay que recordar que la materia está formada por moléculas y átomos separados, pero nosotros lo vemos como un todo continuo. Entonces, el poder de resolución o resolución ocular, es la distancia mínima a la que se pueden discriminar dos puntos. Este límite viene determinado por la longitud de onda de la fuente de iluminación, en este caso la luz visible. Fovea: La fóvea, es la zona de la retina más sensible al color y a la nitidez. Debido a esto, se ocupa de funciones como la percepción del color y de ella depende en gran medida la agudeza visual de cada Resolución del ojo: Los fotorreceptores son las células que reciben la luz, están muy juntos y son conos alargados. Cuanto más juntos están los receptores, mejor resolución tenemos y tendremos imágenes más nítidas. Tenemos unos 200 millones de receptores, de los cuales 150.000, cumplen la función de retina central, por lo tanto de estos millones, solo esa cantidad se ocupan de la “visión de alta resolución”. Nuestros ojos tienen mucha resolución en poco espacio, el resto de la retina se verá borrosa, no nitida y “pixelada”, esto lo podemos comprobar leyendo un cartel a lo lejos, pero si observamos al lado del cartel, no podremos leerlo, sabemos que está ahí, conocemos su color, pero no tendremos suficiente nitidez para leerlo, esto es automático del ojo humano. La estereopsis: La estereopsis es la capacidad que posee nuestro sistema visual a través del cual, a partir de dos imágenes ligeramente diferentes que son recibidas por cada ojo, el cerebro es capaz de recomponer una única imagen total tridimensional con una sensación real de profundidad, es decir, podemos discriminar dos puntos separados especialmente (en el sentido adelante-atrás), a un nivel superior de agudeza. También puede ser conocida como propia (solapamiento de las imágenes de cada ojo). El área fusional de Panum: El área de Panum es el espacio que comprende la zona en la que la visión binocular se da de forma natural. Este espacio está centrado en el punto de fijación de un ojo, y se extiende hasta el punto donde el otro ojo puede mantener la fusión de manera cómoda sin alteraciones. Los objetos que se sitúen fuera de esta área producirán diplopía fisiológica, por lo que se verán dobles. Lo curioso es que no somos conscientes de ver una parte nítida y una parte "desenfocada". El cerebro y una serie de movimientos involuntarios de los ojos se encargan de ello. Otro dato, es que los ojos son una extensión del cerebro y son digitales, ya que los neurotransmisores, usan un código binario: el receptor se excita o no. Con lo cual, si el cerebro recibe 1 millón de cables por cada ojo, cada cable en un instante solo puede dar una de las dos informaciones posibles (transmite o no transmite). La percepción de la profundidad: Los procesos que conlleva la visión binocular frente a la monocular son muy complejos, pero sus ventajas son muchas, como por ejemplo: Mayor amplitud del campo visual y la Estereopsis o percepción de los volúmenes, distancias y profundidades. La medición estimada de las distancias vistas por el ojo humano, no se realiza de forma absoluta, sino que se establece con relación al punto de fijación. La calidad de esta percepción mejora cuando las distancias al objeto van disminuyendo hasta cierto límite. Los colores: La visión cromática es una sensación que aparece en algunos de los organismos más evolucionados y que está a cargo de los conos. Hasta hace poco se suponía que nuestra visión era como el súper video Y/C (luminancia / crominancia). Que los conos veían los colores y los bastoncillos la luz, sin embargo hoy la teoría más aceptada (que se llama de Young-Helmholtz) o tricrómica explica los tres tipos de receptores para los colores principales: rojo, verde y azul. Es decir que nuestros ojos en la zona macular es RGB como Dios manda y en la periferia es monocromática como la TV de antes de 1980. De hecho cuando hay poca luz es muy difícil distinguir colores. Quedan detalles como los de la profundidad de color que captan nuestros ojos. No se trata de cantidad de colores sino que el ojo humano apenas puede diferenciar 10 mil colores cuando un monitor de 32 bits ofrece muchos más. La mayoría los va a ver como tonalidades grises. 2- PRINCIPALES FACTORES DE CALIDAD EN VIDEO Los principales factores que se tienen que tener en cuenta o inciden en la calidad técnica de la imagen del video y que pueden ser medidos bajo algún patrón, son la resolución o definición, la gama de contraste y la resolución del color. ➤ Resolución o Definición. La resolución mide el nivel de detalle que se puede alcanzar en la composición de la imagen. Antes, en los sistemas analógicos, esto se medía en líneas horizontales. Hoy con la tecnología, esto se mide en píxeles, específicamente millones de pixeles (megapixeles). Factor de Kell: A raíz de la aparición de la televisión digital, se observó la importancia del factor de Kell o relación de utilización, que evidencia que la exploración progresiva es mejor y preferible a la entrelazada. En 1940, cuando Ray Davis Kell se encontraba desarrollando la televisión digital, realizó investigaciones sobre la resolución subjetiva y objetiva de la imagen en la televisión. Intuyo que el telespectador, visualiza una resolución subjetiva inferior a la resolución objetiva (real). Esta relación entre subjetiva y objetiva se la conoce por factor de Kell. Este factor toma en consideración efectos psicovisuales, en donde el cerebro resuelve menos información de la que existe en realidad. El término resolución espacial, es aplicable a la fotografía, pero no en TV o video. En fotografía, la resolución espacial, depende del grano de la emulsión y es identificada en todas las direcciones (una foto homogénea). En TV debido a los barridos horizontales y verticales, existen dos resoluciones: vertical (función del número de líneas del sistema) y horizontal (función del ancho de banda del sistema). Resolución informatica: En la industria informática, a diferencia de la teledifusora, estos se apoyan en sistemas cerrados, en donde cada fabricante adapta su sistema o lo diseña de la mejor forma a sus necesidades técnico-económicas. Por esta circunstancia, se han desarrollado gran variedad de sistemas. En la tabla se muestran características básicas de diferentes tarjetas gráficas. Las cuales, las hacen ver mejor que los sistemas de televisión, por ejemplo: PAL cuenta con 400 líneas de resolución, pero como la industria informática utiliza resolución progresiva, XGA ofrece una resolución un 72,5% superior a la imagen PAL. Resoluciones en teledifusión digital: Con la aparición de la TV digital, aparecieron nuevos términos relativos a la resolución que contribuyeron a definir mejor el sistema. Así, la resolución espacial queda definida por el productos de las líneas activas por cuadro y por los píxeles activos por línea. Para una imagen de HDTV de 1080 líneas activas y 1920 píxeles por línea, la resolución espacial será de 2.073.600 píxeles. Pero si vemos esta imagen con resolución entrelazada, la resolución espacial que percibe el espectador, se tomará con un factor de Kell de 0,7, entonces veremos 1.451.520 píxeles (pierde resolución). Para una imagen HDTV de 720 líneas activas y 1280 píxeles por línea, la resolución espacial será de 921.600 píxeles. En la televisión digital también hay que tomar en cuenta la resolución temporal, la cual no existe en la fotografía ni en la informática (debido a que son sistemas con imágenes estáticas). La resolución temporal es la capacidad de resolver imágenes en movimiento, dando una sensación de un movimiento totalmente continuo. Mientras mayor sea la frecuencia de exploración de este sistema, mayor será la resolución temporal, por ejemplo: un vídeo a 25 fps tiene menos resolución temporal que uno a 60 fps. Otro concepto es la resolución dinámica, la cual es la capacidad de resolver los detalles espaciales de un objeto en movimiento, dentro de los límites de seguimiento preciso por el ojo. Exploraciones: Gracias a la TV digital, es posible enviar imágenes de exploración progresiva, la cual tiene sustanciales ventajas frente a la exploración entrelazada. Exploración Entrelazada Exploración Progresiva Tecnología utilizada en PAL Compresión más eficiente que la exploración entrelazada. Mejor resolución para determinado ancho Más facilidades de conversión bidireccional de banda de la resolución (hacia arriba o hacia abajo). Menor ancho de banda: objetos inclinados, Totalmente compatible con la nueva notable parpadeo entre líneas, más difícil de generación de visualizadores (Plasma, LCD, procesar. etc). Diseño económico de los visualizadores Más facilidades para reducir el ruido. (Televisores de Tubo). No adecuada para visualizadores nuevos Mejor resolución vertical percibida (mejor (Plasma, LCD, etc). factor Kell). Resolución dinámica vertical un 50% Parpadeo con velocidades de 24, 25 o 30 inferior a la resolución vertical progresiva. fps. Estándares de transmisión de señal digital de televisión: En DTT (Televisión Digital Terrestre), existen 3 estándares: - ATSC de Estados Unidos: Desde un principio apoyó por un TV de superior calidad a la NTSC. En la tabla se muestran características básicas de los diferentes formatos de la ATSC. En el siguiente cuadro se contemplan las resoluciones en los formatos digitales ATSC: - DVB-T de Europa: Se apostó por una TV de calidad similar al PAL capaz de difundir datos (radio o internet) y adecuada a una recepción móvil. En la siguiente tabla se muestran resoluciones de los formatos del estándar DVB y del PAL. En el siguiente cuadro se contemplan las resoluciones de los formatos digitales DVB: - ISDB-T de Japón, Brasil y Argentina: Aquí se apuesta por la difusión jerárquica (HDTV, SDTV y datos) por el mismo canal. ➤ Contraste Respuesta a la iluminación y discriminación: Debido a que las imágenes digitales se presentan como un conjunto de puntos brillantes, la capacidad del ojo de discriminar entre diferentes niveles de iluminación es una consideración importante para presentar los resultados del procesamiento de la imagen. La relación entre la intensidad de la luz que entra al ojo y su brillo percibido no es una función lineal, eso significa que a medida que la intensidad de una fuente luminosa cambia, el observador no percibirá un cambio igual en el brillo. Esta relación entre la intensidad de la iluminación y el brillo percibido es conocida como ley de weber. En el cuadro siguiente, vemos que la respuesta de la intensidad real del ojo es más logarítmica, esto quiere decir que recibiremos más rápido los cambios de intensidad luminosa en regiones más oscuras de una imagen, antes que las regiones más brillantes. Para ilustrar mejor la Ley de Weber, mostraremos dos imágenes junto con sus curvas de intensidad reales percibidas por el ojo: Hay dos fenómenos que demuestran claramente que la iluminación percibida no es una simple función de intensidad. Efecto de contraste simultáneo: Es una ilusión por la cual el brillo percibido de una región depende de la intensidad del área circundante. Los cuatro cuadrados pequeños tienen intensidades idénticas, no obstante el de la parte superior izquierda aparece más brillante que el de la inferior derecha. Esto es porque el área alrededor del cuadrado de la parte superior izquierda es más oscura que el área alrededor del cuadrado de la parte inferior derecha. El sistema visual ajusta su respuesta a la intensidad, basado en la intensidad promedio alrededor de la vista resaltada. Los cuadrados chiquitos del medio de las 4 regiones, son de la misma tonalidad de gris, pero se perciben como distintas. Efecto de bandas de Mach: Con este efecto, el sistema visual acentúa los cambios agudos de intensidad. El sistema visual tiende a sobrevalorar o infravalorar la intensidad cerca de los límites de dos regiones con intensidades diferentes. ➤ Resolución de color El ojo no es uniformemente sensible a todo el espectro visible, el siguiente cuadro muestra como el ojo promedio es mas sensible a la luz en longitudes de onda como el verde-amarillo, pero en condiciones cercanas a la oscuridad, la curva se desplaza hacia la izquierda, por lo que es mas sensible a los tonos añil-azul. Sensibilidad relativa del ojo humano a diferentes longitudes de onda: Mezcla aditiva de colores: Los colores se pueden obtener haciendo una mezcla de los tres colores primarias, rojo, verde y azul, esta mezcla se denomina aditiva. Los colores amarillo, magenta y cian se conocen como colores complementarios. ➤ Resolución de movimiento y parpadeo Vídeo entrelazado (campos) / no entrelazado El ojo humano es "tonto" y ante una sucesión rápida de imágenes tenemos la percepción de un movimiento continuo. En el cine se usan 24 imágenes, o fotogramas, por segundo. Es un formato "progresivo" Eso quiere decir que se pasa de una imagen a otra rápidamente Vemos una imagen COMPLETA y, casi de inmediato, vemos la siguiente. Las diferencias entre una imagen y otra son mínimas. Para ilustrar este concepto he elegido una sucesión de 4 fotogramas de dibujos animados porque los dibujos son también un formato progresivo y porque en animación se usa una velocidad de reproducción bastante inferior: 15 imágenes (o fotogramas) por segundo. Aún así, como se puede apreciar, las diferencias entre cuadro y cuadro son muy escasas. 3- RELACIÓN DE ASPECTO La relación de aspecto (también llamada aspect radio), es el atributo que describe la relación entre el ancho y alto de una imagen. Lo vemos expresado por 2 números (X e Y) que son separados por “:”, por ejemplo: 16:9 o 4:3, que son las relaciones más convencionales. Una imagen cuadrada tiene una relación de aspecto de 1:1 porque el ancho y el alto es el mismo aunque la resolución sea 100 x 100 o 3000 x 3000. En pantallas panorámicas convencionales se utiliza 16:9, en monitores antiguos 4:3, en monitores más modernos y amplios pueden llegar a 21:9 o 32:9. - A la hora de grabar una película, se suele tener una relación de aspecto de 16:9. - Cuando grabamos o sacamos una foto desde el teléfono, podemos elegir la relación de aspecto de este. - En caso de jugar videojuegos, podemos configurar esto también. Tipos de relación de aspecto: En los entornos multimedia, encontramos distintos tipos de relaciones de aspecto, pero hay 3 tipos principales: - De píxeles (PAR): Hace referencia a la proporción de píxeles individuales que forman una imagen, Se suelen usar píxeles cuadrados, por lo que la relación aspecto es de 1:1. - De pantalla (DAR): Es muy usada por diseñadores, editores y profesionales de todo tipo, es la proporción de las pantallas, por ejemplo: 4:3; 16:9; 21:9. - De almacenamiento (SAR): Es menos usado y se refiere a los archivos de video digital codificados. Se toma como referencia la relación de ancho y alto de frame del video. Tipos de relación de aspecto en video, fotografia, cine, instagram: Generalmente el ancho suele ser el borde largo, pero en las fotos verticales o los nuevos formatos usados en móviles actualmente han cambiado esta forma común de usarse la relación de aspecto. Por ejemplo: 4:3 quiere decir que si dividimos la altura en 3 secciones, la anchura medirá 4 veces esa sección. De hecho, esta proporción también se llama 1,33:1. Esto es debido a que si multiplicas la altura por 1,33 obtendrás la anchura (ya que esta es 1.33 veces más larga que la altura). Relación de aspecto 4:3: Es la más conocida en sus inicios, aunque no se sabe muy bien porque fue escogida por los cineastas. Fue la primera relación de aspecto globalizada por el cine. Relación de aspecto 2.35:1, 2.39:1 y 2.55:1 (cinemascope o anamórfica). Años después vino el 2.35:1, que es extremadamente usado en cine actualmente, hasta el punto en el que se ha convertido casi en un estándar. Estas resoluciones nacen por el uso de lentes anamórficas (más anchas que el resto), para destacar de los formatos comúnmente usados hasta el momento. Relación de aspecto 16:9: Esta relación se creó para combatir las proporciones 2.55:1 y 2.35:1 creadas para el cine y acabó siendo un estándar en cuanto a vídeo. Es la que usa YouTube actualmente, de hecho si en youtube se sube un video menor a esta resolución, éste agregará pilarboxes (barras negras a los laterales) o letterboxes (barras negras arriba y abajo), esto para crear la proporción antes mencionada sin recortar el video. Tipos de relación de aspecto en la fotografía: En la fotografía se usan muchos ratios de aspecto, pero estos son los más comunes: - Relación de aspecto 4:3: Es la más utilizada por cámaras compactas debido al tamaño de los sensores utilizados por las mismas. - Relación de aspecto 3:2: Es la proporción más habitual usada actualmente en la fotografía. Es la que viene dada por los sensores de las cámaras actuales, esto es para aprovechar el máximo del tamaño del sensor. Tipos de relación de aspecto en teléfonos móviles: Debido a que vivimos en una época donde todos usan más los celulares que las computadoras en general, ha cambiado la forma de ver y usar todo. Los teléfonos móviles actualmente más usados tienen una proporción de 16:9, pero como se usan normalmente de forma vertical, esta proporción se usa más cuando se trata de ver videos o hacer fotos. Pero también dependiendo de la red social que usemos, vamos a tener una relación de aspecto u otra: - Relación de aspecto de Instagram: En instagram hay diferentes relaciones de aspecto, dependiendo del tipo de contenido que vayas a subir: Historias de Instagram: Suelen ser en formato 16:). Feed de Instagram: Aquí puedes usar el formato que quieras, pero hay un límite el cual pone instagram, que es la proporción de 4:5 en formato vertical. Está diseñada así para que el usuario a la vez que ve la foto, pueda ver el nombre de usuario y los likes/comentarios). 4- Señales y conexiones de video analogicas ➤ 4.1 - Introducción En la decada del ‘40 solo existia la TV monocromatica (blanco y negro), esto significa que solo se transmitia una señal del brillo de la imagen. Tal vez hoy en día una imagen monocromática no resulte atractiva, antes esta modalidad cumplía muy bien un objetivo: darle a la imagen una definición suficiente para que el espectador pueda diferenciar dentro de la imagen, formas y tamaños de los objetos en la escena. ➤ 4.2 - Sistemas de exploración y sistemas de color Primero hay que aprender a diferenciar 2 conceptos que en la práctica se suelen tomar como iguales: - Los sistemas de exploración de imágenes de TV: Se refieren a la manera en que la imagen es barrida por el haz, la cantidad de líneas de definición, las frecuencias vertical y horizontal, entre otras características. - Los sistemas de codificacion de color de imagenes de TV: Se refieren a la manera en que se agrega la informacion del color a la imagen, hay 3 sistemas para esto: NTSC, PAL y SECAM. ➤ 4.3 - Compatibilidad y retrocompatibilidad En un momento, se hizo necesario agregarle a la señal monocromatica de luminancia (blanco y negro), la señal de crominancia (color). Para conseguir esto, se debió mantener 2 condiciones importantes: - Compatibilidad: Es la propiedad de un sistema de TV que permite la reproducción de las emisiones a color, en los receptores monocromáticos existentes. - Retrocompatibilidad o compatibilidad inversa: Es la propiedad de un sistema de TV en color que permite a los receptores de TV en colores, reproducir en blanco y negro, las emisiones de un sistema existente en blanco y negro (canales que reproducen en monocromatico). En ambos casos, las imagenes deben ser de buena calidad, por lo que la emision en color debe mantenerse dentro del canal de frecuencias previsto para blanco y negro, sin invadir canales adyacentes. ➤ 4.4 - La cámara de color La cámara a color es básicamente igual a la monocromática, pero tiene el agregado que permite discriminar entre los 3 colores primarios, separarlos y obtener señales de R, G y B (Red, Green & Blue). Esto se consigue con la inclusión de espejos especiales dentro de la cámara. La cámara así, puede permitirse captar todos los colores de la naturaleza, pero los televisores monocromáticos pre-existentes, no estaban preparados para recibir estas 3 señales, sino solo la señal Y. Pero según la colorimetría, se dedujo una ecuación fundamental en la luminancia para mostrar estos colores: Y= 0.30.R + 0.59.G + 0.11.B Como sabemos, se necesitan estas 3 señales para producir una imagen coloreada, una de ellas es Y (R, G, B), pero aún falta obtener las otras 2 señales que conformarán la señal vectorial de crominancia. Esta señal se denomina C, formada por 2 señales de diferencia de color (compuesta por la diferencia al rojo y azul, tambien simbolizadas Cr y Cb). ➤ 4.5 - Señales de video Una señal de video está conformada principalmente por 5 componentes básicos: - Color rojo (R) - Color verde (G) - Color Azul (B) - Sincronismo Horizontal (H) - Sincronismo Vertical (V) Si emitimos individualmente cada una de estas señales, se obtendrá una mejor emisión y recepción de la señal original, ya que no habrá interferencias por parte de otras señales. A medida que juntamos estas señales, habrá una pérdida o degradación en cuanto a la calidad de emisión y por lo tanto a la calidad de recepción. En función de los formatos de conexión de video que nos podemos encontrar en cualquier dispositivo, desde los de mayor calidad a la de makro calidad en cuanto a la señal de video, son los siguientes: Vamos a ver en detalle 5 de estos tipos de señales así como los conectores más típicos para la transmisión de estas señales. Los 4 seleccionados son el RGB (Y-Cr-Cb), S-Video (Y/C), Video compuesto y RF, que resultaron ser los de mayor uso en el mercado. ➤ RGBS O RGB Este tipo de señal está compuesta por la separación de sus tres componentes básicos: Rojo, Verde y Azul (Red, Green & Blue). Por otra parte tenemos la correspondiente señal de sincronismo compuesta (S), que está compuesta por los 2 pulsos necesarios de señal (sincronismo horizontal y vertical). La conexión más adecuada para este tipo de señal son los correspondientes 4 conectores de tipo BNC. Se puede observar que ahora la señal de sincronismo (S), aparece como un solo conector (“Sincronismo compuesto o Compositive Sync”). Pero aparte de esta conexión, el otro formato más extendido es el EUROCONECTOR o SCART, que también es como decir RGB. Este tipo de conexión se encuentra en casi todos los equipos de ámbito doméstico y es la mejor forma de conexión que se dispone actualmente ya que todas las señales, se obtienen de forma separada aunque sus componentes estén juntos. Este tipo de conexión se encuentra mucho en televisores. ➤ Video por componentes o Y-Cr-Cb, Y-Pr-Pb, Y-U-V o Y/Y-R/Y-B En este tipo de señal tenemos las partes de: - Señal de Luminancia (Y): Consiste en una señal de video compuesta por blanco y negro, que es la informacion del brillo. - Señal compuesta de Sincronismo (S): Que son las sincronizaciones verticales y horizontales. - Señales de color: Estas señales ya no son puras, sino que estan de forma matricial, osea que ahora tenemos varias conexiones para esta. Así, si a la señal de luminancia (Y), le quitamos la parte (Pr) Roja y por otro lado le quitamos la parte (Pb) Azul, podremos quitar parte de la señal. La forma de conexión de este tipo de señal es mediante 3 conectores BNC o también llamados Tipo RCA, que es lo más habitual. En la industria se creó el estándar de catalogar el (Pr) como color rojo, el (Pb) como azul y la Luminancia (Y) como amarilla, no verde, ya que esto puede crear la confusión haciendo creer que es una conexión RGB, cuando esto no es asi (ademas de que faltaria la señal de sincronismo). También cabe aclarar que se usan las siglas Y-Cr-Cb para denominar así a la señal digital, mientras que los otros términos son para señales analógicas, pero es frecuente encontrar ambos términos en las conexiones. aunque signifiquen lo mismo. ➤ S-Video o Y/C En este tipo de señal, por sus siglas Y/C, tenemos por separado: - Y: La informacion de Luminancia (Y) que contiene la señal en blanco y negro del video (brillo), la señal compuesta del sincronismo (S) - C: La cual es la señal compuesta de crominancia, que es la que contiene toda la información del color. La forma de conexión de este tipo de señal es mediante dos conectores BNC, Euroconector o Scart y también mediante un conector de tipo miniDin de cuatro patillas, también conocido como S-Video, que es el que aparece en la foto, siendo la más habitual en este tipo de conexiones. ➤ Video Compuesto En este tipo de señal, toda la informacion para formar la imagen (los componentes de color y los dos componentes de sincronismo) es modulada y juntada en una unica señal. Aquí se obtienen imágenes de cierta calidad, pero es una señal muy propensa a sufrir alteraciones y no es comparable con las anteriores señales. Esta modulacion de señales es la que origino en sus principios los 3 sistemas basicos de emision de color que existen: NTSC, PAL y SECAM. La forma básica de conexión es a través de un conector BNC, mediante un Euroconector o Scart y también mediante un conector tipo RCA. Este ultimo conector suele identificarse como color amarillo como en la foto. ➤ RF Antes hablábamos de señales de video, pero hasta ahora no tocamos el tema de señales de audio. Estas señales deben emitirse en todo momento de forma independiente al sistema de video y por lo tanto, se deben tratar de forma separada. Pero, el tipo de señal denominada DF, consiste en la modulación conjunta de una única señal de audio y vídeo compuesto. Este tipo de señal es la que normalmente denominamos como señal de antena o TV. Es la que peor calidad nos ofrece en cuanto a señal y cuyo conector es el que vemos en la foto: 5- Formatos de Grabación Analógicos Comenzaremos introduciendo a los sistemas de grabación de la señal de video en soporte de banda magnética. Primero dando una introducción a hitos importantes en la grabación de video, después a los formatos profesionales y en el mercado, dejando de lado aspectos físicos y matemáticos. ➤ 5.1 - Revisión Histórica 5.1.1 - Del audio al video. Los inicios de la grabación magnética de la señal del video, están muy ligados al registro de sonido sobre banda magnética. Como la señal de video se convirtió en señal eléctrica al igual que el sonido, se pensó en grabarla de la misma forma. Primero se empezó a grabar en magnetófonos adaptados: Estos requieren velocidades altas en las cintas, la cual daba problemas como el desgaste en las partes mecánicas del aparato y un gran consumo de la cinta, por lo cual los registros duraban muy poco tiempo. Para dar una idea de este problema, al momento de grabar 20 minutos de video, la cinta media varios cientos de kilómetros. Estas limitaciones hicieron que este sistema deje de ser viable y sólo se usará para la investigación. 5.1.2 - Ampex inventa el magnetoscopio Para superar las limitaciones de los magnetófonos, se propuso la idea de que las cabezas de video fueran móviles. La empresa Ampex inventa y comercializa el primer magnetoscopio, que usaba cintas de 5 cm, grababa en blanco y negro, segun el estandar NTSC. Hoy en día este sistema ya no es usado, aunque por su gran calidad fue el estándar de la industria durante varias décadas. Algunas de sus ventajas eran: - Se conseguía una imagen estable y de gran calidad. - Se podían realizar copias de las imágenes obtenidas con más fiabilidad de no perder calidad en el proceso. 5.1.3 - Cronología de la grabación de video Los formatos que siguen a continuación, no introdujeron novedades descritas, pero fueron los que más se comercializaron: 1970 Philips desarrolla el VCR, que es el primer formato doméstico que aparece en el mercado. 1971 aparece el U-Matic, que introduce el mundo profesional de la cinta cassete. 1976 JVC inventa el VHS, el formato más vendido de todos los tiempos (se estima más de 400 millones de unidades vendidas en todo el mundo). Se convirtió en un estándar mundial en ese momento para visualizar programas de entorno doméstico y múltiples aplicaciones. En 1978 Sony desarrolla el formato C, que se impuso en medios de teledifusión como estándar de alta calidad hasta la aparición de los modelos digitales. 1981 Sony presenta el formato Betacam, que posibilitó la construcción de aparatos compactos como la cámara y el equipo de grabación en una sola pieza, con un peso reducido y una buena calidad. 1986 Sony presenta el DVR-1000, el primer magnetoscopio digital. ➤ 5.2 - Formatos de vídeo 5.2.1 - Formatos domésticos Los distintos formatos domésticos que hay en el mercado se destinaban a hogares y eran principalmente para ver películas y documentales pregrabados, grabar y visiones programas emitidos en TV y como formato para las videocámaras domésticas. - Betamax: También conocido como Beta, fue inventado por Sony en el año 1975. En la actualidad este sistema ya casi desaparece debido a una mala política de Sony. - VHS (Estándar Universal): El VHS (Video Home System), fue un estándar en la industria gracias a la política de ventas de JVC. Las características básicas de este sistema son similares al formato Beta pero con la diferencia de la duración, VHS permite grabar más tiempo de audiovisual en una cinta (como un partido de fútbol). FAMILIA DEL VHS: En la evolución del VHS, vemos diferentes mejoras que ha tenido a lo largo del tiempo: - La larga duración (LP: “Long Play”), consiguiendo ahorrar dinero en comprar cintas y espacio para su almacenamiento. - Por contra de la larga duración, su calidad es menor a la Beta. - El audio es de muy baja calidad. - Otra mejora consistio en la introduccion del sistema HQ, el cual incrementa el nivel de recorte de blancos en un 20% (Esto produce una mejora en las transiciones para cintas en blanco y negro). - También se introdujo el sistema CTL, que es un contador en tiempo real. - Por último la denominación S-VHS (Super VHS), fue una mejorar calidad del sistema amplia, por lo que se puede considerar como un sistema semiprofesional. - 8mm: El formato de 8mm, nació por una propuesta de Sony, Hitachi, JVC, Philips, etc. para la estandarización del formato doméstico de video. Su nombre proviene del ancho de las cintas de este formato, 8mm. Es el último formato analógico surgido para el mercado. Se introdujo el sistema DTF (Dynamic Tracking Following), el cual graba el audio en la pista de video modulado en FM. 5.2.2 - Formatos profesionales Los formatos profesionales del mercado se diferencian de los domésticos al tener mejor calidad de imagen y sonido. Poseen características de edición, se pueden manejar con controladores o computadoras, son más fiables y están preparados para aguantar duras condiciones de trabajo de manera continua. Estos formatos se pueden clasificar en: - Industrial: Este formato engloba las aplicaciones del vídeo profesional como la educación, reportajes, comerciales y promocionales, anuncios, películas o documentales, etc. - Broadcast: En esta categoría se encuentran los equipos que por su alta calidad son usados por lo distintos teledifusores para la emisión en antena de un programa. Estos poseen mayor calidad y un precio muy elevado. 5.2.2.1 - Formatos de tipo “INDUSTRIAL”: U-MATIC, SVHS y Hi8 U-MATIC: Lo introdujo Sony a principios de los ‘70. Comúnmente se presenta en cassette. Este formato introdujo este sistema al mundo profesional, dejando atrás el sistema de cinta con bobina abierta. Hasta la fecha se han comercializado 3 versiones diferentes: - LB (low band) - HB (high band) - SP (superior performance) Los dos primeros se pueden considerar de categoría industrial y el último broadcast, aunque su calidad no es muy alta. El gran tamaño de las cintas de este formato y su corta duración, ha imposibilitado la creación de camascopios en este formato (cámara portátil para registro de vídeo). Esto ha reducido su uso en la actualidad de manera drástica. S-VHS: Incorpora nuevas mejoras al sistema VHS, convirtiéndolo en un formato industrial con alta implementación en el mercado. Entre sus principales diferencias con el formato viejo, presenta un mayor ancho de banda (mejor resolución), que ahora la luminancia y crominancia tienen dos canales diferentes y no uno solo (S). También mejora sustancialmente el sistema auditivo (audio hi-fi). Hi8: En este sistemas las mejoras de calidad son similares al S-VHS, pero entre otras ventajas, tiene cintas de menor tamaño e incorporan un código de tiempo en una zona del video. 5.2.2.2 - Formatos de tipo “BROADCAST” de cinta abierta tipo B y C Estos formatos graban una señal de video compuesto (una única señal de crominancia y luminancia), pero consiguen mejorar la calidad a diferencia de los formatos viejos. Hay dos formatos de este tipo, el “B” y el “C”, ambos con una cinta de una pulgada en carretes de bobina abierta. FORMATO B: Este formato tiene como principal característica que era segmentado, osea que grababa el video en pistas diferentes. Por ello se hacía muy complicado frenar la grabación para pausarla, eso provocó que en la actualidad este formato se encuentre casi abandonado. FORMATO C: A diferencia del formato B, no fragmenta la imagen de vídeos, por ello permite la parada del mismo. Gracias a su alta calidad de grabación, es uno de los formatos más usados en las TV de todo el mundo. Como contra, presenta un volumen muy grande, cintas voluminosas y de muy difícil manipulación, con una duración máxima de una hora y media. Este sistema es de tipo Broadcast y posee una gran calidad. 5.2.2.3 - Formatos de tipo “BROADCAST” de cassette: Betacam y MII Los formatos que usan este tipo de grabación son principalmente dos: El Betacam y el MII. Ambos son formatos muy parecidos en funcionamiento. El Betacam fue desarrollado por Sony mientras que el MII ha sido desarrollado por JVC y Panasonic. Estos formatos poseen una muy alta calidad de grabación y han hecho posible la fabricación de camascopios de estos formatos. Ambos sistemas en la actualidad son muy usados en todo el mundo para el periodismo. ➤ El fin de una era: Sony deja de fabricar cintas de video Betamax El 10 de noviembre de 2015, Sony anunció que dejará de producir cintas Betamax, con ello dio por acabada una era, debido a que este formato permitió a las familias por años, grabar sus programas de TV para verlos después. Fue líder en el mercado hasta que perdió contra un fuerte oponente, el VHS. ➤ La guerra con VHS Sony introdujo el Betamax al mercado en 1975, con el diseño heraldo de los dos formatos anteriores, la videograbadora de Sony y el U-Matic. Era un cartucho de plástico que alojaba una cinta de 12,65 mm de ancho y 150 m de longitud. El producto de Sony era líder en el mercado hasta que JVC lanzó el VHS. Con ello empezó una guerra entre ambos formatos, que terminó perdiendo Sony. En ello fue crucial la diferencia de tiempo de grabación que una y otra ofrecían, siendo el VHS el doble del Betamax. Y eso que Betamax ofrecía un cassette más pequeño con mayor resolución y mejor calidad de sonido. Aunque expertos señalan que Sony nunca dejó su licencia para no sacrificar ganancias de ella, a diferencia de JVS, quien autorizo a otras empresas para que utilizarán su tecnología. Así que para 1984, sólo 12 compañías fabricaban aparatos compatibles con Betamax, pero alrededor de 40 fabricantes hacían reproductores VHS. ➤ La batalla con Universal y Disney Hubo otro factor que hizo a Betamax perder la cuota en el mercado. En 1979 Universal Studios y Walt Disney Company acusaron a Sony de infringir con Betamax, derechos de autor por la copia de los programas de TV y películas. Sony terminó ganando este juicio, obteniendo así la posibilidad final de grabar contenidos con derechos de autor por siempre. La Corte Suprema de Estados Unidos, dictaminó que grabar el contenido en cassettes para el consumo privado, cumplía con el uso que permite la ley de protección a la propiedad intelectual de la época. El temor de las compañías Universal y Disney, era que grabar contenido con derechos de autor, terminará con la industria del cine, algo que se replicó con la industria musical. Betamax ganó algunas batallas pero perdió otras, aunque en todas sobrevivió. Con los años, Sony siguió lanzando aparatos compatibles con este formato e innovando en su tecnología. 6- Normas Digitales de Video El primer gran paso que apoyó decididamente la implantación de un sistema totalmente digital son los elevados acuerdos obtenidos por el CCIR en la Recomendación 601 titulada “Parámetros de codificación de la televisión digital para estudios”. Es la única norma que consiguió un estándar con la televisión pactado por casi todos los gobiernos del mundo. Esta norma, aplica solamente a estudios y equipos de producción de programas de TV. El problema de la televisión digital es el elevado Bitrate (flujo de datos) que necesita ser transmitido a tiempo real. Por lo tanto fue necesario desarrollar algoritmos que permitan reducir de manera drástica el ancho de banda requerido para la transmisión (o grabación) de una señal digital de vídeo. La ventaja de la transmisión de imágenes en TV digital es que la señal es igual a la original. Por contra, la señal a diferencia de un sistema analógico, la calidad termina siendo menor (esto es por la cantidad de procesos que dicha señal atraviesa hasta llegar al receptor). ➤ 6.1 - La norma CCIR 601 de TV Digital o norma 4:2:2 Esta norma definió los parámetros básicos del sistema de televisión digital que buscaban la mayor compatibilidad mundial. Se basa en una señal Y, Cr, Cb en el formato llamado 4:2:2 (4 muestreos Y por 2 muestreos Cr y 2 muestreos Cb), con una digitalización sobre 8 bits, con posibilidad de ampliarla a 10 bits para aplicaciones más exigentes. Obteniéndose mejor calidad y resolución. ➤ 6.2 - La norma 4:2:0 / 4:1:1 La norma 4:2:0 / 4:1:1 submuestrean las diferencias de color Cr y Cb, es decir, elimina parte de la informacion que contienen las mismas. Ambas normas poseen una calidad equivalente, aunque no son compatibles entre sí, de manera que si, por ejemplo, se intentara copiar la información grabada en 4:2:0 a 4:1:1, se perdería la información correspondiente al color debido a que la estructura de codificación del color es diferente. Por razones de mayor compatibilidad técnica con el sistema de color de la televisión analógica, el 4:2:0 se utiliza en los países donde históricamente se trabajo bajo la norma de televisión PAL y el 4:1:1 en los países con norma de televisión NTSC. A continuación un cuadro comparativo entre la norma CCIR 601 4:2:2 (PAL y NTSC) y las normas 4:2:0 / 4:1:1 ➤ 7 - La comprensión de datos El término Comprensión de datos, se refiere al proceso en el que se reduce el volumen de datos necesarios para representar una cantidad de información. Los datos son el medio por el cual se transporta la información. Se puede utilizar distintas cantidades de datos para describir la misma información. Entonces, hay datos que proporcionan información sin relevancia, a esto se lo conoce como Redundancia de datos, este es un punto clave para compresión de datos digitales. Hay 3 tipos de redundancia en la compresión digital: - Redundancia de codificación. - Redundancia entre píxeles. - Redundancia psicovisual. La compresión de datos, se consigue cuando una o varias redundancias se reducen o eliminan, porque están de sobra. Redundancia de codificación Se trata de asignarles menos bits a los niveles de gris más probables y más bits a los menos probables, así se puede conseguir una compresión de datos. Si los niveles de gris de una imagen están codificados de forma que se emplean más códigos que los estrictamente necesarios para representar cada uno de ellos, entonces se dice que la imagen tiene una redundancia de código (sobra código). Redundancia de entre píxeles La información que aporta individualmente un pixel es relativamente pequeña. La mayor parte de la contribución visual de un único píxel a una imagen es redundante. A veces se puede llegar a predecir el valor de un píxel a partir del valor de sus píxeles vecinos pero estos valores entre ellos se pueden reducir. Redundancia psicovisual Como ya vimos anteriormente, el ojo humano no tiene la misma sensibilidad a toda la información visual, hay dicha información que tiene menor importancia que otra. Se dice que esta información sobrante es psicovisualmente redundante y se puede eliminar sin que se altere la calidad de la imagen percibida. ➤ 7.1 - Compresión sin pérdidas Cuando un conjunto de datos se comprime (documento de texto, etc) se hace siempre para que la descompresión posterior, produzca el dato original exacto (sin perder la información). Si el dato descomprimido no es igual que el original, por ejemplo: un documento de texto podría tener caracteres errados. Para que los datos se comprimen se utiliza un esquema de compresión sin pérdidas. Se han creado una variedad de esquemas de compresión de imágenes sin pérdidas. Codificación de longitud variable El método más simple para la compresión de imágenes sin pérdidas consiste en reducir únicamente la redundancia de la codificación. Esta redundancia normalmente se relaciona con niveles de gris en la imagen. Este método construye un código de longitud variable asignando el código más pequeño a grises más probables. Existen varios métodos de codificación de longitud variable, pero los más usados son la codificación Huffman y la codificación aritmética. ➤ 7.2 - Compresión de imágenes con pérdidas Toda la compresión de imágenes con pérdidas significan una eliminación de datos en la imagen. Antes de comprimirla, la imagen se transforma a otra y de ahí se suprimen partes de ella. La gran ventaja de este tipo de compresión con pérdidas es que tiene un factor de compresión más alto que los esquemas de compresión sin pérdidas (osea, casi sin degradaciones visuales), el cual es de 10:1, si fuera un factor de 100:1, habrian muchas degradaciones visuales en la imagen. Codificación por truncamiento Es la forma más sencilla de compresión de una imagen con pérdidas. Funciona suprimiendo datos de la imagen como el muestreo y la reducción de resolución del brillo. En otras palabras, este método reduce de forma directa los datos para lograr que la imagen reduzca su tamaño. Codificación por transformación Esta codificación es un tipo de compresión de datos para datos "naturales" como señales de audio o imágenes fotográficas. Normalmente, la transformación conlleva una pérdida de información, resultando una copia de menor calidad que la entrada original. En la codificación por transformación, el conocimiento de la aplicación se utiliza para elegir la información a descartar para, de esa forma, disminuir su ancho de banda. La información restante se puede comprimir mediante varios métodos. Cuando se descodifica la salida, el resultado puede no ser idéntico a la entrada original, pero se espera que sea lo suficientemente parecido para los propósitos de la aplicación. (a) Imagen original. (d) Imagen reconstruida. Transformación Discreta del Coseno (DCT) Es un proceso en el que se eliminan “coeficientes senoidales”. Una DCT produce tantos coeficientes como muestras de entrada. Para poder procesar imágenes, se llevan a cabo transformaciones bidimensionales. En este caso, por cada frecuencia horizontal se busca todas las frecuencias verticales posible. La DCT no realiza compresión alguna en la imagen ya que hay tantos coeficientes como muestras, pero convierte los datos de entrada en una forma en la que la redundancia se pueda eliminar fácilmente. Imagen comprimida sin perder datos. ➤ 7.3 - La compresión de video La compresión de video surge de la necesidad de transmitir o grabar imágenes a través de un canal que contenga un ancho de banda aceptable. Hay muchos métodos de compresión de video, la mayoría recurren a los procesos generales de compresión de datos, aprovechando la redundancia espacial de una imagen y entre imágenes sucesivas. La imagen muestra que cuando una imagen individual se comprime sin referencia a otras imágenes, el eje del tiempo no entra en el proceso de compresión, esto se denomina codificación intra (dentro) o codificación espacial. Para la compresión de imágenes individuales se crearon ciertas técnicas, como el estándar ISO (International Standards Organization), JPEG (Joint Photographic Experts Group). Se pueden obtener grandes factores de compresión teniendo en cuenta la redundancia entre imágenes sucesivas (aquí entra el eje del tiempo). Este proceso se denomina codificación inter (entre) o codificación temporal. Esta codificación permite altos factores de compresión, pero con la desventaja de que si se llega a quitar una imagen individual en la edición, entonces los datos de las siguientes imágenes pueden ser insuficientes para recrearla. El estándar ISO MPEG (Motion Pictures Experts Group) utiliza esta técnica. ➤ 7.3.1 - Codificación Intra o Espacial En la codificación intra, cada frame se comprime de manera independiente sin referencia a otros frames. Para lograr la compresión, se utilizan técnicas como la transformada de coseno discreto (DCT) y la cuantificación para reducir la información redundante y eliminar detalles que el ojo humano es menos sensible a percibir. La codificación intra es especialmente útil en situaciones donde no se dispone de frames de referencia previos, como en el caso del primer frame de una secuencia de video o en frames que representan cambios abruptos o escenas estáticas. ➤ 7.3.2 - Codificación Inter o Temporal La codificación inter es una técnica utilizada para comprimir secuencias de video al aprovechar la redundancia entre cuadros sucesivos en lugar de comprimir cada cuadro de forma independiente. Esta técnica se utiliza comúnmente para reducir el tamaño de los datos de video y, por lo tanto, la cantidad de ancho de banda requerido para transmitir o almacenar una secuencia de video. La codificación inter permite una alta compresión de video al explotar la similitud entre cuadros vecinos, lo que es especialmente efectivo en secuencias de video con movimiento continuo. Sin embargo, también hace que la decodificación sea más compleja, ya que es necesario reconstruir cada cuadro en función de los cuadros clave y los vectores de movimiento. La imagen muestra el recorrido de una imagen original, llamada imagen I o intra, la cual es enviada entre imágenes que han sido creadas usando una diferencia entre imágenes, llamada imágenes P o previstas. La imagen I requiere grandes cantidades de información, mientras que las imágenes P requieren una cantidad menor. Esto ocasiona que el flujo de transmisión de datos sea variable hasta cuando llegan a la memoria intermedia, la cual genera a su salida una transmisión de datos de forma constante. I=Imagen codificada intra D=Imagen codificada diferencialmente Uso periodico de una imagen I Una secuencia de imágenes que está constituida por una imagen I y las siguientes imágenes P hasta el comienzo de otra imagen I, se denomina grupo de imágenes GOP (Group Of Pictures). Para factores de compresión altos se utiliza un número grande de imágenes P, haciendo que las GOPs aumenten de tamaño considerablemente; sin embargo un GOP grande evita recuperar eficazmente una transmisión que ha llegado con errores. Codificación Bidireccional Cuando un objeto se mueve, este oculta lo que hay detrás de él, pero esto va cambiando a medida que se va moviendo, permitiendo observar el fondo. El revelado del fondo exige nuevos datos a ser transmitidos, ya que el área del fondo había sido ocultada anteriormente y la información no pudo ser obtenida desde una imagen previa. MPEG ayuda a minimizar este problema utilizando codificación bidireccional, la cual deja información para ser tomada de imágenes anteriores y posteriores a la imagen observada. Si el fondo ya ha sido revelado, y este será presentado en una imagen posterior, la información puede ser movida hacia atrás en el tiempo, creando parte de la imagen con anticipación. Primero se toma una imagen I y, con la ayuda de una imagen P se pueden obtener imágenes B, las cuales son llamadas también imágenes bidireccionales. ➤ 7.4 - Compresión de Video en el estándar MPEG En el año 1990, la ISO, preocupada por la necesidad de almacenar y reproducir imágenes de video digitales y su sonido correspondiente, creó un grupo de expertos que llamó MPEG. El primer trabajo que se conoció del grupo fue la norma ISO/IEC 11172, mucho más conocida como MPEG-1. El estándar MPEG además de aprovechar la redundancia espacial de una imagen JPEG, aprovecha la redundancia temporal que aparece en la codificación de imágenes animadas. La calidad del MPEG-1 era baja y no servía para otras aplicaciones, debido a esto se creó la norma ISO/IEC 13818, mucho más conocida como MPEG-2. Esta norma aumenta el flujo de transmisión de datos de 1,5 Mbits/s a 20 Mbits/s, transportando tanto imagen como sonido. Esta es la norma que se utiliza en la televisión de alta definición. ➤ 7.5 - Compresión de Video en el estándar MPEG-2 Este formato de compresión toma todas las herramientas anteriores de MPEG-1 y le añade otras. Perfiles y Niveles en MPEG-2 Para un propósito práctico, el estándar MPEG-2 es dividido en perfiles y cada perfil se subdivide en niveles. Un perfil básicamente es el grado de complejidad de la codificación, mientras que un nivel describe el tamaño de la imagen, la resolución o la velocidad de transferencia en bits usada en ese perfil. La combinación de perfiles y niveles en MPEG-2 permite a los creadores de contenido y a los fabricantes de dispositivos elegir las opciones adecuadas para sus necesidades específicas. Los perfiles y niveles aseguran la compatibilidad entre diferentes dispositivos y garantizan que el contenido codificado en MPEG-2 se pueda reproducir correctamente en una variedad de plataformas. 8- Conexiones Digitales ➤ 8.1 - Conexiones profesionales o semiprofesionales Llevar un video digital de un punto a otro es una actividad indispensable para las personas que se dedican a la producción audiovisual. La transferencia se realiza desde una cámara, un VCR, un equipo de música o un DVD externo hacia una computadora. Para ello se utilizan “buses” creados originalmente para transmitir datos. Estos 3 estándares son: USB, Firewire y SDI (Serial Digital Interface). Los dos primeros están orientados al uso doméstico y el último a nivel profesional o broadcast. La ventaja del video digital es que este puede pasar por múltiples generaciones sin que se pierda la calidad, también transformación de imágenes. Para un trabajo en post-producción de máxima calidad, necesitamos una interconexión digital entre dispositivos, para evitar la degradación de los cables, los cuales pueden estar hechos de materiales aislantes. ➤ 8.1.1 - USB (Universal Serial Bus) Existen varias versiones. - La versión 2.0 supera la velocidad de transferencia de su antecesora (la 1.1). Logra alcanzar velocidades de hasta 480 Mb/s lo que supera ampliamente a los 1.5 Mb/s de la USB 1.1. Por el momento USB le sacó ventaja a Firewire. - En 2008 llegó la versión 3.0 la cual se convirtió en el estándar del mercado actual y contiene sus subversiones como la USB 3.1 y la futura UBS 3.2. Estas dos variaciones contienen un conector de tipo C. Los USB tienen varios tipos de conectores: Los primeros que utilizaban prácticamente todos aunque hoy en día se siguen usando son los conectores Tipo A, Tipo B y Micro-B. En la tabla siguiente se pueden apreciar las características fundamentales de los tipo de USB más comunes actualmente. ➤ 8.1.2 - FIREWIRE También se lo conoce como IEEE 1394 y como i.Link. Es una interfaz diseñada por la empresa Apple para conectar periféricos a un ordenador con la idea de sustituir al bus SCSI (imagen de abajo). Permitiendo velocidades de 100, 200 y 400 Mb/s. Utiliza una arquitectura punto a punto, osea que podemos conectar una cámara a un disco duro sin necesitar de más equipo adicional. El Firewire DV-1394 permite transmitir señal a distancias de hasta 50 Km. Es ampliamente conocida ya que se utiliza para cámaras, unidades DVD, softwares como Premiere, Final Cut, entre otros. La versión i.Link fue desarrollada por SONY. Los periféricos que lo usan no reciben la alimentación eléctrica por el cable usado para la transferencia de datos, lo que obliga a tener una fuente de alimentación con su propia conexión eléctrica. El principal aporte de Firewire al mundo del video es la transferencia de audio y video sin bajar la calidad y sin pérdida de “frames” o desincronización. Lo nuevo del Firewire es que fue hecho especialmente para el mundo de la televisión, permite transmitir video digital a una distancia de hasta 50 Km, sin perder calidad. Sin embargo la conexión Firewire está limitada a los formatos DVC CAM, DVC PRO y Mini-DV. ➤ 8.1.3 - SDI (Serial Digital Interface) Hay dos métodos habituales para transferir video digital: SDI y SDTI. - SDI: “Serial Digital Interface”, es un estándar para transferir vídeo sin comprimir. La interfaz SDI ofrece una verdadera transmisión de video digital a un muestreo muy alto y sin compresión (1 a 1), pero sus costos son muy elevados y por ahora se mantiene usado por la gran industria de la televisión. Este ofrece grandes ventajas, como la gran calidad de imagen llegando a UHD (Ultra High Definition). Contiene una latencia mínima, lo que quiere decir que transmite en tiempo real. Su conexión es robusta y duradera. Tiene gran compatibilidad con los formatos. - SDTI: “Serial Data Transmission Interface” es una variante del SDI para transferir video comprimido. El estándar comenzó a perfeccionarse a partir del formato D1 en 1987. Esta conexión utiliza un cable coaxial que permite transmisiones a grandes distancias y evita la presencia de ruidos extraños en la señal de vídeo. Interfaz Eléctrico Los diversos estándares del SDI utilizan cables coaxiales tipo BNC. Es el mismo tipo de cables que utilizaban las conexiones analógicas de video. ➤ 8.2 - Conexiones de tipo hogareño Coincidiendo con la aparición de formatos como el Blu-ray y el HD-DVD, junto con el perfeccionamiento de las pantallas LCD y de plasma, la conexión de datos de la señal de vídeo llegó para quedarse en los hogares. Anteriormente con los CD-Audio y DVD-Video se utilizaban señales y conexiones analógicas. Y es que hay que tener en cuenta que hoy en dia con los nuevos formatos, los procesadores (receptor de audio/video) e incluso los dispositivos de visualización modernos como teléfonos o televisores, la señal se realiza dentro del mundo digital pero las conexiones siguen siendo analogicas, lo cual nos obliga a convertir una y otra vez la señal digital en analogica y viceversa, lo que nos obliga al uso de información comprimida, por eso ahora hablaremos de dos sistemas, el DVI y HDMI. ➤ 8.2.1 - DVI (Digital Visual Interface) A mediados de 1988, un grupo de empresas creó la DDWG (Digital Display Working Group). Viendo el avance de los monitores basados en la tecnología LCD en el mercado, sustituyendo a los monitores clásicos de tubo, la DDWG diseñó una nueva interfaz de comunicación para transmitir sin conversiones de señal molestas, la señal de video %100 digital desde la tarjeta gráfica del PC hasta el monitor. Bautizado como DVI, este sistema utiliza cuatro canales de datos para transmitir la señal. En los tres primeros se reconocen la señal del rojo, verde y azul (RGB) y los datos de sincronización vertical y horizontal y se reserva el cuarto canal para transmitir la señal del reloj. Gracias a este sistema, el ancho de banda es lo suficientemente grande para transportar los datos sin ningún tipo de compresión, en alta definición y en resoluciones informativas como él 1920x1080 HD. A pesar de que esta conexión naciera en el mundo informativo, también se empezó a usar en el ámbito audiovisual doméstico, pero había un problema, el cual era la posibilidad de crear copias digitales de programas de TV por ejemplo, algo que ningún proveedor de contenidos desea y mucho menos las grandes empresas de cine o plataformas de TV Digital. Para ello se diseño el sistema HDCP (High-Bandwidth Digital Contention Protect) el cual manda una señal a la conexión DVI pero para que nos llegue a nosotros, la señal se tiene que validar en la certificación del monitor o televisor (osea, la pantalla y el dispositivo como la PC, tienen que tener permisos para transmitir ese contenido). Si se intenta reproducir contenido protegido por HDCP en un dispositivo no autorizado o compatible, es posible que solo se muestre una pantalla con error o en blanco. ➤ 8.2.2 - HDMI (High-Definition Multimedia Interface) La conexión HDMI es una interfaz de multimedia de alta definición que se convirtió en el estándar de los actuales televisores, reproductores y restos de aparatos multimedia. Gracias a él, se puede transmitir video y audio sin compresión entre dispositivos. Existen 5 tipos de conectores HDMI, siendo los más conocidos y usados: HDMI, mini HDMI y Micro HDMI. Los 3 primeros cuentan con 19 pines donde a través de cada uno se puede transmitir diferentes datos. Incluso hasta señal de internet como si fuera un cable ethernet. La última versión del HDMI es la 1.4. Permite enviar video con mayor resolución (4K). Y señales de internet con mayores velocidades. 9 - Grabación digital de video Para poder hablar de este tema, tenemos que entender las diferencias entre varios conceptos como lo son contenedor, el esquema de compresión y un codec. Para poder entenderlo, tenemos que ver un archivo de video como una repisa llena de libros. La repisa de libros = Contenedor Así como una repisa puede contener muchos libros, este contenedor puede tener dentro muchas pistas de audio y video, los formatos más comunes de contenedores son MOV, AVI y MXF. El idioma del libro = Esquema de compresión Dentro de cada pista de audio y video, la información se representa en un idioma o formatos de compresión. Algunos de los formatos más comunes de compresión incluyen h.264, Mpeg2, DNxHD, etc. El autor del libro = Codec El codec o codificador/decodificador puede ser tanto un hardware como un software que permita entender y descifrar la señal de video o audio y la permite comprimirse, cada esquema de compresión puede ser implementado de distintas formas, lo que permite que existan distintos tipos de codecs para un mismo esquema de compresión. Para entender mejor este codec, es el caso del MPEG4, donde MPEG es un estándar de la industria para fijar ciertos parámetros de compresión específicos y que desarrolla las normas para realizar dicha codificación, pero también desarrolla un decodificador para ver y escuchar el material deseado. Los fabricantes y empresas son capaces de desarrollar la codificación tan sencilla como compleja como quieran y que esto sea decodificado por cierto decodificador específico, por lo que pueden haber muchas formas de codificar (autores) como siempre puedan ser decodificados por un mismo decodificador. Los codec de video más comunes son H.264 o AVC. Tipos de Formatos de Vídeo Los formatos de video pueden pertenecer a una o más categorías, las cuales son las siguientes: - Adquisición - Edición y post - Distribución Cada uno de esos formatos tiene un lugar y propósito específico, al igual que sus ventajas particulares, pero primero hay que analizar conceptos básicos. Tipos comunes de contenedores MOV - Archivo Quicktime de Apple El archivo.mov es un contenedor de la empresa Apple que permite almacenar múltiples pistas de audio y video, gráficos y texto, así como un código de tiempo, estas pistas pueden tener varios esquemas de compresión y distintos tipos de codecs, este formato es uno de los más utilizados en las tres categorías de tipos de formatos de video. AVI - Archivo contenedor de Microsoft Los archivos.avi son muy comunes en PC, sin embargo ya no se usa mucho en situaciones profesionales, debido a que no soporta archivos de más de 4gb, no soporta timecode ni aspectos de radio para los pixeles (quedó obsoleto). MXF - Contenedor avalado por la SMPTE Es un contenedor considerado estándar por la SMPTE (Society of Motion Picture and Television Engineers). Es muy común en la categoría de adquisición en formatos como el P2 de Panasonic o el XDCAM de Sony, casi cualquier programa de edición lo soporta y también es usado como contenedor en la categoría de distribución, tanto para TV como para cine digital. MP4 - Contenedor de MPEG-4 El formato.mp4 es ya un estándar debido a que puede contener distintos codecs, aunque casi siempre se usa el codec h.264 para este formato. Este tipo de contenedor se usa tanto para adquisición como para distribución (internet, bluray, etc), aunque ahora es muy común usarlo en la edición. Esquemas de Compresión Descomprimido En este esquema de compresion, no hay compresion y el hecho de que no la haya, no significa que sera igual en todos los casos ya que puede tener un origen diferente en bits (8, 10 o 12 bits) y una profundidad de color distinta (4:2:0, 4:2:2 o 4:4:4). Realmente se usa muy poco ya que tanto el HD como el 4K requieren cantidades enormes de almacenamiento. DV El esquema de compresión DV es uno de los más antiguos de todos, surgió para comprimir video en calidad de cinta y de ahí nació el DVCPRO HD. Estos esquemas de compresión se usaron tanto en adquisición, edición y post y entrega. HDCAM Este esquema fue desarrollado por Sony y se deriva de la compresión de Betacam, también fue usado en todas las categorías como adquisición, edición y post y entrega. MPEG-2 Es probablemente uno de los esquemas más utilizados hasta ahora, se implementó con distintos bitrates, profundidades color y resoluciones. El MPEG-2 se usa en DVD, Blu-Ray, HDV, XDCAM entre otros y se usó en adquisición, edición y post y entrega. MPEG-4 Es más moderno que el MPEG-2 y se considera antecesor del h.264. Como un esquema de compresión profesional, se implementó como parte del codec de gama alta de Sony en el HDCAM-SR. H.264 o MPEG-4 parte 10 o AVC Es el sucesor natural del MPEG-2 ya que se implemento con multiples bitrates, profundidades de color y resoluciones, se utiliza en multiples camaras, desde las DSLR de Canon hasta las XAVC. Y se usó en adquisición, edición y post y entrega. Apple ProRes Es un esquema de compresión diseñado específicamente para edición y post por Apple y se ha convertido en estándar en muchas de las fases de post-producción ya que mantiene equilibrio entre el tamaño de los archivos, la calidad y el uso del sistema, etc. Aunque se use en edición y postproducción, hay muchas cámaras y grabadores externos que permiten usarlo como formato de adquisición. Avid DNxHD Similar al Apple ProRes, pero disponible para Mac como para Windows, este es un esquema de compresión que es utilizado normalmente para la fase de edición y distribución, aunque también hay grabadores externos y algunas cámaras que permiten usarlo en la fase de adquisición. ¿Y qué hay de HDCAM-SR, XAVC, AVCHD, AVCCAM, XDCAM, AVC-Intra, etc? Básicamente estos son nombres comerciales para identificar un conjunto de elementos como media de grabación, codec ajustado para una determinada compresión, bitrate, calidad, estructura de archivos. Es decir, nombres que se les da a unos ajustes preestablecidos de formatos. MPEG-2 vs MPEG-4 vs H.264 ¿Cuáles son las diferencias? La codificación digital ha recorrido un largo camino desde 1967, con la introducción del H.120 como primer estándar de codificación digital. Pero ¿Qué es el formato de video H.264? - El formato H.264 o también conocido como MPEG-4 o AVC, es el formato más utilizado para la grabación, compresión y distribución de contenido de vídeo hoy en día. Se ha utilizado en fuentes de transmisión por internet como Netflix o YouTube y software como Adobe Flash. También lo utiliza la televisión digital HD para transmitir su señal por cable o satélite. La intención del formato H.264 era proporcionar la mejor calidad de video a una tasa de bits inferior a formatos de codificación anteriores. Todo esto, sin aumentar la complejidad del diseño o volverse demasiado costoso de implementar. También debía ser flexible para implementarse en la mayor cantidad de sistemas, todo esto lo logró con características tales como: La segmentación de tamaño de bloque variable. Predicción entre imágenes de múltiples imágenes. Admitir resoluciones de hasta 8k UHD. Por ser utilizado en el formato Blu-Ray. Cuando hablamos de redes de vídeo o vídeos de alta definición, H.264 es una opción muy atractiva. Parte 2: ¿Qué es MPEG-2 y MPEG-4? Moving Pictures Experts Group (MPEG), es el organismo responsable de los estándares utilizados en la codificación de vídeo, como los antes mencionados. ¿Qué es MPEG-2? Es el codec que se utiliza para la compresión de vídeo de transmisión digital y DVDs. Los archivos con este codec normalmente tienen la extensión.mpg,.mpeg,.m2v,.mp3, etc. También se lo conoce como H.262 y todavía se lo usa como estándar para el formato de disco. Se creó en el ‘94 para corregir errores del MPEG-1 y todavía está en uso debido a la necesidad de compatibilidad con el hardware y el software existentes. Algunas de las ventajas de este formato son: - Una calidad de video superior a la de otros formatos. - Un método muy simple de compresión de video. - La capacidad de manejar transmisiones de video por fuentes locales como cable o DVDs. ¿Qué es MPEG-4? El estándar MPEG-4 es un formato que se inició en el ‘95 y alcanzó la finalización de su desarrollo en el ‘98. Se creó específicamente para velocidades de bits muy bajas, pero actualmente permite hasta 4 Mbps. Algunas de las ventajas de este formato son: - Un gran soporte para contenido en 2D y 3D. - Un soporte para todo tipo de interactividad. - Permite codificar desde velocidades muy bajas como los 5 kbit/s hasta velocidades muy altas con un audio de muy buena calidad. - Soporte para URLs. - Una amplia cobertura de tasas de bits, calidades y servicios, aplicaciones y resoluciones. Además, este formato admite la compatibilidad con otros estándares que ya existen, como MPEG-1, MPEG-2, VRML, H-263, etc. Este formato también tuvo un muy fuerte impacto en las siguientes áreas: En la producción, programación y el archivo, permitiendo a organismos de radiodifusión, navegar con facilidad y velocidad por los archivos de vídeo. Lo cual lo vuelve muy ideal para el trabajo. ¿MP4 y MPEG-4 son lo mismo? Es muy normal confundir estos formatos (más por el nombre), pero no es el caso, ya que cada uno significa algo diferente. MP4 es un formato de almacén o contenedor, mientras que MPEG-4 es un formato o estándar de codificación de video para la compresión de datos y su futura distribución en la web y CDs, sonido de voz (videollamada y telefono) y para ser transmitido en televisión. MP4 fue desarrollado a partir del formato MOV de Apple para almacenar archivos codificados con MPEG-4. Parte 3: MPEG-2 vs MPEG-4 vs H.264 El formato MPEG-4 utiliza el algoritmo DCT, en pocas palabras, permitiendo una mayor tasa de compresión. Esta es una notable diferencia entre MPEG-2 y MPEG-4. Tanto MPEG-4 y MPEG-2 proporcionan una muy buena calidad de vídeos, la cual es superior a H.264. Sin embargo, MPEG-2 produce lo mejor cuando se trata de calidad de video. MPEG-2 tiene mayor tamaño que MPEG-4 y H.264, lo que dificulta la compatibilidad con dispositivos móviles. Por otro lado, MPEG-4 puede obtener una tasa de compresión de vídeos más alta, generando así un menor tamaño de los archivos, esto funciona en las redes sociales sin que se pierda calidad. Si se desea codificar los datos de un DVDs, es ideal usar el MPEG-2. Si se desea codificar datos digitales en línea o para dispositivos móviles, lo mejor es usar el MPEG-4. Ya para la codificación de video en discos de Blu-Ray, se recomiendo el H.264. En tanto a la compresión de video, el MPEG-2 es más fácil de usar que el MPEG-4, sin embargo el H.264 está abierto y publicado a disponibilidad de cualquier persona, como si fuera un programa de código abierto. DCP: ¿Que es un paquete de cine digital y cómo funciona? Un paquete de cine digital es el formato de entrega estándar para las proyecciones de cine en un cine digital. La mayoría de salas de cine son digitales hoy en día, las cuales requieren costosos proyectores digitales como este (DCP). Estos paquetes de cine digital fueron sustituyendo a las bobinas de película de 35mm utilizadas durante mucho tiempo en las salas de cine. Un paquete de cine digital son los archivos de audio, vídeo y metadatos (por ejemplo: subtítulos), configurados para servidores de cine. Estos servicios se conectan a proyectores digitales. Cada fotograma es una carpeta independiente en el DCP para poder mostrarlo con una calidad de imagen de alta resolución. El archivo de audio es un.WAV sin compresión para poder obtener la mayor calidad posible. Los DCP funcionan en una tasa de bits de 250 Mbps, siendo bastante rápidos, estos solamente funcionan a esa velocidad en sistemas Linux, así que los equipos de cine utilizan este sistema operativo. Un paquete de cine digital suele tener un tamaño alrededor de los 200 Gb o más. Un claro ejemplo del peso de estos paquetes es “Spider-Man No Way Home” con un peso de 500 Gb incluyendo las versiones 3D y 4K de la película Durante años, la entrega de los DCP se hacía en físico (aunque hoy en día algunos cines siguen utilizando DCPs físicos), pero la mayoría de estrenos comerciales se realizan por satélite u otros métodos digitales. El DCP físico consiste en una caja con alta resistencia que contiene un disco duro, un ladrillo de alimentación (energía) y los cables necesarios para utilizarlo. La principal ventaja de un DCP es que es realmente la única manera de que tu contenido se reproduzca en proyectores digitales en todo el mundo. Son muy seguros, puede hacer un millón de copias de un DCP pero si no tienes el codec configurado adecuadamente para tu equipo, no podrás reproducirlo (básicamente con el codec KDM, el cual permite la hora y fecha en la que se podrá reproducir dicho contenido, no permitiendo que sea filtrado). Los DCP se actualizan fácilmente, los archivos dentro de él se pueden editar sin tener que actualizar toda la producción, por ejemplo añadiendo pistas o metadatos. Los DCP son verificables, cuando se reproduce un DCP, automáticamente se ejecuta una validación que confirma el estado del mismo, por ejemplo: “está en el mismo estado en que salió del laboratorio”, esto garantiza que el contenido no sufrió modificaciones. Los DCP físicos se entregan a los directores/operadores de las salas de cine por paqueteria, una vez recibidos, se conectan por USB o eSATA al sistema de gestión de las salas de cine (TMS) o al servidor de reproducción. La posibilidad de que se produzcan daños, es la razón por las que los cine reciben hoy en día los DCP por satélite o internet. Esto también provoca que el coste y la comodidad sean más eficientes y económicos. La Coalición para la Distribución de Cine Digital (DCDC) es la que se encarga de por ejemplo: empresas como Warner Bros Y AMC. Tú también puedes hacer tu propio paquete digital, exportando tu DCP en Premiere Pro, Final Cut, DaVinci Resolve o utilizando herramientas online gratuitas. Historia de la grabación digital de video ➔ En el año 1986, Sony presenta el primer magnetoscopio que es capaz de grabar en formato digital. Con el formato D1, se podía grabar la señal de video de una televisión digital en formato 4:2:2 y se podía registrar en una cinta hasta los 90 minutos. ➔ Luego del formato D1, aparecieron otros formatos digitales similares como el D2 y D3, que realizaban grabación digital pero con una señal compuesta. ➔ Más tarde surgió el Betacam digital, que usa compresión 2:1 y que se convirtió en un estándar de la industria al ser poco voluminoso, poder configurarse como camascopio, trabajar en componentes y tener compatibilidad con el formato Betacam SP. Aspectos preliminares a considerar La manera en la que la señal de video es registrada, comprimida y más tarde enviada a nuestro sistema de edición, determina las posibilidades de la postproducción. La capacidad de extraer un buen croma o ejecutar un buen retoque de color, depende en gran medida de la calidad de la señal que estemos tratando. Cuando se trabaja en cine, el negativo (en crudo) se escanea a maxima calidad (2k o 4k) y se le da salida en formatos de imagen sin ningun tipo de perdida, con un amplio rango dinamico y un buen espacio de color, permitiendo una buena manipulacion en postproduccion para desear el aspecto adecuado del resultado final. En video no ocurre lo mismo, pues cuando se recoge imágenes al principio, siempre pasa luego por un “muestreo”, que implica algo de pérdida y luego le sigue una compresión de señal, pero esto también implica que la imagen tenga un tamaño menor. Aunque todo esto, hace que la postproducción sea menos precisa y tengamos que prestar más atención a la degradación de la imagen debido a los temas de compresión. Para mantener siempre al máximo las posibilidades de manipulación de la imagen de video digital, debemos tener en cuenta las siguientes pautas: ➔ Las imágenes de la cámara deben tener la mayor calidad posible y la mejor, con tal que nos pueda proporcionar una menor degradación de la señal. ➔ Debemos procurar que las imágenes no se degeneren en ningún momento a lo largo de la cadena de procesos que hay que hacer en postproducción. Evitar también los renders o recompresiones sobre formatos ya comprimidos. Por eso es muy importante entender y aprender a cómo funcionan los formatos de video digitales, como se registra su señal y como proporcionarle a nuestro sistema de edición. Para ello se definen los siguientes conceptos: ❖ Tipo de señal de video (RGB, Componentes, S-Video, Compuesto). ❖ Muestreo de color (4:4:4, 4:2:2, 4:2:0 y 4:1:1). ❖ Profundidad de color o BitDepth (trabajar en 8 o 10 bits). ❖ Formatos de vídeo y tipo de compresión. Muestreo de color Los diferentes formatos de video se clasifican principalmente por el tipo de muestreo de color que utilizan. Algunos de los principales formatos según su tipo de ratio de muestreo son: Chroma Sampling Formatos de video 4:4:4 HDCAM SR, imágenes RGB generadas por ordenador. 4:2:2 Betacam Digital, DVD-pro 50, DVD-pro 100 (HD) 4:1:1 DV, DVC-pro, DV CAM 4:2:0 HDV, AVCHD 3:1:1 HD CAM Normalmente las cámaras también registran un tipo de información adicional una vez que terminan de registrar, esto se hace cuando se graba mediante una cinta, tarjeta o disco duro, la cámara realiza una compresión dependiendo del formato que utilice, perdiendo información previamente registrada en el CCD (sensor). Por eso no es raro ver que en las grandes producciones, se graba directamente la señal que sale desde la cámara (para no tener compresiones innecesarias). Se conecta a la cámara un grabador y que recoge la señal directamente a un disco duro. Esto garantiza una mejor calidad pues capturamos directamente lo que registra el sensor. Color Sampling en la práctica El muestreo de color con el que trabajaremos, es algo vital para la hora de postproducir. Para esto necesitamos la maxima calidad de muestreo que pueden ser formatos de 4:4:4 o 4:2:2, ya que estos tienen mayor rango de actuacion para retoques de color o chroma keys (por ejemplo: asi se pueden borrar pantallas verdes con un mejor resultado en la silueta de los sujetos). Eligiendo el compresor adecuado Al tiempo de planificar nuestro flujo de trabajo y sabiendo que tipo de muestreo vamos a usar, hay que buscar el codec adecuado para la captura del material, intentando perder lo mínimo de calidad. Lo correspondiente sería mantener el codec correspondiente al formato en que fue grabado (osea, respetar el muestreo original). Por otro lado, capturar material en peor calidad con un formato superior, tampoco tiene sentido, pues no nos va a garantizar mayor calidad en la imagen. Solo se obtendrá un archivo de mayor tamaño, pero solo es información sin relevancia. Por el contrario, es mejor capturar el material con la mejor calidad que podamos (10 bits) y mantener renders sin compresion para luego añadir los retoques de color u otros toques en post produccion sin sufrir degradaciones innecesarias. La profundidad de color en el vídeo digital Si bien hemos dicho que con 8 bits de profundidad de color podemos obtener resultados con una calidad y definicion bastante alta para la vista humana, en video esto no es siempre asi. La mayoría de formatos de video digital generan imágenes de 8 bits, otros son capaces de llegar a 10 bits, proporcionando más rango dinámico en la imagen. Un ejemplo seria asi: Bit Depth Formatos de video 8 bits Betacam SP, DV, DVC-pro, DVC-proHD, HDCam, HDV 10 bits HDCAM SR, Betacam digital, D5, D6 Pero ¿porqué ajustar la profundidad de color a mayores bits si ya con 8 bits podemos ver bien? Esto es porque en post producción, con 10 bits obtendremos un mayor rango dinámico para hacer ajustes más precisos en los retoques, esto beneficia bastante a ese proceso. Breve historia de los formatos digitales ➔ Formatos de grabación D1: Estos formatos son para la grabación digital de video-tape, trabajando con 4:2:2, utilizando un muestreo de 8 bits. Se usaba una cinta de 19 mm en ancho y con 94 minutos de grabación en un cassette. Este sistema es ideal para estudio o postproducción por su alta amplitud de banda de crominancia. Esta generacion no tenia tantas degradaciones en la imagen, ya que no tiene compresion, ni encuadres de color. Es un equipo muy utilizado en decenas de canales de televisión en el mundo y fue fabricado por SONY. ➔ Formatos de grabación D2: Es el estándar de grabación para señales PAL o NTSC de compuesto digital. Utiliza una cinta de 19 mm y graba hasta 208 minutos en un solo cassette. Este formato no es compatible de ninguna manera con el D1. También fue fabricado por SONY. ➔ Formatos de grabación D3: Es el estándar de grabación para señales PAL o NTSC, con un muestreo de valor de 8 bits. Los cassettes tienen una duración desde 50 a 245 minutos. Utiliza señal compuesta, osea que tienen las mismas características que D2. El formato es fabricado por Panasonic. ➔ Formatos de grabación D4: Como la mayoría de formatos de grabación vienen de Japón, el número 4 no existe porque consideran a ese número de mala suerte. ➔ Formatos de grabación D5: Utiliza el mismo cassette que el D3, pero graba señales de componentes con una resolución de 10 bits. D5 goza de los beneficios de desempeño del D1, siendo conveniente para postproducción de alto nivel y estudio. También está planeado para su uso en alta definición (HD D5), creado por Panasonic. ➔ Formatos de grabación D6: Es de cinta digital, utiliza una de 19 mm y graba con alta definición a 1.88 GB/s. D6 es el único formato de grabación HD reconocido como estándar. ➔ Formatos de grabación D7: Se lo conoce también como DVCPRO, desarrollado por Panasonic, graba en un micrón (18 milésimos de un milímetro) sobre una cinta de partícula de metal. Utiliza 8 bits a 4:1:1. Alcanzó una presencia extraordinaria en el mercado. Sus equipos han sido adoptados por Televisa en México, TV Azteca y muchas otras productoras y televisoras de cable. ➔ Formatos de grabación D16: Se utilizan grabadoras D1 estándares para la imágenes digitales de película. Se utiliza para manejar imágenes Dominio (Optical Digital para películas de Quantel). DV, DVCAM, DVCPRO 2 El DV DV fue un estándar internacional para un formato de video digital creado por un grupo de compañías, entre esas estando Sony, Panasonic, Philips, etc. Es originalmente conocido como DVC (Digital Video Cassette),utiliza una cinta de metal de 6,35mm para grabar vídeo digital de gran calidad. Utiliza la misma resolución que el sistema D1, D5 o digital Betacam. DV usa lo que se llama Intraframe Compresión (ósea que cada frame depende de si mismo y no de frames anteriores o posteriores). También usa el sistema Adaptive Interfield Compression (osea que si el compresor detecta muy poca diferencia entre los frames, guardará un ahorro de proceso de bits para mejorar la calidad, en palabras simples, las imágenes con poco movimiento o más estáticas tendrán una mayor calidad. Diferencia entre DV, DVCAM y DVCPRO No hay mucha diferencia entre ellos, ya que su algoritmo básico de codificación es el mismo en los tres formatos. No hay que olvidar que el formato DV se creó para consumo y no uso profesional, usa tracks de 10 micrones de tamaño para la grabación. A diferencia del DV, el sistema profesional DVCAM de Sony, aumenta el tamaño de los tracks a 15 micrones (pierde tiempo de grabación), para mejorar la capacidad de intercambio de cintas entre otros equipos. El sistema DVC PRO de Panasonic también aumenta el tamaño del track, esta vez a 18 micrones y usa cintas de metal para aumentar su durabilidad. También añade el “cue track” de audio analógico y un track de control para mejorar la accesibilidad a cualquier tipo de edición. El Digital8 El sistema Digital8 de Sony usa la compresión DV sobre cintas de vídeo de alta definición. Graba las cintas al doble de la velocidad, reduciendo así el tiempo de grabación. Digital8 parece un esfuerzo de Sony para aprovechar la base existente de aficionados usuarios de este sistema de video 8mm. Pero comparado con otros formatos, el sistema DV es ligeramente de mejor calidad que los sistemas Betacam SP y MII en calidad de imagen. También puede realizarse copias de estos archivos y perdurar por generaciones sin perder la calidad como en Betacam SP. Aquí una tabla algo subjetiva de los mejores formatos: Grabadores digitales de disco: DDR En los últimos tiempos, han aparecido en el mercado pequeños dispositivos que contienen un disco duro y nos permiten grabar directamente desde nuestra cámara a este aparato solo con la conexión FireWire. Son los DDR. Un problema de un principiante en las cámaras, es que cuando tienen el dispositivo, quieren grabar todo y cuando la euforia baja, se dan cuenta que tienen muchas cintas miniDV de lo almacenado. Luego llega otro problema; al editar esas cintas. Al querer editar todo esto, perderemos muchísimo tiempo por la cantidad de tiempo grabado. Pero, para aquellos interesados en grabar muchas horas sin perder tiempo de transferencia en el PC, se desarrollaron estos dispositivos DDR con botones incorporados, conexiones y un disco duro interno. Los Direct to Disk Recorders suelen tener el tamaño de un bolsillo con un disco de 20 a 60GB, una conexión FireWire y algunos botones. Nos permiten almacenar (dependiendo del tipo de video) más de 3 horas de contenido. HDV El formato HDV está reemplazando al DV como estándar de video de uso doméstico-industrial. Las videocámaras HDV pueden grabar contenido hasta 1080p y transferirlas al PC vía FireWire para su edición. La TV de alta definición (HDTV) supone el mejor avance después de la TV a color. La idea de estos televisores no es nueva, lo nuevo sería la falta de generalización para emisiones HDTV. Hoy en día, la oferta en los comerciales de audio y video incluye cada vez mayor número de pantallas de todo tipo, LCD, TFT, plasmas o proyectores, totalmente compatibles con este HDV. El formato HDV Las especificaciones de este formato se fijaron en 2003 por 4 compañías: Canon, Sharp, Sony y Victor. El concepto del estándar HDV es desarrollar una videocámara doméstica que sea capaz de grabar imágenes HD en gran calidad y de forma fácil. Hay cinco características que definen a este formato, las cuales son: ➔ Las cintas utilizadas para grabar DV, se pueden usar para grabar HDV y los tiempos de grabación son también equivalentes. ➔ Se puede utilizar MPEG-2 como formato de compresión, el mismo utilizado para broadcast digital y DVD, esto permite grabaciones de gran calidad HD. Para terminar de definir el formato, tenemos dos sistemas de grabación: 720p Progresivo y 1080i entrelazado. Cada cámara que cuente con el estándar HDV puede optar por cualquier sistema. Los HDV utilizan cintas convencionales DV pro disponemos de distintos modos: ➔ 720p: 720/25p, 720/30p, 720/50p y 720/60p. ➔ 1080i: 1080/50i y 1080/60i. No todos los modos están disponibles para todas las cámaras. La relación de aspecto de cada modo es de 16:9 y la frecuencia de muestreo de 4:2:0. La cuantificación es de 8 bits. La compresión de video es MPEG-2. 10 - Una explicación de Raw, Log y Video Descomprimido Es normal confundir entre estos términos, con tantas cámaras que graban en tantos formatos en el mercado, es fácil también decir que Raw y Log parecen iguales pero la grabación en Raw es muy diferente a Log, aunque tienen aplicaciones similares. La única cámara en el mercado que puede generar contenido en Raw, Descomprimido y Log es la Alexa de Arri (Camara profesional), asi que usaremos esta cámara como ejemplo en las próximas explicaciones. ➤ 10.1 - Raw (crudo) como el sushi La cámara Red One apareció hace no muchos años e introdujo más la idea de usar Raw en el cine (lo cual no era muy común). Pero ¿Qué es Raw?, básicamente son los datos obtenidos directamente desde el sensor antes de realizar cualquier modificación o proceso a la imagen (una muestra cruda). Cada pixel en Raw contiene un solo valor, por lo que no puede ser mostrado en un monitor adecuadamente. Cuando grabamos vídeo, el monitor muestra cada píxel con su color y luz, para poder ver el Raw, primero hay que convertirlo a video (Raw no es un video). Esto se hace a través del proceso De-Bayer, que determina el color como el brillo de cada píxel de la imagen para poder verse por el monitor. Esta conversión puede tomar mucho tiempo. La ventaja mas grande de Raw, es que la informacion del video no sufrio ninguna modificacion de balance de blancos, ISO o ajustes de color, es tal cual la capta el sensor. Esto junto con un bitrate alto lo cual le da mucha calidad y nitidez a la imagen, permite una gran flexibilidad para hacer ajustes en post producción. No todas las cámaras permiten hacer este proceso tal cual, por ejemplo, La Sony F65 graba en Raw y en Video HD y la Alexa de Arri puede transmitir la información Raw a través de una conexión a un disco duro externo, mientras graba video, con esto, decimos que la Sony puede grabar Raw pero lo convierte a video mientras, pero la Arri no, deja la información Raw en crudo para post. Pero, si la imagen Raw es la información directa del sensor, eso quiere decir que está descomprimida? No realmente. ➤ 10.2 - ¿Qué tan descomprimido es? Los datos en Raw no necesariamente son descomprimidos, normalmente están comprimidos. Las cámaras Red tienen bastantes opciones de compresión. Los datos Raw se comprimen al igual que el video tradicional. Esta compresión suele tener un efecto en el producto final pero es demasiado difícil de detectar ya que estas cámaras se consideran lossless (poca o nula pérdida de calidad). La Alexa permite exportar los datos Raw descomprimidos, lo cual puede ser grabado de forma externa y esto sería lo más cercano a una señal descomprimida. ¿Pero entonces qué es realmente el video descomprimido? Como sabemos, algo descomprimido es la falta de compresión, pero en video no queda realmente claro. Como dijimos antes, el video es la derivación de los datos de Raw y normalmente al “descomprimir” Raw, se pierde algo en el camino. Los datos de Raw tienen mucha profundidad de bits (12 y 16 bits) pero el video suele tener una profundidad de bits reducida (a esto también se le reduce el color). Entonces, la salida HD-SDI de la Alexa Arri. Esta cámara puede transmitir video descomprimido por esa salida a 10-bit 4:2:2, pero puede grabar de forma interna 12-bit 4:4:4, pero cuando tiene que pasar por el HD-SDI, solo pasan los 10-bit, no 12, así que esta salida solo limita la profundidad de bits. ➤ 10.3 - ¿Pero si Raw es Raw y video es video, que es la grabación Log? Las nuevas cámaras de Sony, Canon y Arri, permiten la grabación Log. Cuando estos modos Log son activados, la imagen se vuelve plana y encerrada, pero la puedes ver en un monitor. Esto quiere decir que la grabación Log es una grabación de video en el sentido de que en un monitor puedes ver la información del color y del brillo. Pero Log no es Raw, es video. (Rec709 Video es un LUT hecho en post para ver el video de forma “normal”) La idea del Log fue tomada por Sony, Canon y Arri previamente usada por Cineon de Kodak y la aplicaron a sus sensores. Aquí se logra mapear una curva de gamma para lograr tomar la mayor cantidad de información de sus sensores. Sony le llama a su mapeo S-Log, Canon le llama Canon-Log y Arri LogC. Cada una diseñada para tales cámaras pero con resultados similares. Debido a que Log es una imagen de video, manipular luego de ser grabada, su ISO y balance de blancos, no es posible ya que se incrustaron en el formato. Cuando vemos una imagen Log en el monitor, es muy gris y sin vida, plana, pero para verla adecuadamente pasamos por un proceso llamado Lookup Table (LUT). Un LUT convierte el video Log a un video estándar HD (Rec. 709). Con un video Log, se puede tener mucha flexibilidad para su postproducción de colorimetría. Se pueden aplicar muchos tipos de LUTs que modifican el aspecto final del video, cambiando sus tonos, colores, luces, contrastes, etc. En otras aplicaciones más cotidianas, podríamos poner como si los LUTs fueran los “filtros” para que se vea mas bonito todo. La Alexa tiene la ventaja de poder aplicar el LUT mientras se graba para la visualización. Ejemplos de vídeos Log y aplicandoles un LUT: ➤ 10.4 - Conclusiones ¿Grabar en Log es como grabar en Raw? La respuesta sigue siendo un sí y un no. Log está en un formato de video y Raw no es video. Los datos de Raw no tienen ningún proceso y tienen que ser convertidos a video para poder verlos. Log es video y tiene factores como el balance de blancos o ISO fijos. Son muy diferentes entre sí pero ambos han sido creados para obtener la mayor información del sensor. Ambos pueden ser descomprimidos, pero eso depende del dispositivo con el que