Edición Digital I: Formatos Multimedia PDF

Summary

Este documento proporciona información básica sobre conceptos relacionados con la edición digital y los formatos multimedia, así como sobre los fundamentos de los ordenadores y la planificación de proyectos relacionados con ellos.

Full Transcript

EDICIÓN DIGITAL I: FORMATOS MULTIMEDIA 1. QUÉ ES MULTIMEDIA Multimedia: cualquier combinación de texto, gráficos, video, audio y animación en un formato distribuible con el que los consumidores pueden interactuar en un dispositivo digital. Se consideraría un súper medio al consolidar productos p...

EDICIÓN DIGITAL I: FORMATOS MULTIMEDIA 1. QUÉ ES MULTIMEDIA Multimedia: cualquier combinación de texto, gráficos, video, audio y animación en un formato distribuible con el que los consumidores pueden interactuar en un dispositivo digital. Se consideraría un súper medio al consolidar productos previamente discretos y no combinables de la comunicación humana en un único canal reunido de expresión y entrega. Medios de comunicación social: herramientas basadas en la web que permiten la comunicación interpersonal, grupal y masiva mediada por computadora (blogs, compartición de contenido, marcadores sociales, redes sociales). → Viejos medios: libros, periódicos, revistas, películas, radio, grabaciones, televisión. → Medios modernos: libros electrónicos, periódicos online, revistas web, blogs, música descargada, películas y series en streaming, Internet radio, Smart TV. Tres características de los viejos medios (Charles Wright - 1950s), los medios de comunicación de masas: 1. Son producto de grandes organizaciones que operan con grandes gastos 2. Están dirigidos a un público relativamente grande, heterogéneo y anónimo. 3. Se transmiten públicamente y se ajustan para llegar a la mayoría de la audiencia. Cinco principios de los nuevos medios (Lev Manovich - 2001), formas en las que se codifica la información: 1. Representación numérica: los programas de diseño utilizan algoritmos matemáticos para crear efectos visuales. 2. Modularidad estructural: cada elemento reside en su propia capa editable independientemente de las demás. 3. Automatización: resultado de la codificación numérica de los medios y la estructura modular de sus objetos 4. Variabilidad: permite guardar el documento en otros muchos formatos. 5. Transcodificación cultural: influencia bidireccional de los ordenadores y la cultura humana de uno sobre el otro. 2. EL ORDENADOR La calculadora e integradora numérica electrónica de 1956 pesaba 30 toneladas, usaba más de 17 000 tubos de vacío y ocupaba más de 167 metros cuadrados. El microordenador Altair 8800 de Micro Instrumentation and Telemetry Systems (MITS) fue lanzado en 1975, el primer lenguaje de programación fue Altair BASIC (Bill Gates y Paul Allen, Micro- Soft). El concepto de Dynabook fue creado por Alan Kay. El Alto fue la primera computadora de escritorio en utilizar una interfaz gráfica de usuario y un ratón. La clave del telégrafo fue usada en su día para codificar mensajes en un código Morse, un sistema temprano de transmisión binaria. Conceptos básicos de las computadoras: Hardware: CPU (procesador), memoria del sistema (RAM), almacenamiento, tarjeta de vídeo/gráficos, monitor. Software (elementos lógicos): sistema operativo, software de aplicación, aplicaciones móviles. Interfaz persona-computador: ratón, teclado, interfaz gráfica de usuario (GUI). Gestión de archivos: archivos, carpetas (o directorios), navegador del sistema de archivos. En el sistema binario los únicos dígitos son cero y uno, porque es el lenguaje del ordenador. En una computadora, cada instancia de cero o uno se le llama bit (Binary digit), ocho bits equivalen a un Byte. Ley de Moore: En 1965, en cofundador de Intel, Gordon Moore, predijo que el número de transistores por pulgada cuadrada en circuitos integrados (predecesor del microprocesador) se duplicaría cada dos años en el futuro previsible. Según su mecanismo de funcionamiento está el teclado de membrana y teclado mecánico. Cada disquete de 3,5 pulgadas tiene una capacidad de 1,44 MB (de tipo 3½ pulgadas HD), se necesitarían 2 845 para igualar la capacidad de una tarjeta de memoria o memoria USB de 4 GB. El almacenamiento de la nube permite a múltiples usuarios colaborar en el desarrollo de un solo documento o una carpeta de trabajo compartida. 3. PLANIFICACIÓN Y EVALUACIÓN DE PROYECTOS El modelo de comunicación de Shannon-Weaver ilustra el proceso lineal de transmisión de mensajes: → emisor – codificación – mensaje – canal (ruido) – decodificación – receptor – feedback Identificar el público o usuario objetivo para tu producto multimedia es un primer paso crítico en el proceso de planificación y diseño. Las variables demográficas (edad, género y origen étnico) describen los rasgos compartidos. El modelo de proceso de las Tres P: PREPRODUCCIÓN – PRODUCCIÓN – POSTPRODUCCIÓN Previsualización: poner una idea por escrito o ilustrada que se puede compartir con otros. Tratamiento. Guion gráfico (storyboard). Guión (script): formato estilo AV (una o dos columnas) o formato screenplay. Estándar de diseño centrado en el usuario, seis principios fundamentales: 1. El diseño se basa en una comprensión explícita de los usuarios, las tareas y los entornos. 2. Los usuarios participan en todo el diseño y desarrollo. 3. El diseño es impulsado y refinado por una evaluación centrada en el usuario. 4. El proceso es iterativo. 5. El diseño aborda toda la experiencia del usuario. 6. El equipo de diseño incluye habilidades y perspectivas multidisciplinares. Proceso de diseño centrado en el usuario, cuatro fases: 1. Análisis: evaluación de necesidades, recopilación de datos, investigación, identificación de usuario objetivo, especificación de alcance y requisitos del proyecto. 2. Diseño: lluvia de ideas, desarrollo conceptual, identificación de contenido y estructura (crear wireframes, mockups y prototipos). 3. Implementación: convertir la versión final aprobada del prototipo funcional en un producto o sistema completo que se pueda probar y evaluar. 4. Despliegue: publicación o distribución del producto a los usuarios finales. Card sorting: los diseñadores lo usan para ayudarles a entender cómo piensan los usuarios que se debería organizar la información en un sitio web o aplicación. TRES P DISEÑO CENTRADO EN EL USUARIO 1. Preproducción 1. Análisis 2. Diseño 2. Producción 3. Implementación 3. Postproducción 4. Despliegue 1. ESTÉTICA En el diseño profesional, existen reglas y pautas específicas de la industria, la estética aplicada. Aprender estas pautas es importante porque las decisiones de diseño influyen en las elecciones realizadas durante la producción. Tener un marco estético te aleja de las sensibilidades infundadas y te conduce hacia observaciones informadas. Ver: apariencia de las cosas. Percibir: captar o conocer algo a través de los datos proporcionados por los sentidos. 1.1 ELEMENTOS DE DISEÑO - Espacio: un comunicador visual llena el espacio vacío (espacio de diseño) con contenido que sea un mensaje. - El campo de visión: el espacio positivo es la porción del espacio de diseño en la que residen los elementos visuales. El espacio negativo (o espacio en blanco) es el resto de la imagen. - Elementos visuales: punto, línea, figura, forma (elemento 3D). - Textura, patrón y color (dimensiones de color: tonalidad, tono o matiz; saturación; y brillo, luminosidad o valor). - Iluminación: o Intensidad de luz o nivel de iluminación de un objeto. o Temperatura de color, tonalidad general de una fuente de luz. o Dureza, grado en que los bordes de las sombras proyectadas son duros o suaves. 1.2 PRINCIPIOS DE DISEÑO Unidad: alineación, proximidad, similitud y repetición. Énfasis: contraste (rango tonal), color (neutros, fríos o cálidos), profundidad (distancia entre objeto más cercano y el más lejano) y proporción. Fuerzas perceptivas: equilibrio (simétrico o formal, asimétrico o informal), continuación (vectores, fuerzas direccionales que guían el ojo dentro del marco visual), figura-fondo y cierre cognitivo (“unir puntos”). 2. DISEÑO DE PÁGINA El diseño visual de cada una de las pantallas de un menú de DVD es el producto de un diseño de página (layout) multimedia: vídeo, gráficos, texto, animación y audio. Todos se unen para contribuir a la riqueza de la experiencia multimedia. El diagrama de Gutenberg ilustra el patrón general que siguen los ojos al escanear información visual. Jerarquía visual: orden percibido por el lector de los contenidos que están dentro de una página. Título o encabezado: breve título o subtítulo descriptivo utilizado para marcar el comienzo de un párrafo o área de contenido. Proporción áurea: constitución matemática basada en la constante Fi. Usada a veces para fijar las proporciones de un espacio visual. Para un diseñador, el primer paso es subdividir el espacio unitario de una página en blanco en regiones editables más pequeñas que se pueden organizar individualmente y rellenar con contenido, se pueden apoyar en papel cuadriculado. El diseño de una nueva página web a menudo comienza con bocetos simples que muestran cómo se dividirá el espacio de la pantalla en varias regiones de contenido. Una cuadrícula (grid) es un conjunto de distintas relaciones basadas en la alineación que actúan como guías para distribuir elementos en un formato. El modelo de cajas de CSS se creó para dar a los diseñadores web un mayor control en la presentación de elementos visuales: contenido, relleno, borde y margen. 3.1 INTERFAZ GRÁFICA DE USUARIO Interactividad: comunicación recíproca entre los medios y los usuarios, facilitada por varias características tecnológicas. Una interfaz gráfica de usuario (graphical user interface, GUI) habitualmente incluye elementos como ventanas, iconos, menús, botones y barras de desplazamiento. Los componentes multimedia tales como movimiento, video, audio y realidad virtual se han convertido gradualmente en una parte de las GUI. Las interfaces de usuario web son las GUI más utilizadas. Usan HTML, CSS, lenguajes de script, programación y aplicaciones como Flash para mejorar la interacción del usuario. También son abundantes las de las aplicaciones de escritorio, videojuegos y teléfonos móviles. Interfaz táctil, de voz, de seguimiento del movimiento, wearble. Tecnologías emergentes: la realidad aumentada superpone contenidos generados por ordenador y otros elementos sensoriales sobre la vista de nuestro entorno en tiempo real. NAVEGACIÓN PRIMARIA ORGANIZANDO CONTENIDO ADAPTACIÓN - Menús desplegables: - Miniaturas - Personalización o Menú desplegable vertical - Carruseles - Customización de interfaz o Panel desplegable bidimensional - Paginación o Cosméticamente o Sistema de menú desplegable horizontal - Archivo o Funcionalmente - Acordeón: se expande para revelar el contenido - Pestañas y migas de pan - Pie de página Formularios: puede incluir etiquetas de campo, campos de texto, listas desplegables, botones de opción y casillas de verificación para la entrada de usuario. Las solicitudes de entrada proporcionan una pista visual a los usuarios que introducen datos en un campo de formulario. Usabilidad: facilidad de aprendizaje, eficiencia, facilidad de recuerdo, gestión de errores y satisfacción. Diseño web adaptable (responsive): se adapta a diferentes tamaños de pantalla y dispositivos. 3. DISEÑO WEB HTML y CSS son dos de las principales tecnologías que están detrás de las páginas web. Rutas de acceso: indica la dirección exacta donde se encuentra el directorio o fichero que nos interesa, dentro del sistema de ficheros. Las rutas de acceso se clasifican en: - Rutas absolutas: indican el orden que se debe recorrer en los directorios a partir del directorio raíz. Inician con “/”. - Rutas relativas: indican el orden en que se deben recorrer los directorios a partir del directorio de trabajo. Hojas de estilo en cascada (Cascade Style Sheets, CSS): complemento a HTML plano. Con HTML plano se definen los colores y tamaños de texto y tablas en todas las páginas. Con CSS se definen los colores y tamaños en estilos, también ofrece atributos más detallados que HTML plano para definir la apariencia del sitio. 1. TEXTO Representa el medio principal para registrar, recibir y transferir conocimiento e ideas humanas. Puede usarse de forma creativa como un elemento de forma y no solo de contenido. Familia tipográfica: todas las variaciones de estilos asociadas con un tipo de letra particular (negrita, condensada, cursiva, oblicua, etc.). Legibilidad: características de un tipo de letra y puede cambiar según el tamaño de la fuente. Redibilidad: lo fácil que es leer el texto en contexto, no como letras aisladas. Garamond: fuente de alto contraste por la diferencia entre el ancho de los trazos utilizados para formar un carácter. Arial Black: fuente de bajo contraste por el ancho constante de cada segmento de trazo. - El tipo de letra puede ser condensado, expandido, escalado y estirado. - El grado de contraste entre el color de fuente elegido y el color de fondo puede alterar la legibilidad del texto. - Font Book es la utilidad de administración de fuentes propiedad de Apple para Mac OS X, destaca Baskerville. 2. MEDIOS ESTÁTICOS Gráfico: representación visual en una superficie física. Imagen: representación bidimensional o tridimensional del mundo real. - Fotografía analógica: se utiliza un negativo físico para hacer impresiones fotográficas. - Fotografía digital: las imágenes se graban numéricamente como datos binarios. - Imágenes rasterizadas: se forma dividiendo el área de una imagen en una matriz rectangular de filas y columnas compuestas de píxeles. Cada píxel contiene un solo color. o Mosaico: precursor del concepto de imágenes rasterizadas. o Resolución Espacio de color: - RGB (rojo, verde, azul): se utiliza en diseño multimedia. - CMYK (cian, magenta, amarillo y key, negro): se utiliza en la impresión a color. - Los colores primarios y secundarios de la luz blanca son visibles cuando es refractada por un prisma de vidrio. - Podemos usar un código de color hexadecimal para identificar cualquier color. - Un sistema de color de 24 bits es capaz de generar una paleta de color de más de 16 millones de colores. Escalado: proceso de hacer una imagen remasterizada más grande o pequeña a través del remuestreo. Remuestreo: cambia el número de píxeles en la imagen y el valor de color de cada píxel recién definido en la imagen. Ampliación o aumento de escala: a menudo resulta una pérdida de calidad de imagen. Reducción de escala: rara vez hay que preocuparse de que se degrade la imagen Anti-Aliasing: técnica algorítmica utilizada en el software de diseño y retoque de imagen para suavizar la irregularidad percibida del texto y reducir la sensación de pixelado. Gráfico vectorial: representa una imagen utilizando rutas compuestas de puntos, líneas, curvas y formas. Pueden escalar a cualquier tamaño sin perder nitidez o resolución de imagen. Escaneo o exploración entrelazada: analizar cada cuadro (frame) de la imagen en dos semicuadros iguales o campos. - Uno de los campos contiene las líneas pares (campo par) mientras que el otro contiene las impares (campo impar). - Las líneas resultantes están imbricadas entre sí alternadamente por superposición. Escaneo o exploración progresiva (no entrelazada): método de exploración secuencial de las líneas de una imagen en una pantalla. Se realiza un barrido sucesivo de una línea después de otra para componer la imagen. Las imágenes de televisión de difusión suelen estar entrelazadas, mientras que los videos en la Web a menudo son no entrelazados, entregándose progresivamente. Para una misma resolución de pantalla, la exploración progresiva necesita un mayor ancho de banda, debido a que requiere el doble de frecuencia horizontal. La definición estándar o SD (standard definition) y la alta definición o HD (high definition) ofrecen una resolución mucho menor que el nuevo formato ultra HD, también conocido como 4K. El nuevo formato de representación de imagen requiere de nuevas herramientas de captura, en particular videocámaras ultra HD, dispositivos introducidos recientemente por los fabricantes que admiten video 4K. 3. FOTOGRAFÍA Principales componentes de cámara réflex digital (DSLR): lentes, diafragma (iris), cuerpo, obturador, sensor de imagen. Una de las características principales de una cámara réflex digital son las lentes intercambiables, que varían su tamaño dependiendo en gran medida de su distancia focal. En un objetivo, la distancia focal es la distancia entre el diafragma de éste y el punto focal o foco (donde se concentran los rayos de luz), puede ser fija o variable. Al variar la distancia focal conseguimos mayor o menor acercamiento: zoom. Las lentes de gran angular a menudo se usan para capturar vistas amplias, suelen variar entre 18 y 35mm. Iris: diafragma de plástico o metal ajustable que regula la cantidad de luz que incide en el sensor de la imagen. Sensor de la imagen: por lo general, cuanto más grande sea, más costosa y de mayor calidad será la cámara. Velocidad de obturación: periodo durante el cual está abierto el obturador. Se expresa en segundos y fracciones de segundo. Suele oscilar entre los 30 segundos y 1/8000 segundos (existe el modo Bulb para exposiciones más largas). Exposición = Intensidad x Tiempo El triángulo de exposición muestra la relación entre ISO, velocidad de obturación y apertura y cómo interactúan las tres variables para lograr el valor de exposición para cada disparo. Profundidad de campo: distancia de adelante hacia atrás dentro de una escena que parece esta renfocada. MODOS DE EXPOSICIÓN Modos automáticos Modos semiautomáticos Modo manual - Modo retrato - Modo programa - Modo paisaje - Modo prioridad a la apertura - Modo macro - Modo prioridad a la obturación - Modo deportes - Modo nocturno Foto Stitching: proceso que combinan múltiples imágenes para crear una imagen panorámica o una de alta resolución. 1. GRABACIÓN EN CINTAS DE VÍDEO El área de la superficie de una cinta de video se divide en regiones lineales llamadas pistas. La mayoría de los formatos basados en cinta incluyen una pista para video, dos pistas para audio y una pista para sincronización o control de datos. Las cintas de videocasete se han producido en muchos formatos y tamaños distintos a lo largo de los años. Cada tipo requiere el dispositivo correspondiente, llamado grabadora de videocasete (VCR) para la grabación y reproducción. Los formatos de cinta y las grabadoras de videocasete no suelen ser intercambiables. 2. GRABACIÓN BASADA EN ARCHIVOS 2.1 CÓDECS Y FORMATOS DE CONTENEDOR Los medios analógicos físicos, han sido reemplazados por archivos de medios digitales invisibles que se pueden comprar en línea y descargar en un reproductor de MP3 portátil. Ubicación de ficheros: no siempre es obvio dónde se almacenan los archivos de video en la tarjeta de memoria de la cámara. El formato de archivo AVCHD lazado por Sony y Parasonic en 2006 especifica una estructura de directorios propietaria para los archivos guardados en una tarjeta de memoria insertada en dispositivos compatibles. 2.2 CONFIGURACIONES DE AUDIO La calidad de una transmisión de audio digital está definida por tres variables: a) Frecuencia de muestreo (sample rate): número de muestras registradas cada segundo y la unidad utilizada es el kilohercio (kHz). b) Profundidad de bits: número de bits utilizados para codificar el valor de cada muestra. c) Tasa de bits: número de bits por segundo transmitidos durante la reproducción, y a menudo se mide en kilobits por segundo (kbps). Una señal de audio digital se obtiene a través del muestreo, técnica por la cual el sonido se mide y se graba a intervalos discretos a lo largo del tiempo. Cuanto mayor sea la frecuencia de muestreo, mejor será la fidelidad de la grabación. La transcodificación es el proceso de convertir un archivo de un formato a otro. 2.3 CONFIGURACIÓN DEL DISPOSITIVO - El sistema de menús de una cámara de cine Canon C100 muestra una advertencia antes de formatear la tarjeta de memoria SD insertada. Se pueden ajustar varias configuraciones importantes de la cámara en la Canon C100 mediante botones o diales externos. Además, se puede especificar la tasa de bits y la velocidad de fotogramas - FiLMiC Pro es una aplicación de cámara de video para iOS que presenta muchas de las mismas configuraciones y controles del dispositivo que se encuentran en las videocámaras profesionales. - Con el sistema de menús de la grabadora de audio Zoom H4n, se puede elegir entre dos formatos (WAV o MP3) y varios niveles de calidad en función de la frecuencia de muestreo y la profundidad de bits (WAV), o la tasa de bits (MP3), definidas por el usuario. 2.4 CODIFICACIÓN DE VÍDEO Adome Media Encoder se usa para transcodificar una película QuickTime a MPEG-4/H.264. Hay cinco configuraciones básicas para vídeo digital: 1. Resolución (ancho x alto) 2. Cuadros por segundo 3. Orden de campo (entrelazado o progresivo) 4. Relación de aspecto 5. Tasa de bits YouTube recomiendo subir vídeos usando el formato contenedor MPEG-4 (.mp4). También incluye un conjunto detallado de especificaciones en su web para codificar adecuadamente el video y audio usando los códecs apropiados. Un códec (codificador-decodificador) es un programa o dispositivo capaz de codificar o decodificar una señal o flujo de datos digitales. Su uso está muy extendido para la codificación dentro de un formato contenedor. 3. AUDIO DIGITAL iPod: más de una década después de lanzar el reproductor iPod original en 2001, Apple anuncia el iPod touch en un autobús de dos pisos en Londres, Inglaterra (2012). En 2019 se ha presentado la 7ª generación. iTunes: incluye un codificador de audio incorporado para convertir archivos AIFFy WAV sin comprimir (de un disco compacto de audio) a un formato de archivo comprimido como AAC o MP3. 4. FWIGSS 4.1 FOCUS (enfoque) Antes del inicio de la grabación, el operador de la cámara establece manualmente el enfoque siguiendo cuatro pasos: 1. Cambiar al modo de enfoque manual 2. Hacer zoom en los ojos del sujeto 3. Ajustar el anillo de enfoque hasta que esté definido 4. Alejar para componer la toma Rack focus: cambiar enfoques en tiempo real del sujeto de primer plano al de fondo. Manipulación profundidad campo. 4.2 WHITE BALANCE (balance de blancos) Antes del inicio de la grabación, el operador de la cámara hace zoom manualmente en una tarjeta blanca que sostiene el sujeto para establecer el balance de blancos. 4.3 IRIS, GAIN AND SHUTTER SPEED (iris, ganancia y velocidad de obturación) Antes del inicio de la grabación, el operador de la cámara ajusta el iris, la ganancia y la velocidad de obturación según desee hasta que la toma esté correctamente expuesta. Las líneas de cebra son una ayuda para establecer la exposición. 4.4 SOUND (sonido) Antes del inicio de la grabación, el operador de la cámara realiza una prueba de sonido y ajusta los niveles de grabación para una reproducción óptima del sonido. 5. ¿QUÉ ES EL SONIDO? Las ondas sonoras son invisibles para el ojo humano, pero se comportan igual que las ondas concéntricas del agua. Tiene dos atributos cuantificables: - Amplitud: la intensidad de una onda de presión sonora, o presión dinámica. La fuerza o magnitud de una señal de audio que los humanos perciben como volumen. - Frecuencia: el tono de sonido relativamente bajo o alto, medido en unidades llamadas hercios (Hz) (ciclos por segundo). Características del sonido: a) La amplitud se representa visualmente por la altura de la onda de sonido. b) La longitud de onda o periodo (T) es la distancia recorrida durante un ciclo completo de vibración. c) La frecuencia (f) está representada por el número de ciclos de onda completos que ocurren durante un periodo de tiempo establecido (generalmente medido en intervalos de un segundo). En la grabación de audio, el nivel de sonido se controla con un vúmetro digital y se ajusta con un control deslizante. La frecuencia se ajusta usando un ecualizador como el complemento de ecualizador de 7 bandas en Avid Pro Tools. 6. MICRÓFONOS Un micrófono es un instrumento de grabación utilizado para convertir ondas de sonido en un equivalente eléctrico que puede almacenarse, transmitirse y reproducirse a través de un sistema de sonido de audio. Son externos o integrados. - Micrófono dinámico: menos sensible al sonido porque el transductor es autoalimentado por el sonido del sujeto. - Micrófono de condensador: más sensible al sonido porque el transductor funciona con una batería o fuente de alimentación fantasma (phantom). 6.1 PATRÓN POLAR El patrón polar de un micrófono es su sensibilidad al sonido con relación a la dirección o ángulo del que procede el sonido, patrones polares más comunes: A. Omnidireccional. B. Bidireccional. C. Cardioide. D. Supercardioide. E. Hipercardioide. F. Ultracardioide (o shotgun) 6.2 FACTOR DE FORMA Los micrófonos se clasifican según su forma, propósito y aplicación general: de mano, corbata o solapa y de cañón. Un micrófono de mano se puede sostener con un soporte de micrófono para operación manos libres y al grabar al aire libre, es una buena idea colocar un quitavientos y deben colocarse cerca de la boca del sujeto para obtener buen sonido. Efecto de proximidad: fenómeno acústico que aumenta las frecuencias bajas de su voz a medida que se acerca progresivamente al diafragma del micrófono. Pértiga: se usa para colocar un micrófono de cañón cerca de los sujetos de la escena. Se pueden usar diferentes técnicas para colocar el micrófono, ya sea sobre los sujetos o debajo de ellos. Empuñadura de pistola: se usa una suspensión o pistola para micrófonos de cañón en lugar de una pértiga. Zona de presión: el Audio-Technica ES961 es un micrófono de zona de presión (boundary) de condensador de cardiode diseñado para su uso en una superficie plana. Suele usarse para destacar ruidos reflejados por el entorno. 6.3 VÚMETROS DIGITALES Durante una grabación, se debe intentar mantener los niveles de audio dentro de la parte verde de la escala, el rango “bueno”, aproximadamente entre el 50% y 80%. a menudo incluyen una luz de advertencia de clipping (recorte) que se ilumina cuando los niveles de sonido exceden el umbral de distorsión. 7. CAMPO DE VISIÓN Visores: las videocámaras profesionales suelen tener dos visores electrónicos. Orientación: la televisión es un medio panorámico, el vídeo nunca debe grabarse con la cámara en vertical. Colocación cámara/sujeto: la composición se ve afectada por la ubicación de la cámara y el sujeto con el fondo. Ángulo de cámara: disparo a la altura de los ojos. B-Roll: imágenes complementarias o alternativas intercaladas con el disparo principal. Sujeto a contraluz: el sujeto está muy retroiluminado, lo que hace que aparezca oscura. Cobertura: escena compuesta por tomas maestras y tomas cruzadas. Regla de los 180 grados: al filmar una escena con múltiples cámaras o configuraciones de cámara, se debería disparar siempre desde el mismo lado de la línea (desde el mismo semicírculo). Cruzar la línea resulta en un disparo inverso, haciendo que el espectador tenga la impresión de que uno de los sujetos de la toma cambió repentinamente de posición o cambió de dirección. Margen: espacio libre del encuadre del sujeto, si mira a cámara mejor el central, sino dejar espacio hacia donde mire. Altura libre: depende del tema y entorno, una mala altura sería recortar la cabeza o que se esté asomando. 7.1 MARCADO DE ESCENAS Y TOMAS Se usa una claqueta para sincronizar la imagen y el sonido para cada escena y toma grabada. En un set de cine, el cargador de claqueta o segunda cámara auxiliar es responsable de actualizar la información en la pizarra de la escena en la pizarra de la película al comienzo de cada toma. Las tomas planeadas de forma minuciosa son los bloques de construcción de una secuencia narrativa dinámica. 7.2 ESTABILIZACIÓN DE LA CÁMARA Se puede usar un monopié independiente para estabilizar la cámara. Los elementos de un trípode profesional son más complejos: incluye varios controles para ayudar a cambiar rápidamente la altura de la cámara y nivelar la cabeza. También se puede variar la cantidad de tensión utilizando los controles de arrastre de giro e inclinación, o bloquearlos. Además de los movimientos simples de giro e inclinación, una cámara montada en un pedestal de estudio puede moverse lateral y verticalmente. También se da la estabilización por cámara en raíles o grúas. 8. ILUMINACIÓN Una bandera, un scrim y un reflector, montados en ceferinos (c-stands) y posicionados estratégicamente ayudan a tapar, suavizar y reflejar la luz, respectivamente. Iluminación tres puntos: ubicación de la luz clave, luz de relleno y la contraluz forma un triánguo alrededor del sujeto, en la de cuatro puntos se añade una luz de fondo. Kit de luz portátil: generalmente incluye 2-4 instrumentos de iluminación, soportes y accesorios. Fresnel: tiene una lámpara ajustable que permite cambiar la propagación de la luz desde un haz duro y estrecho (spot) hasta un haz blanco y ancho (flood). A. Fresnel con pestañas móviles. B. Scoop. C. Foco de luz con paraguas. D. Softbox con scrim desmontable. E. Luz LED para cámara con difusor de plástico. F. Luz LED de color variable con pestañas móviles. 9. BLOQUES DE CONSTRUCCIÓN DE UNA SECUENCIA EDITADA I. Elementos pre-scripted Diálogo y acción de los actores Programas preescritos: los programas de noticias suelen estar preescritos antes de la producción, los conductores del programa leen el guion usando un teleprompter. II. Elementos sin guion y elementos post-scripted Fragmentos de sonido B-Roll Sonido natural Narración III. Música y efectos sonoros IV. Gráficos Tercios inferiores y gráficos de pantalla completa Gráficos de televisión: Adobe Photoshop incluye ajustes predefinidos de películas y vídeos, que incluyen guías visuales para mostrar las áreas seguras de acción (la acción esencial y sujetos deben estar dentro de este límite exterior) y títulos. 10. EDICIÓN DE CONTINUIDAD - Cut-in: desplaza la atención del espectador hacia un primer plano o una vista alternativa dentro del marco. - Cutaway: desvía la atención del espectador hacia un objeto o acción que tiene lugar fuera del campo de visión actual. - Jump cut: transición abrupta de una toma a otra toma similar del mismo sujeto con poco o ningún cambio en la distancia focal, el ángulo de la cámara o la posición de la cámara. 11. MEDIOS SIN CONEXIÓN Si el sistema de edición no lineal (NLE) no puede ubicar un archivo multimedia asociado con el proyecto, saldrá un aviso. Esto podrá ocurrir cuando el editor mueva, elimine o cambie el nombre de un archivo multimedia después de importarlo al sistema NLE. 12. RENDERIZACIÓN Proceso en segundo plano llevado a cabo por el sistema NLE que resulta en la creación de nuevos archivos al editar. Permite generar imágenes o secuencias a partir de un modelo 2D o 3D. 13. COMPONIENDO VÍDEO Componer: proceso de combinar dos o más pistas de video para formar una nueva imagen o efecto visual. Mezclar: combinación de dos o más fuentes de audio dentro de una línea de tiempo NLE. Requiere ajustar los niveles para los sonidos de primer plano, rango medio y fondo en una escena, según corresponda. Las fuentes de audio generalmente se muestran como una forma de onda visual en NLE. Edición de tres puntos: técnica estándar en la edición no lineal para insertar clips recortados desde el monitor de origen (marcado con un punto IN y OUT) en la línea de tiempo (marcado con un punto IN). El NLE requiere únicamente de la configuración de tres puntos para realizar una edición. Edición no destructiva: método de edición diseñado para proteger los medios originales de un proyecto durante el proceso de edición. Se pueden hacer cambios en un proyecto NLE sin dañar o eliminar los archivos asociados. Animación: creación de imágenes en movimiento a partir de imágenes estáticas que se muestran en sucesión. Los animadores tradicionales han desarrollado muchas técnicas: - Cel animation: animación clásica o de dibujo a mano. - Stop motion: animación fotograma a fotograma. - Claymation: stop motion con plastilina, arcilla o algún otro material maleable. La animación se puede crear digitalmente creando fotogramas individuales en un programa de gráficos. El uso de composiciones de capas para representar el contenido de un fotograma puede simplificar el proceso de animación. Se puede almacenar una secuencia de imágenes en archivos de imagen enumerados consecutivamente. 1. GIF ANIMADO Contiene múltiples imágenes de mapa de bits en un solo archivo. Las imágenes individuales se pueden mostrar en secuencia por los navegadores web y otros programas, sin necesidad de un complemento. Son adecuados para animaciones simples y cortas. Usan colores indexados (8 bits máximo 2⁸=256 colores) y compresión intra-frame sin pérdida, cuya efectividad depende de la naturaleza de las imágenes de la animación. No pueden tener sonido o controles de reproducción. 2. INTERPOLACIÓN En la cel animation tradicional, los animadores principales dibujan fotogramas clave en puntos importantes de la animación, y los intermediadores (in-betweeners) crean los fotogramas intermedios. Los programas de animación realizan el equivalente a la intermediación al interpolar los valores de propiedades como la posición entre fotogramas clave. La interpolación se puede aplicar a capas en imágenes de mapa de bits o a propiedades de objetos vectoriales. 2.1 INTERPOLACIÓN LINEAL Y CUADRÁTICA Si el movimiento se interpola linealmente, el movimiento comienza y termina de forma instantánea, que puede producir discontinuidades antinaturales entre las secuencias interpoladas. La técnica de easing in y easing out (animaciones de entrada y salida lenta) se puede usar para hacer que el movimiento aumente o disminuya gradualmente. 3. RUTAS DE MOVIMIENTO Se utilizan animaciones lentas personalizadas mediante curvas Bézier para controlar la tasa de cambio de formas arbitrariamente complejas. Se puede hacer que los objetos o capas se muevan a lo largo de las rutas de movimiento. Cuando se usan rutas de movimiento, generalmente es necesario orientar el objeto en movimiento hacia la ruta para lograr un efecto realista. 4. GRÁFICOS EN MOVIMIENTO Nos referimos al diseño gráfico animado. Muchas de las técnicas utilizadas en los gráficos en movimiento aparecieron en secuencias de títulos para largometrajes, donde frecuentemente involucraban animación del texto o alrededor de él. Las animaciones más simples se consiguen al reposicionar capas, ya sea arrastrándolas o insertando coordenadas, e interpolando el movimiento entre fotogramas clave. El ángulo se puede variar, de modo que la capa parezca rotar. Se pueden establecer a mano en fotogramas clave e interpolar, o se puede determinar automáticamente la rotación junto con el movimiento, para mantener la orientación de una capa con respecto a su ruta de movimiento. La escala también se puede establecer en fotogramas clave e interpolar y puede usarse como un efecto de perspectiva para transmitir la impresión de movimiento de acercamiento o alejamiento, o como un zoom. Los parámetros de filtros y efectos pueden ser interpolados. Se pueden aplicar efectos puramente basados en el tiempo, como la destrucción.

Use Quizgecko on...
Browser
Browser