Fundamentos de la Tecnología (PDF)

Summary

Este documento explora la evolución histórica de diversas tecnologías, incluyendo la luz, el sonido, la grabación, la fotografía, el cine y los ordenadores. Se presenta un recorrido cronológico de los avances clave y los principales personajes involucrados en cada etapa. Se analizan los principios físicos detrás de cada tecnología y su impacto en la sociedad.

Full Transcript

TEMA 1: INTRODUCIÓN 1. Principios físicos: la luz - Antigüedad: Euclides (300-? BC) -> Emission theory. La luz está formada por rayos de partículas que emanan del ojo. Publica ‘Optica’, el primer tratado sobre las propiedades de la luz. Postuló que la luz viaja en línea recta y describió las ley...

TEMA 1: INTRODUCIÓN 1. Principios físicos: la luz - Antigüedad: Euclides (300-? BC) -> Emission theory. La luz está formada por rayos de partículas que emanan del ojo. Publica ‘Optica’, el primer tratado sobre las propiedades de la luz. Postuló que la luz viaja en línea recta y describió las leyes de la reflexión. Aristóteles (384–322 BC) y sus discípulos -> Intro-misión theory. ‘Algo físico, representativo de los objetos’ que entra en el ojo. - Alhazén (965-1040) Marcó una nueva era basada en la experimentación. Postuló que los rayos de luz llegan al ojo desde cada punto de un objeto. De los primeros en usar la cámara oscura. - Scheiner (1573-1650): Fisiología óptica del ojo -> diseccionó animales para ‘mirar’ desde detrás de sus ojos, comprobando como la retina formaba imágenes al recibir la luz. - Newton (1642-1727): Teoría corpuscular Haz de partículas que son emitidos en todas direcciones desde una fuente de luz. Otros fenómenos (p.e. asociados a la difracción) se explicaban mejor considerándola como onda, aunque Newton sencillamente los ignoraba. - Young (1773-1829): Teoría ondulatoria En 1801 demostró experimentalmente la difracción de la luz -> fenómeno común a cualquier forma de onda, se comporta como una (se propaga sin masa). Colores causados por diferentes longitudes de onda. Explicó la visión en color en términos de tricomía (tres tipos de receptores en el ojo). - Maxwell (1831-1879): Teoría Electomagnética Predecía que las ondas electromagnéticas se desplazaban por el espacio a velocidad constante, que resultó ser la que se había obtenido experimentalmente de la luz (entre otros por Foucault en 1850). Maxwell concluyó que la luz era una forma de onda electromagnética. - Mecánica cuántica: dualidad onda-partícula (Planck, Einstein, de Broglie y otros): la luz tiene características tanto de onda como de partícula. A escala subatómica: la energía existe en forma de paquetes discretos llamados ‘cuantos’ (fotones) que actúan como partículas. A escala relativista: cuando se combinan con otros fotones, forman paquetes de energía que se comportan como ondas. La física cuántica da respuesta a ciertas ‘anomalías’ experimentales que la teoría ondulatoria no era capaz. Para nosotros será un movimiento ondulatorio. 2. Principios físicos: el sonido Ya desde la antigua Grecia se sabía que el sonido es producido por las perturbaciones causadas en el aire por un cuerpo al vibrar. - Pitágoras (570-495 BC) Amplitud de la vibración ~ intensidad Longitud de la cuerda ~ velocidad ~ tono - Aristóteles (384-322 BC) postuló que el sonido no se transmite sin un medio. - Boethius (480-525 AD) conectó el movimiento del sonido en el aire (longitudinal) con el movimiento de las olas en un estanque (transversal), concluyendo que el sonido se mueve como una onda. - Newton fue uno de los primeros en modelar matemáticamente el sonido. Oscilaciones en la presión del aire Como movimiento ondulatorio, se caracteriza por su amplitud y frecuencia Aunque sus ideas fueron refinadas posteriormente por científicos como Euler o Lagrange (mediados del XVIII), las teorías modernas no son diferentes en esencia. 3. Grabación de audio 1ª ERA: GRABACIÓN ACÚSTICA (MECÁNICA) - 1857: fonoautógrafo (Leon Scott) Bocina captura y amplifica el sonido -> hace vibrar una fina membrana (diafragma) conectado un bolígrafo que escribe en un papel las variaciones de amplitud y frecuencia. Sirve para grabación pero no reproducción. Usado para el estudio de la acústica. 2008 -> consiguen reproducir algunas de aquellas primeras grabaciones. - 1877. Fonógrafo (Edison) Grabación sobre un cilindro cubierto de una lámina de estaño, plomo o cera (variaciones de amplitud y frecuencia). Permite la reproducción. Una aguja recorre el surco impreso en el cilindro, causando vibraciones en una membrana que una bocina amplifica y transmite. El mayor problema era conseguir la producción en masa de los cilindros. - 1887. Gramófono (Berliner): los surcos se graban en discos en vez de en cilindros. 2ª ERA: GRABACIÓN ELÉCTRICA - 1925. Tocadiscos Evolución del gramófono, totalmente eléctrico. Hizo posible la aparición de micrófonos para capturar el sonido -> transductor electro-acústico que transforma las vibraciones sonoras en variaciones de voltaje de amplitud y frecuencia proporcionales a las del sonido. 3ª ERA: GRABACIÓN MAGNÉTICA - 1930s. Magnetófono. Cinta magnética (BASF y otros). Grabación electromagnética. Vibraciones sonoras son transformadas en variaciones de voltaje mediante micrófono. Las variaciones de voltaje se transforman, gracias a un electroimán, en una señal magnética que reordena las partículas ferromagnéticas (óxidos de hierro o de cromo) que cubren la superficie de la cinta. - 1963. Casete compacto (Philips) 4ª ERA: GRABACIÓN DIGITAL - 1972. Técnica PCM (Denon): proceso clave en la digitalización de señales analógicas. - 1980s. Disco compacto (Philips y Sony): tecnología digital óptica. Un láser graba marcas en la superficie del disco. - 1986 MP3 (Brandenburg, Popp y Gril) Empieza a ser usado en 1995. Formato digital de compresión de audio que ofrece diversas calidades. Puede reducir alrededor de 10 veces el tamaño del fichero original -> rápido de transmitir y barato de almacenar. Popularizado por su uso en Internet. - 2005. Blu-ray (Sony, Philips), HD/DVD. Usan “láser azul” de menor longitud de onda, que permite grabar más información en el mismo espacio físico. 4. Fotografía Principio de la Cámara Oscura (base de la fotografía). - Fenómeno conocido desde la antigua Grecia y China. Usado en el Renacimiento como instrumento de apoyo para ‘calcar’ imágenes en pintura. - Al pasar la luz a través de un pequeño agujero en un cuarto cerrado por todos sus lados, en la pared opuesta al agujero se forma la imagen (invertida) de lo que se encuentre enfrente. Al acoplarse una lente se mejora la calidad de la imagen. La clave para obtener una fotografía es usar una sustancia fotosensible como ‘pantalla’ en una cámara oscura para hacer la imagen permanente. Cuando la sustancia fotosensible recibe la luz el tiempo suficiente (tiempo de exposición de la sustancia), las zonas iluminadas se endurecen en proporción a la cantidad de luz que reciben. Tras realizar un proceso de ‘lavado’ de las zonas no endurecidas, nos queda un ‘negativo’ que, tras impregnarse de tinta, se puede plasmar en papel. - Joseph Niepce (1765-1833) sacó las primeras fotografías de la historia en 1816. (1826) 1ª fotografía conservada de la historia hecha con una cámara oscura: “Vista desde la Ventana en Le Gras” -> 8 horas de tiempo de exposición. - 1839. Daguerrotipo (Louis Daguerre): reduce notablemente el tiempo de exposición (baja a unos 10 minutos) y mejoraba la calidad. “Boulevard du Temple” (1ª fotografía de una persona de la historia). - 1901. Kodak saca al mercado la 1ª ‘cámara instantánea low-cost’ (Brownie) que no requería llevar compuestos químicos encima (en lugar de placas llevaba un rollo o carrete de película). - En lo fundamental la fotografía ‘no digital’ no ha cambiado mucho desde entonces. 1925. Películas de 35mm 1935-36. Primeras tecnologías modernas sensibles al color (Agfa, Kodak…) - La fotografía digital se populariza en los 90 1969. CCD. Sensores de imagen leen la intensidad de la luz y usan filtros de color. 1986. Primer sensor ‘megapixel’ (Kodak) Se usan tarjetas de memoria para almacenar las fotografías. Internet populariza la compartición de fotografías. 5. Imágenes en movimiento Proyectar imágenes estáticas (fotogramas) de forma rápida y sucesiva consigue dar la sensación de movimiento. - Comúnmente (aunque errónea) se atribuye a la persistencia de la retina (=tiempo que tarda en desaparecer una imagen captada en la retina). En realidad, la percepción de movimiento se produce en el cerebro y se explica por otros fenómenos (Phi phenomenom, Beta movement) - A partir de 16 imágenes por segundo se consigue la sensación de continuidad (p.e cine - 24 imágenes por segundo) No confundir: frame rate: imágenes por segundo flicker rate: parpadeos por segundo Para desplazar la película entre fotograma hay que oscurecer la imagen por un instante (parpadeo). Se necesita al menos un parpadeo por imagen, pero habitualmente se añaden más para reducir la molestia (p.e. 48 Hz) - Retos técnicos que hubo que solventar: Sustancias (películas) de grabación rápida. Mecanismos para deslizar la película a medida que se va grabando sin que se rompa. - Eadweard Muybridge: 1878. Usa 24 cámaras para capturar el movimiento de un caballo. Primera película de la historia (sin sonido). 1879. Zoopraxiscopio. Primer proyector (stop-motion) de películas de la historia. - 1891. Kinetoscopio. Edison/Dickson Primer sistema de exhibición comercial para un único espectador usando una lente de aumento. Sistema de engranajes para ir deslizando la película dentro del aparato. Dickson Greeting (1ª película grabada en los US) - 1895. Cinematógrafo. Hermanos Lumiere Primeros en proyectar para el público sobre una gran pantalla (el 28 de Diciembre de 1895, en el Salon Indien du Grand Café de París) -- Sortie des Usines Lumière à Lyon. - 1926. Cine sonoro Sonido guardado con la película de imagen, en una banda lateral. - 1935. Primeras emisiones de Televisión Emplea técnicas de grabación y reproducción diferentes a los del cine. - Cámara cinematográfica -> registra una secuencia de fotogramas completos - Cámara de video -> cada frame se compone de cientos de líneas horizontales (rastreo de izquierda a derecha y de arriba abajo) Redes de difusión de TV de largo alcance. - 1968-70. Cámaras personales. - 1976-77. Vídeo VHS/BETA (democratización del vídeo) - Años 90. Introducción de técnicas digitales. 6. Ordenadores y multimedia - Métodos más baratos y fácilmente accesibles (p.e. edición fotográfica, grabación de música…) - Redes de ordenadores como Internet: difusión y compartición, ‘streaming’ Los ordenadores abren nuevas posibilidades: - Incorporación de nuevos tipos de contenido al propio contenido audiovisual (p.e. sincronizar texto en forma de diapositivas con el video de un curso). - ‘Interactividad’: puede realizar acciones que afectan al contenido que recibe. A las aplicaciones que combinan varios tipos de contenido y proporcionan interactividad se les llama ‘multimedia’ o ‘hypermedia’. La base formal para los ordenadores digitales surge del trabajo de matemáticos en los años 20-50 del siglo XX: - Turing (1912-1954) establece la base formal de la programación de ordenadores al demostrar cómo una máquina capaz de interpretar un conjunto finito de instrucciones puede resolver cualquier problema computable. - Von Neumann (1903-1957) establece la arquitectura de ordenador de propósito general, vigente aún hoy en gran medida: CPU, memoria (que contiene el programa, no sólo los datos), almacenamiento persistente (e.g. disco duro), etc. - 1946. ENIAC. Primer ordenador moderno. Pesaba 30 toneladas. Utilizado para calcular trayectorias balísticas y también para la construcción de la bomba de hidrógeno. - 1949. EDVAC. Primer ordenador usando la arquitectura Von Neumann Memoria equivalente a 5,5KB Pesaba 7 toneladas. - 1947. Se inventa el transistor. A mediados de los 50 empiezan a usarse los circuitos integrados -> empieza a reducirse el tamaño de los ordenadores - 1965. Gordon Moore enuncia su famosa ’Ley de Moore’: el número de transistores que se pueden integrar a coste razonable en un circuito se dobla cada 2 años. No es una ‘ley’ como tal, es una predicción que sigue cumpliéndose más de 50 años después. La capacidad de los ordenadores aumenta de forma exponencial y ha sobrepasado las previsiones más optimistas. - 1966. IBM 1500. Primer ordenador ‘multimedia’ -- teclado, pantalla y altavoces. - 1969. Primer mensaje enviado por ARPANET (el germen de Internet) - 1981. IBM PC. Primer ordenador de uso popular. - 1990s. Internet alcanza difusión global. - Hoy en día… Cualquier ordenador moderno soporta captura, edición, almacenamiento y reproducción de audio y video. Los ordenadores son la base de la mayor parte de procesos de animación modernos. Uso masivo de difusión de contenido multimedia a través de redes de datos. Los formatos ricos en contenido e interactividad (e.g. hypermedia, videojuegos) ganan cada vez más importancia. TEMA 2: FUNDAMENTOS FÍSICOS 1. Percepción Función psíquica que permite al cerebro formar una representación de la realidad que le rodea a partir de la información de los sentidos -> depende de cómo esa información es procesada por el cerebro. Por ejemplo: un trozo de carbón iluminado refleja más luz que un copo de nieve a oscuras. Nuestro cerebro lo compensa, haciendo que percibamos un objeto ‘blanco’ como más luminoso que uno ‘negro’, independientemente de la luz que lo ilumina. - Hermann Helmholtz (1821-1894) es considerado el pionero en el estudio de la percepción visual en la época moderna -> la información que proporciona el ojo es incompleta, y el cerebro la completa a partir de la experiencia aprendida a lo largo de generaciones. - La percepción de la luminosidad. - La percepción del movimiento: proceso por el que se infiere la velocidad y dirección de los objetos en una escena comparando el cambio de posición de los mismos. - La percepción de la profundidad: proceso por el percibimos el mundo en 3D y podemos medir la distancia a la que están los objetos. Las tres percepciones se pueden conseguir, en parte, con ilusiones sensoriales. El cómo percibimos el mundo que nos rodea es un campo amplísimo de la ciencia. Las explicaciones sobre la naturaleza de la luz/sonido que veremos a lo largo del temario no pueden (ni pretenden) explicar la percepción subjetiva que tenemos de ellas, pero son igualmente la base de la grabación, almacenamiento y reproducción de imagen/sonido. Hay procesos audiovisuales donde la percepción sí debe ser tenida en cuenta (p.e. iluminación (balance de blancos), almacenamiento (compresión de contenido multimedia), sonido (sonido envolvente)). 2. Movimientos ondulatorios La forma de modelar matemáticamente un movimiento ondulatorio es mediante una señal sinusoidal. El eje Y representa una magnitud (e.g. intensidad del sonido, intensidad de la luz) y el X cómo varía ésta en función del tiempo. - Ciclo: movimiento completo de la onda. - Frecuencia: ciclos por segundo. - Unidad de medida: Hertzio (Hz) -- N Hertzios -> la fuente vibra N veces por segundo. - Válido para cualquier movimiento ondulatorio. Sonido: un diapasón “la 440” vibra a una frecuencia de 440 Hz. Luz: frecuencia de unos 500 THz (500, teraherzios o trillones de ciclos por segundo). - Amplitud: máxima extensión de una onda desde el punto de equilibrio -> dos ondas de igual frecuencia pueden tener amplitud diferente. - Si dos ondas coinciden al mismo tiempo en el mismo lugar, interactúan formando una nueva onda. Los valores positivos/negativos de amplitud de ambas ondas pueden sumarse o cancelarse mutuamente -> se emplea en sistemas activos de cancelación de ruido. - Fase: Medida del desplazamiento temporal entre los ciclos de dos ondas idénticas. Se mide en grados (0-360º) o radianes (0-2*pi) Si se combinan dos ondas iguales en fase, la amplitud resultante es el doble (luz más brillante, sonido más alto) Si se combinan dos ondas iguales desfasadas exactamente medio ciclo (180º o pi radianes), la amplitud resultante es cero. - Armónicos: ondas con frecuencias relacionadas por ratios aritméticos. Particularmente importantes en sonido. 3. Naturaleza de la luz - Maxwell (1831-79): descubrió que las fuerzas eléctricas y magnéticas están relacionadas, y que en el vacío una onda electromagnética viaja a la misma velocidad que la luz. Por ello conjeturó que la luz visible es una forma de onda electromagnética, y que podría haber otras formas no visibles de radiación electromagnética. - Luz: radiación de ondas electromagnéticas que se irradian desde una fuente. ESPECTRO ELECTROMAGNÉTICO Hoy en día se sabe que hay diferentes tipos de ondas electromagnéticas que se diferencian por su frecuencia. La luz visible ocupa sólo una pequeña parte del espectro electromagnético -> los colores están asociados a diferentes longitudes de onda. MEDIDA DE LA LUZ Hay varias formas de medir la luz. Las tres principales son: - Potencia ([vatios], [W]): cantidad total de energía consumida/emitida por la fuente de luz. Una parte se presenta en forma de luz visible y otra parte en forma de calor. - Luminosidad ([lumens], [lm]): cantidad de luz visible emitida por una fuente. - Brillo: medida subjetiva de cuán brillante parece una fuente para el ojo humano. Una misma fuente de luz resulta más brillante de noche que a plena luz del día. REFLEXIÓN - Fenómeno que se produce cuando la luz ‘rebota’ en la superficie que separa dos medios. Aplicable a cualquier tipo de onda (e.g. luz, sonido, olas...). - Factores de los que depende: La superficie (e.g. una superficie clara y pulida refleja más luz que una oscura y rugosa). Da lugar a dos tipos de reflexión: especular (viene de “espejo”) y difusa. El ángulo de choque (a mayor ángulo respecto a la perpendicular se refleja más energía). La longitud de onda (cada material refleja un color). REFRACCIÓN - Fenómeno que provoca que la luz cambie de dirección debido a un cambio en la velocidad de propagación al pasar de un medio a otro -> Ley de Snell. - Base de la óptica y del funcionamiento de las lentes. Convexa o convergente (e.g. objetivo de una cámara, lupa). Cóncava o divergente (e.g. flash, luz de un coche). - Dispersión: fenómeno provocado porque el índice de refracción de algunos materiales (e.g. cristal) varía con la longitud de onda (i.e. con el color). Base del prisma que se emplea en cámaras 3CCD. 4. Naturaleza del color - Sensación registrada en el cerebro cuando distintas longitudes de onda de la luz impactan contra la retina, enviando señales al cerebro que activan ciertas neuronas. - El color que percibimos de un objeto son las longitudes de onda que este refleja (las otras las absorbe). VISIÓN TRICROMÁTICA Excitando la retina con mezclas de longitudes de onda de sólo 3 colores, se puede conseguir que el cerebro perciba cualquier color. - Teoría de Young-Helmholtz: conjeturado por Young. Helmholtz identificó en la retina los tres tipos de células fotosensitivas, llamadas conos, que reaccionan a colores diferentes. - Otras células, llamadas bastones, son las responsables de captar la luminosidad. PERCEPCIÓN DEL COLOR No siempre sigue una relación directa con la longitud de onda de la luz: - El rojo es el color que más claramente vemos los humanos, aunque su frecuencia sea relativamente baja. - La luz de una misma longitud de onda se percibe de forma diferente en función de si hay otros colores similares o no a la vista. Tanto la visión tricromática como los fenómenos de percepción del color se tienen en cuenta en los procesos de grabación, compresión y reproducción de imágenes (p.e. síntesis del color: aplicación práctica de la visión tricromática). SÍNTESIS DEL COLOR - Sistema RGB (Red, Green and Blue). El color de un píxel en una pantalla se consigue asignando determinado valor de luminosidad a cada uno de estos tres colores primarios. - El número de colores posibles (espacio de color) está determinado por el número de niveles de luminosidad que se pueden aplicar (p.e. con 256 niveles podemos representar 2563 colores diferentes -- más de 16 millones). 5. Naturaleza del sonido El sonido se produce cuando un cuerpo que vibra transmite estas vibraciones a través de un medio en forma de oscilaciones/variaciones de presión -> se puede representar mediante un movimiento ondulatorio. - Tres etapas en el movimiento vibratorio: Compresión: al vibrar en una dirección, se comprimen las partículas de aire más próximas al objeto, y como consecuencia se crea una región de tamaño directamente proporcional a la amplitud (compresión) donde la presión es mayor. Punto de equilibrio: cuando el objeto que vibra regresa al punto de equilibrio, la presión en la región de espacio adyacente también vuelve al valor normal. Depresión: al moverse ahora en la otra dirección, se crea un área del mismo tamaño que la comprimida anteriormente donde la presión es menor. - Los parámetros del movimiento ondulatorio también sirven para caracterizar el sonido. Frecuencia: tiene una relación directa con el tono (agudo, grave). Por ejemplo, frecuencia violín > bajo -> violín + agudo; bajo + grave. Amplitud: tiene una relación directa con el volumen. - Cuando se superponen diversas ondas sonoras en un mismo instante y lugar, se generan ondas muy complejas que ya no se parecen en nada a una sinusoidal con la que representamos un movimiento ondulatorio puro (de una única frecuencia). ARMÓNICOS - Armónicos: ondas cuyas frecuencias están relacionadas por ratios aritméticos. Cada instrumento, debido a sus características físicas, genera diferentes armónicos. Por ejemplo, un piano: Al tocar un LA440, la cuerda vibra a 440 Hz (‘frecuencia fundamental’). Por las características físicas de la cuerda, se generan otras ondas a 880 (1er armónico), 1320 (2º) y 1760 (3º) Hz con diferentes amplitudes. El efecto conjunto de los armónicos es lo que identifica al instrumento (‘timbre’). - El primer armónico y los que son potencias de 2 (2,4,8,…) el oído humano los percibe como el mismo sonido pero más agudo (denominados ‘octavas’ en música). - Aplicación práctica de los armónicos: síntesis de sonido. Si sabemos exactamente qué armónicos genera un instrumento, podemos reproducir su sonido artificialmente. Con ordenadores podemos emular cualquier instrumento o incluso crear instrumentos que no existen en la naturaleza. PROPAGACIÓN DEL SONIDO - La propagación del sonido depende de: La velocidad de propagación de la onda a través del medio. Depende de la relación densidad-presión del medio (que a su vez depende de la temperatura). El movimiento del propio medio (e.g. aire). La atenuación del medio. Depende de la viscosidad. - Las ondas de sonido sufren reflexión al chocar con objetos y paredes y los efectos combinados de estas reflexiones que pueden ser dobles, triples, etc. (reverberación). Las salas de conciertos con buena acústica reflejan las ondas hacia la audiencia, pero sin producir demasiada reverberación. - Cuando un sonido se mueve a través de un medio que no tiene propiedades físicas constantes, se produce refracción. PERCEPCIÓN DEL SONIDO Las partes del oído se mueven en respuesta a las perturbaciones en la presión del aire y, finalmente, emiten impulsos nerviosos al cerebro. - En adultos, el oído es capaz de detectar frecuencias entre 20 y 20.000 Hz (aunque por encima de 16.000 se oyen como zumbidos). - El oído responde mejor a frecuencias medias -> tienen mayor efecto en la percepción. - Habituación: el 85% de las neuronas auditivas se vuelven menos sensibles al sonido si éste no cambia. - Nuestro oído apenas capta las frecuencias bajas a volúmenes bajos. Aplicación práctica: amplificador en equipos de sonido que permite amplificar frecuencias bajas a volúmenes bajos. - Efecto doppler: la frecuencia de un sonido se ve afectada por el movimiento de la fuente que lo emite -> si se acercan percibimos el sonido a mayor frecuencia y lo contrario al alejarse. Aplicación práctica: generar sensación de movimiento en sonido envolvente. - Todo esto tiene aplicación práctica y se tiene en cuenta en la grabación, compresión y reproducción de sonido. MEDIDA DEL SONIDO - El sonido puede verse como una forma de energía (energía acústica). La unidad es el vatio acústico [W] - Aunque la energía y el volumen ( energía percibida por los humanos) están relacionados, esta relación no es lineal. Por eso, el decibelio es una unidad más manejable y más usada en la práctica. Escala logarítmica. - Existen umbrales de audición a partir de los cuáles el sonido puede causar dolor o incluso lesiones. TEMA 3: CAPTURA, ALMACENAMIENTO Y REPRODUCCIÓN DE AUDIO 1. SISTEMAS ANALÓGICOS 1.1. Captura: Micrófonos - Captura: proceso mediante el cual se transforman las variaciones de presión (ondas de sonido) en el medio de transmisión causadas por las ondas de sonido en otro tipo de señal, directamente proporcional a éstas, y que permita su posterior procesamiento, almacenamiento y/o transmisión -> con un micrófono (transductor electroacústico). Existen diferentes formas de transformar dichas vibraciones en energía eléctrica y por tanto diferentes tipos de micrófonos. La mayoría se basan en una fina membrana (diafragma) que vibra en respuesta a las ondas sonoras. MICRÓFONO ELECTROSTÁTICO (DE CONDENSADOR) - La energía almacenada en un condensador formado por dos placas paralelas es inversamente proporcional a la distancia que las separa. El diafragma es una de las placas del condensador y, por tanto, las vibraciones del mismo provocan cambios en la distancia entre las placas. - La variación en la energía almacenada se convierte en una señal eléctrica (señal de audio de salida del micrófono). - Producen una señal de alta calidad -> muy utilizados en laboratorios y estudios de grabación. - Sensibilidad alta incluso a volúmenes bajos. La ‘masa’ que deben mover las ondas de sonido incidentes es muy pequeña -> no aptos para volúmenes altos, pues su alta sensibilidad puede provocar distorsión. - Requieren una fuente de energía (bien una pila interna, bien una fuente externa cuya corriente entra por el mismo cable que se utiliza para la salida de la señal de sonido). MICRÓFONO DINÁMICO (ELECTRO-DINÁMICO) - Diafragma adosado a una bobina de alambre, que está dentro del radio de acción de un campo magnético generado por un imán situado en el propio micrófono. Al moverse el diafragma, la bobina también se mueve hacia atrás y hacia delante, generando una corriente eléctrica por inducción electromagnética. - En general, son más baratos que los estáticos. - Menor sensibilidad. La ‘masa’ que deben mover las ondas de sonido incidentes es mayor. - No captan igual todas las frecuencias -> se pueden combinar diferentes micros dinámicos, cada uno preparado para capturar unas frecuencias concretas. - No precisan una fuente de energía (el imán genera un campo magnético constante sin necesidad de una fuente de alimentación). - Un micrófono dinámico es, en esencia, un altavoz dinámico dado la vuelta (o viceversa). PIEZOELÉCTRICO (MICRÓFONOS DE CONTACTO) - No tienen membrana. Las vibraciones del sonido comprimen un bloque de material (cuarzo, carbón, etc). La fricción entre las partículas del material genera una tensión eléctrica (V). - Usos: capturar el sonido de ciertos instrumentos musicales a los que se puede adosar dicho micrófono (baterías, guitarras…), o para captar sonido en situaciones extremas donde los micrófonos convencionales no pueden (bajo el agua, a grandes presiones…). OTROS TIPOS: láser… PROPIEDADES - Direccionalidad: sensibilidad de un micrófono según la dirección del sonido. Omnidireccional o no-direccional: capta el sonido en todas las direcciones. Bidireccional: capta el sonido en dos direcciones, opuestas entre sí. Unidireccional (cardioides): capta el sonido en una dirección. - Impedancia: mide la oposición o resistencia de un dispositivo (bobina móvil) al paso de una corriente eléctrica alterna AC (señal de audio). Se mide en Ohmios [Ω]. Se representa con la letra Z -> términos Hi-Z, Low-Z. Varía con la frecuencia. En micrófonos, mejor cuanto más baja -> admiten cables de mayor longitud (5-10m) y no se producen pérdidas al conectarlo a un (pre)amplificador. Regla: conectar los micros a equipos con impedancia de entrada >= que la impedancia de salida del micro. Si no, pérdida de señal y puede provocar distorsión. 1.2. Grabación de audio La señal producida por el sistema de captura debe ser almacenada en algún soporte permanente. El proceso debe ser reversible para permitir la reproducción posterior. GRABACIÓN MECÁNICA Vibraciones del aire hacen vibrar una membrana, que a su vez hace vibrar una aguja o estilete que traza un surco en un cilindro (fonógrafo) o en un disco (gramófono). GRABACIÓN ELÉCTRICA Introducción de elementos eléctricos en micrófonos (reproducción) que mejoran la calidad final. El soporte físico no cambia en esencia: disco de vinilo. GRABACIÓN MAGNÉTICA - No añade cambios sustanciales en los elementos de grabación/reproducción. - Cambia el soporte físico: cinta magnética -> tira plástica cubierta por una fina capa de material magnetizable. - Se hace pasar la señal de audio a través de una bobina situada en el cabezal de grabación. Esto genera un campo magnético variable proporcional a la señal de audio de entrada (fenómeno opuesto a la inducción electromagnética que se produce en los micrófonos). Este reorienta las partículas magnetizables de la cinta a medida que ésta se desplaza por delante, quedando éstas en dicha posición cuando salen del rango de acción del campo magnético. 1.3. Reproducción: Altavoces Reproducción: consiste en la generación de una onda de sonido (variaciones de presión) a partir de la información almacenada en el soporte (cilindro, vinilo o cinta). Tres etapas: - Primera: la información almacenada se convierte de nuevo en una señal eléctrica. Disco: los movimientos de la aguja desplazan una bobina situada en un campo magnético originado por un imán induciendo una señal eléctrica. Cinta: en el cabezal de lectura se genera una señal eléctrica a partir del campo magnético de la cinta. - Segunda: la señal eléctrica es por lo general muy débil, por lo que hay que amplificarla. Amplificador electrónico: es capaz de amplificar una magnitud eléctrica. Existen muchos tipos de amplificadores, pero no todos dan buenos resultados. - Tercera: los altavoces transforman la señal eléctrica amplificada en una onda de sonido (variación de presión). Generan vibraciones en el aire proporcionales a la señal eléctrica de entrada. Cierra el ciclo de “grabación - almacenamiento - reproducción”, generando de nuevo una onda de sonido que podemos oír -> es el paso en el que se introduce más variación (i.e. distorsión o pérdida de calidad). Los altavoces transforman la señal eléctrica en acústica, por tanto, también son transductores electroacústicos (al igual que los micrófonos, aunque en sentido opuesto). Hay muchos tipos, entre ellos el altavoz dinámico que es el más común. ALTAVOZ DINÁMICO - La señal eléctrica de entrada (~sonido) recorre una bobina móvil (alambre enrollado) que está adosada a un diafragma creando un campo magnético que va variando en dirección e intensidad de acuerdo con dicha señal. El campo variable interactúa con otro constante generado por un imán que también forma parte del altavoz. - La energía mecánica causada por la atracción/repulsión entre estos dos campos mueve una superficie de papel (diafragma) hacia adelante/atrás, haciendo vibrar el aire que se encuentra próximo, generando una onda de sonido que se desplaza longitudinalmente. - Para reproducir adecuadamente el mayor número posible de frecuencias, la mayor parte de altavoces dinámicos cuentan con diferentes transductores para diferentes frecuencias. La separación de las bandas de frecuencia las realiza un dispositivo electrónico llamado crossover. Como resultado tenemos un sistema compuesto por varios altavoces dinámicos (i.e. vías), cada uno encargado de reproducir un rango de frecuencias determinado: tweeter (frecuencias altas), midrange (medias), woofer (bajas), subwoofer (muy bajas). ALTAVOZ DE CONDENSADOR Similar al funcionamiento del micrófono de condensador a la inversa. El diafragma (superficie de papel) es una de las placas del condensador. ALTAVOZ PIEZOELÉCTRICO (O DE CONTACTO) Un material piezoeléctrico (poliéster o cerámica), que al recibir una diferencia de tensión entre sus dos caras experimenta alargamientos y compresiones que sólo son capaces de generar una señal de sonido de muy bajo volumen. - Se pueden acoplar a una superficie lisa (ventana, mesa…) que actúa como amplificador. 2. SISTEMAS DIGITALES 2.1. Digitalización de audio La Información Digital consiste en una secuencia de unidades de información llamadas bits = unidad mínima de información que puede ser almacenada o transmitida por medios digitales: - 1 bit sólo puede tomar dos valores: 0 o 1 - 1 bit puede almacenarse de formas diferentes: presencia/ausencia de voltaje en una zona concreta (i.e. celda) de la memoria de un ordenador, protuberancia/hoyo en la superficie de un CD, presencia/ausencia de luz en FO, etc. - Byte [B] = conjunto de 8 bits. - Sirve para representar cualquier tipo de información. La diferencia está en el codificador (codec) que se utiliza para convertir la información real (analógica) en una secuencia de bits (digital). Ejemplo códec I: codificación números enteros – diapositiva 24 Ejemplo códec II: codificación de textos – múltiples formatos, p.e. código ASCII (8 bits): -- A cada carácter se le asigna un número entero entre 0 y 255 -- Número de combinaciones posibles con 8 bits: 28=256 -- Dicho entero se codifica en binario (siguiendo el ejemplo I – diapositiva 25) UNIDADES - En transmisión/procesamiento de información se utiliza el bit [b] y potencias 103: bit – kilobit [Kb] - megabit [Mb] - gigabit [Gb] - terabit [Tb]. Se emplean para medir tasas de transmisión o codificación (bit-rate), p.e 3 Mb/s - En almacenamiento de información se utiliza el Byte [B] y potencias 210=1024 de éste. VENTAJAS DE LA DIGITALIZACIÓN - La información digital puede ser copiada una y otra vez de forma EXACTA. Ejemplo: copia de audio de una cinta magnética. -- 1º: Reproducir la cinta origen (polarización magnética -> señal eléctrica -> onda sonora). -- 2º: Grabar el sonido en una nueva cinta (onda sonora -> señal eléctrica -> polarización magnética). - Los procesos de copia de señales analógicas añaden ruido (=distorsión) en los procesos de conversión entre los distintos tipos de señales -> ruido ambiente en el lugar de reproducción se grabará en la nueva cinta. En señales digitales, también se produce ruido (en la etapa inicial de digitalización), pero en las sucesivas copias no se añade más. - A esto se suma que los soportes de almacenamiento de información digital son, en general, menos vulnerables al paso del tiempo y a otros factores como la presencia de campos magnéticos (grabación magnética), la luz (película de cine), etc. AUDIO DIGITAL Procesamiento de sonido usando señales digitales. Objetivo: evitar pérdida de calidad. - Estándar “CD Audio” Frecuencia de muestreo: 44,1 KHz (44.100 muestras/s) Resolución: 16-bit PCM por canal (estéreo) -> 216 = 65.536 niveles - Para resumir la calidad de un formato se utiliza el concepto de tasa de bits (bit-rate=nº bits necesario para representar digitalmente un segundo de audio) CD Audio = 44.100 (muestras) * 16 (bits/muestra) * 2 (canales) = 1.411.200 bits (1,4 Mbits/s aprox.) Comparativa entre “CD Audio” y audio de “Alta Fidelidad” (diapositiva 36). Las especificaciones usadas habitualmente son 24 bits/96 kHz y 24 bits/192 kHz. CONVERSIÓN ANALÓGICO-DIGITAL PCM (Pulse Code Modulation): método utilizado para representar digitalmente muestras de una señal analógica. Técnica utilizada en audio digital. La salida del conversor A/D se denomina PCM stream. - Dos etapas: 1ª Muestreo: se toman muestras (i.e. magnitud) de la señal a intervalos regulares (frecuencia) de acuerdo al Teorema De Muestreo: -- Si una señal f(t) se muestrea a una frecuencia mayor que el doble de la frecuencia más alta de la señal -> dichas muestras contienen toda la información de la señal original. Como consecuencia, es posible reconstruir la señal f(t) original a partir estas muestras (sin distorsión). -- Ejemplo: voz 8000 muestras/s 2ª Cuantificación: a cada muestra se le asigna un valor dentro de un conjunto discreto de valores. -- El rango de valores posibles es (0, +), mientras que el nº de valores representables digitalmente es finito. Por tanto, tenemos que “cuantificar” las muestras (i.e. aproximar el valor de la muestra al valor representable más cercano). Esto implica que en cada muestra estamos añadiendo ruido (error de cuantificación -> menor cuantos más valores representables tengamos). -- Resolución o profundidad de bit: número de bits utilizados para guardar el valor de cada muestra. A + bits, + valores representables -> < error. -- Ejemplos: CD (16-bit PCM), DVD-Audio (24-bit PCM) - La fidelidad (~calidad) viene determinada por dos parámetros: Tasa o frecuencia de muestreo (cuántas muestras obtengo por segundo. La resolución (conjunto de posibles valores): nº bits/muestra A mayor frecuencia de muestreo y resolución, mayor calidad. Como contrapartida, también requerirá un mayor espacio de almacenamiento y tiempo de transmisión y/o procesado. 2.2. Compresión digital Compresión: reducir el número de bits necesario para almacenar una información determinada. De esta forma se reducen el espacio de almacenamiento y el tiempo de transmisión y/o procesamiento. Dos grandes grupos de técnicas. - Métodos sin pérdidas: es posible reconstruir exactamente la información original a partir de la información comprimida. Pueden aplicarse a cualquier información digital. Se basan principalmente en la búsqueda y sustitución de secuencias de bytes repetidas. Ejemplos: ZIP, RAR - Métodos con pérdidas: introducen un error. No es posible reconstruir exactamente la información original a partir de la comprimida. Específicas de un tipo de información. Consiguen, por lo general, un mejor ratio de compresión. En el ejemplo, sirve para representar lo que nos toca pagar de una comida con amigos, pero no sirve si dicho número representa un identificador único (e.g. DNI). Aprovechan las características de ese tipo de información para que la pérdida no afecte al resultado. Por tanto, para seleccionar entre los posibles métodos con pérdidas, es necesario saber cuál es el margen de error aceptable. Ejemplos: Audio: MP3, WMA; Imágenes: JPEG; Video: MPEG-4 - Ejemplo comparación: información original: “25,99999999” Método de compresión sin pérdida: “25,9” Método de compresión con pérdida: “26” (se asume una pérdida de +- 0,5) COMPRESIÓN DE AUDIO - Codec: software que implementa un algoritmo de codificación determinado incluyendo la compresión (si existe). Los métodos generales de compresión sin pérdidas no funcionan muy bien con archivos de audio. En señales de audio complejas (e.g. muchos instrumentos y voces) no suele haber muchas secuencias de bytes repetidas y por tanto las tasas de compresión son bajas. El fichero comprimido no baja más del 80-90% del tamaño del fichero original. Además, dichas técnicas no están diseñadas para su uso en aplicaciones en tiempo real. Existen algoritmos optimizados para comprimir audio. - Sin pérdidas: ratios del 50-60% del tamaño original. - Con pérdidas: ratios del 5-20% del tamaño original. Los métodos de compresión de audio digital aprovechan que no toda la información recogida en una señal de audio es perceptible para el oído humano, por ejemplo: - Sonidos de alta frecuencia. - Sonidos que ocurren a la vez que otros (enmascaramiento simultáneo -> oímos solo el de más volumen). - Sonidos de frecuencias muy próximas que ocurren casi a la vez (enmascaramiento temporal). El “truco” consiste en detectar esta información y eliminarla o codificarla con menos bits La psicoacústica es la rama de la ciencia que estudia estos fenómenos de la percepción. CODIFICACIÓN PERCEPTUAL Uso de la psicoacústica para codificar/comprimir señales de audio. - Unificación de estéreo: Normalmente el audio se graba en estéreo, para intentar replicar la percepción humana -> se duplica el espacio de almacenamiento. El oído es menos sensible a la “procedencia” de los sonidos a frecuencias altas -> si codificamos la información de los sonidos de altas frecuencias una sola vez, ahorraremos espacio. El resultado no es apreciable, ya que nuestro cerebro no es capaz de deducir por qué oído lo está percibiendo. Aunque experimentalmente se demuestra que el oído no es sensible a cada una de estas pérdidas por separado, sí lo es al efecto acumulado de todas ellas. Sin embargo, la popularidad de métodos de compresión con pérdidas como MP3 demuestra que para la mayor parte de gente y con la mayor parte de los dispositivos de reproducción, estas suposiciones son suficientemente buenas. Un oído entrenado y con un buen equipo de sonido puede percibir una pérdida de calidad con tasas de compresión de 128 Kbps (compresión bastante alta). A partir de 192 Kbps, prácticamente nadie nota la diferencia. FORMATOS Ejemplo: MP3 (MPEG1/2 Audio Layer III) - Creado en 1989 por Karlheinz Branderberg. - Bitrates típicas de 128, 192 y 256 Kbps - Combina diferentes técnicas: compresión con pérdidas (e.g. codificación perceptual) y sin pérdidas (e.g. Huffmann). Las primeras funcionan bien con sonidos complicados donde se mezclan muchos elementos ya que generan mucho enmascaramiento. Las segundas, con sonidos simples, donde hay bastante redundancia. - Hay muchos otros formatos de audio digital comprimido que usan ideas similares. WMA (Windows Media Audio). Formato de Microsoft MP4. Estándar para audio y video digital integrados. Para el audio utiliza el codec AAC (Advanced Audio Encoding). Usado por Apple en iTunes, Youtube, Playstation… 2.3. Almacenamiento óptico Relegaron a los antiguos sistemas de grabación analógicos (principalmente vinilo, cinta). Fruto de los avances en dos campos: la tecnología digital (e.g. PCM, codecs) y la tecnología láser -> utiliza un láser que emite luz coherente (i.e. de una longitud de onda determinada, 780 nm) que permite enfocar el haz en un punto de tamaño muy pequeño. En los discos ópticos, la información digital se almacena haciendo hoyos (pits) en la superficie de un disco. Los hoyos están dispuestos en una pista en espiral que recorre toda la superficie empezando por el centro. La información es leída iluminando la superficie con un láser y observando cómo se refleja. CD (COMPACT DISC) Molde de policarbonato plástico de 1,2 mm de espesor. Se cubre con una fina capa de aluminio para que refleje la luz de láser de lectura. Se protege con una capa de acrílico y sobre ésta se imprime la etiqueta. El haz del láser es guiado a través de una óptica hasta la posición exacta en la superficie del disco. La luz reflejada es captada por un receptor óptico de modo diferente dependiendo de si la luz rebota en un hoyo o una meseta -> secuencia de hoyos (Pit, 1’s), mesetas entre los hoyos (Land, 0’s). Con la aparición de diodos láser de bajo coste se generalizó el uso de esta tecnología. - Formatos CD. Ejemplos: CD-Audio, o simplemente CD (1982) -- 74 minutos de audio (calidad CD) -- 44,100 samples/channel/second x 2 bytes/sample x 2 channels x 74 minutes x 60 seconds/minute = 783 MB CD-ROM, datos: 700 MB (extensible a 850 Mb, el equivalente a 82 min de audio) Otros -- Photo-CD, fotografías (Kodak 1992) -- Vídeo-CD, audio y video comprimido en MPEG-1 -- CD-Extra, audio + datos (Philips, Sony, MS, Apple) -- CD-i, interactivo (Philips, Sony) -- CD-R (recordable, solo una vez - 1988) y CD-RW (rewritable, múltiples veces - 1997) DVD (DIGITAL VERSATILE DISC) Similar al CD pero con 7 veces más capacidad aprox. (sólo en una cara), lo que lo hace apto para almacenar video MPEG-2 (vídeo SD - Standard Definition, precisa 4,7 GB para un contenido de 2h). Utiliza un láser de menor longitud de onda que el CD (635 nm), que permite grabar hoyos más pequeños y más próximos entre sí. Puede grabarse en una capa (SL single-layer) o 2 (DL dual-layer), y en una (SS single-sided) o dos caras (DS double-sided) -> SS SL 4,7GB - SS DL 8,5GB - DS SL 9,4GB - DS DL 17GB. El espesor total es el mismo que el CD (1,2 mm). - Formatos DVD. Ejemplos: DVD-Video, o simplemente DVD (1995) DVD-RAM (1996), regrabables DVD-R (1997), DVD-RW (1999) DVD-Audio Super Audio-CD (SACD) BLU-RAY DISC (BD) Diseñado para sustituir al DVD con 6 veces más capacidad aprox., suficiente para almacenar vídeo HD - High Definition -> 27 GB para un contenido de 2h. El ‘truco’, de nuevo, es utilizar un láser de menor longitud de onda (405 nm -azul-) - Formatos BD. Ejemplos: BD BD-ROM (read-only), contenidos pregrabados BD-R (recordable) BD-RE (recordable erasable, múltiples veces) pensado para HDTV 2.4. Generación artificial de sonido Si sabemos exactamente qué armónicos genera cada instrumento, podemos reproducir su sonido artificialmente. Los sintetizadores de sonido se basan en esta técnica para emular diversos instrumentos. En los años 90 se introdujeron técnicas de “modelado físico” que supusieron un salto de calidad en la emulación de instrumentos. Emplean ecuaciones matemáticas que modelan las características físicas de un instrumento y son capaces de generar ondas de sonido con esas características. Aunque la mayoría soportan múltiples instrumentos, los hay que están especializados en un tipo de instrumento concreto (e.g. cuerda, viento, percusión). MIDI (MUSICAL INSTRUMENT DIGITAL INTERFACE) Estándar propuesto en 1981 que permite a diferentes sintetizadores comunicarse y sincronizarse entre sí. No contiene la señal de audio de salida, sino un programa (como la “partitura”) que cualquier sintetizador puede interpretar. Un fichero/programa MIDI ocupa muy poco espacio en comparación con la grabación del audio correspondiente. Un programa MIDI está formado por un conjunto de acciones que se ejecutan en serie: tocar una nota determinada, con cierta intensidad, emulando un instrumento determinado, con un efecto determinado (e.g. vibrato), etc. Cada sintetizador reproduce el programa MIDI como quiera/pueda, por tanto, la calidad depende de cuál usemos. - Ejemplo: fragmento de un programa MIDI para tocar la tecla DO en un piano. 1001xxxx – nota pulsada 00111100 – nota Do central “C3” 0xxxxxxx – fuerza con la que ha sido pulsada 00000000 – fuerza 0, la nota deja de sonar - Usos adicionales de MIDI Generar música compleja, incluso con múltiples instrumentos (controlados desde un teclado), aún sin saber tocarlos. Tocar un instrumento determinado pero que suene como otro (un teclado que interpreta la melodía de un violín). TEMA 4: CAPTURA, ALMACENAMIENTO Y REPRODUCCIÓN DE IMAGEN (VÍDEO) 1. SISTEMAS ANALÓGICOS 1.1. Captación: Cámaras de Vídeo Dispositivo que permite la captura de imágenes en movimiento mediante un proceso de transformación de la luz en una señal eléctrica (capta las variaciones de luminosidad de la escena). Desarrollada inicialmente para la TV: - (30s) Electromecánica (o mecánica): basada en el Nipkow disk (John Logie Baird). - (40s) Electrónica: basada en los tubos de rayos catódicos (tubo de cámara). - (80s) Digital: basada en sensores de estado sólido (CCD y posteriormente CMOS). Todas las tecnologías utilizan un barrido para recorrer la imagen línea a línea y transformándola en una señal eléctrica. - Field (campo): en barrido entrelazado, conjunto de líneas pares/impares. - Frame (cuadro): conjunto de líneas que constituyen una imagen completa (=2 fields -> par e impar). Componentes de una cámara de vídeo: - Sistema óptico (equivalente al objetivo en fotografía) Hace converger los rayos de luz sobre un receptor. Compuesto por varias lentes: - Lente convergente (+ gruesa en el centro): los rayos procedentes de un objeto forman una imagen real -> no se ve a simple viste, pero se forma una imagen visible y, por tanto, puede ser capturada. También se obtiene con un espejo cóncavo. - Lente divergente (+ gruesa en los bordes): los rayos procedentes de un convergen al otro lado de la lente dando la impresión de que vienen de un lugar donde realmente no se forma una imagen (imagen virtual -> también se obtiene con un espejo convexo). - Receptor (tubo de cámara o sensor digital): transductor - transforma la luz en una señal eléctrica. - Circuitos amplificadores: amplifica la señal de salida del receptor. - Monitor de imagen: muestra la imagen que se está captando al operador de cámara. - Soporte: trípode, pedestal, grúas... SISTEMA ÓPTICO - Objeto: colección de puntos del espacio que reflejan la luz de un determinado color. El sistema óptico de la cámara producirá puntos imagen para todos y cada uno de los puntos del objeto, formando una imagen completa. - Enfoque: dependiendo de la distancia a la que se encuentra el objeto, se debe ajustar la distancia de la lente a la pantalla receptora para que la luz se concentre en ese punto. - Círculo de confusión: círculo tan pequeño que el ojo humano no lo distingue de un punto. Imagen nítida: tamaño puntos en la pantalla < círculo de confusión. Si no, borrosa. Determina la profundidad de campo -> distancia a partir de la cual los puntos se empiezan a ver borrosos. - Diafragma: láminas de metal u otro material opaco que controlan el ancho del haz de luz que atraviesa el objetivo. Mejora la calidad porque las aberraciones de las lentes se producen sobre todo en los extremos. Cuando se cierra demasiado se puede producir difracción Al disminuir el ángulo de entrada de los rayos de luz, facilita el enfoque (i.e. mayor profundidad de campo) TIPOS DE OBJETIVOS - Angular: mayor ángulo de visión (espacios reducidos, paisajes). - Teleobjetivo: menor ángulo de visión, magnifica el objeto. - Zoom: distancia focal variable. - Fijo: distancia focal fija. TUBO DE CÁMARA Transductor -> transforma la imagen que incide en la superficie en una señal eléctrica. Los avances técnicos en los tubos de cámara marcaron la evolución de las cámaras de televisión durante décadas (era analógica). En desuso tras la aparición del CCD. Dos tipos: - Fotoemisores: cuando la luz incide sobre la superficie (pantalla), se genera una carga (tensión) eléctrica. Mosaico fotosensible (target) -> donde se proyecta la imagen del objetivo. La tensión producida en cada punto proporcional a la intensidad de la luz incidente. Un haz de e- recorre el lado interno reflejando más o menos e- dependiendo de la carga acumulada en cada punto. - Fotoconductores (sustituyeron a los fotoemisores): cuando la luz incide sobre la superficie, se modifica su resistencia eléctrica. Sobre el target fotosensible se dispone una placa de un material semiconductor transparente. Al incidir la luz sobre un punto, varía la resistencia del material. Un haz de e- barre el lado interno cerrando el circuito. SENSORES CCD (CHARGE COUPLED DEVICE) Sensores de transferencia de carga. Ventajas de los CCD respecto a los tubos de cámara: - Más Robustos → Resistente a golpes y vibraciones. - Menor tamaño y peso. - Menor consumo → Mayor vida útil. - Mayor sensibilidad → En peores condiciones de luz. - Inmune a campos magnéticos externos. - No precisa precalentamiento. Formados por fotodiodos de silicio que almacenan una carga eléctrica proporcional a la intensidad de la luz que reciben. Se disponen en una matriz de millones de píxeles. Proceso para convertir la imagen en una señal eléctrica equivalente: 1º Cada fotodiodo carga un pequeño condensador integrado en el propio sustrato de silicio que almacena la carga generada durante el tiempo de exposición de la imagen. 2º Un reloj dirige la transferencia de carga desde estos condensadores secuencialmente a un terminal común (salida). 3º El fotodiodo está preparado para recibir la luz de una nueva imagen. 4º La salida del sensor se transfiere a un amplificador y después a un conversor A/D. Los fotodiodos no son sensibles a la frecuencia (no captan el color). Métodos para digitalización del color: - 3CCDs (Cámaras profesionales): un prisma separa la imagen en rojo, verde y azul. Cada uno es dirigido a un sensor diferente, cuya salida debe estar perfectamente sincronizada para obtener los tres componentes de color de cada pixel de imagen. - CFA - Color Filter Array (Cámaras domésticas): consigue digitalizar el color con sólo 1 sensor CCD empleando filtros de color. Filtro RGBG - máscara o filtro de Bayer: por cada 4 píxeles se aplican filtros para obtener 1 rojo, 1 azul y 2 verdes (el ojo es más sensible a este componente, por eso 2). - Submuestreo de color: de cada píxel físico, uno de sus componentes de color. - Demosaicing: algoritmo que reconstruye la imagen de color completa a partir de las muestras de color incompletas. Filtro CYGM - utiliza 4 filtros diferentes (cyan, yellow, green and magenta) - Foevon X3: cada color se capta a diferente profundidad dentro del sustrato de silicio (no utiliza una máscara de color). Al igual que los 3CCD, no precisa hacer demosaicing (no produce una rebaja en la resolución de color). - CMOS (Complementary Metal Oxide Semiconductor) - Diferencias respecto a los CCD: Más pequeños → Permite integrarlos en dispositivos más pequeños (e.g. móviles). Menor consumo → Alarga el uso de las baterías. Más sensibles a la luz → Permite trabajar mejor en condiciones de poca luz. Más rápidos → Permiten mayores velocidades de ráfaga y fps en vídeo. Por contra, los primeros CMOS proporcionaban peor calidad de imagen que los CCD. 1.2. Almacenamiento: Cintas REGISTRO DE IMAGEN La cinta de vídeo hizo su aparición cuando la televisión “en directo” llevaba ~20 años implantada. Inicialmente, para conservar un programa se utilizaba una técnica llamada kinescopado (su propósito inicial era emitir un programa en un diferente huso horario). Única forma posible antes de la aparición de la cinta de video (1956). El principal problema del kinescopado era la baja calidad de las grabaciones. Como alternativa, se empezaron a grabar en directo los programas de TV con cámaras cinematográficas de 35 mm. De este modo se conseguían imágenes de calidad que podían ser emitidas en cualquier tiempo/lugar. Con ello, nacen nuevos modelos de comercialización de contenidos: redifusión (o sindicación), y reposición. El proceso inverso, conversión de imagen de base fotográfica (película de cine) en una señal de video, se conoce como Telecine. Para poder transmitir y visionar películas de cine en equipos de video estándar (TV, VCR, ordenadores...). En la actualidad también se emplean scanners que obtienen un frame de video a partir de cada fotograma. Usos actuales: - Pasar películas en soporte cinematográfico a vídeo. - Recuperación de soportes antiguos. El mayor reto para pasar de una película cinematográfica a video es lograr una perfecta sincronización entre los frames por segundo de la película cinematográfica y la señal de video. Es relativamente sencillo cuando la velocidad a la que fue grabada la película coincide con la velocidad a la que la cámara de video lee cada frame. CINTA DE VÍDEO Sistema de almacenamiento de imágenes en movimiento y sonidos sincronizados, que utiliza soportes magnéticos, a diferencia del cine que utiliza un soporte químico- fotográfico (película cinematográfica). - Principio de la grabación magnética de vídeo: Similar a la grabación magnética de audio. Una cinta de vídeo está formada por una tira plástica cubierta por una fina capa de material magnetizable. La señal de vídeo (i.e. eléctrica) pasa por una bobina situada en el cabezal de grabación, generando un campo magnético que reordena las partículas de la cinta, quedando grabada permanentemente. - Magnetoscopio: aparato utilizado para grabar/reproducir vídeo en cinta magnética. También conocido como VTR (video tape recorder cuando la cinta se enrolla en una bobina) o VCR (video cassette recorder cuando la cinta está encerrada en una casete). - Sistema de Exploración Segmentada. Emplea 4 cabezales (de ahí el nombre “Cuádruplex”). Cada pista (track) contiene la información de 1/20 de un campo PAL (15 líneas PAL). No permite pausar o variar la velocidad de reproducción (e.g ralentización). Standard de facto de TV broadcast hasta mediados de los 80s. - Reemplazado por el sistema de Grabación Helicoidal. Emplea 2 cabezales que recorren la cinta de forma oblicua (permite reducir el ancho de la cinta y meter más líneas en cada pista o track). Cada pista contiene la información de un campo completo de televisión (312’5 líneas en PAL). 2 pistas contienen un frame completo. Velocidad de giro 25 revoluciones por segundo (leen 50 campos/s = 25 frames/s). Permite la ralentización y la pausa de la imagen. - Grabación Azimutal. Consigue evitar la diafonía (el cabezal lee una pista, pero también parte de las adyacentes) aun eliminando las bandas de seguridad (espacio en blanco entre líneas) -> mejor aprovechamiento de la cinta. Cada cabezal de grabación se coloca con un ángulo diferente de inclinación. En reproducción, mientras el cabezal lee el campo que le corresponde, las pistas adyacentes se encuentran con una angulación opuesta, lo que impide que sean leídas. La evolución tecnológica -> búsqueda de cintas cada vez más pequeñas. Formatos: - Quad (AMPEX cuádruplex) (2”) - Type-C, Type-B (1”) - Cassette (U-matic, VHS,…) - Camcorders (cámara + grabadora) (Video8, Hi8, DV,…) -… 1.3. Reproductores de vídeo Último eslabón de la cadena audiovisual. Evolución tecnológica (de más antigua a la actualidad): CRT, LCD, plasma, LED, OLED, nanocristales, otros (sistemas 3D, videoproyectores, etc). CRT (CATHODE RAY TUBE) La visualización de las imagenes se realizaba mediante televisores y monitores. Ambos basan su funcionamiento en tubos de imagen. Primero monocromos (TV en B&N, monitories de fósforo verde), después a color. Tubo de imagen: ampolla de vidrio al vacío, cuya parte interior está recubierta de una sustancia fosforescente (fósforo) que desprende luz cuando incide sobre ella un haz de electrones. Funcionamiento – imagen en la diapositiva 41: - Cañón(es) de electrones (RGB) (1) - Haz(ces) de electrones (2) - Bobina de enfoque (3) y deflexión (4): mueven el haz barriendo la parte interior de la pantalla de izquierda a derecha y de arriba a abajo. - Cátodo (5). - Máscara (6 y 8): hace que el haz incida en la pantalla justamente en el fósforo de su color (tres fósforos por cada ‘píxel’ de imagen). - Superficie cubierta con tres tipos de fósforo (RGB) (7). Se emplean distintas configuraciones de los fósforos en la pantalla para generar un píxel. Dot pitch: distancia entre dos fósforos contiguos del mismo color. Indicador de la nitidez. Los CRT, a pesar de haber alcanzado un alto grado de desarrollo presentaban unos inconvenientes intrínsecos que propiciaron el desarrollo de otras tecnologías. - Mayor peso y volumen. - Mayor consumo y disipación de calor. - Tamaño de pantalla limitado (entre 7 y 40 pulgadas) - Distorsión geométrica causada por diferencias en la distancia recorrida por el haz de electrones. - Burn-in (fósforo quemado) LCD/LED Se basan en las propiedades de reflexión de la luz del cristal líquido (sustancia situada entre dos superficies de cristal). Cada celda de cristal líquido -> un píxel. En ambas caras del cristal se sitúa un electrodo transparente y un filtro de polarización (perpendiculares entre sí). Si no fuese por la sustancia que existe entre los cristales, la luz que atraviesa el primer filtro sería bloqueada por el segundo. Funcionamiento del cristal líquido: - En reposo (i.e. cuando no hay voltaje entre los electrodos), las moléculas del cristal líquido se disponen en forma helicoidal de forma que la luz gira en su interior y finalmente atraviesa los dos filtros -> pixel “blanco” o iluminado. - Al aplicar un voltaje, las moléculas del cristal cambian de posición y la luz ya no gira de modo que es bloqueada en el segundo filtro -> pixel “negro” o apagado. - Controlando el voltaje, se controla la cantidad de luz que atraviesa a cada píxel. - Para lograr una imagen en color se utilizan filtros de color sobre cada píxel según el clásico sistema de rejilla (R,G,B). Las celdas LCD no emiten luz por sí mismas, así que se necesita una fuente de luz externa para visualizar las imágenes (LCD backlight). - CCFL (Cold Cathode Fluorescent Light) - fluorescentes en el marco de la pantalla más un difusor que distribuye la luz uniformemente sobre toda la superficie. - Edge LED – igual, pero con LEDs. - Full-array LED – LEDs distribuidos por toda la superficie de la pantalla. Variantes ‘with/without local dimming’ (oscurecimiento). La mejor combinación sería Full-array with local dimming (alto contraste; negros muy intensos – compite con los Plasma). Ventajas (frente a la tecnología anterior, CRTs): menor tamaño (sin límites), peso y consumo. Inconvenientes (primera generación de LCD/LED): - Ángulo de visión limitado. - Tiempos de respuesta de píxel altos (8 a 16ms, b-w-b). - Causantes de efectos no deseados (smear, ghosting) - 1 resolución nativa (no pasaba en CRT). Necesario un escalado para visualizar otras. - Retardo de visualización (display lag) (68ms). Tiempo transcurrido entre que entra la señal en el dispositivo y se visualiza en la pantalla. - Píxeles ‘muertos’ durante el proceso de fabricación o durante el uso. PANTALLA DE PLASMA Disponible en pantallas de “gran” tamaño (37” o superior cuando las tecnologías LCD/LED no lo permitían). Plasma: mezcla de gases nobles que emiten luz UV cuando son atravesado por una corriente eléctrica. Cada celda contiene fósforo de uno de los 3 colores primarios (R,G,B) que emite luz visible al ser excitado por la luz UV. No precisa de una fuente de luz trasera (backlight). Ventajas (respecto a tecnologías anteriores, LCD/LED): - Mayor ángulo de visión. - Alto contraste (negros puros) -> mejor representación del color. - Tiempos de respuesta de píxel muy bajos. - Admiten grandes tamaños de pantalla. Inconvenientes: - Una única resolución nativa. - Píxeles ‘muertos’ por fabricación o por uso. Los 1os modelos sufrían ‘image burn-in’ causada por una exposición prolongada del fósforo a la luz UV. OLED (ORGANIC LIGHT-EMITTING DIODE) Utilizan un material orgánico electroluminiscente, es decir, que emite luz cuando se estimula con una corriente eléctrica -> no precisa una fuente de luz trasera (backlight). AMOLED (Active-matrix OLED). Ventajas (frente a tecnologías anteriores, LCD/LED, Plasma): - Muy finas. Se puede doblar (el material en sí, no los paneles OLED comerciales) - Alto contraste (negros puros) -> mejor representación del color. - Tiempos de respuesta despreciables (2 a 8ms). - Bajo consumo. - Ángulo de visión excelente (próximo a 90º). Inconvenientes: coste y tiempo de vida menor (5 años, 8 horas diarias de uso). NANOCRISTALES Esta tecnología está detrás de denominaciones comerciales como QLED (Quantum LED) - Partículas de tamaño inferior a los 100 nm. Su estructura les permite modificar la longitud de onda de la luz que los atraviesa. - «Puntos cuánticos» son un tipo de nanocristales compuestos por materiales semiconductores. - Calidad comparable a OLED. Ventajas: - Gama cromática más amplia y negros más profundos. - Eficiencia energética un 30% mayor que la de la retroiluminación LED convencional. - Más brillo (hasta 100 veces). - Alternativa más barata que OLED (permite aprovechar la cadena de producción LED). SISTEMAS 3D Visión estereoscópica: una de las razones principales por las que vemos en 3D es que cada ojo percibe una imagen ligeramente diferente. El cerebro integra ambas imágenes para hacernos ver una sola. Si miramos un objeto con un solo ojo alternativamente, lo vemos en posiciones ligeramente diferentes. Esa distancia entre el objeto visto por un ojo y visto por el otro nos permite estimar la lejanía del objeto (profundidad). Un cuadro o una foto no producen esa sensación porque los objetos están a la misma distancia de ambos ojos. - Sistemas de grabación estereoscópica: consiguen la sensación de profundidad grabando la señal de video por duplicado, desde el punto de vista de cada ojo. - Sistemas de reproducción estereoscópica -> (poner una imagen pequeña delante de cada ojo): si miramos al frente, el cerebro asume que estamos mirando un objeto lejano, enfoca el cristalino consecuentemente y vemos borroso. Si no miramos al frente, tenemos que fijar los dos ojos en la misma imagen y se pierde el efecto 3D. El problema por tanto es como hacer que cada ojo vea la imagen que debe ver. - Anaglifos (primeros diseños): se proyectan dos imágenes, la izquierda en tonos rojos y la derecha en tonos azules. Cada ojo mira a través de un filtro (izquierdo rojo y derecho azul). - Sistemas Polarizados (Polarización 3D): se proyectan dos imágenes a la vez, con polarización opuesta (horizontal/vertical). Las gafas del espectador tienen filtros polarizados opuestos en cada ojo. Si mueve la cabeza, el efecto puede perderse. Sistemas de polarización ‘activa’: proyectan dos imágenes, pero de forma alternativa, por lo que sólo se proyecta una imagen a la vez. Las gafas activan cada lente de forma sincronizada con el proyector para que cada ojo sólo vea su imagen. Si se hace rápido (140 frames/s), el cerebro no percibe parpadeo. 2. SISTEMAS DIGITALES 2.1. Imagen digital La resolución de la pantalla, entre otros factores, determina la ‘calidad’. - En pantallas de televisión analógica, resolución = número de líneas horizontales (p.e. PAL (625 líneas), NTSC (525 líneas)) - En pantallas de ordenador y TV digital, resolución = nº píxeles en horizontal x nº píxeles en vertical (p.e. una pantalla de resolución 1024x768 puede representar hasta 768 líneas horizontales de 1024 píxeles cada una). Una imagen digital está formada por una cuadrícula de “píxeles”. La profundidad de color o bits por píxel (bpp): nº de bits utilizados para representar el color de un píxel. Por ejemplo, en RGB es habitual tener 24 bits por píxel (RGB24), o lo que es lo mismo, 8 bits para la intensidad de cada uno de los tres componentes de color. Pero ésta no es la única forma de representar el color de un píxel. Hay diferentes formas de representar esta información. SISTEMA RGB La colorimetría nos dice que podemos conseguir cualquier color combinando los tres colores primarios. Por ejemplo, hemos visto que los sistemas de reproducción (de todas las tecnologías) utilizan este principio básico para presentar una imagen en color. Sin embargo, el formato RGB no es el más adecuado para transmitir o almacenar video debido a que hay mucha redundancia entre los tres componentes. SISTEMA Y’CbCr También utiliza 3 componentes: - Luminancia (Y’). Brillo o parte acromática de una imagen. - Croma (CbCr). Dos componentes que almacenan la información de color. Azul y roja. Partiendo de los tres componentes, podemos reconstruir la imagen original. La conversión entre RGB e Y’CbCr es sencilla. - Partiendo de la info en RGB (e.g. RGB24), hay ecuaciones que nos permiten obtener el valor de estos tres componentes en la misma longitud de bits. - Se puede utilizar Y’CbCr para transmisión y almacenamiento de imágenes digitales, y convertirlas a RGB para su visualización en una pantalla. Ventajas de esta nueva forma de representación: - ‘Compatible’ con la tv en blanco y negro utilizando directamente la componente Y’. - Mayor compresión. Permite utilizar técnicas de codificación perceptual – permite reducir la información a transmitir y/o almacenar. La visión humana es más sensible a cambios en la luminosidad que a cambios en el color - permite reducir los bits con los que se codifican los componentes de color. 2.2. Digitalización y compresión de vídeo Al igual que en el caso del audio podemos distinguir entre métodos con y sin pérdidas. - LZW (Lempel-Ziv-Welch): sin pérdidas aplicado con especial éxito en imágenes (e.g.GIF) - JPEG: método con pérdidas, aprovechan características en la percepción humana: Nuestro sistema visual es más sensible a cambios de luminosidad que de color entre puntos adyacentes -> podemos codificar con menos bits la componente de color que la de luminosidad. Esta técnica se conoce como submuestreo de color. Nuestro sistema visual es más sensible a cambios de luminosidad y color en zonas homogéneas que en zonas con mucho detalle -> podemos codificar con menos bits las zonas donde hay más variación de imagen (e.g. bordes de objetos). Video digital: sucesión de imágenes digitales. - M-JPEG: nombre informal para una serie de formatos que comprimen video comprimiendo en JPEG una a una las imágenes (frames) que lo forman. Usado en el modo video de cámaras digitales de primera generación. - MPEG (Moving Pictures Experts Group): incluye a +300 miembros entre empresas y universidades. Ha publicado una variedad de estándares de interés (con múltiples partes y opciones): MPEG 1. Compresión de audio y video con calidad VHS. Incluye la MPEG Audio Layer 3 (MP3) MPEG 2. Usado en los primeros sistemas de televisión digital por satélite y en DVDs (video SD, Standard Definition) MPEG 3 (no confundir con MP3!!). No llegó a ser utilizado como tal, sino que se incluyó al final en MPEG 2 MPEG 4. Evolución de MPEG2. Usado en Divx, quicktime, xvid, Blu-Ray (video HD - High Definition) Sobre M-JPEG, añade la idea de aprovechar la redundancia temporal. Las sucesivas imágenes (frames) de un video apenas varían entre sí, o lo hacen muy poco. Por ejemplo, en un primer plano de un actor hablando, prácticamente sólo cambia la parte de la boca del actor. La idea es intentar codificar sólo esa parte que cambia en vez de la imagen completa. TEMA 5: TECNOLOGÍAS DE PRODUCCIÓN AUDIOVISUAL 1. ILUMINACIÓN 1.1. Temperatura de color Medida ‘objetiva’ del color de una fuente de luz. Basado en el principio de ‘radiación del cuerpo negro’-> todos los cuerpos al calentarse emiten una radiación electromagnética. A > temperatura, > frecuencia de la radiación emitida -> cambia de color. Cuerpo negro: objeto físico teórico que absorbe toda la radiación electromagnética que recibe. Al calentarlo: luz rojiza (3000K) -> luz blanca (5000K) -> luz azulada Temperatura de color: temperatura a la que habría que calentar un “cuerpo negro” para que emita luz con esas características cromáticas. - Valores de referencia Luz de día: 5500–5600K Luz de interior: 3200K El ojo y el cerebro humanos son capaces de identificar el color ‘natural’ de los objetos incluso iluminados por fuentes con diferente temperatura de color. Los sistemas artificiales, sin embargo, son muy sensibles a esas diferencias, por lo que se hace el balance de blancos. 1.2. Balance de blancos Proceso por el cual la cámara realiza un ajuste similar al que hace automáticamente el ojo y cerebro humano. - Cámaras analógicas: Películas diseñadas para una temperatura de color determinada Se usan filtros para compensar la temperatura de color de la luz. - Cámaras digitales. 1º Proporcionar a la cámara el blanco de referencia (combinación RGB), i.e. el color que debería ‘percibir’ como blanco bajo las condiciones de iluminación actuales. 2º La cámara ajusta el color registrado de la imagen a partir de dicho valor para cada componente de color RGB. Con una profundidad de color 8 bits/componente RGB --- valor de cada componente para un pixel blanco es 255 -> si el valor del componente R del ‘blanco de referencia’ es 240, el balance de blancos se obtiene multiplicando la componente R de cada pixel de la imagen por 255/240 (y lo mismo para el resto de componentes). - Balance de blancos preestablecidos: ajustados para condiciones de iluminación habituales como luz de tungsteno, fluorescente, día soleado, nuboso, etc. De no ser correcto, el ajuste que hace la cámara ocasiona un exceso de coloración: Azulado cuando está ajustado a una temperatura de color menor que la real. Anaranjado cuando está ajustado a una temperatura de color mayor que la real. 1.3. Dureza de la luz - Luz dura: produce transiciones abruptas de zonas iluminadas a sombras. - Luz suave: produce transiciones suaves de zonas iluminadas a sombras. La dureza de una luz es independiente de su intensidad. Factores que la determinan: tamaño relativo (Tamaño + Distancia) 1) Tamaño de la fuente de luz respecto al objeto iluminado. Luz dura, < tamaño; luz suave, > tamaño 2) Distancia entre la fuente de luz y el objeto iluminado. Afecta indirectamente al tamaño relativo -> a > distancia, < tamaño relativo de la fuente respecto al objeto. Luz dura, > distancia; luz suave, < distancia 3) Empleo de difusores u otros elementos Afecta indirectamente al tamaño relativo. Aumenta la superficie que irradia luz (=la fuente de luz) Tipos de difusores: - Softbox: hace la luz + difusa y + direccional - Paraguas translúcidos: evitan la excesiva dureza del flash LUZ DURA Uso: perfilado de figuras. Produce sombras muy marcadas, que se traducen en fuertes contrastes entre zonas iluminadas y no iluminadas. Ejemplo de luz natural dura: luz directa del sol en un día despejado. Ejemplo de luz artificial dura: focos direccionales con fuentes de iluminación puntuales (p. e. focos Fresnel) La intensidad lumínica decrece proporcionalmente al cuadrado de la distancia. Inconvenientes o ventajas: - Sombras excesivamente marcadas. - Resalta en exceso la textura de las superficies. - Cuando se emplean varios focos se producen sombras múltiples. LUZ SUAVE Uso: atenuar sombras generadas por la luz dura (apenas genera sombras). Ejemplo de luz natural suave: luz del sol (en un día nublado). Ejemplo de luz artificial suave: mediante ‘tamización’ (filtros difusores) de focos de luz dura, o dirigiendo la luz dura a superficies de mayor tamaño que, al reflejarla, la suavizan La intensidad lumínica decrece rápidamente con la distancia. Inconvenientes o ventajas: - Si no se combina con otras fuentes de luz dura, genera imágenes planas y sin forma. - Escaso realce de texturas. 1.4. Tipos de lámparas INCANDESCENTES Producen luz al calentar un filamento metálico (al ser atravesado por una corriente eléctrica). También desprende una gran cantidad de calor. Para proteger el filamento, éste se encierra en una ampolla de vidrio en la que se hace el vacío (o se rellena con un gas inerte). La vida útil viene determinada por la velocidad de ‘evaporación’ del filamento. Las diferencias entre modelos vienen del material del filamento y el gas de la ampolla. Tungsteno: filamento de tungsteno, gas inerte. Muy comunes hasta hace una década. Temperatura de color nominal: ~2700-3000K (próxima a la luz de interior). Para utilizarlas en grabación de vídeo se sometían a un voltaje superior para alcanzar una temperatura de color más alta, lo que reducía la vida útil de las lámparas. A medida que el tungsteno se evapora, la intensidad de la luz desciende. Tungsteno halógeno: ampolla de cuarzo o sílice (resiste el calor mejor que el vidrio), gas inerte con una pequeña cantidad de gas halógeno (F, Cl, Br o I). El tungsteno evaporado reacciona con el gas y vuelve a depositarse en el filamento. Así previene el oscurecimiento (provocado por el tungsteno evaporado que se adhiere a la cara interior de la ampolla). > vida útil y > intensidad que las lámparas de tungsteno anteriores. Temperatura de color nominal: ~3200-3400K (luz de interior). DE DESCARGA DE GAS Generan la luz mediante una descarga eléctrica que atraviesa un gas ionizado (normalmente un gas noble como Argón, Neón, Xenón o una mezcla de éstos). El gas se mezcla con otras sustancias (e.g. mercurio, sodio, halogenuros metálicos) Halogenuros metálicos: contiene una mezcla de argón, mercurio y halogenuros metálicos (e.g. fluoruro de litio, cloruro de sodio). Temperatura de color nominal: 5400-6000K (luz de día). Se suelen usar en iluminación de grandes espacios exteriores. < tamaño que las lámparas incandescentes o las fluorescentes para = intensidad de luz. Fluorescentes: tubo recubierto de fósforo en su cara interior. El fósforo reacciona a la radiación ultravioleta producida en el interior del tubo, generando así luz visible. + eficiente que las incandescentes, es decir, consumen - para = potencia lumínica. Alta duración y bajo coste. Usados también como focos de apoyo para luz suave. Temperatura de color nominal: 3200K (luz de interior) o 5600K (luz de exterior). Xenón: ampolla de sílice rellena de gas Xenón puro. Soportan variaciones de intensidad. Temperatura de color nominal: 6000K (luz de día). Coste elevado. Se emplean más en proyección que en iluminación (con la excepción de flashes para fotografía). LED (LIGHT-EMITTING DIODE) Pueden emitir luz de diferentes colores/temperatura de color. Para obtener luz blanca se utilizan dos técnicas: - LED RGB: utiliza tres LEDs (RGB) muy próximos para generar luz blanca. Pueden variar la intensidad de cada LED permitiendo variar el color final. - LED + fósforo: LED azul o UV que excita el fósforo, que a su vez emite la luz blanca. Temperatura de color nominal: 2700-7000K. Inicialmente se empleaba en flashes. Hoy en día se emplea cada vez más en iluminación gracias a su pequeño tamaño, bajo consumo y larga duración. 1.5. Esquemas de iluminación Esquema “Three-point lighting”: clásico de iluminación. - Luz Principal o “Key”: luz dura que ilumina al sujeto fronto-lateralmente para perfilarlo y darle relieve, con solo 1 foco para no proyectar + de una sombra. En TV se emplea una para cada uno de los actores y/o posiciones que van a ocupar éstos. - Luz de Relleno o “Fill”: luz suave que ilumina al sujeto desde otro ángulo (opuesto al anterior) para rellenar y suavizar las zonas de sombra producidas por la luz principal. - Luz de Contra o “Back”: luz dura que ilumina desde una posición superior y por detrás del sujeto. Ayuda a perfilar aún más al sujeto y a “separarlo del fondo”, aumentando la sensación de profundidad. Esquema “Four-point lighting”: añadimos otra luz… - Luz de Fondo o “Background”: añade una cuarta luz que no ilumina el sujeto sino directamente el fondo o decorado. Aumenta el efecto de separación entre el sujeto y el fondo, aumentando aún más la sensación de profundidad, y elimina sombras en el decorado. Emplea luz suave para iluminar el fondo de manera uniforme. Puede emplear focos de haz concentrado (igualmente suave) cuando interese una iluminación parcial. Se puede sustituir por decorados retroiluminados. -> Ejemplos en las diapositivas 28, 31, 32 2. EDICIÓN DE VÍDEO Edición LINEAL: una vez grabado, si queremos hacer una modificación hay que regrabar desde ese punto hasta el final. Edición NO LINEAL: se puede editar una escena a mitad de la grabación sin tener que volver a grabar el resto. EDICIÓN ANALÓGICA (1ª ÉPOCA – EDICIÓN NO LINEAL) Proceso similar al “montaje” cinematográfico. El montaje se realiza cortando y pegando trozos de cinta magnética de vídeo con una cinta adhesiva especial. La cinta de vídeo incluye una pista de control (control track) que indica el principio de cada cuadro (frame) de la señal de vídeo (para cortar justo por ahí). EDICIÓN ANALÓGICA (2ª ÉPOCA – EDICIÓN LINEAL) Años 70: se desarrollan sistemas que incorporan un código de tiempo. No se corta y pega la cinta. El código va grabado en la propia cinta de video, facilitando así la búsqueda y posicionamiento dentro de la misma. Cada frame lleva asociado un número de 8 dígitos: p. e. 23595924 23 h : 59 min : 59 s : 24 fr Se precisan al menos dos magnetoscopios: uno o más reproductores (players) y un grabador (recorder). Una mesa de edición permite controlar fácilmente, desde una consola central, ambos magnetoscopios. Para el audio puede haber una mesa de mezclas separada. Pueden añadirse efectos: fundidos, cortinillas, etc. Lista de Edición (Edit Decision List - EDL): permite grabar la lista de acciones que constituyen el montaje. A partir de ella se pueden realizar múltiples copias de la cinta máster (la que contiene el contenido final editado) a partir de las cintas originales y, por tanto, sin que se degrade la calidad final de las imágenes en las sucesivas copias. EDICIÓN DIGITAL: EDICIÓN NO LINEAL A partir de los 80’s. Con video y audio en formato digital, el editor puede simplemente montar el audio y video en el orden que desee. Es posible añadir efectos muy sofisticados (e.g. croma, transiciones) Existen múltiples programas tanto domésticos (e.g. Windows Moviemaker o Apple iMovie) como profesionales (e.g. Adobe Premiere, DaVinci, Final Cut). Abarata y “democratiza” la edición de contenidos audiovisuales. TEMA 6: SISTEMAS DE TV 1. REDES DE COMUNICACIONES Esquema modelo general de comunicaciones -> diapositiva 4. COMUNICACIONES ANALÓGICAS (esquema -> diapositiva 7) - Origen: genera una señal eléctrica a partir de un sonido/imagen real (analógica). Dicha señal contiene la información a enviar. E.g.: Micro/cámara. - Transmisor: adapta la señal eléctrica para que se pueda transmitir. - Sistema de transmisión: la señal viaja desde el origen hasta el destino. E.g.: Enlace terrestre/enlace satélite. - Receptor: capta la señal transmitida y la convierte en una que pueda ser representada por el destinatario. - Destino: reproduce la señal original para que sea escuchada/visualizada por humanos. - Ejemplo: Televisión (sistema de transmisión a distancia de imágenes en movimiento). Tubo de cámara. Principio fotoeléctrico - traduce variaciones de luz en una señal eléctrica -> se hace posible la codificación y el transporte de la señal hasta el receptor. En todas las etapas se produce ruido que se va acumulando. COMUNICACIONES DIGITALES (esquema -> diapositiva 9) - Digitalización: paso previo a la transmisión -> digitalizar la señal antes de enviarla. - Conversor A/D: analógica a digital. El proceso añade ruido de codificación que se añade al de compresión (con pérdidas) si se comprime la señal. Ruido no acumulativo (cte). - Redes convergentes: una misma red de datos es capaz de distribuir cualquier contenido multimedia. 2. FUNDAMENTOS DE LA TV La TV (y el cine) consiguen crear la sensación de movimiento mediante una sucesión rápida de imágenes. A partir de 16 imágenes por segundo se consigue la sensación de continuidad (más si se quiere evitar el parpadeo – “flicker”) - Frame rate (frames por segundo): frecuencia a la que se generan imágenes completas. Cine: 24 frames/segundo (24 Hz) TV Analógica (PAL): 25 frames/segundo (25 Hz) TV Analógica (NTSC): 30 frames/segundo (30 Hz) 2.1. Modos de exploración EXPLORACIÓN DE IMAGEN El proceso de exploración de una imagen completa que realiza la cámara de TV sigue un orden determinado -> Imagen completa = cuadro = frame. EXPLORACIÓN PROGRESIVA Comienza en la esquina superior izquierda y recorre la primera línea hacia la derecha. Cuando termina, el haz regresa rápidamente al principio de la siguiente línea, y así. Cuando acaba con una imagen, empieza el mismo proceso con la siguiente, y así. EXPLORACIÓN ENTRELAZADA El orden = exploración progresiva: de izquierda a derecha y de arriba a abajo. Pero, se hacen dos pasadas, captando dos semi-imágenes consecutivas. La primera está formada por las líneas impares, y la segunda por las líneas pares -> Semi-imagen = campo = field. El tiempo total de exploración de una imagen completa = exploración progresiva. Objetivo: evitar el parpadeo (flicker) sin necesidad de aumentar el frame rate (precisaría un aumento del ancho de banda necesario para transmitir la señal) - Ancho de banda: rango de frecuencias que ocupa una señal. - Sistema PAL: Aprovecha la frecuencia de la red eléctrica (50 Hz) para sincronizar el inicio de la exploración de cada campo. Obtiene 50 fields por segundo para un frame rate de 25 fps -> se elimina el parpadeo Nuestro sistema visual mejora la sensación de movimiento -> la posición de los objetos móviles se actualiza con más frecuencia. El modo entrelazado es propio de reproductores de TV de tubos de rayos catódicos (CRTs), durante décadas los únicos que existían en TV. Los monitores de ordenador, reproductores de TV LCD, LED, Plasma, OLED sólo soportan el modo progresivo. Las primeras TV LCD, antes de que se implantara la TV digital, precisaban mecanismos de desentrelazado -> proceso mediante el cual se espera a recibir los dos campos entrelazados de una imagen antes de presentar la imagen completa en el dispositivo. 2.2. Señal de tv analógica Señal compleja con varios componentes: COMPONENTE DE VÍDEO Contiene la información propia de la imagen, línea a línea, campo a campo, cuadro a cuadro (exploración entrelazada). PULSOS DE SINCRONISMO Se entrelazan con la señal propia de la imagen. La generación/reproducción de la señal de video tiene que estar perfectamente sincronizada. Vertical: marca el comienzo de cada campo (semi-imagen). Se hace coincidir con la frecuencia de la red eléctrica y sirve de referencia para el resto de sincronismos. Horizontal: marca el comienzo de cada línea de un determinado campo. COMPONENTE DE SONIDO Necesita un ancho de banda mucho menor que la de video para ser transmitida. Sonido, 15-20KHz aprox. ---- Vídeo, 4-5MHz aprox. Equipamiento muy diferente. A diferencia del cine sonoro, donde imagen y sonido se graban en la misma tira de celuloide, las señales de video y audio son captadas por la antena, que las separa, de modo que son procesadas y transmitidas por separado. COMPONENTE DE COLOR Introducida en 1953, nació con el condicionante de la compatibilidad con las transmisiones en blanco y negro. La señal en color captada por el tubo de cámara (RGB) se transforma en luminancia + crominancia (Y’CbCr) La componente Y (luminancia) se transmite igual que la señal en blanco y negro, y la componente de color CbCr (crominancia) se transmite en una banda diferente. Sólo los receptores en color incorporan un receptor a esa frecuencia para captar la señal de crominancia. Los receptores en blanco y negro la ignoran. 2.3. Normas de tv analógica Conjunto de especificaciones que rigen la transmisión y recepción de señales de TV. -> Tabla diapositiva 22 y mapa diapositiva 23 3. TV DIGITAL Empleo de técnicas de codificación y transmisión digital aplicadas a la TV. Ventajas: - Mayor oferta. Mejor eficiencia espectral (i.e. precisa menos ancho de banda) en un factor de 4 a 6 (donde ‘cabía’ un canal analógico, caben de 4 a 6 canales digitales). - ¿Mayor compatibilidad? Estandarización de las técnicas de compresión (MPEG-2, MPEG-4) a nivel mundial. Pero las diferentes normas difieren en los detalles técnicos de implementación, lo que las hace incompatibles entre sí en la práctica. - ¿Mayor calidad? La señal digital es más inmune al ruido que la analógica. Pero la calidad final está determinada por el proceso de digitalización/compresión. - Servicios de valor añadido. La información digital permite incorporar servicios de interactividad, pago por visión, etc. 3.1. Normas de tv digital FORMATOS Formado por 1) tamaño (pxh*pxv), 2) relación de aspecto y 3) método de exploración. Por ejemplo: - 720p = 1280x720, 16:9, progressive (progresivo) - 1080i = 1920x1080, 16:9, interlaced (entrelazado) - 1080p = 1920x1080, 16:9, progressive (progresivo) STANDARD-DEFINITION (SD) – TV (SDTV) - Países de tradición NTSC “525 líneas” (sólo 480 contienen información de imagen), 30p (frames por segundo) (SD) 480i = 640x480, 4:3, entrelazado 720x480, 16:9, entrelazado (ED) 480p = 640x480, 4:3, progresivo 720x480, 16:9, progresivo - Países de tradición PAL “625 líneas” (sólo 576 contienen información de imagen), 25p (frames por segundo) (SD) 576i = 480x576, 4:3, entrelazado 720x576, 16:9, entrelazado (ED) 576p = 480x576, 4:3, progresivo 720x576, 16:9, progresivo HIGH-DEFINITION (HD) – TV (HDTV) - (HD, HD-Ready) 720p = 1280×720, 16:9, progresivo 921,600 pixels (~0.9 Mpx) por frame - (HD, Full-HD) 1080i = 1920×1080, 16:9, entrelazado 1,036,800 pixels (~1 Mpx) por campo 2,073,600 pixels (~2.1 Mpx) por frame - (HD, Full-HD) 1080p = 1920×1080, 16:9, progresivo 2,073,600 pixels (~2.1 Mpx) por frame ULTRA-HIGH DEFINITION (UHD) – TV (UHD, UHDTV o Ultra HD) - (4K UHD) 2160p = 3840x2160, 16:9, progresivo 8.294.400 pixels (~8.3 Mpx) por frame 4 veces más resolución que FHD (x2 líneas horizontales y verticales) - (8K UHD) 4320p = 7680x4320; 16:9, progresivo 16.588.800 pixels (~16.6 Mpx) por frame 4 veces más resolución que 4K UHD, 16 veces más resolución que FHD (x4 líneas horizontales y verticales) ESTÁNDARES - Europa –> DVB (Digital Video Broadcast) DVB-T (Terrestrial) - Reemplaza a los sistemas analógicos PAL/SECAM. Estándar que usa la TDT. Otros estándares de DVB: - Satélite (DVB-S) - Cable (DVB-C) - Dispositivos móviles (DVB-H) - Norteamérica – ATSC (Advanced Television Systems Committee) Reemplaza al sistema analógico NTSC - Japón/Brasil – ISDB (Integrated Services Digital Broadcasting) Reemplaza al sistema analógico NTSC - China – DTMB (Digital Terrestrial Multimedia Broadcast) -> Mapas: diapositivas 32-35 TEMA 7: REDES DE ORDENADORES Primeros usos (60’s): - Acceso remoto a servicios. - Compartición de recursos (e.g. capacidad de proceso, espacio de almacenamiento), impresoras, etc. - Tolerancia a fallos. - Transmisión de información de todo tipo (datos, audio, video). Red: conjunto de equipos interconectados. Formada por: - Nodos: cada uno de los equipos conectados (estaciones de trabajo, servidores, elementos de conmutación). - Enlaces: medio que conecta dos o más nodos. El alcance de las redes se fue ampliando con el tiempo y con ellas las tecnologías. - Redes de área local, LAN: conectan ordenadores en la misma sala o el mismo edificio. - Redes de área metropolitana, MAN: conectan edificios dentro de un campus o ciudad. - Redes de Área Extensa, WAN: conectan localizaciones muy distantes entre sí. Cada tipo de red utiliza tecnologías diferentes, aunque compatibles (posibilita la interconexión). A principios de los 90s, Internet se consolida como una red de alcance global. Es un conjunto de redes heterogéneas (red de redes) que utilizan un protocolo de comunicaciones común denominado TCP/IP. 1. Redes de área local (LAN) Cada nodo dentro de la red LAN tiene una dirección que lo identifica unívocamente dentro de dicha red (dirección de enlace). Todos los nodos de una LAN se conectan a un elemento denominado concentrador que posibilita la comunicación entre ellos. En función del tipo de conexión entre los nodos y el concentrador, existen diferentes tipos de redes LAN: - Cableadas: cada nodo se une al concentrador mediante un cable -> requiere cableado (más costoso y complicado de instalar) pero proporciona mayor velocidad y fiabilidad. - Inalámbrica: cada nodo se conecta a un punto de acceso inalámbrico, que a su vez está conectado con el concentrador mediante un cable (salvo que ambos estén integrados). -> Esquemas diapositivas 8-10 En las redes LAN, el medio (enlace o canal de comunicación) es compartido por todos los equipos conectados a la red. Tipos de concentradores: - Hub (repetidor o concentrador a secas): recibe un mensaje por una de sus tomas y lo reenvía por el resto. Se producen colisiones (transmisiones fallidas) cuando dos estaciones emiten un mensaje a la vez. - Switch (conmutador): + inteligente que Hub. Envía el mensaje que recibe únicamente por la toma a la que está conectado el nodo de destino. Hace un uso + eficiente del canal al reducir el nº de colisiones. Técnicas de acceso al medio: tienen como objetivo reducir las colisiones. E.g. CSMA/CD: - CSMA/ (Carrier Sense Multiple Access…) Antes de emitir un mensaje, los nodos ‘escuchan’ el medio para ver si ya hay otro nodo transmitiendo. Si capta nada, supone que está libre y emite su señal. Si no, se queda a la escucha hasta que finalice la transmisión, y entonces emite la suya. - /CD (...with Collision Detection) Con la técnica CSMA, puede ocurrir que varios nodos esperen a la vez. Por lo tanto, tan pronto el medio queda libre, todos emiten a la vez (y se produce una colisión). Esta variante no las evita, pero permite que los nodos las detecten inmediatamente y dejen de transmitir. Una vez detectada la colisión, los nodos involucrados esperan un tiempo aleatorio antes de volver a intentarlo (para evitar volver a coincidir). Ejemplos de diferentes tecnologías LAN (IEEE 802.x) Cableadas: - Ethernet (IEEE 802.3): pueden funcionar sobre cable coaxial, cable de cobre de par trenzado (conector RJ45), o fibra óptica. Velocidades de 10Mbps, 100Mbps, 1Gbps, 10Gbps (compartidas). Inalámbricas - Bluetooth: transmite en la banda de 2,4 GHz (no regulada = no precisa autorización de la Comisión Nacional de los Mercados y la Competencia, CNMC, antes de la CMT). Velocidad de datos de 721Kbps más tres canales de voz a 64Kbps. Alcance limitado (10 a 100 metros). - Wi-Fi (IEEE 802.11): más barata y fácil de desplegar que las redes cableadas. IEEE 802.11b: transmite en la banda de 2,4 GHz (no regulada) - Velocidad hasta 11Mbps (compartida) IEEE 802.11a: transmite en la banda de 5 GHz (no regulada) - Velocidad hasta 54Mbps (compartida) IEEE 802.11g: transmite en la banda de 2,4 GHz (no regulada) - Velocidad hasta 54Mbps (compartida) IEEE 802.11n: transmite en la banda de 2,4 GHz y 5GHz (no reguladas) - Velocidad hasta 600 Mbps (compartida) 2. Enlaces de larga distancia Para conectar dos nodos separados a Km de distancia, las tecnologías de redes de área local LAN no sirven (excesiva atenuación, colisiones continuas). Se emplean enlaces punto a punto. Conectan 2 nodos distantes a través de un canal dedicado (no se comparte -> sin colisiones, más eficiencia). Cada nodo pertenece a su propia LAN -> el enlace punto a punto sirve para interconectar ambas redes. Ejemplos: - En el ámbito doméstico, los hogares se conectan a la red del ISP (Internet Service Provider) usando un enlace punto a punto (ADSL, FO…) - En el ámbito empresarial, además de las anteriores, las redes de una empresa se pueden conectar a la red del ISP usando otras tecnologías. 3. Interconexión de redes Un router (o encaminador) es un nodo especial dentro de la red que sirve para interconectar varias redes, que pueden usar distintas tecnologías. - Punto de entrada/salida de una red. - Los hosts A de la red A y B de la red B se conectan a través de los routers (uno o más). Es necesario que cada host/nodo de esta red de redes (Internet) tenga una dirección única (dirección de red). DIRECCIÓN DE RED VS DIRECCIÓN DE ENLACE Las direcciones de enlace (dirección física o dirección MAC) son específicas de la tecnología utilizada en la LAN a la que está conectada el equipo. No tienen porqué ser únicas en la “red de redes”, llega con que lo sean en la LAN local. Las direcciones de red son globales a todo Internet, y por tanto independientes de la tecnología de la LAN subyacente. Dirección IPv4 (32 bits) -> una parte de la dirección identifica la ‘red’ dentro de la red de redes, y otra parte identifica al ‘host’ dentro de esa red -> ejemplo diapositiva 19. ENCAMINAMIENTO (O ENRUTAMIENTO) Cada red ‘interconectada’ tiene como mínimo un router que la conectan con la(s) rede(s) adyacente(s). Veamos el ejemplo de la diapositiva 20: Los routers R1 y R2 conectan la red A y la B. Cuando el host A quiere enviar información al B, se lo enviará a R1, este a R2 y finalmente al host B. La pareja R1-R2 conecta la red A y la B, y la pareja R3-R4 conecta a la B con la C. Si el host A quiere comunicarse con el host C, la información irá: A->R1->R2->R3->R4->C Los routers saben a quién enviar cada información porque cada mensaje (paquetes IP) incluye la dirección de red del host origen y del host destino (dirección de entrega). 4. Internet Internet es la red de redes más importante. Cientos de miles de redes conectadas y millones de equipos (hosts) -> 22.000 millones, 3 por habitante de la Tierra (en 2019). HISTORIA DE INTERNET - 1969: Nace ARPANET (auspiciada por la Advanced Research Project Agency, ARPA, del Departamento de Defensa de EEUU) con 4 nodos interconectados: Univ. de California en Los Angeles (UCLA) Univ. de California en Santa Bárbara (UCSB) Stanford Research Institute (SRI) Univ. de UTAH - 1973: Vinton Cerf y Bob Kahn (miembros del grupo de ARPANET) escriben un artículo en el que esbozaban un protocolo de transmisión de “paquetes” de información extremo a extremo en una red de redes (TCP, Transmission Control Protocol). - Poco después se toma la decisión de partir TCP en dos protocolos: IP - Internetworking Protocol: responsable del enrutamiento. ¿Cómo hacer llegar información de un punto cualquiera de la red de redes hasta otro? TCP - Transmission Control Protocol: responsable de la detección de paquetes perdidos (retransmisiones), control de flujo (evitar saturar al receptor) y de congestión. El protocolo de interconexión pasó entonces a conocerse como TCP/IP - 1989: Tim Berners-Lee inventa en el CERN la World Wide Web (WWW), la ‘aplicación’ que popularizó Internet a nivel mundial. - En la actualidad Cientos de miles de redes de área local y área amplia unidas por dispositivos de conexión y de conmutación. Gestionada por compañías privadas, no gubernamentales. La mayoría de los usuarios fin

Use Quizgecko on...
Browser
Browser