Document Details

EagerSatyr

Uploaded by EagerSatyr

UAM - Universidad Autónoma de Madrid

2021

Carmen Cabanillas

Tags

computer hardware computer architecture data storage computer science

Summary

This document discusses the main components of computer hardware, including an overview of processing units, memory, and input/output systems. It describes the basic architecture of a computer, and the different types of components, ultimately offering a general introduction to computer science concepts and technologies.

Full Transcript

Cuerpo de Diplomados en Estadística del Estado Cuerpo Superior de Estadísticos del Estado Especialidad de Estadística-Ciencia de Datos. V. Informática III. Almacenamiento y modelos de datos Tema 2. Componentes principales del Hardware de un...

Cuerpo de Diplomados en Estadística del Estado Cuerpo Superior de Estadísticos del Estado Especialidad de Estadística-Ciencia de Datos. V. Informática III. Almacenamiento y modelos de datos Tema 2. Componentes principales del Hardware de un sistema de computación. Introducción. AUTOR: Carmen Cabanillas Asociación Profesional de Cuerpos Superiores de Sistemas y Tecnologías de la Información de las Administraciones Públicas Julio 2021 1 Tema 2 ÍNDICE 1 INTRODUCCIÓN.................................................................... 3 2 COMPONENTES HARDWARE.............................................. 4 3 UNIDADES DE PROCESAMIENTO....................................... 10 3.1 PLACA BASE.............................................................................................. 10 3.2 MICROPROCESADOR.................................................................................. 13 3.3 MEMORIA.................................................................................................. 16 3.4 BUSES...................................................................................................... 17 3.5 SUBSISTEMA DE ENTRADA/SALIDA.............................................................. 19 4 RESUMEN ESQUEMÁTICO................................................... 35 5 GLOSARIO............................................................................. 36 6 BIBLIOGRAFÍA BÁSICA........................................................ 39 2 Tema 2 1 Introducción En este tema se describen los componentes principales del hardware de un sistema de computación, realizando una rápida revisión de las características principales de los mismos. Los computadores se fundamentan en lo que la denominada electrónica digital. Se llama electrónica digital, o discreta, a la electrónica basada en señales sobre las que se identifica un conjunto finito de valores diferentes (generalmente dos). Como hablamos de un sistema digital, toda la información que debe procesar un computador tiene que estar codificada utilizando los dos valores de tensión posibles, a los que llamamos 0 y 1 lógicos. La organización básica de un computador actual sigue la estructura que Von Neumann desarrolló en el segundo cuarto del siglo XX. De forma general, podemos resumirla revisando los cinco componentes básicos: Procesador (o Unidad de Control, CPU), Memoria, ALU (unidad aritmético-lógica), Entrada/salida (E/S), y buses que comunican estos componentes entre sí. Son cinco por tanto los tipos de comunicaciones que se producen en un computador atendiendo a los componentes que intervienen en ella: -Memoria a CPU. La CPU lee una instrucción o un dato desde la memoria. -CPU a memoria. La CPU escribe un dato en la memoria. -E/S a CPU. La CPU lee datos de un dispositivo de Entrada/Salida. -CPU a E/S. La CPU envía datos al dispositivo de E/S. -Memoria a E/S y viceversa. En estos dos casos, un módulo de E/S puede intercambiar datos directamente con la memoria, sin que tengan que pasar a través de la CPU, utilizando el acceso directo a memoria (DMA). Un bus es un camino de comunicación entre dos o más dispositivos. Es decir, un medio de transmisión compartido ya que puede tener más de un dispositivo conectado. Este tema se encuentra en continua evolución tecnológica y sólo persigue proporcionar una primera aproximación, se recomienda revisar la evolución de los contenidos con referencias actualizadas, existen estándares de facto de los distintos fabricantes. 3 Tema 2 2 Componentes Hardware Según la Real Academia Española de la Lengua, el término “computador o computadora” está asociado con el término calcular, la definición de computadora electrónica es: “Máquina electrónica que, mediante determinados programas, permite almacenar y tratar información, y resolver problemas de diversa índole”. Los componentes hardware son el conjunto de elementos físicos que conforman el ordenador: la caja, la placa base, los periféricos externos,... Son los elementos materiales (tangibles): circuitos integrados, tarjetas de circuitos impresos, cables, fuentes de alimentación, memorias, impresoras,... Son los componentes de tipo mecánico, electrónico, eléctrico y periférico. Hardware en un término inglés producido por la unión de los vocablos “hard”, rígido, y “ware”, producto, mercancía. La Real Academia Española define al hardware como el conjunto de componentes que conforman la parte material (física) de una computadora. Un circuito integrado es una combinación de elementos que forman parte de un mismo chip. Está fabricado con un material semiconductor, y cuentan con conductores metálicos que establecen la conexión entre la pastilla de material semiconductor y el circuito impreso. Existen diferentes tipos de circuitos integrados, los más avanzados y populares son los microprocesadores, que se utilizan para controlar tanto computadoras, como teléfonos móviles, e incluso electrodomésticos. La función de un circuito integrado es simplificar la función eléctrica, concentrando todos los elementos del circuito eléctrico (resistencias, transistores... etc.) Por ejemplo, el circuito integrado que se encarga del sonido es un pequeño circuito que en sus terminales entra el audio en forma de dato y sale en forma de audio. El más complejo es el Microprocesador que tiene millones de transistores. Un circuito impreso es una superficie constituida por caminos, pistas o buses de material conductor laminadas sobre una base no conductora. Se utiliza para conectar de forma eléctrica, a través de las placas conductoras, y sostener mecánicamente el conjunto de componentes electrónicos. Las placas suelen ser de cobre con base de fibra de carbono reforzada, algunas son de cerámica, plástico, teflón o polímeros. El circuito impreso fue inventado por un ingeniero austriaco, Paul Eisler,, que lo utilizó para formar parte de una radio en 1936. Analizaremos a continuación los diferentes elementos que componen la estructura general de un computador. 4 Tema 2 Figura 1. Estructura general de un computador Como indicamos en la introducción, la arquitectura de los ordenadores actuales está basada en la estructura de la máquina de Von Neumann. Esta arquitectura consiste en: una unidad central de proceso, que se comunica a través de un único bus con el banco de memoria en donde se almacenan tanto las instrucciones del programa, como los datos que serán procesados por éste. El cambio de un programa a otro sólo implica un cambio en el valor de las posiciones de memoria. Hay un problema de ralentización de CPU en la arquitectura de Von Newman se produce ya que tanto las instrucciones como los datos deben pasar de la memoria a la CPU por un único canal (bus). A este efecto se le conoce como "el cuello de botella de Von Newmann". Este hecho limita el grado de paralelismo (número de acciones que se pueden realizar simultáneamente), y por lo tanto, el rendimiento del computador. Se asigna un código numérico a cada instrucción que se almacena en la misma unidad de memoria que los datos que van a procesarse, son ejecutados en el orden en que se encuentran almacenados en memoria. En la figura 2 podemos revisar la estructura de Von Neumann y en la figura 3 la de un sistema actual. Figura 2 estructura de la máquina de Von Neumann 5 Tema 2 Figura 3 arquitectura básica de un sistema de computación Examinaremos con mayor profundidad los elementos principales a lo largo del tema, en esta introducción resumimos las características básicas. - Unidad Central de Proceso (UCP o CPU). Compuesta por una unidad de control y otra de procesamiento (ALU) y los registros que se van a procesar. Generalmente se construye sobre una pastilla de silicio que llamaremos procesador o microprocesador. - Memoria. Subsistema en el que residen los programas y los datos. Este subsistema se organiza en varios niveles, conformando lo que se conoce como “jerarquía de memoria”: caché, memoria principal y memoria secundaria (ésta última es el disco duro). La jerarquía de memoria es la organización piramidal de la memoria en niveles, se clasifica en base a tres características: capacidad, velocidad y coste por bit. El nivel 0 corresponde a los registros del microprocesador o CPU, el nivel 1 a la Memoria caché, el nivel 2 a la Memoria primaria (RAM, Random Access Memory), el nivel 3 a las Memorias flash, el nivel 4 al Disco duro (memoria virtual), el nivel 5 a las Cintas magnéticas (consideradas las más lentas pero con mayor capacidad, tienen acceso secuencial) y el nivel 6 a las Redes (actualmente se consideran como un nivel más de la jerarquía de memorias). - Unidad de Entrada/Salida. Controla la entrada y salida de información. Gestiona el manejo de los periféricos como el teclado, monitor, impresora, ratón, etc. Estas tres unidades se encuentran interconectadas mediante buses de comunicación. Los buses son líneas que transportan información binaria entre los diversos subsistemas. Podemos clasificar los buses de comunicación en función del tipo de información que contienen en: - Bus de direcciones. A través del cual la CPU selecciona la posición de memoria o la unidad de E/S en la que va a leer o escribir información. - Bus de datos. A través del cual se transfiere información de (hacia) la memoria o E/S hasta (desde) el procesador. Es un bus bidireccional. - Bus de control. Transfiere la información de control entre el procesador, la memoria y E/S. Es un bus bidireccional. Podemos caracterizar un bus por el número de líneas de comunicación paralelas (bits) que lo componen y por la frecuencia de transmisión de los datos. La unidad de medida de frecuencia es el hercio o Hertz, 6 Tema 2 Hz. Si tenemos en cuenta los dos parámetros anteriores obtendremos el ancho de banda (BW, del inglés “bandwidth”), esta magnitud sirve como métrica de rendimiento, es la velocidad de comunicación del bus en bits por segundo (bps.). Tenemos distintos tipos de computadores, los más sencillos son los denominados ordenadores personales, si necesitamos aumentar la capacidad de proceso utilizaremos los llamados “servidores” que emplean una arquitectura multiproceso, es decir, utilizan más de un procesador para la ejecución de los programas. Para clasificar las arquitecturas de multiprocesadores se utiliza la taxonomía de Flynn que se basa en el número de instrucciones concurrentes y en los flujos de datos sobre los que operan. Existen las siguientes categorías: · SISD (Simple Instruction Simple Data). Computador secuencial que no explota el paralelismo ni en las instrucciones ni en los flujos de datos, por ejemplo, las máquinas con monoprocesador. · MISD (Multiple Instruction Simple Data). Se utilizan en situaciones de paralelismo redundante, como por ejemplo en navegación aérea. · SIMD (Simple Instruction Multiple Data). Se explotan varios flujos de datos dentro de un único flujo de instrucciones para realizar operaciones que pueden ser paralelizadas de forma natural. En esta clasificación entrarían los Procesadores matriciales y los Procesadores vectoriales (aplican un mismo algoritmo numérico a una serie de datos matriciales). · MIMD (Multiple Instruction Multiple Data). Se dispone de múltiples procesadores que, de forma sincronizada, ejecutan instrucciones sobre diferentes datos. El tipo de memoria que estos sistemas utilizan es distribuido. En esta arquitectura se incluyen los sistemas distribuidos, distinguiendo aquellos que utilizan un único espacio compartido de memoria, de aquellos que trabajan con espacios de memoria distribuida compartida, como los Clúster. Los Clúster son conjuntos de computadoras independientes conectadas a través de una red de área local o por un bus de interconexión y que trabajan cooperativamente para resolver un problema. Es clave en su funcionamiento contar con un sistema operativo y programas de aplicación capaces de distribuir el trabajo entre las computadoras de la red. A nivel hardware, un servidor (host o anfitrión) es un equipo informático especializado que dispone de altas capacidades de proceso. Su misión es proveer diferentes servicios a las redes de datos (conjunto de ordenadores interconectados) pudiendo utilizar cualquier medio de conexión (alámbrico o cableado o inalámbrico). Sus principales características son: Fiabilidad: pueden dar respuesta a tareas de misión crítica, y permanecer en servicio durante años. En su diseño se tiene en cuenta su durabilidad, la redundancia de sus componentes, la capacidad de modificación o sustitución parcial de los mismos evitando pérdida de servicio y la monitorización interna de los elementos que sean susceptibles de agotamiento o desgaste para prevenir averías. Facilidad de operación y mantenimiento: disponen de mecanismos que facilitan su instalación y mantenimiento. Por ejemplo, un sistema de guías para facilitar su colocación en armarios (“racks”), los tamaños son estandarizados. Disponen de puertos con conectividad para favorecer su gestión interna (por ejemplo, con terminales de consolas o KMV que integran teclado, ratón y video), normalmente cuentan también con software de gestión especializado. Tienen capacidad de administración remota a través de la red, y también capacidad de instalación y arranque automáticos, permiten el envío de alertas SNMP para avisar de las averías o mal funcionamiento de sus componentes, y cuentan con interfaces para interaccionar en modo línea de comandos (CLI) para facilitar esta gestión remota. Eficacia energética: el mayor gasto en un centro de proceso de datos tiene que ver con el coste eléctrico y de refrigeración, necesario para mantener las condiciones óptimas de los computadores. Los servidores están diseñados para necesitar un mínimo consumo eléctrico y para facilitar su refrigeración: 7 Tema 2 o Disponen de un Diseño específico de sus componentes para asegurar un menor consumo eléctrico (materiales utilizados en las fuentes de alimentación, diseño de sus circuitos y cableado,..). o Tienen Capacidad de ajuste de la velocidad de sus componentes a la demanda de trabajo, por ejemplo, pueden reducir la velocidad de rotación de los discos rígidos o la velocidad de trabajo de las CPU si se produce una disminución de la carga de trabajo. o Tienen también Capacidad de agrupamiento para conseguir una refrigeración eficiente. Lo que permite mejoras en la distribución del cableado interno, ahorrando costes de espacio físico, y mejorando la capacidad de escalar su capacidad de cómputo en el mismo espacio físico. Los servidores se diseñan para poder agruparse en armarios denominados rack. o Disponen de mecanismos para facilitar la refrigeración: en el caso de la refrigeración por aire, se diseñan normalmente para obtener la toma de aire frontal, así consiguen mayor eficiencia en el flujo de aire para conseguir una refrigeración óptima. Para ayudar a mantener la temperatura en condiciones idóneas, se utilizan los disipadores, hay varios tipos, los más usados son: –Pasivos: Se diseñan con algún material conductor en forma de aspas sobresalientes separadas por espacios huecos, la conducción y la forma de las aspas ayuda a desplazar el calor hacia las puntas de éstas. Se colocan cerca de los puntos de más calor, como los procesadores. –De Aire: son pequeños ventiladores que se ubican en sitios específicos del chasis para mejorar la ventilación del ordenador. –De Líquido: Se utiliza un circuito cerrado con agua para enfriar el sistema, son ligeramente más eficaces que los disipadores de aire y completamente silenciosos. Sin embargo, requieren más mantenimiento, hay que rellenar y limpiar el circuito con regularidad. Capacidad de actualización/ampliación: disponen de mecanismos que facilitan el crecimiento horizontal de los servidores (incorporando más servidores en el chasis) o su crecimiento vertical (mejorando las capacidades de los servidores en memoria, capacidad de proceso, almacenamiento, …). Como hemos comentado previamente, los principales elementos hardware de un servidor son: Microprocesador: es el encargado de realizar todas las operaciones aritméticas y lógicas. Los servidores suelen contar con una estructura de microprocesadores interconectados entre sí, actualmente cada microprocesador cuenta con dos o más núcleos. Memoria RAM: es una memoria rápida que se encarga de almacenar de forma temporal la información necesaria para facilitar el trabajo del sistema de cómputo. Si se dispone de poca memoria RAM (Random Access Memory) el equipo necesita simularla y para ello utilizará el disco duro (se dice que usará memoria virtual), lo que irá en detrimento de su rendimiento. Los computadores actuales pueden contar con varios gigabytes o incluso terabytes de memoria RAM. Suelen incluir una tecnología ECC "Error Correcting Code", capaz de detectar hasta dos errores de bits y corregirlos automáticamente, para ello implementación códigos, como por ejemplo el Hamming 7.4, que agrega tres bits adicionales de comprobación por cada cuatro bits de datos del mensaje. Placas del sistema o tarjetas principales: interconectan todos los dispositivos internos, como los puertos de comunicaciones (COM, USB, LPT, RJ45, enlaces ópticos, SAS, SATA, PCI, PCIe,...); los servidores cuentan con ranuras de expansión para incorporar tarjetas y también con conectores para las unidades de disco (discos duros y unidades ópticas). Disco rígido: puede ser un dispositivo de almacenamiento magnético o una unidad de estado sólido, en él se almacena la información del sistema. Generalmente se utilizan sistemas de discos externos (cabinas) para los datos, sistemas NAS (Network Attached Storage, dispositivo de almacenamiento que opera sobre los archivos de datos) y/o SAN 8 Tema 2 (Storage Area Networkingque, dispositivo de almacenamiento que opera en bloques de disco), por lo que generalmente, sólo se almacena en las unidades locales el sistema operativo. Las cabinas presentar distintos niveles de redundancia, lo que mejora la seguridad y la disponibilidad. Cuentan también con facilidades para reparar o sustituir los discos sin tener que detener la operación (los discos duros se insertan por un compartimiento frontal especial y pueden cambiarse en caliente, sin parar el equipo). La seguridad e integridad de datos se consigue mediante la tecnología RAID (redundant array of independent disks) que permite a varios discos duros leer y escribir de manera conjunta, como si fuesen un único disco. En caso de que uno de los discos falle, otro disco toma su lugar evitando la interrupción. Los servidores también pueden incluir unidades de disco óptico. Fuentes de alimentación: son los dispositivos encargados de suministrar la alimentación eléctrica a los elementos internos. Presentan un diseño específico si pensamos en los servidores (más potencia que una fuente estándar, ya que tienen que operar las 24 horas del día los 365 días del año). Un servidor estándar soporta hasta 1.100 vatios. Los servidores suelen disponer de dos fuentes completamente independientes conectadas a circuitos de alimentación eléctrica diferentes. Además, suelen utilizarse sistemas SAI (Sistemas de Alimentación Ininterrumpida) para filtrar y estabilizar la corriente. Conectores y puertos. Disponen de diferentes puertos para facilitar la comunicación con dispositivos y servicios externos (USB, VGA, LPT, SATA, SAS, …) y de ranuras para la conexión de tarjetas de expansión (ISA, PCI y PCIe...) A nivel externo, los principales elementos son: Chasis: Es la pieza que se asegura en el rack y soporta el resto de los componentes en su interior. Cubierta: protege los componentes internos del servidor. Botón de encendido/reposo/reset: apaga y enciende el servidor, puede incorporar funcionalidades de “soft reset” (envía una señal indicando el reinicio al sistema operativo) y de “hard reset” (que produce un reseteo a la configuración de fábrica). Indicadores: permiten conocer la actividad y algunos errores del servidor, mediante inspección visual por parte de un operador. Por ejemplo: indicador de encendido, de error de sistema,... Unidad óptica: utilizada para la lectura de CD/DVD, se encuentra en desuso actualmente. Puede ser necesaria en algunas situaciones, por ejemplo, para la instalación del sistema operativo desde cero o para realizar un arranque con un sistema operativo alternativo. Generalmente es sustituible por un puerto USB. Bahías de discos rígidos: permiten extraer y colocar discos duros evitando generalmente la interrupción del servicio. Si no se han incluido discos, suele colocarse una cubierta en la bahía para que evitar la entrada de polvo al interior, además las cubiertas permiten mantener la presión para asegurar una correcta ventilación. Generalmente las bahías son de 3,5 pulgadas o de 2,5 pulgadas. Guías y raíles para la colocación en los armarios: sirven para enracar el servidor, permiten la extracción del servidor y la apertura del mismo en operaciones de mantenimiento sin necesidad de desconectarlo del cableado. Fuentes de alimentación: suministran electricidad a los dispositivos internos. Panel de puertos: por ejemplo, USB, VGA, COM, SCSI, LAN, RJ45, etc. Admisión de aire para el sistema de refrigeración, generalmente se produce la admisión de aire frío en el frontal del servidor disipándose el calor por la parte trasera, esta técnica se conoce como la técnica de pasillos fríos y calientes y permite mejorar el sistema de refrigeración. 9 Tema 2 3 Unidades de Procesamiento La unidad de proceso del sistema de computación está formada por los componentes físicos siguientes: 3.1 Placa base La placa base (mother board) de un ordenador, también denominada CPU (unidad central de proceso) es una placa con un circuito impreso con componentes electrónicos y conectores sobre el que se insertan los demás elementos del sistema: el microprocesador, las diferentes tarjetas de expansión, las tarjetas gráficas y la memoria. Las funciones principales de la placa base son: la conexión física, la administración, el control y la distribución de energía eléctrica, la comunicación de datos, la temporización, el sincronismo, el control y la monitorización. La placa base cuenta con un software (firmware) denominado BIOS (Basic Input Output System). La BIOS se almacena en un chip de memoria ROM (read-only memory, memoria de sólo lectura). Este es el primer software que se ejecuta en el proceso de arranque de una placa base. Existen varios tipos de ROM BIOS: PROM (programmable read-only memory): el valor de cada bit depende del estado de un fusible, por ello puede ser programada una vez (se utiliza un programador PROM cuando se fabrica el chip). EPROM (Erasable Programmable Read-Only Memory, es una ROM programable borrable): inventada por Dov Flohman, puede ser reprogramada, borrando su información mediante rayos ultravioleta. EEPROM (Electrically Erasable Programmable Read-Only Memory), es una ROM programable y borrable eléctricamente. Flash BIOS (Binary Input Output System): son chips que pueden grabarse mediante impulsos eléctricos. En la estructura básica de la placa base destacan la placa de circuito impreso, o PCB (Printed Circuit Board), que es el sustrato no conductor de carga eléctrica sobre el que se colocan los demás componentes: los circuitos integrados, zócalos, condensadores y demás dispositivos eléctricos y electrónicos indispensables para que los subsistemas de la placa base lleven a cabo su función; y, las pistas o buses de material conductor que transportan la información entre unos componentes y otros. La tendencia a la integración ha derivado en que la placa base concentre la mayoría de las funciones básicas (vídeo, audio, red, y distintos tipos de puertos), para los que antes eran necesarios tarjetas de expansión. Otra tendencia es eliminar elementos de la placa base e integrarlos en el microprocesador. Actualmente disponemos de sistemas denominados System on a Chip (SOC) que disponen de un único circuito que integra varios módulos electrónicos en su interior (procesador, controlador de memoria, GPU, Wi-Fi, Bluetooth, etc), lo que produce una notable reducción de tamaño frente a la misma funcionalidad obtenida con módulos electrónicos separados. En la placa base encontramos, además, zócalos o ranuras, batería y chipset. Zócalos o ranuras Son los elementos que nos facilitan la inserción de otros componentes hardware. Hay dos tipos de zócalos: 10 Tema 2 1. Zócalos para el procesador: los más frecuentes son de los fabricantes Intel y AMD, tienen distintas denominaciones: Slot: zócalo de microprocesador de forma longitudinal, actualmente en desuso. Socket: zócalo de microprocesador cuadrangular o rectangular. En el caso del fabricante Intel, suelen emplear una nomenclatura basada en el número de pines o conexiones que poseen. Podemos citar como ejemplo de sockets más recientes el LGA 1151 de Intel con 1151 pines o el TR4 de AMD (cuenta con 4094 pines). 2. Zócalos para la memoria: Son las conexiones en las que se instalan los módulos de memoria. Pueden ser de tipo SIMM, Single Inline Memory Module o DIMM, Dual Inline Memory Module. Son de tipo slot (lineal). En los módulos SIMM los contactos de un lado están unidos con los del otro, en los DIMM están separados. Un DIMM puede comunicarse con el equipo a 64 bits (algunos a 72 bits) superando los 32 bits que permitían los SIMM. Si hay problema de espacio, podemos utilizar módulos SO-DIMM (Small Outline Dual Inline Memory Module) que son una versión compacta de los módulos DIMM convencionales. Se usan para dispositivos Tablet PC, impresoras, portátiles, algunas PDA, etc. Tienen hasta 260 pines, a fecha de redacción del tema, algo menos que los módulos DIMM que presentan 288 pines. Batería Es una pequeña pila que se incorpora en todas las placas base. Su función es mantener la alimentación eléctrica del reloj de tiempo real (RTC), y algunos parámetros básicos, como la configuración del disco duro y del usuario utilizados por la BIOS en el arranque del computador. Chipset Es un conjunto de circuitos integrados (chips), diseñado con técnicas similares a las del microprocesador que controla los intercambios de información entre el microprocesador y la memoria principal y entre el microprocesador y el subsistema de E/S (entrada / salida). En las placas base antiguas no existían los chipsets, sino un bus (ISA o EISA) que conectaba todos los componentes: la memoria, las tarjetas de controladores, tarjetas de video, procesador, teclado, etc. Todos los componentes (incluyendo la CPU) funcionaban a la misma velocidad. Intel introdujo en 1994 el bus PCI pensado como un bus de expansión. Con PCI comienza el uso de un lenguaje propio y único, incorporando un bridge o puente que permitía la traducción de los comandos PCI al lenguaje de la CPU y de la memoria RAM. Así, se podía trabajar tanto con el bus PCI como con la CPU y la memoria RAM de una forma sencilla. Este bridge fue llamado North Bridge. Para conservar la compatibilidad con los buses anteriores (ISA o EISA), para los componentes no integrados de estos buses, se construyó otro denominado (South Bridge) que se comunicaba con ellos. En este caso el Chipset estaba constituido por dos circuitos integrados: el northbridge que comunicaba los datos entre la CPU, la memoria principal y el subsistema gráfico, y el southbridge que se utilizaba para el resto de subsistemas. El southbridge estaba conectado al northbridge a través de un enlace de alto rendimiento. La lógica que incorporaba el northbridge ha pasado a estar integrada en la CPU, por lo que ya solo es necesario un chip que lleve a cabo esencialmente las tareas que desempeñaba el southbridge. El procesador está ahora conectado directamente, mediante buses de alto rendimiento, a la memoria principal y a la parte gráfica, sigue responsabilizándose de la administración del tráfico generado por 11 Tema 2 algunos subsistemas como las ranuras PCI Express que no estén destinadas a la tarjeta gráfica o los puertos SATA, USB y Thunderbolt. El southbridhe ha sido sustituido por el chipset es PCH (Platform Controller Hub) que, a través de un enlace de alto rendimiento permite incrementar la velocidad de transferencia de los datos y minimizar la latencia. El PCH sigue teniendo el reloj del sistema, el antiguo FSB (Front Side Bus). Otro elemento importante en la placa base es la señal de reloj que se origina en un diminuto oscilador de cuarzo y emite una secuencia de pulsos con periodicidad exacta, permite garantizar la sincronización de los componentes. En la placa base además podemos encontrar distintos puertos y conectores en función de su tipología y ubicación. Entre los conectores externos disponemos de puertos serie, puertos paralelos, USB, Firewire, conectores de audio y para el monitor: PS/2: actualmente está en desuso. Se utilizaba para conectar el teclado y el ratón. Tienen dos colores, morado para el teclado y verde para el ratón. Ha sido sustituido por el USB. Puertos serie que están controlados por un chip UART (Universal Asynchronous Receiver-Transmitter, Transmisor Asíncrono Universal), es un controlador serie de alta velocidad. Suele disponer de dos puertos que se se denominar COM1 y COM2 respectivamente. Puerto paralelo, es multimodo y nos permite la conexión de dispositivos paralelos, hoy está en desuso, se utilizaba generalmente para impresoras y escáneres. Puertos USB (Universal Serial Bus). Tienen forma estrecha y rectangular y permiten la conexión en caliente de dispositivos que cumplan este estándar. Existen distintas generaciones: -USB 3.2 Gen 1, también conocido como USB 3.0. Tiene un rendimiento máximo de 5 Gbps. -USB 3.2 Gen 2, es USB 3.1., rendimiento máximo de 10 Gbps. -USB 3.2 Gen 2×2, es USB 3.2., rendimiento máximo de 20 Gbps. Puerto IEEE 1394 (Firewire). Permiten la conexión en serie de dispositivos que cumplan este estándar. Actualmente los principales dispositivos IEEE 1394 son sistemas de video digital (DV) y unidades de almacenamiento externa. Están sido reemplazados por USB 3.0. Conectores de audio, son clavijas de tipo jack estéreo, los más habituales son los de entrada y/o salida de línea (line in/line out), entrada de micrófono (mic in) y salida de altavoces (speaker out). Conector para monitor. Actualmente los equipos de sobremesa suelen incorporar al menos uno de los siguientes conectores: -DisplayPort o mini DisplayPort. Tiene 20 pines separados en 2 filas. Transmite señales digitales de audio y vídeo. -HDMI (High-Definition Multimedia Interface). Posee 19 pines agrupados en dos filas. Transmite señales digitales de audio y vídeo. -DVI (Digital Visual Interface). Dispone de 29 pines separados en tres filas de 8 pines y un grupo lateral de 5 pines. Admite señales analógicas o digitales de audio. -VGA (Video Graphics Array): conector estándar para tarjeta gráfica. Tiene 15 pines agrupados en tres filas. Transmite señales analógicas de vídeo. 12 Tema 2 Figura 4. Tipos de conectores para monitor Conector RJ45 que sirve para conectar redes de ordenadores con cableado estructurado. En relación a los Conectores internos podemos encontrar dos tipos fundamentalmente, los conectores eléctricos que proporcionan energía a los elementos y los conectores de datos como: IDE (Integrated Drive Electronics) o SATA (Serial AT Attachment). 3.2 Microprocesador El microprocesador también se denomina Unidad Central de Proceso (CPU), consiste en un circuito integrado que sirve para procesar los datos del equipo. Internamente, un microprocesador está compuesto por millones de pequeños componentes electrónicos denominados transistores. El espacio entre los transistores es del orden de nanómetros y cada vez se acorta más la distancia de separación entre los transistores, lo que permite una mayor concentración de transistores en el mismo espacio físico, incrementándose por este motivo la potencia del procesador. La frecuencia del reloj es la velocidad en ciclos (operaciones por segundos) a la que el microprocesador ejecuta las instrucciones, se mide en hertzios, Hz. Cada equipo contiene un reloj interno que regula la velocidad a la que las instrucciones se ejecutan y sincroniza todos los componentes del computador. La CPU requiere un número fijo de ciclos de reloj para ejecutar cada instrucción. Cuanto más rápido es el reloj, mayor número de instrucciones puede realizar la CPU. Además de la frecuencia de reloj, la potencia del microprocesador también está determinada por otras características, como, el número de transistores, por la tecnología que se ha utilizado en su fabricación, por la memoria caché disponible, etc. Hay diversos índices para medir el rendimiento de un ordenador, podemos destacar: MIPS: basado en el número de instrucciones que es capaz de ejecutar por segundo. 13 Tema 2 MFLOPS: basado en los millones de instrucciones de coma flotante capaz de ejecutar por segundo. TPC: en relación con el procesamiento de transacciones, es decir, accesos de consulta y actualización a bases de datos. SPEC: se ejecuta en el procesador un conjunto de programas y combina las medidas de los resultados obtenidos utilizando la media aritmética o geométrica. SPECint y SPECfp: son índices que miden las velocidades en operaciones con enteros y en coma flotante. La medida resultante se denomina SPECmarks. Los microprocesadores suelen tener forma de prisma, van instalados sobre un socket. El microprocesador ejecuta instrucciones almacenadas como números binarios en la memoria principal. La ejecución de las instrucciones se puede realizar en varias fases: - PreFetch o pre-lectura de la instrucción desde la memoria principal. - Fetch u ordenamiento de los datos necesarios para la realización de la operación. - Decodificación de la instrucción, para determinar qué instrucción es y por tanto qué debe realizarse. - Ejecución. - Escritura de los resultados en la memoria principal o en los registros. Cada una de estas fases se realiza en uno o varios ciclos de CPU, dependiendo de la estructura del procesador, y de su grado de supersegmentación. La duración de estos ciclos viene determinada por la frecuencia de reloj; el microprocesador dispone de un oscilador de cuarzo capaz de producir pulsos a un ritmo constante siendo capaz de generar varios ciclos (o pulsos) en un segundo. Los fabricantes más populares de microprocesadores son Intel (Core i3, i10) y AMD (ejemplo Ryzen). Los modelos de la familia Intel x86 (a partir del 386) trabajan con datos de 32 bits. Los microprocesadores de tarjetas gráficas soportan mayor volumen de procesamiento por segundo, pueden trabajar a 128, 256, 384 y 512 bits. La arquitectura x86 ha ido mejorando a lo largo del tiempo a través de “extensiones” (conjuntos de operaciones especializadas) que han permitido progresos en el procesamiento de algunos tipos de información, son conocidas las extensiones MMX y SSE de Intel y 3DNow! de AMD. En 2003, aparecen los procesadores de arquitectura x86 (x86-64) con la extensión AMD64 y, posteriormente, con la extensión EM64T (Intel 64), en los procesadores AMD e Intel respectivamente. Para aumentar el rendimiento del procesador se introducen nuevas técnicas como la supersegmentación y los procesadores superescalares. Un procesador supersegmentado divide cada una de las etapas de procesamiento de una instrucción en varias subetapas reduciendo el ciclo de instrucción. Pueden realizar mayor número de subetapas pero más sencillas. Podemos indicar como ejemplo el MIPS R4000 incorporado en las estaciones Silicon Graphics. Un procesador superescalar es aquel que es capaz de ejecutar más de una instrucción por ciclo de reloj. Es decir, utiliza el paralelismo al nivel de instrucciones y por lo tanto para que funcione es necesario que existan instrucciones independientes entre sí que estén convenientemente ordenadas y que el procesador disponga del hardware necesario para ejecutarlas en paralelo. Con ambas técnicas se consigue aumentar el número medio de instrucciones que se ejecutan por ciclo. La técnica superescalar se propuso en 1987 para mejorar las arquitecturas RISC segmentadas y se implementó en un Power 1 de IBM en el año 1990. Existen procesadores que combinan las dos técnicas como es el caso de DEC Alpha. Describimos brevemente a continuación las partes más importantes de un microprocesador: -Banco de registros Un registro es una memoria de alta velocidad y poca capacidad que está integrada en el microprocesador y permite guardar y acceder a valores frecuentemente utilizados. 14 Tema 2 Los registros están en el punto más alto de la jerarquía de memoria, es decir, son la forma más rápida que tiene el sistema para almacenar los datos. Se miden por el número de bits que son capaces de almacenar ("registro de 8 bits", "registro de 32 bits"…) Un procesador puede tener registros de tres tipos: Registros de propósito general: utilizados por el programador en lenguaje ensamblador. Registros de propósito específico: su valor sólo puede modificarse mediante instrucciones específicas, como el registro contador de programa (PC, Program Counter) cuya función es apuntar a la siguiente instrucción a ejecutar, el registro de estado que almacena información sobre las operaciones que tienen lugar en la ALU y el registro de puntero de pila que contiene una dirección de memoria a partir de la cual se encuentran una serie determinada de datos. Registros transparentes: son registros sobre los que el programador no puede actuar ni referenciar. Son utilizados internamente por el procesador como, por ejemplo, el registro de instrucción (contiene la instrucción que se está ejecutando). Unidad de control La Unidad de control (UC) es el "cerebro del microprocesador" que interpreta y ejecuta las instrucciones almacenadas en la memoria principal. Activa o desactiva los diversos componentes del microprocesador en función de la instrucción que se esté ejecutando y de la fase en que se encuentre. Existen dos diseños de la Unidad de Control: - Unidad de control cableada, es la más sencilla, se construye mediante puertas lógicas (pequeño circuito electrónico en el que los valores verdadero y falso son señales eléctricas con tensión alta o baja). - Unidad de control microprogramada: está formada por puertas lógicas y por una memoria que almacena para cada instrucción qué señales de control internas se deben activar y desactivar en cada instante. A cada palabra de esta memoria se le denomina microinstrucción (está formada por 1 y 0). Al conjunto ordenado de microinstrucciones se le denomina microprograma. Unidad aritmético-lógica La Unidad Aritmético Lógica (UAL), o Arithmetic Logic Unit (ALU), es un circuito digital que calcula operaciones aritméticas (suma, resta, etc.) y operaciones lógicas (OR, NOT, XOR, etc.). El circuito del reloj digital tiene una ALU minúscula para mantenerla sumando 1 al tiempo actual y comprobando si debe activar el pitido del temporizador. Los circuitos electrónicos más complejos de los microprocesadores modernos (y también de los mainframes, computadora utilizada principalmente por grandes organizaciones para aplicaciones críticas) tienen en su interior una ALU más compleja que puede contar con múltiples núcleos, cada uno con múltiples unidades de ejecución, y en cada una de ellas disponer de varias ALU. Unidad de Coma Flotante Una Unidad de Punto Flotante o Unidad de Coma Flotante (Floating Point Unit, FPU), también llamada coprocesador matemático, es un componente de la CPU especializado en el cálculo de operaciones en coma flotante. No todas las CPU tienen FPU dedicada. En ausencia de FPU, la CPU puede utilizar programas en microcódigo para emular una función de coma flotante en la unidad aritmético-lógica (ALU), de esta forma se reduce el coste del hardware a costa de perder velocidad. En algunas arquitecturas, las operaciones en coma flotante se tratan en registros dedicados y tiempos de ciclo diferenciados. Bus de control Se trata de un canal interno que es supervisado y controlado por el microprocesador y que cuenta con varias características: 15 Tema 2 Ancho de banda: número máximo de elementos de información que se pueden transmitir por unidad de tiempo (por ejemplo, megabits por segundo, Mbit/s). Frecuencia: a mayor frecuencia, mayor será la cantidad de información por unidad de tiempo que será capaz de transmitir. Grado de paralelismo: indica cuántas unidades de información es capaz de transmitir el bus simultáneamente. Los buses de tipo serie sólo pueden transmitir bit a bit, mientras que los buses paralelos son capaces de transmitir “n” bits en un determinado instante. A esta característica se la denomina ancho de bus. Función: el bus puede ser de uso general o tener una función específica (por ejemplo, transmisión de información de control). Longitud: longitud máxima establecida según el ámbito de aplicación. Físicas y eléctricas: propiedades del bus en función de los materiales conductores que se han utilizado en su fabricación. 3.3 Memoria La memoria RAM o memoria de acceso aleatorio, sirve para almacenar los programas que se encuentran en ejecución. Podemos distinguir dos tipos en función de si los datos permanecen o no tras el apagado del equipo: memorias duraderas (o no volátiles), y memorias volátiles. Existen dos tecnologías de memoria distintas:  DRAM (Dynamic Random Access Memory): necesita refresco, es decir, requiere contar con tensión para evitar que se pierda su contenido. Es una memoria más lenta, más sencilla y menos costosa. Aparece en 1968, la patenta Robert Dennard, ingeniero de IBM. y  SRAM (Static Random Access Memory): memoria que no necesita refresco. La información perdura a lo largo del tiempo. Su coste es más elevado ya que cuenta con un diseño más complejo, son más rápidas. Aparece en 1969 gracias a Intel. 10 años después, en 1983, se crea el módulo SIMM para proteger las placas base, ya que las memorias RAM iban soldadas a la placa base y era difícil extraer la memoria sin dañar la placa base. El objetivo de la memoria principal es, como hemos indicado, albergar los programas o porciones de éstos mientras están siendo ejecutados. Si no están siendo utilizados, los programas están almacenados en la memoria secundaria (disco duro). Es el sistema operativo el encargado de copiar los programas a la memoria principal para que el procesador pueda ejecutarlos. En 1992, Samsung introduce la tecnología SDRAM (Synchronous dynamic random-access memory) que se ha impuesto en el mercado. Es una memoria síncrona, se sincroniza a sí misma con la señal de reloj interna del procesador, puede obtener información en cada ciclo de reloj sin necesidad de utilizar estados de espera. Esta sincronización le permite funcionar a velocidades más altas que los otros tipos de memoria. El rendimiento de las memorias SDRAM se puede medir en megahercios o en nanosegundos. La conversión de megahercios (MHz) a nanosegundos se realiza dividiendo uno entre el número de megahercios, y multiplicando el resultado por mil, el proceso inverso nos permite transformar de “ns” a “MHz”. Por ejemplo, un módulo SDRAM de 1 MHz corresponde a (1/1) x 1000 = 1000 ns. Las memorias SDRAM evolucionaron a DDR (Double Data Rate), denominadas así por permitir realizar dos operaciones por ciclo de reloj, duplicando el ancho de banda proporcionado por la memoria SDRAM. Hay distintas generaciones de memoria DDR (DDR1 … DDR5), que han ido evolucionando incrementando la velocidad de reloj a la vez que disminuían el consumo de energía. 16 Tema 2 Otras tecnologías como Rambus DRAM (RDRAM), eDRAM, Synchronous-link DRAM (SLDRAM) y Virtual channel memory (VCM) SDRAM no han tenido una aceptación relevante en el mercado. La última evolución en las memorias RAM es DDR5, una tecnología que ya ha empezado a fabricarse por parte de Samsung, Micron y SK Hynix. Memoria caché Es una memoria que se intercala entre el procesador y la memoria principal. Está gestionada por hardware. Es más rápida que la memoria principal, y de menor tamaño. Contiene la información residente en la memoria principal que está siendo utilizada en un determinado momento. El objetivo de esta memoria es que los accesos a la información se realicen a una velocidad muy cercana a la del procesador para evitar la penalización que supone utilizar la memoria RAM (más lenta que el procesador). Los procesadores modernos tienen varios niveles de caché diferenciados, pueden disponer de L1, L2, L3 y L4. La “L” significa «level», nivel en inglés, hablamos por tanto de caché de nivel 1, nivel 2, etc.). La caché L1 es la más cercana a las unidades de ejecución y es la más rápida y también la más pequeña de todas. Se suele dividir en dos bloques distintos, en uno de ellos se almacenan los datos a tratar y en el otro las instrucciones, estas últimas son las acciones que debe realizar el procesador. Es decir, por un lado, se guardan las operaciones que tiene que realizar el procesador, y por otro la información que este debe procesar. La caché L1 se encuentra a nivel de cada núcleo, no del procesador. Un núcleo es la unidad de cálculo básica de la CPU (sólo puede ejecutar un programa, salvo que cuente con mejoras de hardware como hyperthreading en CPU de Intel que le permite ejecutar varios simultáneamente), una CPU puede tener uno o más núcleos. El siguiente nivel es el de la caché L2, que es un poco más lenta, cuenta con mayor capacidad que la caché L1. Cada nivel adicional contiene todos los datos de las cachés de nivel anterior. Históricamente la L2 se ha utilizado para comunicar varios núcleos y darles coherencia en memoria y acceso, se trata de una caché compartida. Algunas arquitecturas de CPU pueden tener más niveles de caché, por ejemplo, los núcleos en los clústeres cuentan con una L2 común y una L3 general compartida. También puede ser que un núcleo tenga varios niveles de caché local o que una CPU tenga varios niveles de caché compartida. 3.4 Buses Podemos clasificarlos además de por su ubicación (internos, se encuentran en la CPU para interconectar sus componentes internos o externos, están fuera de la CPU y sirven para interconectar el microprocesador con los periféricos o la memoria, por su forma de distribuir los datos:  Buses paralelos: los datos son enviados byte a byte simultáneamente. La cantidad de datos enviada es bastante alta, depende del ancho de los datos y de la frecuencia de funcionamiento.  Buses en serie: los datos son enviados bit a bit, se reconstruyen por medio de registros o rutinas de software. Su ancho de banda depende de la frecuencia. Un bus con un ancho de 16 bits y una frecuencia de 133 MHz, tiene una velocidad de transferencia de: 16 x 133.000 = 2.128.000 bit/s (bits cada segundo), 2.128 Mbps (megabit por segundo). Revisamos con más detalle algunos buses: Bus PCI (Peripheral Component Interconnect) Es un bus estándar que sirve para conectar dispositivos periféricos directamente a la placa base y permite la configuración dinámica de los mismos. Es un bus paralelo, compartido por todos los periféricos, por lo que su ancho de banda se divide entre el número de periféricos que se conectan. 17 Tema 2 Su tasa de transferencia máxima es de 133 MB por segundo, en el bus de 32 bits (33,33 MHz × 32 bits ÷ 8 bits/byte = 133 MB/s) y de 266 MB/s en el bus de 64 bits. Ha evolucionado a distintas versiones: PCI-X (PCI eXtended): dispone de mayor ancho de banda que el original PCI, se usa en servidores para incrementar el rendimiento de los dispositivos de banda ancha como tarjetas Ethernet Gigabit, Canal de Fibra y SCSI y para permitir a los procesadores ser interconectados en clústeres. Fue desarrollado conjuntamente por IBM, HP y Compaq en 1998. PCIe (PCI Express): es el bus PCI más moderno, se basa en un sistema de comunicación serie mucho más rápido. No conecta varios dispositivos al mismo tiempo, sino que sólo conecta dos simultáneamente. De esta manera, se consigue que estos dos dispositivos intercambien información a la máxima velocidad disponible, se utiliza para añadir tarjetas de expansión a la placa base del ordenador. PCI-e se utiliza para conectar tarjetas gráficas a la placa base del ordenador. Lo apoya principalmente Intel. Los buses PCI o PCIe son interesantes en aplicaciones donde se necesita gran ancho de banda, latencia baja, o intercambios robustos. Bus USB (Universal Serial Bus) Es un bus serie, la información se transfiere bit a bit de forma consecutiva. El diseño del USB persigue mejorar las capacidades plug-and-play, permitiendo conectar o desconectar los dispositivos al sistema “en caliente” (sin necesidad de reinicio). Existen tres tipos principales de conectores: Tipo A, Tipo B y Tipo C. El tipo C es un conector más pequeño y tiene un cabezal ovalado simétrico por ambos lados, ha sustituido a los MiniUSB que se utilizaban en cámaras de fotos y móviles, se ha utilizado en la mayoría de smartphones hasta la llegada del USB Tipo C. Este conector Tipo C sólo utiliza el estándar 3.1 de USB, no soporta USB 1.0 ni 2.0. Existen distintos estándares que determinan la velocidad de los dispositivos USB: Baja velocidad (1.0): Tasa de transferencia de hasta 1,5 Mbit/s (188 kB/s). Utilizado en su mayor parte por dispositivos de interfaz humana (HID, Human Interface Device) como los teclados, los ratones (mouse), las cámaras web, etc. Estos dispositivos dividen el ancho de banda de la conexión USB entre ellos, basados en un algoritmo de impedancias LIFO (Last in, First out, Última en Entrar, Primera en Salir). Alta velocidad (2.0): Tasa de transferencia de hasta 480 Mbit/s (60 MB/s) pero con una tasa real práctica máxima de 280 Mbit/s (35 MB/s). El cable USB 2.0 dispone de cuatro líneas, un par para datos, y otro par de alimentación. Superalta velocidad (3.0): Tiene una tasa de transferencia de hasta 4,8 Gbit/s (600 MB/s). La velocidad del bus es diez veces más rápida que la del USB 2.0, debido a que han incluido 5 contactos adicionales, desecha el conector de fibra óptica propuesto inicialmente, es compatible con los estándares anteriores. En octubre de 2009 la compañía taiwanesa ASUS lanzó la primera placa base que incluía puertos USB 3.0. En 2014 se actualizó al estandar USB 3.1 Gen1. Superalta velocidad (3.1 Gen2): Tiene una tasa de transferencia de hasta 10 Gbit/s (1,3 GB/s). La velocidad del bus es más de dos veces más rápida que la del USB 3.0 y es compatible con los estándares anteriores. En marzo de 2015, Apple lanzó un nuevo modelo MacBook más fino que MacBook Air que iba equipado con un conector USB Type-C. 18 Tema 2 3.5 Subsistema de Entrada/Salida El subsistema de Entrada/Salida es el interfaz que tiene el computador con el exterior para facilitar las operaciones de E/S entre los periféricos y la memoria o los registros del procesador. Para gestionar las operaciones de E/ S es necesario un hardware y la ayuda de un software. Un dispositivo periférico es aquel que se conecta a los buses del ordenador y permite intercambiar información con el exterior. Hay periféricos de entrada de información hacia el ordenador, como el teclado y el ratón, o el escáner que nos permite digitalizar documentos, y periféricos de salida que convierten los impulsos eléctricos en información legible para el usuario, como el monitor o la impresora, y también hay periféricos de entrada y salida, que permiten el intercambio de información en los dos sentidos (del computador al exterior y viceversa), como el módem, el adaptador de red local o las unidades de almacenamiento. Los dispositivos periféricos están compuestos tanto de circuitos electrónicos (controladores) como por partes mecánicas. Podemos clasificar los periféricos según su función: Periféricos de almacenamiento: discos duros, unidades lectoras/grabadoras de CD y DVD, etc. Periféricos de entrada: teclado, ratón, escáner, cámara web, cámara digital,.. Periféricos de salida: el monitor, la impresora, el fax, los altavoces, plotter, escáner, etc. Periféricos de comunicación: facilitan la interacción entre dos o más ordenadores, o entre una computadora y otro periférico externo a esta: fax-modem, tarjeta de red, concentrador, tarjeta inhalámbrica, bluetooth, etc. 3.5.1 Periféricos de almacenamiento Se encargan de salvaguardar los datos de utiliza la unidad central de proceso para evitar que se pierdan cuando se apaga el ordenador (serían eliminados de la memoria principal). Pueden atender a diversas clasificaciones en función de su tecnología o del soporte utilizado para su fabricación. Pueden ser internos o extraíbles, podemos citar como ejemplo los más comunes: el disco duro, el Blu-ray, o las cintas magnéticas, … A continuación, se describe con más detalle alguno de ellos. Disco duro Los discos duros se denominan memoria secundaria o almacenamiento secundario. Un disco duro (hard disk en inglés, HD o HDD) permite almacenar gran cantidad de datos de forma rápida y segura. En 1956 IBM desarrolló el primer sistema de almacenamiento en disco magnético: el RAMAC. Empleaba 50 platos de 24 pulgadas cada uno para almacenar, en un código binario de 7 bits, 50 megacaracteres (50.000 caracteres). En 1961, esta misma empresa, inventa el primer disco duro, desarrollando el concepto “air bearing”, es decir de cabezales flotando gracias al efecto aerodinámico sobre los platos de grabación sin tocar los mismos. Al no existir rozamiento, la vida útil del dispositivo es mucho más larga. Características Los discos duros utilizan generalmente un sistema de grabación magnética digital. Disponen de una carcasa que contiene una serie de platos metálicos apilados girando a gran velocidad. Los platos están montados sobre un eje central (spindle) que gira siempre en el mismo sentido. Para proceder a leer y escribir datos en los platos se usan unas cabezas de lectura/escritura que mediante un proceso electromagnético codifican/decodifican la información. La cabeza de lectura/escritura en un disco duro 19 Tema 2 está muy cerca de la superficie del plato. Normalmente, cada plato dispone de dos cabezas de lectura/escritura, una para cada cara. Los platos de aluminio están recubiertos de una capa de material con propiedades magnéticas en ambas caras. Inicialmente se utilizaba óxido férrico, pero actualmente se suele emplear cobalto que presenta mejores cualidades. Los platos tienen tamaños típicos según el tipo de disco duro. Normalmente incorporan platos de 3,5 pulgadas. Hay también platos de 2,5 pulgadas, denominados “Microdrive” que se utilizan en los ordenadores portátiles. Las principales características son: Capacidad de almacenamiento: cantidad de información que se puede grabar o almacenar en un disco duro. Velocidad de rotación: es la velocidad a la que giran los platos del disco, en los platos es donde se almacenan magnéticamente los datos. Se mide en revoluciones por minuto (rpm). A mayor velocidad de rotación, más alta es la transferencia de datos, pero también serán mayores el ruido y el calor generados. Memoria caché (tamaño del buffer): es la memoria incluida en la controladora interna del disco duro, todos los datos que se van a leen o escribir en el disco duro se almacenan primero en el buffer. Tasa de transferencia: indica la cantidad de datos que un disco duro puede leer o escribir en la parte más externa del disco o plato en un período de un segundo. Se mide en megabits por segundo (Mbits/s). Componentes físicos Los discos, están fabricados con compuestos de vidrio, cerámica o aluminio pulidos y revestidos por ambos lados con una capa muy delgada de una aleación metálica. Los discos están unidos a un eje y un motor que los hace guiar a una velocidad constante entre 3.600 y 7.200 rpm (revoluciones por minuto). Los discos duros están compuestos por varios platos montados sobre un eje central y cuentan normalmente con dos caras que pueden usarse para el almacenamiento de datos, o reservar una de ellas para almacenar información de control. Cada uno de los lados de un disco se denomina cara. Los datos se graban en forma de flujos magnéticos escritos en círculos, alrededor del anillo central del disco. Cada uno de los círculos concéntricos forma una pista y cada pista está dividida en un número igual de segmentos, llamados sectores. Un sector es la mínima unidad de información direccionable en un disco duro. En la mayoría de los discos duros, el sector tiene un tamaño de 512 bytes. Cada pista normalmente está dividida en una cantidad de sectores que oscila entre 100 y 300. La cabeza de lectura/escritura se mueve del borde exterior del disco hacia el anillo central, deteniéndose sobre la pista que contiene la información requerida. Cuando alcanza la posición adecuada, la cabeza espera a que el sector correcto de la pista se encuentre debajo de ella, para a continuación leer o escribir los datos necesarios. Otro concepto importante es la densidad de grabación que indica la cantidad de datos que podrán almacenarse en la superficie del disco. Se mide en bits por pulgada (BPI, Bits Per Inch). La densidad de pistas en cada plato se mide en pistas por pulgada (TPI, Tracks Per Inch). Multiplicando ambos factores se obtiene la densidad de área, que se miden en bits por pulgada cuadrada (BPSI, Bits Per Square Inch). La densidad hace referencia a la separación que existe en los bits de información almacenados en el disco duro. El primer disco duro fue el IBM 350 de 1956 y tenía una densidad de 2000 bits por pulgada cuadrada. 20 Tema 2 Figura 5. Componentes de la unidad de disco (Wikipedia). Las cabezas (Heads), se encuentran apiladas, son las responsables de la lectura y la escritura de los datos. La mayoría de los discos duros incluyen una cabeza de lectura/escritura en cada lado del disco, aunque existen discos de alto rendimiento que pueden tener dos o más cabezas sobre cada superficie, de esta forma, cada cabeza atiende la mitad del disco, reduciéndose la distancia del desplazamiento radial. Las cabezas de lectura/escritura consisten en un pequeño dispositivo formado por una bobina metálica que se ubica muy cerca del material magnetizable. La orientación (polaridad) de los campos magnéticos de la superficie del disco crea una pequeña carga eléctrica en la bobina. Estas señales eléctricas son leídas como código binario (ceros y unos), dependiendo de la polaridad de las cargas. La unidad también puede enviar una carga eléctrica a la bobina. Esto altera la polaridad de los campos, y de esta forma se "escribe" en el disco. En una operación de lectura, las señales eléctricas generadas en el cabezal por los campos magnéticos, son transportadas a lo largo de un cable de datos hasta una tarjeta controladora del disco duro y de ahí al computador. En una operación de escritura el computador envía señales a la tarjeta controladora y de esta a los cabezales por medio del cable. Todos los discos duros actuales incorporan una memoria caché (buffer) para agilizar las operaciones de lectura y escritura. Generalmente el caché suele ser de 32 ó 64 MB. Las cabezas son un factor fundamental en el rendimiento de un disco duro y en la densidad de grabación, no tocan el disco cuando éste gira a toda velocidad, flotan sobre una capa de aire extremadamente delgada (10 millonésima de pulgada). Cualquier polvo o impureza en el aire puede dañar las cabezas o el disco. El eje, es la parte del disco duro que actúa como soporte, sobre el cual están montados y giran los platos del disco. Las pistas. Un disco está dividido en círculos concéntricos denominados pistas. Las cabezas se mueven entre la pista más externa ó pista “cero” a la más interna. Sectores. La organización de la información del disco se realiza en contenedores de tamaño fijo denominados sectores (tienen tamaños típicos de 256, 5.120 o 1.024 bytes). La controladora del disco duro determina el tamaño de un sector en el momento en que el disco es formateado. Cada pista del disco está dividida en 1 ó 2 sectores; como las pistas exteriores son más grandes que las interiores, contienen más sectores. Cilindros. Un cilindro consiste en una pila vertical de pistas. Son todas las circunferencias que están alineadas verticalmente (una por cada cara). Si el disco duro contiene múltiples discos (n), un cilindro incluye todos los pares de pistas que se encuentran directamente una encima de otra (2n pistas). Los discos duros normalmente tienen una cabeza a cada lado del disco. Como las cabezas de Lectura/Escritura están alineadas, la controladora puede escribir en todas las pistas del cilindro sin 21 Tema 2 mover el rotor. Como resultado, los discos duros de múltiples discos son más rápidos que los discos duros de un único disco. Tarjeta controladora. Para controlar el funcionamiento del motor y gestionar la forma en que se graba y lee la información, los discos actuales cuentan con una tarjeta controladora integrada en la propia unidad. Dicha controladora se suele alimentar a 5 voltios, el motor lo hace a 12 voltios. Por este motivo, el conector de alimentación tiene cuatro cables: uno de 5 y otro de 12 voltios, con sus respectivas masas. Interfaces. La interfaz de un disco duro es la forma de relacionarse con los demás elementos que componen el ordenador. Hace también referencia, por tanto, al tipo de conexión que utiliza el disco duro. Figura 6. Estructura de disco magnético: A es una pista del disco, B es un sector del disco (Wikipedia). Revisamos a continuación algunas métricas de rendimiento del disco duro: Tiempo de búsqueda: es el tiempo que tardan las cabezas de lectura/escritura en moverse desde su posición actual hasta la pista donde está localizada la información deseada. Este tiempo varía en cada búsqueda. Actualmente, los discos duros tienen tiempos de búsqueda “pista a pista” de solo 2 milisegundos, tiempos promedios de búsqueda menores a 10 milisegundos y tiempos máximos de búsqueda (tiempo completo entre la pista más interna y la más externa) cercanos a 15 milisegundos. Latencia: cada pista en un disco duro contiene múltiples sectores. Cuando la cabeza de Lectura/Escritura encuentra la pista correcta permanece en el lugar, inactiva, hasta que el sector pasa por debajo de ella. Este tiempo de espera se llama latencia. Command Overhead: tiempo que tarda la controladora en procesar una solicitud de datos. Transferencia: tiempo en el que los datos pueden ser leídos o escritos en el drive (disco), está afectado por la velocidad de los discos, la densidad de los bits de datos y el tiempo de acceso. La evolución de los discos ha sido la siguiente: IDE (Integrated Drive Electronics). Creado por Western Digital. Su característica más representativa era la implementación de la controladora en el propio disco duro, de aquí viene su denominación. Se eliminó la necesidad de disponer de dos cables separados para control y datos, siendo suficiente un cable de 40 hilos desde el bus al disco duro. Permite instalar dos unidades de disco. IDE es equivalente a ATA (AT Bus Attachment), "AT" se refiere a la PC/AT de IBM para la que fue diseñado). Fue durante años el estándar de facto en los discos duros. Tanto IDE como ATA hacen referencia al mismo estándar. 22 Tema 2 El ATA es una interfaz estandarizada por la ANSI (American Nacional Standard Institute), sus características principales son: 1. Dos discos duros. La especificación ATA original sólo da soporte a dos discos duros, ambos montados sobre un mismo canal, y configurados como maestro (master) y esclavo (slave) respectivamente. 2. Modos de transferencia. Los modos de transferencia han ido evolucionando para ofrecer mayor velocidad: PIO (Programmed Input/Output), Single-word DMA, Multi-word DMA, y Ultra DMA. La versión más reciente es Ultra DMA 7 con una velocidad de transferencia de 167 MB/s. Inicialmente, el estándar ATA fue desarrollado para ser empleado sólo con discos duros pero se desarrollaron otros dispositivos que hacían uso también de este interfaz, por lo que surgieron nuevos estándares como ATAPI (AT Attachment Packet Interface) que permite implementar dispositivos con características SCSI sobre interfaces ATA, como por ejemplo unidades ópticas y unidades de cinta. EIDE (Enhanced IDE). Este interfaz, propuesta también por Western Digital, mejora las prestaciones y la flexibilidad. EIDE es sinónimo de ATA-2 , admite discos duros de más de 512 MB, permite el acceso directo a la memoria (DMA) para ofrecer mayor velocidad y usa la interfaz de paquete adjunto AT (ATAPI) para alojar cdrom y unidades de cinta en el bus EIDE. Aumenta su capacidad, hasta 8,4 Gigas, y la tasa de transferencia a 10 Megas por segundo. Permite instalar 4 unidades al mismo tiempo (frente a dos del interfaz IDE). A nivel externo, no existen prácticamente diferencias con el anterior IDE, presenta un tamaño menor, y por tanto permite una integración superior de mayor número de componentes en el mismo espacio. Una interfaz EIDE usa un conector de 40 pines. SCSI (Small Computer System Interface). Los discos duros tipo SCSI permiten conectar siete dispositivos por controladora, su velocidad de transferencia es considerablemente más alta que la de los discos duros IDE. La principal desventaja de SCSI radica en su precio y en su mayor dificultad de instalación. Dentro de esta interface podemos distinguir entre SCSI (con ancho de banda de 8 bits) y SCSI-2 (ancho de banda de 16 bits). Comparando SCSI con IDE se pueden obtener las siguientes diferencias: Los discos duros IDE han representado tradicionalmente al ordenador personal medio, siendo los discos SCSI usados en equipos profesionales. Todos los ordenadores Macintosh de Apple disponen de discos duros SCSI desde el principio. Ambos discos (IDE y SCSI) han sufrido una gran evolución desde sus orígenes, los del tipo EIDE (Enhanced IDE) han ido aproximándose a los SCSI en sus prestaciones. Normalmente, los puertos EIDE aparecen integrados en la placa base. Los discos SCSI, por el contrario, necesitan una controladora SCSI adicional, aunque algunas placas base de gama alta sí permiten su integración. En circunstancias normales, un solo disco SCSI no aumenta significativamente las prestaciones frente a EIDE. Sin embargo, el rendimiento sí se incrementa si se conectan varios dispositivos SCSI que acceden simultáneamente al mismo bus. En el caso de EIDE, los dos dispositivos conectados tienen que turnarse para usar el bus. SATA (Serial ATA). Es una interfaz de transferencia de datos en serie que permite la conexión de dispositivos de almacenamiento y ópticos. Fue diseñada para sustituir a las anteriores ATA y EIDE, es la tecnología más extendida en equipos de propósito general. La documentación oficial recomienda no usar los términos SATA I, II y III o sus equivalentes numéricos SATA 1.0, 2.0 y 3.0 en forma abreviada sino la denominación relativa a su velocidad 1,5 Gb/s, 3 Gb/s y 6 Gb/s. 23 Tema 2 SATA ofrece nuevas características: reducción del número de cables (tan solo 7), mejor y más eficiente transferencia de datos y conexión/desconexión rápida. Cada nueva versión ha ido mejorando las prestaciones, incrementando la calidad del servicio de video streaming y las interrupciones de alta prioridad. SATA es una arquitectura "punto a punto", la conexión entre puerto y dispositivo es directa y por ello dispone de todo el ancho de banda de la conexión. SAS (Serial Attached SCSI). Es una interfaz de transferencia de datos en serie, sucesora del SCSI (que transmite en paralelo), sigue utilizando comandos SCSI para interaccionar con los dispositivos. SAS proporciona una arquitectura punto a punto más simple y robusta que su antecesora paralela, mejor rendimiento (de 3 Gbit/s a 12 Gbit/s) y mayor escalabilidad. También permite conexión y desconexión rápida «en caliente», sin tener que reiniciar el equipo. Una de sus principales características es el aumento de la velocidad de transferencia al incrementarse el número de dispositivos conectados. Puede gestionar una tasa de transferencia constante para cada dispositivo conectado; elimina la limitación de 16 dispositivos máximos existente en SCSI. La transferencia de datos es en serie, los datos son enviados uno a uno, en el orden correcto. Gracias al cableado punto a punto, cada dispositivo se asegura el acceso al canal y se reduce la latencia (no se comparte el bus), lo que permite una gestión mucho más sencilla. El conector SAS es el mismo que en la interfaz SATA, lo que posibilita el uso de discos SATA para aplicaciones con menor necesidad de velocidad y así ahorrar costes. Sin embargo, no funciona a la inversa, una controladora SATA no reconoce discos SAS. Unidades de estado sólido o SSD (Solid-State Drive). Son los dispositivos de almacenamiento actuales. No son realmente discos, aunque aportan la misma funcionalidad. Son más rápidos, pero presentan algún inconveniente, como la corrupción de las celdas de memoria en escritura, lo que aumenta el riesgo de corrupción de los datos. Los SSD no tienen partes móviles o mecánicas y consumen menos energía. Son por tanto fiables y duraderos. Su coste por GB es aún muy elevado respecto a las otras tecnologías de disco duro. No tienen platos como los discos mecánicos, en su lugar utilizan chips de memoria flash. La memoria flash es una evolución de la memoria EEPROM (Electrically Erasable Programmable Read- Only Memory, ROM programable y borrable eléctricamente) que permite que múltiples posiciones de memoria sean escritas o borradas en una misma operación de programación mediante impulsos eléctricos, frente a las anteriores que sólo permitían escribir o borrar una única celda cada vez. Por ello flash proporciona velocidades muy superiores. En 1984 Fujio Masuoka inventó la memoria flash. La principal diferencia frente a EEPROM es, como hemos citado, que pueden realizar todos los procesos de lectura y escritura mucho más rápidamente ya que pueden almacenar y leer datos de forma simultánea en múltiples celdas de memoria. Además, las memorias flash permiten conservar la información cuando se desconectan, se trata de una memoria no volátil Sin embargo, la memoria flash sólo permite un número limitado de escrituras y borrados, generalmente entre 10.000 y un millón, dependiendo de la celda, de la precisión del proceso de fabricación y del voltaje necesario para su borrado. Estas memorias no incluyen partes móviles, por lo que son muy resistentes, ligeras y fáciles de transportar. Su nombre “flash” está relacionado con el flash de las cámaras fotográficas, con su velocidad. Este tipo de memoria está fabricado con puertas lógicas NOR y NAND para almacenar los 0’s ó 1’s correspondientes. Existen también memorias basadas en ORNAND. 24 Tema 2 Los sistemas de archivos empleados son el JFFS originalmente para NOR, y su evolución JFFS2 para NAND que también usa YAFFS. No obstante, en la práctica se emplea un sistema de archivos FAT para garantizar la compatibilidad, sobre todo, en las tarjetas de memoria extraíble. Estas memorias contienen una matriz de celdas con un transistor evolucionado. Inicialmente sólo almacenan un bit de información pero hoy en día están compuestas por celdas multinivel, y pueden almacenar más de un bit por celda variando el número de electrones que almacenan. Se basan en el transistor FAMOS (Floating Gate Avalanche-Injection Metal Oxide Semiconductor). Las principales características, si comparamos ambos tipos de memoria, son: La densidad de almacenamiento de los chips es mayor en las memorias NAND. El coste de NOR es mucho mayor. El acceso NOR es aleatorio para lectura y orientado a bloques para modificación. NAND ofrece solo acceso directo a los bloques y lectura secuencial dentro de los mismos. En la escritura de NOR se puede llegar a modificar un solo bit. En NAND hay mayor limitación, se deben modificar bloques o palabras completas. La velocidad de lectura es muy superior en NOR (de 50 a 100 nanosegundos, ns) frente a NAND (10 microsegundos, µs de la búsqueda de la página + 50 ns por byte). La velocidad de escritura para NOR es de 5 µs por byte frente a 200 µs por página en NAND. La velocidad de borrado para NOR es de 1 ms por bloque de 64 KB frente a los 2 ms por bloque de 16 KB en NAND. La fiabilidad de los dispositivos basados en NOR es realmente muy alta, sufre muy poca corrupción de datos y no contiene bloques erróneos, sin embargo, la fiabilidad de los sistemas NAND es menor, requieren corrección de datos y pueden quedar bloques marcados como erróneos e inservibles. En resumen, los sistemas basados en NAND son más baratos y rápidos, pero carecen de la fiabilidad de los NOR. Tras revisar las características de las memorias Flash, nos centramos de nuevo en las unidades de estado sólido SSD que, como hemos indicado, son dispositivos de almacenamiento secundario con componentes electrónicos, pensados para utilizarse en equipos informáticos en sustitución de una unidad de disco duro convencional. Las primeras memorias estaban basadas en RAM (DRAM) e incorporaban una batería y un sistema de copia de seguridad de almacenamiento. En 1995 se presentaron unidades flash utilizadas en industria militar y aeroespacial que presentaban una alta tasa de tiempo medio entre fallos (MTBF), gran capacidad para soportar golpes fuertes, cambios bruscos de temperatura, presión y turbulencias. En 2009, Micron Tecnhology anunció el primer SSD del mundo utilizando la interfaz SATA III. A partir de 2010, la mayoría de los SSD utilizan memoria Flash basada en puertas NAND. Se denomina Enterprise Fash Drives (EFD) a las unidades que están diseñadas para aplicaciones que requieren una alta tasa de operaciones por segundo, fiabilidad y eficiencia energética. El término EFD fue acuñado por EMC en 2008 pero no está normalizado. Cualquier fabricante de SSD puede denominarlas EFD sin que existan unos requisitos mínimos. Como alternativa más económica aparecen las unidades híbridas (SSHD) que combinan las ventajas de las unidades mecánicas convencionales con las de las unidades de estado sólido. La idea es combinar la capacidad de los discos duros tradicionales con la velocidad de los discos SSD, a un precio inferior a éstos últimos. Integran una cantidad significativa de memoria flash en un disco duro HDD. Estos discos incluyen un controlador para identificar los datos más directamente asociados con el rendimiento, a los que se accede más frecuentemente o los de inicio del sistema operativo, y almacenarlos en la memoria flash. Esto hace que el sistema arranque a velocidades parecidas a las de un HDD y pueda accederse rápidamente a los archivos más utilizados, aunque el acceso al resto de archivos y tareas contará con velocidades similares a las de un disco mecánico convencional. 25 Tema 2 CD, DVD, Blu-ray En relación a los dispositivos de almacenamiento óptico podemos revisar los tres sistemas principales, CD, DVD y Blu-ray. En su aspecto físico un DVD, un CD y un disco Blu-ray son muy similares. Les diferencia su color, ligeramente violáceo en los DVD`s, plateado en los CD`s y azul-violeta en Blu-ray, debido al diferente tipo de coloración en la capa de grabación. La principal diferencia se refiere a las densidades de la capa grabable y el tipo de laser empleado, así como el tipo de codificación que se utiliza, mucho más eficiente en Blu-ray que en un DVD o en un CD. Un CD-ROM (Compact Disc - Read Only Memory, Disco Compacto o Memoria de sólo lectura), es un disco de policarbonato plano con información digital codificada en espiral desde el centro hasta el borde exterior. Puede ser utilizado para almacenar cualquier tipo de información (audio, imágenes, vídeo, documentos y otros datos), y puede ser leído gracias a la lectora de CD que incorpora el ordenador. Los CD-ROM estándar tienen un diámetro de 12 centímetros y pueden almacenar hasta 80 minutos de audio o 700 MB de datos. Existen otros formatos que permiten hasta 100 minutos y 900 MB de datos, también se encuentran en el mercado de menor tamaño, como el miniCD de 8 cm de diámetro. Una lectora de CD es un dispositivo óptico electrónico que permite la lectura de estos CD-ROM mediante el empleo de un haz de un rayo láser y su posterior transformación en impulsos eléctricos que el ordenador interpreta. Se utiliza un láser infrarrojo para grabar el CD. Está compuesta, entre otros, por los siguientes elementos: Un cabezal, en el que hay un emisor de rayos láser, que dispara un haz de luz hacia la superficie del disco, tiene también un fotorreceptor (foto-diodo) que recibe el haz de luz que rebota en la superficie del disco. Un motor que hace girar el disco compacto, y otro que mueve el cabezal radialmente. Con estos dos mecanismos se tiene acceso a todo el disco y se regula la velocidad de acceso (CLV o CAV) Los CD-ROM están escritos por grabadoras de CD, dispositivo similar a la lectora de CD pero que realiza el efecto contrario, transforma los impulsos eléctricos en un haz de luz láser que almacenan en el CD datos binarios en forma de pozos (pits) y llanos (lands). La grabadora crea pozos y llanos cambiando la reflectividad de la superficie del CD. Los pits son zonas donde el láser quema la superficie con mayor potencia, creando una zona de baja reflectividad. Los lands, son lo contrario, zonas que mantienen alta reflectividad inicial, porque la potencia del láser se reduce. Un CD-R es un formato de disco compacto grabable (Compact Disc Recordable, Disco Compacto Grabable) que permite su grabación en varias sesiones, aunque la información agregada no puede ser borrada ni sobrescrita, se debe usar el espacio libre que dejó la sesión inmediatamente anterior. Actualmente las grabadoras llegan a grabar CD-R a 52x, unos 7.800 KB/s. Para muchos ordenadores es difícil mantener esta tasa de grabación, por este motivo, cuentan con sistemas que permiten retomar la grabación ante un corte en la llegada de datos. La capacidad total de un CD-R suele ser: 650 MB 700 MB (el más común) 800 MB 900 MB El estándar ISO 9660 define un sistema de archivos para CD-ROM, con el objetivo de posibilitar que sean legibles para los diferentes sistemas operativos de los distintos proveedores y en diferentes plataformas, por ejemplo, MS-DOS, Microsoft Windows, Mac OS y Unix. Un CD-RW es un formato de disco compacto regrabable (Compact Disc ReWritable. Disco Compacto Regrabable). Permite almacenar cualquier tipo de información, puede ser grabado múltiples veces y 26 Tema 2 permite que los datos almacenados sean borrados. Fue desarrollado por Sony y Philips en 1980, comenzó a comercializarse en 1982. Hoy en día, ha sido desplazado por el DVD, aunque siguen en uso. En el disco CD-RW, la capa que contiene la información está formada por una aleación cristalina de plata, indio, antimonio y telurio. Esta aleación presenta una interesante cualidad, al ser calentada a cierta temperatura y tras enfriarse, se convierte en cristalina; sin embargo, a una temperatura más elevada, al enfriarse, se convierte en una estructura amorfa. La superficie cristalina permite que la luz se refleje bien en la zona reflectante, mientras que la estructura amorfa absorbe la luz. El CD-RW utiliza tres tipos de luz: Láser de escritura, se usa para escribir. Calienta pequeñas zonas de la superficie para que el material se torne amorfo. Láser de borrado, se usa para borrar. Tiene una intensidad menor que el de escritura, se consigue el estado cristalino. Láser de lectura, se usa para leer. Tiene menor intensidad que el de borrado. Se refleja en zonas cristalinas y se dispersa en las amorfas. Los DVD (Digital Versatile Disc) son discos de policarbonato de 12 cm de diámetro que admiten doble capa y doble cara. Su capacidad por capa es de 4,7 GB (3,8 GB en la segunda capa). Se utiliza laser rojo para su grabación. Se pueden clasificar en base a diferentes características: 1. Según su contenido: a. DVD-Video: películas (vídeo y audio). b. DVD-Audio: audio de alta fidelidad. c. DVD-Data: todo tipo de datos. 2. Según su capacidad de regrabado: a. DVD-ROM: sólo lectura. b. DVD-R y DVD+R: grabable una sola vez. La diferencia entre los tipos +R y -R radica en la forma de grabación y codificación de la información (en los +R los agujeros son 1’s lógicos mientras que en los -R los agujeros son 0’s lógicos). c. DVD-RW y DVD+RW: regrabable. d. DVD-RAM: regrabable de acceso aleatorio. Lleva a cabo una comprobación de la integridad de los datos, siempre activa tras completar la escritura. e. DVD+R DL (dual layer): grabable una sola vez de doble capa. f. El DVD-ROM almacena desde 4,7 GB hasta 17 GB. 3. Según su número de capas o caras: a. DVD-5: una cara, capa simple; 4,7 GB o 4,38 GiB - Discos DVD±R/RW. b. DVD-9: una cara, capa doble; 8,5 GB o 7,92 GiB - Discos DVD+R DL. La grabación de doble capa permite a los discos DVD-R y los DVD+RW almacenar significativamente más datos, hasta 8,5 GB por disco, los discos de una capa sólo permiten 4,7 GB. c. DVD-10: dos caras de capa simple en ambas; 9,4 GB o 8,75 GiB - Discos DVD±R/RW. d. DVD-14: dos caras con capa doble en una y capa simple en la otra; 13,3 GB o 12,3 GiB - Raramente utilizado. e. DVD-18: dos caras de doble capa en ambas; 17,1 GB o 15,9 GiB - Discos DVD+R. También existen DVD de 8 cm que tienen una capacidad de 1,5 GB. El DVD Forum creó los estándares oficiales DVD-ROM/R/RW/RAM. La DVD Alliance desarrolló los estándares DVD+R/RW para evitar pagar licencia a DVD Forum. 27 Tema 2 Los discos DVD+R/RW no forman parte de los estándares oficiales, y por ello, no muestran el logotipo “DVD” sino el logotipo “RW”, incluso aunque sean discos que solo puedan grabarse una vez, lo que puede dar lugar a confusión. La mayoría de grabadoras de DVD nuevas pueden grabar en ambos formatos y llevan ambos logotipos “+RW” y “DVD- R/RW”. La velocidad de transferencia de datos de una unidad DVD se calcula en múltiplos de 1.350 KB/s. Las primeras unidades DVD leían datos a velocidad constante (CLV). La velocidad lineal (metros/segundo) de la pista es tanto mayor cuanto más alejada esté del centro del disco (de manera proporcional al radio), por este motivo, la velocidad rotacional del disco se ajustaba de acuerdo a qué porción del mismo se estaba leyendo. Actualmente, la mayor parte de unidades DVD tienen una velocidad de rotación constante (CAV). La máxima velocidad de transferencia de datos se alcanza, solamente, en los extremos del disco. La velocidad media de la unidad lectora equivale al 50-70% de la velocidad máxima para la unidad y el disco. Aunque puede parecer una desventaja, estas unidades emplean menor tiempo de búsqueda puesto que nunca deben cambiar la velocidad de rotación del disco. El Blu-ray es un formato de disco óptico de nueva generación que tiene 12 cm de diámetro (igual que el CD y el DVD). Se usa para vídeo de gran definición y almacenamiento de datos de alta densidad. Su capacidad de almacenamiento llega a 25 GB a una capa y a 50 GB a doble capa, existen también de mayor capacidad. Pionner ha experimentado con hasta 20 capas. El disco Blu-ray emplea un rayo láser de color azul con una longitud de onda de 405 nanómetros, a diferencia del láser rojo utilizado en lectores de DVD, de longitud de onda de 650 nanómetros. Esta característica, junto a otros avances tecnológicos, les permite almacenar más información que el DVD en un disco de las mismas dimensiones y aspecto externo. Blu-ray obtiene su nombre del color azul del rayo láser (blue ray significa ‘rayo azul’). Blu-ray soluciona dos problemas del DVD: - para leer los datos en el DVD, el láser debe atravesar la capa de policarbonato de 0,6 mm, lo que puede provocar que el láser se difracte en dos haces de luz. Si esta difracción es alta (por ejemplo, si el disco estuviera rayado), impediría su lectura. Como el disco Blu-ray tiene una capa de tan sólo 0,1mm se evita este problema, ya que tiene menos recorrido hasta la capa de datos; además, esta capa es resistente a rayaduras; - el segundo problema tiene que ver con la inclinación, si el disco DVD estuviera inclinado, la distorsión del rayo láser haría que leyese en una posición equivocada dando lugar a errores. En el caso del Blu-ray, gracias a la cercanía de la lente y la rápida convergencia del láser, la distorsión es inferior, pudiendo evitarse errores de lectura. Blu-ray fue desarrollado por un conjunto de compañías tecnológicas llamado Blu-ray Disc Association (BDA), liderado por Sony y Philips. Competidores: HD-DVD que puede almacenar hasta 30 GB. Se lanzó en 2003 pero se descatalogó en 2008. HD-VMD. Tecnología de láser rojo. Utiliza como estándar 4 capas, consiguiendo 20 GB, siendo comparable a una sola capa de HD DVD (15 GB) o una sola capa de BD (25 GB). Sucesores: HVD o disco holográfico versátil, con 6 TB de capacidad. Regrabables al menos durante 5 años. Archival Disc (2015- 2016). Preparado para películas en resolución 4 k, con capacidad para 300 GB, 500 GB y 1 TB. 28 Tema 2 Blu-ray 4K Ultra HD presentado en 2016. Está diseñado para almacenar películas y series de televisión con resolución 4K Ultra HD. Existen tres tipos de discos diferentes, según las capas que se utilicen: 1 capa con 50 GB de tamaño y 82 Mbps de Bitrate, 2 capas con 66 GB de tamaño y 108 Mbps de Bitrate, y 3 capas con 100 GB de tamaño y 128 Mbps de Bitrate. Además del aumento de resolución, el nuevo formato incorpora nuevas tecnologías de imagen y sonido como HDR / Dolby Vision o Digital Bridge que permite copiar la película completa en un disco duro para reproducirla en otros dispositivos, o transferir una versión digital a un smartphone o una tablet. Blu-ray es el soporte idóneo para video en alta definición y grandes volúmenes de datos. DVD es adecuado para video que no necesite alta definición, juegos o datos. El CD es válido también para video, música o datos si no se necesita almacenar más de 700 MB, es el más económico. En relación a la música, el CD admite multicanalidad 5.1 o superior, aunque existirían ventajas teóricas del DVD en relación al soporte estéreo, no han podido demostrase en la práctica, ya que las frecuencias donde el DVD puede superar al CD quedan fuera del espectro audible del ser humano. 3.5.2 Periféricos de entrada Su función es permitir la entrada de datos al ordenador al objeto de posibilitar su posterior tratamiento por parte de la CPU. Podemos destacar los más importantes: teclado, ratón, escáner, pantalla táctil, lápiz óptico, cámara web, dispositivos para juegos (Joystick, Gamepad), micrófono, conversor analógico digital, y escáner de código de barras. A continuación, se describe con más detalle alguno de ellos. -Teclado Los teclados alfanuméricos de computadora suelen tener entre 80 y 110 interruptores, generalmente uno para cada tecla. Los teclados virtuales que se usan en las pantallas táctiles no tienen interruptores físicos, en su lugar utilizan retroalimentación de audio y háptica (táctil). Algunos modelos de teclado nuevos utilizan híbridos de varias tecnologías para lograr mayores ahorros de costes o mejor ergonomía. Los tipos de teclado se pueden clasificar según su diseño: Teclado ergonómico: diseñado para dar una mayor comodidad al usuario permitiéndole mantener una postura natural de las manos al trabajar con el ordenador, le permite relajar los brazos. Teclado multimedia: que añade teclas especiales de acceso directo para llamar a algunos programas, como el correo electrónico, la calculadora, el reproductor multimedia, … Teclado inalámbrico: en el que la comunicación entre el computador y el periférico se realiza a través de rayos infrarrojos, ondas de radio o mediante Bluetooth. Teclado flexible: son teclados de plástico suave o silicona que se pueden doblar sobre sí mismos. Pueden adaptarse a superficies irregulares, son más resistentes a los líquidos que los teclados estándar. Pueden ser también conectados a dispositivos portátiles y teléfonos inteligentes. Algunos modelos pueden ser sumergidos en agua, por lo que se usan con frecuencia en hospitales y laboratorios ya que pueden ser desinfectados. Teclado en pantalla o teclado virtual, son teclados que se proyectan en la pantalla, se utilizan con el ratón, un dispositivo tipo joystick o de forma táctil. Podemos también realizar otra clasificación atendiendo a la tecnología utilizada para responder a la pulsación de las teclas: teclados mecánicos, de membrana, capacitivos,... El teclado admite gran variedad de conectores, como el conector paralelo, el DIN o PS/2, que hoy en día han sido remplazados por el USB. Pueden también utilizarse teclados inalámbricos, en los que la comunicación entre el computador y el periférico se realiza a través de rayos infrarrojos, ondas de radio o mediante Bluetooth. 29 Tema 2 El teclado moderno incluye un procesador de control e indicadores luminosos para proporcionar retroalimentación al usuario (y al procesador) sobre el estado del teclado, también emplean tecnología Plug and Play posibilitando que el teclado esté inmediatamente listo tras ser conectado. Las teclas de un teclado tradicional están conectadas en forma de matriz, cada vez que se pulsa una se envía el valor de su fila y columna al circuito microcontrolador del teclado, generándose el correspondiente código (scan code) resultado de la pulsación. Estos códigos son enviados al circuito del microcontrolador donde son tratados por al administrador de teclado (programa de la BIOS cuya función es determinar qué carácter le corresponde a la tecla pulsada comparándolo con una tabla de caracteres que existe en el kernel). Una vez identificada la tecla concreta, se genera una interrupción por hardware y se envían los datos al procesador. El microcontrolador cuenta con espacio de memoria para almacenar las últimas pulsaciones. El microcontrolador está montado sobre una placa de circuito impreso en el interior del teclado y es el encargado de interpretar las señales eléctricas emitidas por la pulsación de las teclas utilizando un programa incorporado en su firmware (software límite entre el hardware y el software). El firmware ha aumentado en sofisticación a lo largo del tiempo, permitiendo nuevas funciones como la programación de teclas. El teclado también incorpora una memoria ROM interna que permite almacenar la programación de las teclas. El microcontrolador del teclado es también la parte responsable de negociar con el controlador de teclado de la placa base y determinar si el teclado está conectado o no, así como controlar los diferentes indicadores LED del mismo. Los controladores, el microcontrolador del teclado y el controlador de teclado de la placa base se comunican a través del cable del teclado. -Ratón Las tecnologías que se usan para los ratones son las siguientes: Mecánica: Tienen una gran esfera de plástico o goma, de varias capas, en su parte inferior para mover dos ruedas que generan pulsos en respuesta al movimiento de este sobre la superficie. Una variante es el modelo de Honeywell que utiliza dos ruedas inclinadas noventa grados entre ellas en vez de una esfera. La circuitería interna cuenta los pulsos generados por la rueda y envía la información al ordenador para ser procesada e interpretada. Óptico: Su funcionamiento se basa en un sensor óptico que fotografía la superficie sobre la que se encuentra, detecta las variaciones entre

Use Quizgecko on...
Browser
Browser