T.10_ARQUITECTURA_ORDENADORES_2024.pdf

Full Transcript

Tema 10 Arquitectura de ordenadores Tabla de contenido Tabla de contenido Tabla de contenido........................................................................................................................................1...

Tema 10 Arquitectura de ordenadores Tabla de contenido Tabla de contenido Tabla de contenido........................................................................................................................................1 Historia de la informática...............................................................................................................................2 Introducción a los sistemas de tratamiento automático de la información......................................2 Generaciones Informáticas.......................................................................................................................2 Los Microprocesadores............................................................................................................................10 Arquitectura de ordenadores.....................................................................................................................12 Elementos Básicos.....................................................................................................................................13 Estructura del procesador........................................................................................................................14 Registros de control y estado..................................................................................................................15 Registros visibles de usuario.....................................................................................................................15 Unidad de control.....................................................................................................................................16 Buses del sistema.......................................................................................................................................17 Estructura de la memoria.........................................................................................................................17 La memoria caché...................................................................................................................................20 Controladores de dispositivo...................................................................................................................20 Componentes de un ordenador................................................................................................................22 Microprocesador......................................................................................................................................22 Placa base o Motherboard.....................................................................................................................24 Conectores................................................................................................................................................27 Arquitecturas no PC.....................................................................................................................................32 Personal Digital Assistant (PDA)...............................................................................................................32 Teléfonos móviles......................................................................................................................................33 Tablets.........................................................................................................................................................35 Raspberry Pi...............................................................................................................................................37 Cómo desmontar una tablet con 4G........................................................................................................40 Arquitectura de ordenadores 1 Historia de la informática Historia de la informática Introducción a los sistemas de tratamiento automático de la información El dispositivo de cálculo más antiguo que se conoce es el ábaco. Su nombre viene del griego ‘abakos’, que significa ‘superficie plana’. Se sabe que los griegos empleaban tablas para contar en el siglo V antes de Cristo o tal vez antes. Desde el ábaco a las actuales computadoras ha habido una gran evolución. La primera computadora binaria real fue diseñada por el matemático inglés Charles Babbage (1792 1871). Aunque Babbage consumió gran parte de su vida y fortuna en el intento por construir su “máquina analítica”, nunca logró que funcionara de manera adecuada, ya que ésta era un diseño puramente mecánico y la tecnología de su época no podía producir las ruedas, engranes, levas y demás partes mecánicas con la precisión que él necesitaba. Sobra decir que la máquina-analítica no tenía un sistema operativo. Generaciones Informáticas LA PRIMERA GENERACIÓN (1940-1956): VÁLVULAS Y CONECTORES Después de los infructuosos esfuerzos de Babbage, hubo poco progreso en la construcción de las computadoras binarias hasta la Segunda Guerra Mundial. A mitad de la década de los cuarenta del siglo pasado Howard Aiken (Univ. de Harvard), John von Neumann (Instituto de Estudios Avanzados, Princeton), J. Presper Eckert y William Mauchiey (Universidad de Pennsylvania), así como Konrad Zuse (Alemania), entre otros, lograron construir máquinas de cálculo mediante válvulas. Estas máquinas eran enormes y llenaban cuartos completos con decenas de miles de válvulas, pero eran mucho más lentas que la computadora casera más económica en nuestros días. A principios de la década de los cincuenta la rutina de cálculo mejoró un poco con la introducción de las tarjetas perforadas. Fue entonces posible escribir los programas en las tarjetas lectoras y leerlas en vez de insertar conexiones; por lo demás, el proceso era el mismo. ORDENADOR ENIAC I Arquitectura de ordenadores 2 Historia de la informática SEGUNDA GENERACIÓN (1956-1963): TRANSISTORES Y SISTEMAS DE PROCESAMIENTO POR LOTES La segunda era de la evolución de los sistemas de computación se extiende desde la mitad de la década de los 60 hasta finales de los 70 del siglo XX. La multiprogramación, los sistemas multiusuarios, introdujeron nuevos conceptos de interacción hombre-máquina. Las técnicas interactivas abrieron un nuevo mundo de aplicaciones y nuevos niveles de sofisticación del hardware y software. Los sistemas de tiempo real podían recoger, analizar y transformar datos de múltiples fuentes, controlando así los procesos y produciendo salidas en milisegundos en vez de minutos. Los avances en los dispositivos de almacenamiento en línea condujeron a la primera generación de sistemas de gestión de base de datos. La segunda era se caracterizó también por el uso del software como producto y la llegada de las “casas de software”. El software se desarrollaba para una amplia distribución en un mercado multidisciplinario. Se distribuían los programas para computadoras grandes y minicomputadoras a ciento y a veces miles de usuarios. El mantenimiento del software era complicado debido a que constantemente había que realizar correcciones, es más, comenzó a absorber recursos de forma alarmante. La naturaleza personalizada de muchos programas los hacía virtualmente imposibles de mantener. Había comenzado una crisis del software. La introducción del transistor a mediados de los años cincuenta modificó en forma radical el panorama. La computadoras se volvieron confiables, de forma que podían fabricarse y venderse a clientes con la esperanza de que ellas continuaran funcionando lo suficiente como, para realizar un trabajo adecuado. Por primera vez, hubo una clara separación entre los diseñadores, constructores, operadores, programadores y personal de mantenimiento. Estas máquinas se aislaban del exterior en cuartos de cómputo con aire acondicionado especial y un equipo de operadores profesionales para la ejecución. Sólo las grandes corporaciones, oficinas principales de gobierno o universidades podían cubrir los precios multimillonarios. Para ejecutar un trabajo (es decir, un programa o conjunto de programas), el programador debía primero escribir el programa en hojas de papel (en lenguaje FORTRAN o ensamblador) para después perforar las tarjetas. ORDENADOR IBM 7094 TERCERA GENERACIÓN (1964-1971): CIRCUITOS INTEGRADOS Y MULTIPROGRAMACIÓN La tercera era de la evolución de los sistemas de computadoras comenzó a mediados de los 70 y continúa a los ochenta del siglo pasado. El sistema distribuido -computadoras múltiples, cada una ejecutando funciones concurrentemente y comunicándose con alguna otra- incrementó notablemente la complejidad de los sistemas informáticos. Redes de área local y global, comunicaciones digitales de alto ancho de banda y creciente demanda de acceso "instantáneo" a los datos, supusieron una fuerte presión sobre los desarrolladores de software. La tercera era también se caracteriza por la llegada y amplio uso de los microprocesadores y computadoras personales. Arquitectura de ordenadores 3 Historia de la informática El microprocesador es una parte integral de un amplio espectro de productos "inteligentes" que incluyen a automóviles, hornos microondas, robots industriales, equipos de diagnóstico de suero sanguíneo... Las computadoras personales han sido la catálisis para el crecimiento de muchas compañías de software. Mientras que las compañías de software de la segunda era vendían cientos o miles de copias de sus programas, las compañías de software de la tercera era venden decenas e incluso centenas de miles de copias. El hardware de las computadoras personales se ha convertido rápidamente en un producto estándar, mientras que el software suministrado con el mismo marca la diferencia. De hecho, mientras que las ventas de computadoras personales se estabilizaron hacia mitad de los 80, las ventas de productos software continuaron creciendo. Mucha gente en la industria y como particular gasta más dinero en software de lo que gastaron en la computadora sobre la que se ejecuta el software. La computadora 360 de IBM fue la primera línea principal de computadoras que utilizó los circuitos integrados (a pequeña escala), lo que proporcionó una gran ventaja de precio v desempeño con respecto de las máquinas de la segunda generación, construidas a partir de transistores individuales. Tuvo un éxito inmediato; la idea de las computadoras compatibles pronto fue adoptada por los demás fabricantes. Las descendientes de esas máquinas siguen utilizándose en los grandes centros de cómputo de la actualidad. ORDENADOR IBM 360 La enorme fuerza de la idea de "una familia" era al mismo tiempo su mayor debilidad. La intención era que todo el software, sistema operativo incluido, debía funcionar en todos los modelos. No había forma de que IBM (o cualquiera otra empresa) pudiera escribir un pedazo de software que cumpliera con todos estos requisitos en conflicto. El resultado fue un sistema operativo enorme y extraordinariamente complejo, tal vez del doble o triple de magnitud que FMS. Constaba de millones de líneas de lenguaje ensamblador, escrito por miles de programadores, con miles y miles de errores, que requerían de un flujo continuo de nuevas versiones, en un intento por corregirlos. Cada nueva versión resolvía algunos errores pero introducía otros nuevos, por lo que es probable que el número de errores fuera constante con respecto al tiempo. A pesar de su enorme tamaño y. sus problemas, OS/360 y los sistemas operativos similares de la tercera generación producidos por otros fabricantes de computadoras realmente pudieron satisfacer, en forma razonable, a la mayoría de sus clientes. Otra de las características principales de los sistemas operativos de la tercera generación era la capacidad de leer trabajos de las tarjetas al disco, tan pronto como llegaran al cuarto de cómputo. Así, siempre que concluyera un trabajo, el sistema operativo podía cargar un nuevo trabajo del disco en la partición que quedaba desocupada y ejecutarlo. Esta técnica se llama spooling (de Simultaneous Peripheral Operation On Line, u Operación Simultánea y En Línea de Periféricos) y también se utilizó para las salidas. Con el ‘spooling’, las 1401 ya no fueron necesarias y desapareció el transporte de las cintas de un lado al otro. Arquitectura de ordenadores 4 Historia de la informática Aunque los sistemas operativos de la tercera generación eran adecuados para los grandes cálculos científicos y la ejecución de un procesamiento de grandes cantidades de datos comerciales, seguían siendo en esencia sistemas de procesamiento por lotes. Con los sistemas de la tercera generación, el tiempo transcurrido entre el envío de un trabajo y la obtención de la salida era a menudo de varias horas, por lo que una sola coma mal colocada podía provocar que la compilación fallara, con lo que el programador perdía la mitad del día. Este deseo de una rápida respuesta preparó el camino para el tiempo compartido (‘time sharing’), variante de la multiprogramación en la que el usuario tenía una terminal en línea. En un sistema con tiempo compartido, si 20 usuarios están conectados y 17 de ellos están pensando, hablando o tomando café, la CPU puede ser asignada a los tres trabajos que requieren atención. Aunque el primer sistema serio de tiempo compartido (CTSS) fue desarrollado en el MIT (Massachussets Institute of Technology) en una 7094 con modificaciones especiales (Corbato y alumnos, 1962), éste no se popularizó sino hasta que se difundió, durante la tercera generación, el hardware necesario para protección de datos. Otro desarrollo fundamental durante la tercera generación fue el crecimiento fenomenal de las minicomputadoras, a partir de la DEC PDP-1 en 1961: la PDP-1 sólo tenía 4K de memoria de 18-bits, pero a ciento veinte mil dólares (menos del 5% del precio de una 7094), se vendió como churros. Para cierto tipo de trabajos no numéricos era casi tan rápida como la 7094 y dio lugar a toda una nueva industria. Le siguió una serie de otras PDP (a diferencia de la familia IBM, todas incompatibles), hasta llegar a la PDP-11: ORDENADOR PDP-11 Uno de los científicos de Bell Labs que trabajó en el proyecto MULTICS, Ken Thompson, se encontró una pequeña minicomputadora PDP-7 que nadie utilizaba e intentó escribir una versión desprotegida de MULTICS para un solo usuario. Este trabajo desembocó en el sistema operativo UNIX, que en la actualidad domina los mercados de las minicomputadoras y estaciones de trabajo, así como otros mercados. LA CUARTA GENERACIÓN (1964 - 1971): MICROPROCESADORES Las técnicas de la cuarta generación para el desarrollo de software están cambiando la forma en que algunos segmentos de la comunidad informática construyen los programas de ordenador. Los sistemas expertos y el software de inteligencia artificial se han trasladado finalmente del laboratorio a aplicaciones prácticas, en un amplio rango de problemas del mundo real. Con el desarrollo de los circuitos VLSI (Very Large Scale Integration), chips con miles de transistores en un centímetro cuadrado de silicio, se inició la era del ordenador personal. En términos de arquitectura, los ordenadores personales no eran muy distintos de las minicomputadoras del tipo de la PDP-lI, pero en términos del precio si eran distintas. Mientras que la minicomputadora permitió, que un departamento de una empresa o universidad tuviera su propia computadora, el chip microprocesador hizo posible que una sola persona tuviera su propio ordenador personal. Arquitectura de ordenadores 5 Historia de la informática La amplia disponibilidad del poder de cómputo, en particular, el poder de cómputo de gran interacción y que, por lo general, cuenta con gráficos excelentes, condujo al crecimiento de una gran industria de producción de software para los ordenadores personales. Gran parte de este software es amigable con el usuario, lo que indica que está destinado al usuario que no sabe nada acerca de ordenadores y que además no tiene la más mínima intención de aprender. Este fue un cambio fundamental con respecto a OS/360, cuyo lenguaje de control de tareas, JCL, era tan misterioso que se habían escrito libros enteros acerca de él. Dos sistemas operativos han dominado la escena de los ordenadores personales y las estaciones de trabajo: MS-DOS de Microsoft y UNIX. MS-DOS: tiene un amplio uso en el IBM PC y otras máquinas con el CPU 8088 de Intel y sus sucesores, 80286, 80386 y 80486. Aunque la versión inicial de MS-DOS era relativamente primitiva, las subsecuentes versiones han incluido características más avanzadas, entre ellas algunas de UNIX. UNIX: domina en las computadoras que no utilizan a Intel, así como en las estaciones de trabajo, en particular en las que poseen chips de alto desempeño RISC. Estas máquinas tienen en general la potencia de cómputo de una minicomputadora, aunque se dediquen a un sólo usuario, por lo que es lógico que estén equipadas con un sistema operativo diseñado en principio para las minicomputadoras. Un interesante desarrollo que comenzó a llevarse a cabo a mediados de la década de los ochenta ha sido el crecimiento de las redes de computadoras personales con sistemas operativos de red y sistemas operativos distribuidos. En un sistema operativo de red, los usuarios están conscientes de la existencia de varias computadoras y pueden conectarse con máquinas remotas y copiar archivos de una máquina a otra. Cada máquina ejecuta su propio sistema operativo local y tiene su propio usuario (o grupo de usuarios). LA QUINTA GENERACIÓN (1981 - 1989): La década de los 80 fue un periodo de cambio revolucionario en la tecnología de los ordenadores, transformando lo que antes era una herramienta exclusiva de grandes empresas y universidades en un dispositivo accesible para el público general. En 1981, IBM lanzó el IBM PC 5150, marcando el inicio de la era de la computación personal. Este ordenador, con su procesador Intel 8088 y su sistema operativo MS-DOS estableció el estándar para los futuros PCs. La arquitectura abierta del IBM PC permitió a otros fabricantes desarrollar hardware y software compatibles, lo que impulsó un ecosistema vibrante de productos y aplicaciones. Este movimiento no solo democratizó el acceso a la tecnología sino que también fomentó una rápida innovación en el sector. Mientras tanto, Apple continuaba su ascenso con el Apple II, un ordenador que había sido lanzado en 1977 pero que seguía siendo extremadamente popular en los primeros años de los 80, especialmente en educación y negocios. Programas como VisiCalc, la primera hoja de cálculo para PC lanzada en 1979, se convirtieron en aplicaciones esenciales para los negocios, transformando los ordenadores personales en herramientas indispensables para la oficina moderna. Este software fue importante para demostrar el valor práctico de los PCs en el entorno laboral. En enero de 1984, Apple sacudió el mundo de la informática con la presentación del Macintosh. Este ordenador personal fue el primero en ofrecer una interfaz gráfica de usuario (GUI) y un ratón, haciendo la computación más accesible y amigable para los usuarios comunes. La GUI del Macintosh no solo cambió la forma en que interactuamos con las computadoras, sino que también sentó las bases para futuros sistemas operativos que seguirían este modelo. Arquitectura de ordenadores 6 Historia de la informática MACINTOSH A mediados de los 80, los avances en hardware impulsaron aún más la evolución de los ordenadores personales. Intel lanzó los procesadores 80286 en 1982 y 80386 en 1985, que ofrecieron mejoras significativas en rendimiento y capacidad de memoria. Estos procesadores permitieron el desarrollo de software más avanzado y potentes aplicaciones que podían manejar tareas más complejas. El Commodore 64, lanzado en 1982, se convirtió en uno de los ordenadores personales más vendidos de todos los tiempos. Su accesibilidad y capacidad gráfica lo hicieron extremadamente popular entre los entusiastas de los videojuegos y la informática doméstica, demostrando que los ordenadores personales no solo eran útiles para el trabajo, sino también para el entretenimiento. Con la expansión de las redes locales (LAN), comenzó a surgir la posibilidad de conectar varios ordenadores entre sí, facilitando la comunicación y el intercambio de datos en oficinas y centros educativos. Esto sentó las bases para la colaboración digital y la estructura de trabajo en red que conocemos hoy en día. Microsoft Windows, aunque lanzado por primera vez en 1985, empezó a ganar popularidad hacia el final de los 80, ofreciendo una GUI sobre MS-DOS que hizo los ordenadores aún más accesibles para los usuarios no técnicos. Programas como Microsoft Office y Adobe Photoshop, lanzado en 1988, se establecieron como herramientas imprescindibles para el trabajo y la creatividad, expandiendo aún más las capacidades y usos de los PCs. A pesar de que Internet estaba en sus primeros días ya se estaban estableciendo las bases para lo que sería una revolución en la comunicación y el acceso a la información. La tecnología de los ordenadores en los 80 no solo transformó el mundo del trabajo y el entretenimiento, sino que también sentó las bases para la explosión de la era digital que estaba por venir. LA SEXTA GENERACIÓN (1990 – 1998): Inteligencia Distribuida La década de los 90 fue testigo de una evolución increíble en la tecnología de los ordenadores, marcando la transición hacia la era digital que conocemos hoy en día. Este periodo estuvo caracterizado por el auge de los ordenadores personales, la proliferación de Internet y avances significativos en hardware y software. A inicios de los 90 los ordenadores personales se hicieron más accesibles y comunes en los hogares y oficinas. En 1990, Microsoft lanzó Windows 3.0, un sistema operativo que ofrecía una interfaz gráfica de usuario mejorada y soporte para aplicaciones multitarea. Windows 3.0 y su sucesor, Windows 3.1, lanzado en 1992, fueron muy importantes para popularizar los PCs debido a su facilidad de uso y compatibilidad con una amplia gama de software. Durante este tiempo los ordenadores se volvieron más potentes y asequibles gracias a los avances en los procesadores. Intel lanzó el procesador 486 en 1989 y el Pentium en 1993, lo que proporcionó un aumento significativo en el rendimiento y la capacidad de procesamiento de los PCs. Estos procesadores permitieron ejecutar aplicaciones más complejas y gráficos más avanzados, lo que abrió nuevas posibilidades para el software. Arquitectura de ordenadores 7 Historia de la informática A mediados Internet comenzó a ganar popularidad entre el público general. La creación de la World Wide Web (www) y el desarrollo de navegadores web como Netscape Navigator y Microsoft Internet Explorer, facilitaron el acceso a la información y la comunicación global. Los módems de 56K se convirtieron en la norma, permitiendo a los usuarios conectarse a Internet desde sus hogares. MÓDEM ANALÓGICO USROBOTICS La popularidad de Internet también impulsó el desarrollo de nuevos tipos de software. El correo electrónico, los navegadores web y las aplicaciones de chat se convirtieron en herramientas esenciales para la comunicación. Empresas emergentes como Yahoo!, Amazon y Google comenzaron a transformar el panorama digital, ofreciendo servicios y productos innovadores que cambiarían la forma en que las personas usaban Internet. Aparecieron una serie de innovaciones en hardware y software que mejoraron significativamente la experiencia del usuario. Los discos duros crecieron en capacidad, permitiendo almacenar más datos y aplicaciones. Las tarjetas gráficas avanzadas permitieron mejores gráficos y juegos más sofisticados. Los CD-ROMs se convirtieron en un medio estándar para la distribución de software, ofreciendo mayor capacidad de almacenamiento y mejor rendimiento que los disquetes. Microsoft lanzó Windows 95, un sistema operativo revolucionario que introdujo el menú de inicio, la barra de tareas y una interfaz de usuario más intuitiva. Fue un gran éxito comercial y estableció un nuevo estándar para los sistemas operativos de PC. Al mismo tiempo, aplicaciones de productividad como Microsoft Office se convirtieron en herramientas esenciales para empresas y usuarios domésticos. A finales de los 90 la capacidad de reproducir música, ver vídeos y jugar videojuegos avanzados convirtió a los PCs en dispositivos multimedia completos. Windows 98 en 1998 mejoró aún más la experiencia del usuario con características adicionales y mayor estabilidad. Este sistema operativo fue diseñado para aprovechar mejor el hardware avanzado, incluyendo soporte mejorado para USB, lo que facilitó la conexión de periféricos. LA SÉPTIMA GENERACIÓN (1999 – actualidad): Smartphones e Inteligencia Artificial La tecnología de los ordenadores experimenta una evolución vertiginosa transformando no solo la manera en que trabajamos y nos comunicamos, sino también cómo vivimos y nos entretenemos. Este periodo ha visto la consolidación de la informática en la vida cotidiana, con avances que han hecho los dispositivos más poderosos, portátiles y accesibles. El cambio de milenio marcó el inicio de una era de innovación rápida y avances tecnológicos significativos. En 1999 la introducción del procesador Pentium III por Intel ofreció un rendimiento mejorado, preparando el camino para computadoras más rápidas y capaces. Mientras tanto, las conexiones a Internet de alta velocidad comenzaban a ser más comunes, cambiando radicalmente la forma en que las personas accedían a la información y se comunicaban. La llegada de Windows XP en 2001 fue un hito importante. Este sistema operativo combinó la estabilidad de Windows NT con la interfaz de usuario amigable de Windows 98, convirtiéndose en el favorito tanto de usuarios domésticos como empresariales. Su facilidad de uso y estabilidad sentaron las bases para la adopción masiva de PCs en hogares y oficinas. Arquitectura de ordenadores 8 Historia de la informática En paralelo, Apple revolucionó el diseño y la funcionalidad con la iMac G3, un ordenador todo-en- uno con un diseño colorido y atractivo que atrajo a una nueva generación de usuarios. En 2001, Apple también lanzó el primer iPod, iniciando su viaje en el mundo del entretenimiento digital. La década de 2010 fue testigo del ascenso meteórico de los dispositivos portátiles. Las laptops se hicieron más delgadas y ligeras, con la introducción de ultrabooks como la MacBook Air en 2008 y la popularización de dispositivos híbridos como la Microsoft Surface en 2012, que combinaba la funcionalidad de una laptop con la portabilidad de una tablet. Los avances en conectividad también fueron notables. La adopción de redes Wi-Fi de alta velocidad y la expansión de la banda ancha hicieron que el acceso a Internet fuera más rápido y omnipresente. Esto facilitó el auge de los servicios en la nube, permitiendo a los usuarios almacenar y acceder a sus datos desde cualquier lugar. El verdadero cambio de paradigma llegó con la explosión de los dispositivos móviles. El iPhone, lanzado en 2007, no solo redefinió el mercado de los smartphones, sino que también influyó en el diseño y la funcionalidad de las computadoras personales. Los usuarios comenzaron a esperar la misma facilidad de uso y elegancia en sus PCs y laptops que en sus teléfonos inteligentes. El lanzamiento del iPad en 2010 abrió un nuevo mercado para las tablets, ofreciendo una nueva forma de interactuar con contenido digital. Estos dispositivos se volvieron esenciales para la educación, el entretenimiento y el trabajo, ofreciendo una experiencia más táctil e intuitiva. Entrando en la década de 2020 la tecnología de los ordenadores ha continuado avanzando a pasos agigantados. Los procesadores modernos como la serie Intel Core de décima y undécima generación, y los chips M1 de Apple, han llevado el rendimiento a nuevas alturas, haciendo posible la edición de video 4K, el diseño gráfico avanzado y la ejecución de complejas simulaciones científicas en dispositivos portátiles. La sostenibilidad y la eficiencia energética también se han convertido en focos clave. Los nuevos diseños de hardware buscan reducir el consumo de energía y el impacto ambiental, mientras que los avances en software optimizan el uso de recursos. Los centros de datos y los servicios en la nube también están adoptando prácticas más sostenibles, impulsados por la demanda de soluciones ecológicas. INTELIGENCIAS ARTIFICIALES Arquitectura de ordenadores 9 Historia de la informática La integración de inteligencia artificial (IA) y aprendizaje automático ha transformado la forma en que interactuamos con la tecnología. Asistentes virtuales como Siri, Alexa y Google Assistant se han vuelto comunes, facilitando tareas cotidianas con comandos de voz. En el ámbito profesional, la IA está optimizando procesos, desde la atención al cliente hasta el análisis de grandes volúmenes de datos. La realidad aumentada (AR) y la realidad virtual (VR) también están comenzando a impactar en la computación personal. Dispositivos como el Oculus Rift y el Microsoft HoloLens ofrecen nuevas formas de interacción y entretenimiento, así como aplicaciones prácticas en la formación y el diseño industrial. La pandemia de COVID-19 en 2020 aceleró la adopción de tecnologías de trabajo remoto. Las plataformas de videoconferencia como Zoom y Microsoft Teams se convirtieron en herramientas esenciales, cambiando la forma en que las empresas operan y permitiendo una mayor flexibilidad laboral. Esta transformación ha llevado a una demanda creciente de dispositivos portátiles y servicios en la nube que soporten la colaboración y la productividad a distancia. La informática sigue evolucionando, prometiendo un futuro aún más interconectado e inteligente. Los Microprocesadores Los primeros ordenadores personales compatibles (PC) poseían microprocesadores 8086 y 8088. Estos son prácticamente idénticos y poseen una velocidad desde 4,77 Mhz a 10 Mhz. Estos fueron reemplazados por los microprocesadores 80286, que poseen velocidades de entre 8 y 16 Mhz. Actualmente han dejado de fabricarse. El microprocesador 80386 (también conocido como 386 DX) tiene una velocidad desde 16 a 50 Mhz. El microprocesador 386 supone un paso muy importante frente al 286. Hasta entonces, tanto los micros 8088, 8086 como el 286 eran microprocesadores de 16 bits: trabajaban con 16 bits a la vez en cada pulso de reloj. Por el contrario, el 386 es ya un microprocesador de 32 bits, que procesa 32 bits simultáneamente en cada ciclo de reloj. Hoy en día se comercializan de forma habitual microprocesadores de 64 bits. El microprocesador 80486 (o 486 DX) también es un microprocesador de 32 bits. La principal innovación del 486 frente al 386, aparte de varias características que optimizan su velocidad, es la incorporación en el propio micro de un coprocesador matemático (un coprocesador matemático es un chip especial que tiene que funcionar junto al microprocesador central y que se encarga de realizar a alta velocidad las operaciones matemáticas, descargando de trabajo al microprocesador central). Con el nombre de Pentium se conoce a la quinta generación de los microprocesadores Intel, el que tendría que haberse denominado 586. La elección de este cambio de nombre se debe solamente a una razón de marketing. El microprocesador Pentium posee un diseño avanzado, integrando más de 3 millones de transistores (piense que el 8086 sólo tenía 28.000 transistores). Además, soporta características RISC similares a la de los microprocesadores utilizados en los grandes computadores y, al igual que el 486 DX, incluye un coprocesador matemático. Actualmente están disponibles en el mercado procesadores con velocidades superiores a los 5 Ghz. Arquitectura Velocidad (MHz ) Intel 4004 108 kHz Intel 8008 200 - 800 kHz Intel 8080 2 - 3 MHz Intel 8085 3 - 6 MHz Intel 8086/8088 5 - 10 MHz Intel 80286 6 - 25 MHz Intel 80386 12 - 40 MHz Arquitectura de ordenadores 10 Historia de la informática Arquitectura Velocidad (MHz ) Intel 80486 20 - 100 MHz Intel Pentium 60 - 300 MHz Intel Pentium Pro 150 - 200 MHz Intel Pentium II 233 - 450 MHz Intel Pentium III 450 - 1400 MHz Intel Pentium 4 1.3 - 3.8 GHz Intel Core (Yonah) 1.06 - 2.33 GHz Intel Core (Conroe) 1.8 - 3.0 GHz Intel Core (Penryn) 2.0 - 3.33 GHz Intel Core i3/i5/i7 (Nehalem) 1.06 - 3.33 GHz Intel Core i3/i5/i7 (Sandy Bridge) 1.6 - 3.4 GHz Intel Core i3/i5/i7 (Ivy Bridge) 1.8 - 3.5 GHz Intel Core i3/i5/i7 (Haswell) 1.2 - 4.4 GHz Intel Core i3/i5/i7 (Broadwell) 2.0 - 3.8 GHz Intel Core i3/i5/i7 (Skylake) 2.0 - 4.2 GHz Intel Core i3/i5/i7 (Kaby Lake) 2.4 - 4.5 GHz Intel Core i3/i5/i7/i9 (Coffee Lake) 3.6 - 5.0 GHz Intel Core i3/i5/i7/i9 (Comet Lake) 3.0 - 5.3 GHz Intel Core i3/i5/i7/i9 (Rocket Lake) 2.5 - 5.3 GHz Intel Core i3/i5/i7/i9 (Alder Lake) 1.2 - 5.2 GHz Intel Core i3/i5/i7/i9 (Raptor Lake) 3.4 - 5.8 GHz PROCESADORES INTEL Arquitectura de ordenadores 11 Arquitectura de ordenadores Arquitectura de ordenadores EL BIT El desarrollo de la tecnología digital basada en el sistema de numeración binario base 2, definido por los valores 1 ó 0, que podría ser representado como paso de corriente o ausencia de corriente, respectivamente, en los circuitos electrónicos digitales, nos permite definir un suceso o estado como uno de estos dos posibles valores. Cada dígito binario recibe el nombre de bit. Un bit es la unidad elemental de información (del inglés Basic Information Unit), y puede tener dos valores (0 ó 1) y es la unidad básica de medida de almacenamiento utilizada en un computador. Sin embargo, para disponer de los numerosos caracteres que se necesitan en el lenguaje escrito (letras, números, símbolos, etc.) se requiere que los bits se unan para formar agrupaciones más grandes, cuyas combinaciones permitan identificar distintos caracteres. Esta agrupación de bits se denomina byte. Cada byte es equivalente a un carácter, ya sea letra, dígito o carácter especial. BYTE Estructura básica de información, es un grupo de 8 bits, es decir una secuencia de 8 ceros o unos (por ejemplo: 10110010, o cualquier otra combinación de unos y ceros). Normalmente uno o dos bytes forman una palabra. Cualquier letra del alfabeto como la “ñ”, o cualquier símbolo imprimible, es definido por una palabra concreta o byte en función de un código estandarizado. En el caso de los PC con MS-DOS, se llama ASCII. Al definir el byte por la combinación de 8 bits, se pueden realizar 256 combinaciones (28). Estas son más que suficientes para todo el alfabeto, los signos de puntuación, los números y muchos otros caracteres especiales. AGRUPACIÓN DE BITS Un Kilobyte se representado como kB o KB, y define 1024 bytes. Un Megabyte representado por MB, define 1024 Kbytes. Un Gigabyte representado por GB, define 1024 Mbytes. Unidad Equivalencia en Bits Bit 1 bit Byte 8 bits Kilobyte (KB) 8.192 bits (1 KB = 1024 Bytes) Megabyte (MB) 8.388.608 bits (1 MB = 1024 KB) Gigabyte (GB) 8.589.934.592 bits (1 GB = 1024 MB) Terabyte (TB) 8.796.093.022.208 bits (1 TB = 1024 GB) Petabyte (PB) 9.007.199.254.740.992 bits (1 PB = 1024 TB) Exabyte (EB) 9.223.372.036.854.775.808 bits (1 EB = 1024 PB) Zettabyte (ZB) 9.444.732.965.739.290.427.392 bits (1 ZB = 1024 EB) Yottabyte (YB) 9.671.406.556.917.033.397.649.408 bits (1 YB = 1024 ZB) UNIDADES DE MEDIDA DE ALMACENAMIENTO Arquitectura de ordenadores 12 Arquitectura de ordenadores Elementos Básicos La función principal del computador es la ejecución de programas. Para ello deben interactuar de forma coordinada y eficiente una serie de elementos estructurales principales: Procesador: controla la operación coordinada de todos los elementos del sistema y lleva a cabo las funciones de procesamiento de datos. Memoria (principal o caché): almacena los datos y las instrucciones que deberá ejecutar el procesador sobre ellos. Es de tipo volátil, y por tanto, la información se pierde sin alimentación eléctrica. Controladores de dispositivo (device controller): elementos especializados (chipsets) que controlan la operación de todo tipo de dispositivos externos al conjunto memoria / procesador de los que se lee (entrada) o escribe (salida) información. Buses de interconexión: elementos que permiten la comunicación entre procesadores, memoria y controladores E/S. Típicamente son tres: bus de datos, bus de direcciones, y bus de control. Generador de tiempos (Real Time Clock): generador de señales de tiempo empleado para sincronizar todos los elementos anteriores. Esta arquitectura se conoce como máquina de programa almacenado o arquitectura de Von Neumman. Estos elementos físicos se conocen bajo la denominación genérica de hardware. En la arquitectura PC los buses, el RTC y los controladores de dispositivo, se encuentran integrados en un circuito impreso llamado Placa Base. ARQUITECTURA VON NEUMANN En la siguiente figura podemos ver una Placa Base (motherBoard) de un ordenador personal. Como puede verse todo va integrado en la misma, sólo disponemos de unas cuantas ranuras de bus PCI y PCI EXPRESS, para poder poner las tarjetas correspondientes que pudiésemos necesitar. Arquitectura de ordenadores 13 Arquitectura de ordenadores ELEMENTOS DE UNA PLACA BASE Para que una computadora comience a funcionar necesita ejecutar un programa de arranque (bootstrap). En la arquitectura PC esta función la realiza la BIOS (Bootable Input Output System). La función de éste es doble: por un lado, realiza la asignación de valores iniciales a todos los componentes del sistema; por otro, realiza la carga del núcleo del SO en memoria y ejecuta la primera instrucción que lo pone en funcionamiento (firmware). A partir de este momento la gestión de todos los elementos pasa al SO (software). Estructura del procesador De forma muy simplificada, un procesador está compuesto por elementos que forman un único circuito integrado. Son los siguientes: Unidad de control: responsable de la interpretación de las instrucciones del programa (convertirlas en microinstrucciones correspondientes al juego de instrucciones del procesador) y del control de la secuencia de ejecución de las mismas. Unidad aritmético-lógica (ALU): responsable de la ejecución de microinstrucciones que impliquen operaciones lógicas o aritméticas. Unidad de coma flotante: es la responsable de la ejecución de operaciones matemáticas más complejas sobre números reales. Habitualmente también se le encarga de la ejecución de microinstrucciones complejas (multimedia) en los procesadores que incluyen el juego de instrucciones 3DNow! (AMD), MMX o NXI (Intel). Registros visibles al usuario: conjunto de registros que pueden ser referenciados por el usuario (programador) mediante microinstrucciones del procesador. Registros de control y estado: conjunto de registros empleados por el procesador durante la ejecución de instrucciones. Únicamente son modificables por microinstrucciones privilegiadas invocadas por usuarios autorizados (habitualmente el SO). Generador de señales de reloj: generador de base de tiempos que permite sincronizar los componentes del procesador, independiente del RTC pero sincronizado con él (recordemos que la velocidad del procesador es muy superior al del resto de componentes del sistema). Arquitectura de ordenadores 14 Arquitectura de ordenadores Caché interna (L1): elemento de memoria de altas prestaciones y pequeño tamaño (64 Kb max.) que funciona a la misma velocidad de reloj que los demás componentes del procesador. Suele dividirse en caché de datos y caché de instrucciones. No debe confundirse con la caché L2 (4 Mb máx.), que aunque puede encontrase dentro del encapsulado del procesador (PII-PIII de Intel) no funciona a la misma velocidad. Bus interno: elemento que permite la interconexión de los elementos anteriormente mencionados, con un ancho de banda muy superior a los buses externos de interconexión. ELEMENTOS DE ARQUITECTURA DE UN MICROPROCESADOR Registros de control y estado La organización de los registros y su denominación varía de unas máquinas a otras. Usualmente los registros esenciales son los siguientes: MAR (Memory Address Register): almacena la dirección de memoria sobre la que se va a realizar la próxima operación de lectura/escritura. MBR (Memory Buffer Register): almacena los datos que han sido leídos o que van a ser escritos en memoria. IOBR (Input/Output Buffer Register): almacena los datos que acaban de ser leídos desde un dispositivo externo o los que van a escribirse en la próxima operación de escritura. PC (Program Counter): almacena la dirección de memoria de la próxima instrucción que va a ser leída. IR (Instrucción Register): se almacena la última instrucción leída de memoria. Registros visibles de usuario Los registros visibles por el usuario son susceptibles de ser manipulados. Estos registros se agrupan en dos categorías: Registros de datos: son de propósito general y pueden ser empleados por el programador para el almacenamiento temporal de datos. Normalmente los datos almacenados son aquellos que serán procesados por instrucciones posteriores, con lo cual se evitan las operaciones de transferencia memoria-procesador con la consiguiente pérdida de ciclos de procesador. Registros de dirección: contienen referencias a localizaciones de datos y/o instrucciones en memoria. Usualmente están dedicados a un determinado modo de direccionamiento: Registro índice: para el empleo del direccionamiento indexado. Contiene un valor base al que se suma una cantidad (índice) para obtener la dirección efectiva. Arquitectura de ordenadores 15 Arquitectura de ordenadores Puntero de segmento: empleado con direccionamiento segmentado. La memoria se divide en bloques de tamaño variable (segmentos), referenciándose una dirección dentro del segmento sumando un desplazamiento a su dirección de inicio (puntero de segmento). Puntero de pila: empleado en el direccionamiento de estructuras de tipo pila almacenadas en memoria. Una pila se asemeja a un cajón donde se introduce el dato (en este caso una dirección de memoria) colocándolo encima del contenido (push) y se extrae también desde la misma posición inicial (pop). El puntero de pila contiene la dirección de memoria de la cima de la pila. Las pilas suelen utilizarse para almacenar instrucciones que se ejecutan en el orden de la pila (primero la que está encima de la pila). Unidad de control La unidad de control es la responsable de controlar la sincronización con los demás elementos, interpretar la instrucción que se debe ejecutar y de manejar la secuencia de instrucciones. Cada procesador tiene su propio juego de microinstrucciones. Las microinstrucciones son secuencias binarias que se encuentran en una ROM (Read Only Memory) interna del procesador. La secuencia de instrucciones de un programa (código máquina) tan sólo es las direcciones desde las que las microinstrucciones deben ser leídas en la ROM. La lectura de estas microinstrucciones provoca que los circuitos (puertas lógicas) de la ALU o FPU se configuren para realizar una determinada operación. De forma genérica, las microinstrucciones suelen clasificarse en: Instrucciones aritméticas. Instrucciones lógicas. Instrucciones de lectura/escritura a memoria. Instrucciones de bifurcación: se emplean para modificar la secuencia lineal de desarrollo del programa en ejecución, como consecuencia del resultado de una instrucción anterior. Modifican el valor del contador de programa (PC). Instrucciones de salto a subrutina y retorno: se emplean para invocar un servicio del SO y para la posterior reanudación de la ejecución del programa. Implica que el procesador interrumpe la ejecución del programa. para ejecutar un módulo del SO y a su finalización continuar con la secuencia de instrucciones del programa. Instrucciones de transferencia entre registros. Instrucciones especiales: habitualmente son instrucciones privilegiadas reservadas al SO. Existen dos categorías fundamentales de procesadores: CISC (Complex Instruction Set Computer). RISC (Reduced Instruction Set Computer). Los procesadores CISC poseen un juego muy amplio de microinstrucciones, algunas de las cuales son lo bastante complejas como para requerir más de un ciclo de procesador para ejecutarse. Los procesadores RISC poseen un juego de microinstrucciones más reducido, pero todas ellas se ejecutan en un solo ciclo de reloj. Como el espacio físico requerido para almacenar el juego de microinstrucciones CISC es mayor que el RISC, los procesadores RISC suelen contar con un mayor número de registros visibles al usuario. Por tanto, los procesadores RISC son ideales para la ejecución de programas muy recursivos, aquellos que siempre manejan los mismos datos y que son almacenados en los registros internos del Arquitectura de ordenadores 16 Arquitectura de ordenadores procesador. Por el contrario, una microinstrucción compleja debe ser emulada mediante varias microinstrucciones RISC, a veces de forma más ineficiente que mediante una única microinstrucción CISC. Buses del sistema Los buses del sistema permiten la transferencia de información entre los elementos que componen la arquitectura. En esencia se trata de un conjunto de líneas que interconectan los elementos de la computadora. Todos los elementos de la arquitectura comparten el uso del bus. La gestión del funcionamiento de estos buses y su capacidad es crítica y determina en gran medida la eficiencia del funcionamiento del computador. Los buses del sistema son tres: Bus de control: transporta señales de control y comandos para coordinar y gestionar las operaciones del microprocesador. También se emplea para identificar en qué sentido se va a producir la transferencia (lectura o escritura). Velocidad Máxima Actual es de hasta 512 bits (64 bytes) por ciclo de reloj. La velocidad de transferencia puede llegar a decenas de GB/s en los procesadores modernos. Bus de direcciones: transporta las direcciones de memoria donde se van a leer o escribir datos. Identifica el elemento desde el cual se va a proceder a leer o escribir información: posición de memoria, o dispositivo periférico (usualmente se conoce como número de puerto en este caso). El número de líneas del bus de direcciones es el factor que condiciona la capacidad de direccionamiento de memoria, o más sencillamente, la cantidad máxima de memoria que es capaz de gestionar el procesador. La velocidad máxima actual no se mide en términos de velocidad como el bus de datos, pero los anchos de bus de dirección pueden ser de hasta 64 bits, permitiendo direccionar hasta 18 exabytes de memoria. Bus de datos: transporta datos entre la CPU, la memoria y otros dispositivos. Dependiendo del número de líneas del bus el volumen de la transferencia será mayor. Velocidad Máxima Actual es de hasta 512 bits (64 bytes) por ciclo de reloj. La velocidad de transferencia puede llegar a decenas de GB/s en los procesadores modernos. Estructura de la memoria La memoria puede considerarse como un conjunto de células, cada una con la posibilidad de almacenar información en formato binario de una determinada longitud (palabra o doble palabra). Cada célula se encuentra identificada por su dirección. Sobre la memoria pueden realizarse dos operaciones básicas: lectura y escritura. Tres son las características fundamentales sobre las memorias: velocidad de acceso, capacidad de almacenamiento, y coste. Las memorias más rápidas constituyen soluciones tecnológicas más caras (materiales). De igual forma, cuanto mayor es su capacidad más se complica el direccionamiento y por ende disminuye la velocidad de acceso. Para reducir costes y mejorar el desempeño del sistema se recurre al empleo de jerarquías de memoria. Las jerarquías de memoria consisten en el empleo de soluciones tecnológicas mixtas. A medida que se desciende en la jerarquía se producen las siguientes condiciones: disminución del coste por bit, aumento de la capacidad, aumento del tiempo de acceso, y disminución de la frecuencia de acceso por parte del procesador. Arquitectura de ordenadores 17 Arquitectura de ordenadores La jerarquía de memoria es la siguiente: Registros internos del procesador Cachés L1 y L2 Memoria principal Dispositivos de almacenamiento Para que el esquema resulte eficiente las instrucciones más empleadas deben almacenarse lo más arriba posible en la jerarquía. Es necesario, pues, organizar las instrucciones de modo que el porcentaje de accesos en los niveles inmediatamente inferiores sea considerablemente menor que en el inmediato superior. RAM La memoria RAM conocida como Random Access Memory, es uno de los componentes más esenciales y fascinantes dentro de cualquier ordenador. Imagina la RAM como el escritorio de tu oficina. Cuando trabajas en varios proyectos, necesitas espacio para esparcir papeles, documentos y herramientas de manera que puedas acceder a ellos rápidamente. De igual manera, la RAM proporciona el espacio temporal donde el ordenador guarda y accede rápidamente a los datos necesarios para ejecutar programas y procesos. En una típica tarde de trabajo, cuando abres tu navegador para consultar información, editas un documento en Word y escuchas música en Spotify, la RAM está en plena acción. Cada una de estas tareas requiere que el ordenador acceda a diferentes conjuntos de datos rápidamente. La RAM permite que todos estos datos se almacenen temporalmente en un lugar donde la CPU (el microprocesador) pueda acceder a ellos en cuestión de nanosegundos, sin tener que recurrir al disco duro, que sería como buscar en un archivador en el sótano: mucho más lento. La cantidad de RAM en tu ordenador es crítica para su capacidad de manejar múltiples tareas al mismo tiempo. Un ordenador con más RAM puede ejecutar más programas a la vez sin ralentizarse, permitiendo una experiencia de usuario más fluida. La tecnología de la RAM ha evolucionado enormemente a lo largo de los años. En los primeros días de la computación la RAM era cara y escasa. Pero los avances en la fabricación de semiconductores han hecho que la RAM sea más asequible y abundante. Hoy en día la mayoría de los ordenadores vienen equipados con DDR (Double Data Rate) RAM, que ofrece transferencias de datos más rápidas que sus predecesoras. TIPOS DE MEMORIA RAM DDR Arquitectura de ordenadores 18 Arquitectura de ordenadores Desde los primeros módulos DDR hasta los modernos DDR4 y DDR5, cada nueva generación de RAM ha traído consigo mejoras significativas en velocidad y eficiencia. DDR4, por ejemplo, es capaz de manejar más datos y a velocidades más altas que DDR3, lo que resulta en un rendimiento mejorado para tareas intensivas como la edición de video, los juegos y la ejecución de aplicaciones empresariales. La RAM es una memoria volátil, lo que significa que pierde toda la información almacenada cuando el ordenador se apaga. Esto es diferente de la memoria de almacenamiento, como los discos duros o las unidades SSD, que retienen los datos incluso cuando no hay energía. Esta volatilidad es lo que permite a la RAM ser tan rápida, ya que no necesita las mismas medidas de seguridad y almacenamiento permanente que otras formas de memoria. En el corazón del ordenador, la CPU trabaja en estrecha colaboración con la RAM. Cuando ejecutas una aplicación, la CPU extrae instrucciones y datos de la RAM, los procesa y luego los devuelve a la RAM o los guarda en el almacenamiento a largo plazo. Esta interacción constante es lo que permite que tu ordenador funcione de manera eficiente. Mirando hacia el futuro, las innovaciones en la tecnología RAM continúan prometiendo mejoras aún mayores. Tecnologías emergentes como la RAM no volátil (NVRAM), que combina la velocidad de la RAM con la persistencia de la memoria de almacenamiento, están en desarrollo. Estas tecnologías podrían revolucionar la forma en que los ordenadores manejan los datos, proporcionando un acceso aún más rápido y eficiente a la información. ROM La memoria ROM, o Read-Only Memory (Memoria de Solo Lectura), es una pieza fundamental del hardware de cualquier ordenador. Mientras que la RAM actúa como el espacio de trabajo temporal donde los datos se manejan y procesan rápidamente, la ROM es como una biblioteca bien organizada y protegida, donde se guardan las instrucciones esenciales y permanentes que el ordenador necesita para arrancar y funcionar. Antes de que cualquier aplicación o sistema operativo pueda comenzar a cargarse, el ordenador necesita saber qué hacer. Aquí es donde entra en juego la ROM. A diferencia de la RAM, la memoria ROM es no volátil, lo que significa que retiene su contenido incluso cuando el ordenador está apagado. Contiene el firmware del sistema, un conjunto de instrucciones imprescindibles que inicializan el hardware y preparan el sistema operativo para arrancar. A lo largo de los años, la tecnología de la ROM ha evolucionado considerablemente. En los primeros días de la computación, la ROM estaba literalmente escrita de forma permanente en chips que no podían ser modificados una vez fabricados. Sin embargo, con el tiempo, surgieron nuevas variantes más flexibles y programables. TIPOS DE ROMs Los últimos tipos de ROM son: PROM (Programmable Read-Only Memory): Este tipo de ROM podía ser programado una vez después de su fabricación, pero no podía ser modificado posteriormente. EPROM (Erasable Programmable Read-Only Memory): Permitía ser borrada y reprogramada utilizando luz ultravioleta, lo que ofrecía una mayor flexibilidad para actualizaciones. Arquitectura de ordenadores 19 Arquitectura de ordenadores EEPROM (Electrically Erasable Programmable Read-Only Memory): La evolución de EPROM, que puede ser reprogramada eléctricamente sin necesidad de remover el chip del sistema. Esto facilita mucho las actualizaciones de firmware. Aunque la ROM es más conocida por su papel en el arranque del sistema, también tiene otras aplicaciones importantes. En dispositivos electrónicos como impresoras, electrodomésticos inteligentes y otros gadgets, la ROM almacena el firmware que controla el funcionamiento básico del dispositivo. En los sistemas modernos la ROM ha sido en gran medida reemplazada por EEPROM y memorias flash, que proporcionan la misma capacidad de almacenamiento no volátil con la ventaja añadida de ser fácilmente actualizables. La memoria flash se utiliza ampliamente en dispositivos USB, tarjetas de memoria y SSDs, proporcionando una forma rápida y eficiente de almacenar datos permanentes y semipermanentes. La memoria caché La gestión de la memoria caché, como se ha comentado anteriormente, es totalmente transparente al sistema operativo y se realiza por hardware. En todo momento, un subconjunto de bloques de memoria está cargado en la caché. También se conoce a este tipo de memorias como memorias embudo o tampón, ya que constituyen un paso intermedio entre la memoria principal y el procesador. La caché se suele emplear en dos niveles (L1 y L2). Como ya se mencionó, la caché L1 es de pequeño tamaño y se integra dentro del procesador, funcionando a la misma velocidad. La caché L2 es otra intermedia, que en algunos casos se encuentra dentro del encapsulado del procesador, y en otros se encuentra sobre la placa base. Su velocidad de acceso es superior a la de la memoria principal. Los aspectos más relevantes para el diseño de memorias caché son: El tamaño de la caché: (coste, aumento del tiempo de acceso). El tamaño del bloque: conforme aumenta el tamaño aumenta la probabilidad de acierto (la instrucción requerida se encuentra en la caché), aunque también influye en que si no se encuentra, a partir de esa posición el resto del bloque (y sus tiempos de transferencia) se ha desperdiciado. El algoritmo de reemplazo: puesto que la capacidad es muy limitada debe escogerse cuidadosamente que bloques ya existentes deben ser expulsados (en realidad simplemente se sobrescriben) para guardar el nuevo bloque que se acaba de transferir. Estos algoritmos de reemplazo suelen ser muy parecidos a los que empleará el SO en la gestión de memoria principal y virtual, por lo que se verá más adelante. Controladores de dispositivo Los controladores de dispositivo están diseñados para reducir la carga de trabajo del procesador durante las operaciones de E/S. Las operaciones de E/S pueden realizarse mediante tres técnicas: E/S programada, E/S dirigida por interrupciones, y acceso directo a memoria (Direct Memory Access, DMA). E/S PROGRAMADA Las funciones que debe realizar un computador para ejecutar trabajos de entrada/salida son: Direccionamiento o selección del dispositivo que debe llevar a cabo la operación de E/S. Transferencia de los datos entre memoria y el dispositivo (en uno u otro sentido). Arquitectura de ordenadores 20 Arquitectura de ordenadores Sincronización y coordinación de las operaciones. Si se emplea E/S por programa, el procesador es el responsable de realizar todas las tareas anteriores. Esto implica que debe permanecer dedicado al proceso de E/S, comprobando que cada vez que se realiza una transferencia hacia/desde el dispositivo, ésta se realiza sin errores y a la velocidad adecuada para no sobrecargar al dispositivo implicado, hasta que se transfiere toda la información. Con E/S programada el dispositivo permanece a la espera de órdenes del procesador. El dispositivo no intenta comunicarse con el procesador, sino que manipula un registro de control propio que es leído por el procesador para conocer el estado en que se encuentra el dispositivo. El mecanismo es muy ineficiente puesto que, dependiendo de la capacidad de respuesta del dispositivo, se pierden ciclos de procesador durante las consiguientes comprobaciones necesarias para sincronizar y verificar cada transferencia. E/S DIRIGIDA POR INTERRUPCIONES La E/S dirigida por interrupciones mejora el rendimiento del esquema anterior. Para evitar que el procesador tenga que supervisar el estado del dispositivo se habilita un mecanismo que permite al dispositivo comunicar cuándo se encuentra listo. De esta forma, el procesador puede dedicarse a procesar nuevas instrucciones hasta que recibe la señal (interrupción) de que el dispositivo se encuentra a la espera, preparado para realizar la transferencia. Cuando el controlador de dispositivo está preparado para ejecutar la operación de lectura/escritura genera una señal de interrupción. El procesador comprueba al finalizar cada ciclo de instrucción si ha ocurrido alguna interrupción. Cuando finalmente ocurre, resetea la señal de interrupción, y se produce un cambio de contexto para ejecutar la rutina de tratamiento de interrupción, que realizará la transferencia hacia/desde memoria. La E/S mediante interrupciones evita que el procesador supervise de forma continua el estado del controlador del dispositivo, ahorrando muchos ciclos de instrucción estériles. El empleo de interrupciones se encuentra también muy relacionado con la gestión de memoria virtual (implica una operación E/S), y con la invocación de servicios del SO (llamadas al sistema) desde los programas de usuario. E/S MEDIANTE ACCESO DIRECTO A MEMORIA (DMA) La E/S mediante interrupciones todavía requiere la intervención del procesador para realizar la transferencia entre memoria y dispositivo. Para realizar transferencias de grandes volúmenes de información se necesita una técnica más eficiente. Cuando el procesador requiere que se realice una operación de E/S, delega el control en el controlador DMA. El procesador informa al controlador de las características de la operación (Si la operación es de lectura o escritura): La dirección inicial sobre el dispositivo de E/S (al igual que los datos se direccionan en memoria se hace sobre cualquier otro dispositivo). La dirección inicial de memoria desde la que se realiza la lectura/escritura. El número total de palabras que se lee/escribe. A partir de ese momento el procesador se desentiende de la operación y el controlador DMA toma el control de la operación. El controlador gestionará todo el proceso de transferencia e informará al procesador cuando finalice la operación de E/S. Arquitectura de ordenadores 21 Componentes de un ordenador Componentes de un ordenador Los ordenadores están formados por componentes en el que cada uno tiene su función específica, por lo tanto, en este tema vamos a estudiar dichos componentes por separado para saber diferenciarlos en su aspecto físico y conocer algunas de las características y propiedades que tienen. Microprocesador El microprocesador es el circuito integrado central más complejo de un sistema informático. Este se conecta mediante un zócalo especifico a la placa base donde se queda fijado mediante diferentes mecanismos. MICROPROCESADORES Las principales marcas son Intel y AMD, siendo INTEL la más utilizada. Sobre Intel algunos de los actualmente usados son: Velocidad Memoria Máxima Tipo de Procesador Caché del Reloj Núcleos Memoria Tarjeta Gráfica Intel Core i9-14900K (Q4 2023) 36 MB 6.0 GHz 24 DDR5, DDR4 Intel UHD Graphics 770 Intel Core i7-14700K (Q4 2023) 33 MB 5.6 GHz 20 DDR5, DDR4 Intel UHD Graphics 770 Intel Core i5-14600K (Q4 2023) 24 MB 5.3 GHz 14 DDR5, DDR4 Intel UHD Graphics 770 Intel Core i9-13900KS (Q1 2023) 36 MB 6.0 GHz 24 DDR5, DDR4 Intel UHD Graphics 770 Intel Core i5-13600K (Q1 2023) 24 MB 5.0 GHz 14 DDR5, DDR4 Intel UHD Graphics 770 Intel Core i9-12900K (Q4 2021) 30 MB 5.2 GHz 16 DDR5, DDR4 Intel UHD Graphics 770 Intel Core i7-12700K (Q4 2021) 25 MB 5.0 GHz 12 DDR5, DDR4 Intel UHD Graphics 770 Intel Core i5-12600K (Q4 2021) 20 MB 4.9 GHz 10 DDR5, DDR4 Intel UHD Graphics 770 Intel Core i9-11900K (Q1 2021) 16 MB 5.3 GHz 8 DDR4 Intel UHD Graphics 750 Intel Core i7-11700K (Q1 2021) 16 MB 5.0 GHz 8 DDR4 Intel UHD Graphics 750 Intel Core i5-11600K (Q1 2021) 12 MB 4.9 GHz 6 DDR4 Intel UHD Graphics 750 ÚLTIMOS PROCESADORES INTEL En el anterior cuadro se pueden ver algunos de las familias de microprocesadores Intel, siendo las más famosas. Los Core, formados por las subfamilias vPro, i3, i5, i7 e i9 son las más utilizadas en la actualidad. En la Guardia Civil son los más utilizados. Arquitectura de ordenadores 22 Componentes de un ordenador Sobre AMD algunos de los actualmente usados son: Velocidad Memoria Máxima del Número de Tipo de Tarjeta Gráfica Procesador Caché Total Reloj Núcleos Memoria Incorporada AMD Ryzen 5 3600 35 MB 4.2 GHz 6 DDR4 Ninguna AMD Ryzen 5 5600X 35 MB 4.6 GHz 6 DDR4 Ninguna AMD Ryzen 5 7600X 38 MB 5.3 GHz 6 DDR5 Radeon Graphics AMD Ryzen 7 3700X 36 MB 4.4 GHz 8 DDR4 Ninguna AMD Ryzen 7 5800X 36 MB 4.7 GHz 8 DDR4 Ninguna AMD Ryzen 7 7700X 40 MB 5.4 GHz 8 DDR5 Radeon Graphics AMD Ryzen 7 7800X3D 104 MB 5.0 GHz 8 DDR5 Radeon Graphics AMD Ryzen 9 3900X 70 MB 4.6 GHz 12 DDR4 Ninguna AMD Ryzen 9 5900X 70 MB 4.8 GHz 12 DDR4 Ninguna AMD Ryzen 9 7900X 76 MB 5.6 GHz 12 DDR5 Radeon Graphics ÚLTIMOS PROCESADORES AMD En la imagen de abajo puede verse un microprocesador insertado en su zócalo. La estructura de color negro de alrededor sirve para sujetar los elementos de refrigeración que pueden ser pasivo (disipador) y activo que a su vez puede ser por aire, liquida o mixta... MICRO EN ZÓCALO - PARTES REFRIGERACIÓN DUAL: REFRIGERACIÓN LÍQUIDA DISIPADOR Y VENTILADOR Arquitectura de ordenadores 23 Componentes de un ordenador Placa base o Motherboard Veamos otros componentes en otra placa: Es importante saber identificar el modelo y marca de la placa base para poder buscar información, drivers o manuales en internet. RJ-45: Interfaz física para conectar redes de computadoras. Redes de ordenadores. Conector ATX: Conecta la fuente de alimentación con la placa base proporcionándole electricidad. Los hay de 24, 20 y 4 pines aunque el más utilizado es el de 24 pines (20+4) con un conducto de +12V, +5V, 3,3V y tierra. Los zócalos PCI-Express: se basan en un sistema de comunicación en serie. La comunicación de estas conexiones es full-duplex alcanzando el PCI-Express 3.0 la velocidad de 1 Gb por segundo y por carril. En comparación con una PCI, un solo carril de una PCI-Express es el doble de rápido de una PCI normal. Arquitectura de ordenadores 24 Componentes de un ordenador RANURAS PCI-EXPRESS, DE ARRIBA ABAJO: X4,X16, X1 Y X16. CONECTORES HDMI CONECTOR ATX 20/24 PINES TIPOS DE CONECTORES ATX Arquitectura de ordenadores 25 Componentes de un ordenador CONECTOR SATA ZÓCALO AGP MÓDULOS DE MEMORIA RAM El bus PCI Express sustituyo al bus AGP. El bus AGP se utilizaba exclusivamente para las tarjetas gráficas debido a su alta velocidad en su época. En cambio para los otros buses el PCI Express sustituyó al PCI. En las fotos de arriba podemos ver un ejemplo de ranura AGP y una tarjeta gráfica de tipo AGP. Ejemplo de pila de BIOS en placa base. En caso de fallo de corriente, la pila se encarga de suministrar la energía necesaria a la BIOS para que no pierda su configuración. CONECTOR IDE ZÓCALO IDE Anteriormente del sistema de BUS SATA estaba implantado el IDE, que conectaba discos duros, CDROMS, sistemas de almacenamientos y otros tipos de periféricos. La primera foto es un ejemplo de cable IDE con sus dos salidas hacia MAESTRO y ESCLAVO. En la segunda foto se ve una conexión en placa base de tipo IDE. Arquitectura de ordenadores 26 Componentes de un ordenador DISCO DURO MECÁNICO O HHD DISCO DURO SÓLIDO O SSD Actualmente en el mercado existen varios tipos de discos duros pero entre los más extendidos están los discos duros clásicos y los nuevos discos sólidos. Los discos duros clásicos son más lentos en operaciones de escritura/lectura pero suelen tener más capacidad y un menor precio económico. Los discos duros sólidos son mucho más rápidos y reducidos en tamaño pero suelen poseer una menor capacidad y un mayor precio económico. Conectores SERIE, PARALELO, PS2 Aquí presentamos algunos de los conectores más usados en informática o telecomunicaciones y sus utilidades. También podremos ver periféricos relacionados y conocer sus funciones. SERIE – HEMBRA Y MACHO PARALELO – HEMBRA Y MAHO Los puertos Serie se utilizan para comunicaciones de datos digitales donde la información se transmite bit a bit o lo que es lo mismo, enviando solo un bit a la vez. El puerto paralelo (LPT) se utiliza también para comunicaciones de datos digitales pero los bits viajan en paquetes de bytes. Los bits viajan juntos. Se utiliza principalmente para conectar impresoras pero también para otros tipos de periféricos. Arquitectura de ordenadores 27 Componentes de un ordenador PS2 Los conectores de tipo PS2 se utilizan para conectar teclados y ratones. VISTA POSTERIOR DE UN ORDENADOR: PUERTOS E/S RJ (RED Y TELEFONÍA) Los cables y conectores de las fotos de arriba (RJ-11 y RJ-45) se utilizan para comunicaciones. En concreto el RJ-11 se utiliza para telefonía estándar usándose en la informática para los módems que utilicen la línea telefónica. El conector tiene 4 pines y el cable que se suele utilizar es de 4 hilos. El RJ-45 se suele utilizar para redes de datos. Su conector tiene 8 pines y el cable que le corresponde debe tener 8 hilos. RJ45 Y RJ11 Arquitectura de ordenadores 28 Componentes de un ordenador TARJETA DE RED RJ45 TARJETA DE RED WIFI VÍDEO Los conectores de la imagen superior son conectores para video. El DVI (Digital Visual Interface) es una interfaz de video diseñada para obtener la máxima calidad de visualización en pantallas digitales. Los conectores DVI se dividen en 3: DVI-D (solo digital), DVI-A (solo analógica), DVI-I (analógica y digital). El conector VGA (Video Graphics Array) es un adaptador de video analógico con una resolución de 640 x 480 píxeles y 15 pines que solo transmite video. El conector HDMI (High-Definition Multimedia Interface) transporta video digital y audio digital de alta definición teniendo en total 19 pines. CONECTORES DE VÍDEO TIPO HEMBRA MINI DISPLAY DISPLAY PORT HDMI DUAL-LINK DVI DVI-I VGA PORT CONECTORES DE VÍDEO Arquitectura de ordenadores 29 Componentes de un ordenador Tipo de Máxima calidad de conector vídeo Audio VGA 2048x1536 No DVI 2560x1600 No Dual-link DVI 2560x1600 No HDMI 7680x4320 (8K) Sí Mini DisplayPort 7680x4320 (8K) Sí DisplayPort 7680x4320 (8K) Sí USB-C 7680x4320 (8K) Sí CONECTORES DE VIDEO: CARACTERÍSTICAS USB El USB (Universal Serial Bus) es un bus estándar industrial que define los cables, conectores y protocolos usados para conectar, comunicar y proveer de alimentación eléctrica entre computadoras, periféricos y dispositivos electrónicos. Posee 4 pines: 1 de alimentación, 2 de datos y 1 de tierra y podemos clasificarlo por l velocidad de transferencia: USB 1.0: es de 1996 y da una velocidad de transferencia de datos de hasta 12 Mbps. Es compatible con dispositivos como teclados, ratones y cámaras digitales de baja resolución. USB 1.1: De 1998, ofrece una velocidad de transferencia de hasta 12 Mbps. Es compatible con dispositivos de baja y media velocidad y utiliza el conector estándar USB-A. USB 2.0: aparece en el año 2000 y ofrece una velocidad de transferencia de datos de hasta 480 Mbps. Es de tamaño estándar, rectangular con cuatro pines y compatible con versiones anteriores. USB 3.0: conocido también como SuperSpeed USB tiene una velocidad de transferencia de hasta 5 Gbps, superando significativamente al USB 2.0. Sus conectores son generalmente de color azul para distinguirlos y son compatibles con versiones anteriores de USB. Mejora la gestión de energía y capacidad para transmitir datos y energía simultáneamente. USB 3.1: también conocido como USB 3.1 Gen 2 ofrece velocidades de transferencia de datos de hasta 10 Gbps. Utiliza un conector reversible USB-C compacto y simétrico, eliminando la necesidad de orientarlo correctamente al enchufarlo. Además, es compatible con versiones anteriores de USB y admite carga rápida de dispositivos. USB 3.2: ofrece velocidades de transferencia de datos de hasta 20 Gbps utilizando un conector reversible USB-C. Es compatible con versiones anteriores de USB, permitiendo conectividad y eficiencia mejoradas para una variedad de dispositivos. USB 4.0: alcanza velocidades de transferencia de hasta 40 Gbps, similar a Thunderbolt 3. Soporta múltiples protocolos de datos y pantallas, es compatible con versiones anteriores de USB y utiliza el conector USB-C. Mejora la eficiencia de la asignación de recursos para maximizar el rendimiento. Todas las versiones de USB tienen el mismo aspecto físico. Arquitectura de ordenadores 30 Componentes de un ordenador TIPOS DE CONECTORES USB Tipo de Conector Calidad Máxima Transmisión USB de Vídeo de Audio USB A No soporta vídeo No USB B No soporta vídeo No USB 3.0 No soporta vídeo No USB Mini No soporta vídeo No USB Micro No soporta vídeo No USB Micro B No soporta vídeo No USB C (Alt Mode) 8K Sí CONECTORES USB - CARACTERÍSTICAS Arquitectura de ordenadores 31 Arquitecturas no PC Arquitecturas no PC Aunque ya hemos hablado de computadores en general, y mucho de los ordenadores personales (PC’s) en particular, en los últimos años han empezado a aparecer nuevos dispositivos de uso personal, algunos de ellos con una difusión mucho mayor que la de todos los ordenadores personales instalados actualmente. Por supuesto, estamos hablando de los teléfonos móviles, PDA’s, reproductores mp3, tablets, etc. Personal Digital Assistant (PDA) Hablaremos en primer lugar de estos dispositivos ya en desuso por la aparición posterior de los teléfonos móviles. Diseñados en principio como Agendas Personales con aplicaciones de calendario, lista de contactos, bloc de notas y recordatorios y con un sistema de reconocimiento de escritura. Hoy día ya han sido sustituidos en los entornos ofimáticos, no así en entornos de logística y otros sectores industriales. Desde su aparición, ha habido varios fabricantes diseñando estos ‘asistentes personales’, cada uno creando su propio diseño y, por tanto, su propio estándar. PDA OFIMÁTICA PDA LOGÍSTICAS El Atari Portfolio, Psion Organiser, Sharp Wizard o Amstrad Penpad fueron sentando la base de las funcionalidades de las PDAs. La primera mención formal del término y concepto de PDA (Personal Digital Assistant) es respecto al Apple Newton. En 1995 con la aparición de la empresa Palm comenzó una nueva etapa de crecimiento y desarrollo tecnológico para el mercado de estos dispositivos. Tal fue el éxito que las PDA son a veces llamadas Palm o Palm Pilot, lo cual constituye un caso de una marca registrada que se transforma en el nombre genérico del producto. La irrupción de Microsoft Windows CE (2000) y Windows Mobile (2003) en el sector los dotó de mayores capacidades multimedia y conectividad, y sobre todo incorporó a un público ya acostumbrado al uso de sus programas y que se los encontraban en versión reducida. Arquitectura de ordenadores 32 Arquitecturas no PC Teléfonos móviles Los teléfonos móviles se han convertido en el dispositivo indispensable hoy en día, hasta el punto de que se puede decir que todo el mundo tiene un teléfono móvil. La cifra exacta de teléfonos móviles depende, por supuesto, del grado de desarrollo del país que se investigue; pero basta decir que en España, por ejemplo, hay más de 80 millones de teléfonos móviles, lo que quiere decir que tocamos a dos por cada español. El enorme crecimiento de estos dispositivos ha propiciado la transición tecnológica más acelerada que se haya visto nunca: tienen agenda, calendario, calculadora. Reproducen vídeo, hacen fotos, tienen conexión a Internet… CELULARES En 1973, Martin Cooper, un ingeniero de Motorola realizó la primera llamada desde un dispositivo que hoy reconoceríamos como un teléfono celular. Este pionero modelo el Motorola DynaTAC 8000X era un aparato voluminoso, pesando alrededor de un kilogramo y costando cerca de 3.995$. Su batería apenas soportaba 30 minutos de conversación. Sin embargo, este armatoste representaba el inicio de una revolución en la comunicación. Durante los años 80 los teléfonos celulares comenzaron a ganar popularidad, especialmente con la implementación de las redes analógicas AMPS en 1983. Estas redes permitían la transmisión de señales a través de frecuencias analógicas, aunque enfrentaban problemas de capacidad, privacidad y calidad de llamada. A pesar de estas limitaciones, los teléfonos móviles se fueron integrando poco a poco en la vida diaria de algunas personas. El verdadero cambio llegó en la década de los 90 con la introducción de la segunda generación de tecnología móvil, conocida como 2G. Con tecnologías como GSM y CDMA, los teléfonos celulares mejoraron notablemente en términos de calidad de llamada, capacidad de red y seguridad. Además, los SMS se convirtieron en una nueva forma de comunicación. Teléfonos como el Nokia 1011, el primer GSM, y el Motorola StarTAC, uno de los primeros teléfonos plegables, se volvieron muy populares. A medida que avanzaba la década los teléfonos móviles no solo se hicieron más pequeños y ergonómicos, sino también más funcionales. La durabilidad del Nokia 3310 y la elegancia del Ericsson T28 marcaron esta época. Se introdujeron características adicionales como juegos (el famoso "Snake" en los Nokia), pantallas a color y cámaras básicas, lo que hizo a estos dispositivos aún más atractivos. Con el cambio de milenio la tercera generación de tecnología móvil, o 3G, trajo consigo una nueva era de conectividad. Las velocidades de datos mejoraron significativamente, permitiendo navegación web, videollamadas y servicios multimedia. Este avance sentó las bases para los smartphones que estaban por venir. A principios de los 2000 empezaron a aparecer dispositivos más inteligentes. El BlackBerry con su teclado físico y correo electrónico en tiempo real, se convirtió en el favorito de los profesionales. El Palm Treo combinaba un teléfono con un asistente digital personal (PDA), ofreciendo una pantalla táctil y aplicaciones básicas. En 2004 el Motorola RAZR con su diseño delgado y elegante se convirtió en un fenómeno de ventas. El verdadero punto de inflexión llegó en 2007 con el lanzamiento del iPhone por parte de Apple. Este dispositivo revolucionario presentaba una pantalla táctil capacitiva, una interfaz de usuario intuitiva y la App Store, cambiando para siempre la forma en que interactuamos con nuestros teléfonos. La aparición del iPhone marcó el comienzo de la era de los smartphones, estableciendo un nuevo estándar para los dispositivos móviles. Así, desde los voluminosos primeros teléfonos hasta los elegantes y multifuncionales smartphones de hoy, la evolución de los teléfonos celulares ha sido una impresionante trayectoria de innovación tecnológica, diseño y funcionalidad. Cada década trajo consigo avances significativos que transformaron la manera en que nos comunicamos y vivimos nuestras vidas. Arquitectura de ordenadores 33 Arquitecturas no PC EVOLUCIÓN DE LOS MÓVILES SMARTPHONES Estos dispositivos son la combinación de una PDA con un teléfono móvil o celular. Disponen de un sistema operativo que les permite cargar distintas aplicaciones, y tienen la completa funcionalidad de cualquier teléfono móvil convencional. Los actuales móviles incluyen funcionalidades de todo tipo: navegación por GPS, reproductor de música, radio, cámara de fotos y video con alta resolución, navegación por Internet tanto mediante WiFi como conectándose incluso actualmente en algunos países a redes 4G. Las grandes posibilidades que permiten han hecho que tenga un tremendo impacto en el mercado. Algunos de los factores fundamentales del éxito de los smartphones se deben a: Redes de comunicación de datos: Como ya se vio en el capítulo de Telefonía, la actual generación de transmisión de datos a las redes móviles (3G, 3,5G, 4G y 5G), permiten una rápida conexión a Internet. Con ello se ha abierto un mundo nuevo de posibilidades, entre ellas se destacan las aplicaciones para móvil como: el Whatsapp, servicio de mail, Skype, etc. Evolución de los smartphones: sin duda la tecnología anterior tanto como las aplicaciones que se acaban de comentar han ido de la mano con la evolución en los dispositivos móviles. Un claro ejemplo de ello ha sido el iPhone con pantalla táctil (multi-touch). En 2007, Apple revolucionó el mercado lanzando el iPhone. Este dispositivo como se acaba de comentar tiene una pantalla mult-touch que permite interactuar directamente con los dedos con perfecta exactitud. EVOLUCIÓN DEL MODELO iPHONE DE APPLE Arquitectura de ordenadores 34 Arquitecturas no PC Tablets Una Tablet es una computadora portátil con pantalla táctil en los que el usuario interactúa presionando directamente la pantalla. Estos dispositivos se caracterizan por no tener un teclado físico si bien es cierto que se le puede añadir. La historia de las tablets es una fascinante evolución que abarca varias décadas desde los primeros conceptos rudimentarios hasta los sofisticados dispositivos de hoy en día. En 1968 el científico informático Alan Kay en su trabajo para Xerox PARC, conceptualizó el "Dynabook", una visión de un dispositivo portátil para el aprendizaje y la creatividad. Aunque nunca se construyó sentó las bases para lo que más tarde se convertiría en la tablet moderna. En 1989, la compañía GRiD Systems lanzó la GRiDPad, considerada una de las primeras tablets comerciales. Este dispositivo, destinado principalmente a los negocios, era voluminoso y caro, pero introdujo la idea de una computadora portátil sin teclado físico. La década de los 90 vio varios intentos de popularizar las tablets. Apple lanzó el Newton MessagePad en 1993, un dispositivo con pantalla táctil y reconocimiento de escritura a mano. Aunque innovador, el Newton no logró un éxito comercial significativo debido a sus problemas de precisión y su alto precio. Por otro lado, Microsoft presentó en 2002 los primeros dispositivos basados en Windows XP Tablet PC Edition. Estos tablets convertibles estaban diseñados para ser usados tanto como laptops tradicionales como dispositivos de pantalla táctil, pero su adopción fue limitada debido a su peso, tamaño y precio. LA REVOLUCIÓN El verdadero punto de inflexión en la historia de las tablets llegó en 2010 con el lanzamiento del iPad de Apple. Este dispositivo redefinió el mercado con su elegante diseño, facilidad de uso y una vasta colección de aplicaciones disponibles en la App Store. El iPad no solo capturó la imaginación del público, sino que también estableció un nuevo estándar para lo que una tablet debería ser. Siguiendo el éxito del iPad, otras compañías entraron rápidamente al mercado. Samsung lanzó la serie Galaxy Tab, que corría con el sistema operativo Android, ofreciendo una alternativa viable al ecosistema de Apple. Amazon presentó el Kindle Fire en 2011, una tablet más asequible centrada en la lectura de libros electrónicos y el consumo de contenido multimedia. A medida que las tablets se popularizaron, comenzaron a diversificarse y especializarse. Las tablets Windows, como las de la serie Microsoft Surface, ganaron terreno en el mercado profesional, ofreciendo una potencia similar a la de las laptops con la versatilidad de una pantalla táctil. Las tablets para el mercado educativo también vieron un auge, con dispositivos como el Chromebook de Google y las versiones educativas del iPad, diseñadas para facilitar el aprendizaje interactivo en las aulas. En los últimos años, las tablets han continuado evolucionando, integrando tecnologías avanzadas como procesadores más potentes, pantallas de alta resolución, y capacidades de realidad aumentada. El iPad Pro, por ejemplo, se ha convertido en una herramienta poderosa para artistas, diseñadores y profesionales creativos gracias a su compatibilidad con el Apple Pencil y su rendimiento superior. Arquitectura de ordenadores 35 Arquitecturas no PC TABLET iPAD DE APPLE Las tablets han logrado encontrar su lugar en diversos sectores, desde la educación y el entretenimiento hasta el trabajo profesional y la creación artística. La continua innovación en hardware y software asegura que las tablets seguirán siendo una parte integral de la tecnología personal y profesional en el futuro. PARTES GENERALES DE UNA TABLET SAMSUNG MICROSOFT SURFACE 32Gb WIFI – DESPIECE Arquitectura de ordenadores 36 Arquitecturas no PC Raspberry Pi La Raspberry Pi es una serie de computadoras de placa única de bajo costo desarrolladas en el Reino Unido por la Raspberry Pi Foundation. Su objetivo principal es promover la enseñanza de ciencias de la computación en escuelas y en países en desarrollo. Desde su lanzamiento inicial en 2012, la Raspberry Pi ha ganado popularidad como una plataforma para hobbyistas, educadores y profesionales para explorar la computación, aprender a programar y desarrollar proyectos divertidos y útiles en áreas como la robótica, la domótica y muchas más. PLACA RASPBERRY PI - PARTES CARACTERÍSTICAS PRINCIPALES Costo-Efectividad: uno de los atributos más notables de la Raspberry Pi es su precio accesible, que la hace alcanzable para una amplia audiencia. Tamaño Compacto: la Raspberry Pi es increíblemente compacta, generalmente del tamaño de una tarjeta de crédito, lo que la hace ideal para proyectos integrados y aplicaciones donde el espacio es un límite. Flexibilidad y Versatilidad: a pesar de su tamaño y costo, la Raspberry Pi ofrece un rendimiento suficiente para manejar tareas como navegación web, procesamiento de textos, y ejecución de una variedad de programas educativos. También es muy versátil, utilizada en una amplia gama de aplicaciones desde estaciones meteorológicas hasta servidores de medios. Soporte de software: viene con una variedad de opciones de sistemas operativos, siendo Raspbian, una versión del sistema operativo Linux Debian, la más común. También soporta otros sistemas operativos como Windows 10 IoT Core, Ubuntu, y muchos otros que están optimizados para dispositivos de bajo rendimiento. Conectividad: incluye soporte para Ethernet, Wi-Fi (en modelos más recientes como la Raspberry Pi 3 y posteriores), y Bluetooth, lo que permite a los usuarios conectarla fácilmente a Internet y a otros dispositivos. Puertos de entrada/salida: Ofrece múltiples puertos GPIO (General Purpose Input/Output) que permiten a los usuarios conectar una variedad de sensores, dispositivos y extensiones, expandiendo sus capacidades para interactuar con el mundo exterior. Comunidad y recursos: hay una vasta comunidad de desarrolladores y entusiastas que constantemente contribuyen con tutoriales, guías y proyectos que se pueden replicar. Además, hay abundantes recursos educativos disponibles que hacen de la Raspberry Pi una herramienta de aprendizaje excepcional. Capacidad de multimedia: las versiones más recientes pueden manejar video de alta definición y tienen capacidad de salida de audio, lo que permite su uso en proyectos de medios digitales. Arquitectura de ordenadores 37 Arquitecturas no PC Desde su introducción la Raspberry Pi ha evolucionado a través de varias iteraciones y modelos, cada uno mejorando en rendimiento y características adicionales, manteniendo su objetivo de proporcionar acceso asequible a la computación. Es una herramienta de gran valor tanto para la educación como para la innovación tecnológica. Además de la Raspberry Pi existen varias otras placas de desarrollo y computadoras de placa única (SBCs, por sus siglas en inglés) que han ganado popularidad en la comunidad de aficionados, educadores y profesionales por sus características únicas y aplicaciones específicas. Aquí te muestro algunas de las más destacadas: Arduino: más orientado a controlar hardware y realizar tareas de electrónica, Arduino es una plataforma de código abierto que utiliza microcontroladores simples. Es especialmente popular entre aquellos que trabajan en proyectos de robótica, automatización del hogar y prototipos electrónicos debido a su sencillez y eficacia en el control de dispositivos. BeagleBone: una serie de SBCs de bajo costo y alto rendimiento que son más potentes que la Raspberry Pi en términos de procesamiento y más orientadas hacia aplicaciones industriales y de automatización. Ofrecen una gran cantidad de opciones de entrada/salida y son capaces de manejar sistemas operativos Linux completos. Odroid: proporciona una serie de placas que son conocidas por su rendimiento superior, con opciones que van desde modelos económicos hasta otros que pueden competir con computadoras de escritorio en términos de potencia de procesamiento y capacidades gráficas. Son ideales para proyectos de juegos, servidores multimedia y aplicaciones que requieren mucha potencia de procesamiento. Banana Pi: compatible con Raspberry Pi pero con hardware más potente en algunas configuraciones, el Banana Pi soporta Android, Ubuntu y Debian, entre otros sistemas operativos. Es adecuado para la escritura de aplicaciones, juegos y proyectos de IoT. BANANA PI ARM A20 Intel Edison: aunque ya no se produce, el Intel Edison fue diseñado para ser utilizado en el desarrollo de wearables e IoT. Ofrecía un buen equilibrio entre tamaño, costo y capacidad de procesamiento. PINE64: una serie de SBCs que incluyen Pine A64, que es comparativamente barato y poderoso, apto para proyectos que requieren un poco más de potencia que lo que ofrece Raspberry Pi. También producen el Pinebook, un portátil basado en ARM. LattePanda: una placa que viene con Windows 10 preinstalado, pero también puede ejecutar sistemas operativos Linux. Es notable por incluir un procesador Intel y es compatible con Arduino, lo que permite una fácil integración con proyectos de hardware DIY. Asus Tinker Board: simi

Use Quizgecko on...
Browser
Browser