Diseño de un Centro de Datos de Alto Rendimiento - Resumido.pdf

Full Transcript

SIS-313 1. Definición La Wikipedia define Centro de Datos como: “Un edificio o espacio dentro de un edificio, incluso pueden ser un grupo de edificios, que se usan para albergar sistemas informáticos y componentes asociados, como los sistemas de almacenamiento y telecomunicaciones”. También la norma...

SIS-313 1. Definición La Wikipedia define Centro de Datos como: “Un edificio o espacio dentro de un edificio, incluso pueden ser un grupo de edificios, que se usan para albergar sistemas informáticos y componentes asociados, como los sistemas de almacenamiento y telecomunicaciones”. También la normativa TIA 942 define Centro de Datos como “Un edificio o parte de un edificio cuya función principal es la de albergar una sala de computación y sus áreas de apoyo.” El fabricante líder en virtualización define Centro de Datos como: “Son instalaciones físicas centralizadas donde se alojan ordenadores, redes, almacenamiento y otros equipos de TI que permiten el funcionamiento de una empresa. Los ordenadores de un centro de datos contienen o facilitan aplicaciones, servicios y datos esenciales para la empresa.” En definitiva, un Centro de Datos de Alto Rendimiento es un edificio, parte del mismo o un grupo de edificios donde se custodian sistemas de información de una o varias organizaciones y donde se ofrecen servicios informáticos a una organización o varias organizaciones. Se le denomina de Alto Rendimiento porque es capaz de ofrecer servicios que requieren la mayor capacidad, robustez y flexibilidad posible con la actual tecnología del mercado. Ilustración 1 - Centro de Datos de Google en Dublín (Irlanda) 2. Evolución En 1936 comenzó la era de la informática gracias a la máquina de Turing, pero no fue hasta el año 1946 que apareció el primer superordenador que se llamó ENIAC y con éste, el primer centro de datos, esta supercomputadora era de tubos de vacío que ocupaba un espacio de más de 150 SIS-313 m2 y era muy compleja de operar y mantener. Unos años después en 1954 llegó TRADIC dando un salto en la computación porque fue la primera en usar transistores y diodos, dejando de lado los tubos de vacío. En estos primeros años se idearon métodos para acomodar y organizar un centro de datos, como bastidores o rack que son un estándar para montar equipos, falsos suelos sobre todo para la refrigeración y bandejas de cables que se instalan por el techo o debajo del falso suelo. También se diseñaron pautas básicas de diseño para controlar el acceso a la sala que contenía las supercomputadoras. Ilustración 2 - Dos piezas del ENIAC En estos primeros años y hasta principios de los años 70, los centros de datos se usaban para albergar estas supercomputadoras, a partir de los años 60 con el CDC 6600 de IBM comenzaron a llamarse mainframes. Estos tenían capacidad de ejecutar varias tareas y sistemas operativos simultáneamente, además de una gran potencia y velocidad de cómputo. Este sistema centralizado de información se encontró con varios problemas, los costes de mantenimiento debido al gran consumo de energía y un gran desembolso inicial para la implantación propiciaron que estos sistemas fueran usados solo por organizaciones con suficientes recursos. En el año 1971 Intel presentó el primer procesador programable de propósito general, esto propició que los minicomputadores se convirtieron en una alternativa a los mainframes durante la década de los 70 y 80. Esto procesadores eran más pequeños y eso era una gran ventaja porque reducía los costes. En estos años también aparecieron los primeros PC personales con tarjeta gráfica como Xerox Alto y las primeras redes informáticas para conectar hasta 255 computadoras simultáneamente como ARCnet. Esto supuso en los años 80 un cambio muy significativo en las tecnologías de un centro de datos junto con la inclusión de las comunicaciones. En la década de los años 90, los centros de datos comenzaron a contar con tecnologías diferentes dependiendo del uso y su modelo cliente-servidor. Los servidores eran más pequeños SIS-313 pero la información crecía exponencialmente y se necesitaron grandes equipos para almacenar la información. En consecuencia, aparecieron las cabinas de almacenamiento y mecanismos de backup o respaldo. Estos necesitaban librerías de cintas magnéticas para salvaguardar el respaldo de la información de las cabinas de almacenamiento, siendo un hándicap porque eran muy voluminosos y ocupaban mucho espacio en la sala del centro de datos. También aparecen los primeros clusters, que es un conjunto de servidores que se comunican mediante una red de alta velocidad, para proporcionar recursos informáticos como un único servidor, proporcionando un mejor rendimiento, eficiencia y disponibilidad de los mismos. En los años 90 cada persona en una organización tenía una PC personal y para compartir su trabajo necesitaba conectarse en red, esto propició un aumento de equipos de comunicaciones en los centros de datos, sobre todo al auge que supuso las puntocom de Internet. En este momento aparecen nuevos estándares de cableado estructurado que hizo posible un diseño jerárquico colocando los servidores en lugares específicos de la organización. Las empresas necesitaban una conexión a Internet rápida y sin cortes para establecer una presencia mundial en un sitio web en Internet. Se comenzaron a construir instalaciones muy grandes, llamadas centros de datos de Internet (IDC), para proporcionar mejores capacidades como el respaldo cruzado que evita quedarse sin conexión. A finales de los años 90 y los primeros años del 2000, los Centros de Datos empiezan a tomar importancia en las organizaciones, custodian equipos de cómputo, de comunicaciones y almacenamiento, cada vez son más grandes y más costosos. A finales de los años 90 nace la tecnología de la virtualización que proporciona que un servidor físico pueda ofrecer recursos a un servidor o varios servidores virtuales simultáneamente, esto hizo posible un ahorro considerable de espacio al necesitar un menor número de servidores físicos por centro de datos. En estos años comienza la externalización de los centros de datos con el Housing y Hosting, compañías que no podían asumir el coste de todo un centro de datos instalan sus servidores en un espacio alquilado en otro centro de datos que explota otra organización. El Housing proporciona dicho espacio refrigerado y acceso a la alimentación eléctrica como a las comunicaciones del centro de datos. En cambio, el Hosting proporciona todo lo anterior pero el servidor no lo tiene que aportar el cliente si no que es instalado y mantenido por el proveedor de Hosting. A finales de los años 2000, la mayoría de las organizaciones tenían un centro de datos propio que cada día necesitaba más espacio y más presupuesto para el equipamiento nuevo y el mantenimiento. Aunque la virtualización y los equipos de almacenamiento de información habían reducido las necesidades de espacio, las aplicaciones y servicios no paraban de crecer. Ante esta necesidad y la evolución del Hosting nace el Cloud. En la actualidad, la mayoría de los centros de datos ofrecen servicios a la propia organización u otras porque están conectados a Internet, es muy fácil que dos centros de datos de diferentes organizaciones se puedan comunicar, pero también se pueden comunicar con centro de datos en la nube. Las organizaciones grandes apuestan por un centro de datos propio con integraciones e interoperabilidad con Cloud públicas y otros centros de datos que garanticen la disponibilidad de los servicios con la mejor optimización y seguridad de los mismos. SIS-313 3. Elementos en un Centro de Datos En la actualidad, un Centro de Datos está compuesto de muchos elementos físicos, algunos son imprescindibles y de ninguna de las maneras se podría poner en marcha un Centro de Datos sin la presencia de estos. A continuación, se describen los elementos más importantes y necesarios en un Centro de Datos, cada elemento pertenece a una categoría y ofrece una solución al propio Centro de Datos u otro elemento. 3.1. Obra civil Un Centro de Datos forma parte de un edificio o una sala, por este motivo, tiene la necesidad de contar con los elementos de una obra civil como son: Paredes y muros Techos Suelos Paneles Puertas Estos elementos tienen que cumplir normativas nacionales e internacionales sobre el comportamiento frente al fuego, agua, polvo e intrusiones. El suelo de la sala de un Centro de Datos que alberga los equipos informáticos, es un falso suelo o suelo técnico. Este suelo se compone de paneles con una medida estándar de 60x60 cm, estos paneles se apoyan sobre una estructura de acero que se sujeta con cuatro patas. Esto permite ajustar la altura y proporcionar firmeza al suelo, creando un plenum bajo el suelo elevado por donde se canaliza la climatización. Ilustración 3 - Piezas de un suelo técnico. Hay dos tipos de paneles, sin rejilla que no dejan salir el aire y sirven para las zonas de paso y ubicaciones de los rack. Los otros tipos de paneles son con rejilla que dejan salir el aire para refrigerar la parte delantera de cada rack. Los principales beneficios de estos suelos son: SIS-313 Facilidad para realizar instalaciones eléctricas, de refrigeración, agua y antincendios, gracias al hueco que hay en el falso suelo. Máxima resistencia al soportar cargas de peso de rack y equipos. Alta clasificación al fuego de acuerdo a normativas y estándares europeos. Flexibilidad en el intercambio de baldosas unas por otras. Eficiencia al evitar pérdidas de refrigeración. Control electrostático. 3.2. Infraestructura física Un Centro de Datos dispone de un conjunto de sistemas y elementos que proporcionan todos los recursos necesarios para la puesta en marcha de equipos informáticos con seguridad y alta disponibilidad. Este conjunto se le denomina en el área de TI como infraestructura física de un Centro de Datos también se le conoce como el hardware de un Centro de Datos. A continuación, se explica en detalle cada uno de los sistemas y elementos que componen un Centro de Datos. 3.2.1. Sistemas de energía El principal propósito de un sistema de energía eléctrica en un Centro de Datos es transmitir energía a cada fuente de alimentación que necesite energía eléctrica para su funcionamiento. Es evidente, que este suministro no puede producir cortes para garantizar el correcto funcionamiento del resto de elementos de un Centro de Datos que necesitan suministro eléctrico. Este sistema se implanta por la comercializadora de la red eléctrica y por la empresa constructora de la obra civil. La comercializadora lleva las acometidas desde la estación eléctrica más cercana hasta las tomas principales de energía eléctrica del edificio y la empresa constructora conecta las acometidas que van desde la sala del Centro de Datos hasta las tomas principales. Todos elementos usados en esta instalación como los cables, conectores, cuadros de energía, etc, cumplen normativas nacionales e internaciones y están certificados para soportar la carga de energía eléctrica contratada y demandada por el consumo del edificio del Centro de Datos de Alto Rendimiento. 3.2.2. Sistema de alimentación ininterrumpida (SAI) Un SAI o UPS (Uninterruptible Power Supply) es un dispositivo que proporciona energía eléctrica continua a todos los elementos que estén conectados a este, y tras un corte de suministro de la red eléctrica es capaz de suministrar energía eléctrica durante un tiempo limitado a todos los elementos, porque está dotado de unas baterías que suministran esa energía. Los SAI son de diferentes capacidades desde unidades pequeñas diseñadas para proteger una sola computadora (alrededor de 200 voltios-amperios nominales) hasta sistemas grandes que alimentan centros de datos o edificios completos. Los distintos elementos no se conectan directamente a las tomas de alimentación de la red eléctrica, sino que se conectan al SAI que es quien está conectado a las tomas de corriente, SIS-313 haciendo de intermediario entre la red eléctrica y los elementos con necesidades de alimentación. Esto proporciona a todos los elementos conectados una protección porque una interrupción de energía inesperada podría causar lesiones, muertes, interrupciones comerciales graves o pérdida de datos. El tiempo limitado de funcionamiento con baterías de un SAI suele ser de unos minutos, pero es tiempo suficiente para encender otra fuente de energía de respaldo o para apagar correctamente los elementos conectados a la red eléctrica si esta no se ha restablecido. A continuación, se enumeran los problemas comunes de la red eléctrica que es capaz de corregir un SAI: 1. Pico de voltaje o sobrevoltaje sostenido. 2. Reducción momentánea o sostenida de la tensión de entrada. 3. Caída de voltaje. 4. Ruido, definido como un transitorio u oscilación de alta frecuencia, generalmente inyectado en la línea por equipos cercanos. 5. Inestabilidad de la frecuencia de la red. 6. Distorsión armónica, definida como una desviación de la forma de onda sinusoidal ideal esperada en la línea. Existen diferentes tipos de SAI que afectan a su funcionamiento. Los más importantes son tres tipos de SAI: offline/standby, inline/línea interactiva y on-line/doble conversión. A continuación, se describen sus principales características: SAI OFFLINE / STANDBY Son los SAI más sencillos, solo entran en funcionamiento cuando se produce un corte de corriente, su funcionamiento es muy simple y por este motivo solo se recomienda su uso para pequeños equipos informáticos. Cuando se produce un corte de corriente el SAI casi de forma instantánea comienza a suministrar energía que acumula en sus baterías, para mantener en funcionamientos los dispositivos conectados. Este tipo de SAI está recomendado para sitios que disponen de una red eléctrica bastante estable y de buena calidad porque carecen de filtros y dispositivos de protección. SAI INLINE / LINEA INTERACTIVA Este tipo de SAI es parecido al anterior, pero con la diferencia que incorpora un AVR (Regulador de voltaje automático) que controla las posibles fluctuaciones de la red en ±15% regulando la tensión o corriente de salida, como en la tecnología Offline las baterías solo entran en funcionamiento en el caso de corte de corriente. Esta mejora la tensión de salida lo que proporciona un nivel más de seguridad para los dispositivos conectados a este, la recomendación es utilizar este tipo SAI para equipos de gama media baja, equipos de oficina, electrónica de red, etc. SAI ONLINE / DOBLE CONVERSIÓN SIS-313 Un SAI Online siempre está suministrando energía de las baterías, incluso cuando no existe corte de corriente. Esto es una gran ventaja porque garantiza una estabilidad total en la corriente de salida de energía eléctrica y no existe conmutación a modo baterías evitando el riesgo de que los elementos o dispositivos se puedan apagar o dañar en el tiempo de conmutación. Este tipo de SAI son los que mejor rendimiento dan porque son más seguros y tienen una mejor protección. Un SAI Online realiza una doble conversión de la energía eléctrica, de ahí su nombre, que recibe en su entrada, transformándola en energía eléctrica continua para cargar las baterías y después la vuelve a pasar a alterna, porque es el tipo de corriente que necesitan los elementos conectados. Así proporciona una línea completamente estable con una onda de salida sinusoidal pura protegiendo a los equipos de cualquier anomalía eléctrica. Los SAI con tecnología Online son de gran fiabilidad y por este motivo, se suelen implantar en sectores profesionales, equipos industriales, equipamiento activo delicado, equipos de TI. Ilustración 4 -Diagrama de un SAI Online En definitiva, a la hora de elegir un SAI los factores a tener en cuenta que afectan a su funcionamiento en distintos entornos son: la autonomía de la batería, el coste, el tamaño, el fabricante, el número de tomas o la capacidad de gestión y la tipología de un SAI. 3.2.3. Sistema de grupos electrógenos En un caso de corte eléctrico y que los SAI se agoten, se necesita de una fuente de alimentación externa esto se consigue con grupos electrógenos o generadores. Estos proporcionan al Centro de Datos un Alta Disponibilidad porque dichos generadores en caso de un corte de servicio y agotamiento de los SAI, seguirían alimentando por tiempo limitado dependiendo de su autonomía y potencia, evitando así una caída del servicio. Un generador se compone por un motor primario alimentado por un depósito de combustible diésel, un alternador y un regulador. Además, tiene un sistema de arranque automático, que cuando detecta que no hay suministro de energía, este activa un relé que enciende el grupo electrógeno dando servicio de red eléctrica desde ese momento. SIS-313 Ilustración 5 - Tres grupos electrógenos industriales 3.2.4. Sistema de ventilación y climatización La producción de calor de los elementos que conforman un Centro de Datos es uno de los principales problemas y uno de los que más preocupan. El exceso de calor en una sala de equipos informáticos afecta negativamente al rendimiento de los equipos y acorta su vida útil, además de suponer un peligro en el caso de alcanzar niveles elevados. Por este motivo, es de vital importancia el diseño de un buen sistema de refrigeración en los Centros de Datos que refrigere manteniendo una temperatura y humedad óptima para el funcionamiento de los equipos con el menor gasto energético. Según la normativa ASHRAE (American Society of Heating Refrigeration and Air conditioning Engineers) los límites de temperatura recomendados van desde los 18°C hasta los 27°C, la humedad está limitada a menos del 60%, dado que la refrigeración puede provocar la condensación de vapor de agua y en consecuencia pérdida de humedad, es necesario contar con una humidificación suplementaria para mantener el nivel de humedad recomendado. De manera general, existen tres tipos de climatización de un Centro de Datos: A través del aire: el objetivo principal de este método es separar el aire caliente del frío; se bombea aire frío hacia los equipamientos y luego se recoge el aire caliente que sale de estos. Es un sistema sencillo, pero requiere un gran consumo de energía. A través del agua: este tipo de sistemas funcionan con grandes contenedores de agua fría, la cual se bombea a través de tuberías que pasan entre los racks o bastidores y también entre dispositivos. Siempre se mantiene una barrera entre los dispositivos y el agua que circula. Inmersión: este tipo de sistema funciona mediante la inmersión de los equipos de IT en un fluido dieléctrico que no conduce la electricidad, pero si es capaz de llevarse el calor de los chips de los equipos. Este es el sistema desarrollado más eficiente para refrigerar equipos. Para evitar un alto consumo de energía, estos sistemas cuentan con una configuración de pasillo frio y pasillo caliente, se calcula que esto puede ahorrar alrededor de un 30% de consumo SIS-313 energético. Este aislamiento de pasillo frio, separa las áreas frías y las calientes sin necesidad de realizar cambios estructurales en la sala del Centro de Datos. Ilustración 6 - Circuito de aire en un pasillo frio El sistema de ventilación impulsa el aire frío por el falso suelo y este sale por las rejillas del falso suelo que están dentro del pasillo frío y es donde se absorbe el aire con los ventiladores de los equipos instalados en el rack. El aire caliente luego es expulsado por los propios equipos por detrás de los rack donde está el pasillo caliente. 3.2.5. Sistema de seguridad física La seguridad física consiste en la aplicación de barreras físicas y procedimientos de control para evitar y prevenir amenazas a los recursos y a la información confidencial. Se refiere a los controles y mecanismos de seguridad dentro y alrededor de la capa física de los sistemas informáticos, así como los medios de acceso remoto al sistema y desde el mismo, implementados para proteger el hardware y medios de almacenamiento de datos. Cada sistema es único, por lo tanto, la política de seguridad a implementar no será única es por ello que siempre se recomendarán pautas de aplicación general y no procedimientos específicos. La seguridad física está enfocada a cubrir las amenazas ocasionadas por las acciones del hombre y por las propias de la naturaleza del medio físico donde se encuentra ubicado el centro. Las principales amenazas que se ven en la seguridad física son amenazas ocasionadas por el hombre como robos, destrucción de la información, disturbios, sabotajes internos y externos, incendios accidentales, tormentas e inundaciones. Este sistema cuenta con subsistemas que garantizan la seguridad física de un Centro de Datos, algunos como el sistema contra incendios son obligatorios por normativa. 3.2.6. Rack Un rack es un soporte metálico destinado a alojar equipamiento electrónico, informático y de comunicaciones, tiene cierto parecido con un armario. Tienen una puerta con cerradura para SIS-313 permitir el acceso al interior del mismo. El equipamiento se aloja en el rack mediante guías metálicas que facilitan la extracción del mismo o la sustitución de piezas. También suelen contar con PDUs para proporcionar alimentación eléctrica al equipamiento que se instale sobre el rack. Ilustración 7 - Elementos de un rack 3.2.7. Patch Panel Es el elemento encargado de recibir todos los cables de red de cualquier Centro de Datos y de organizar las conexiones de la red. Estos elementos se usan para conectar fácilmente equipos relacionados con la red de área local (LAN) e incorporados al sistema sin dañar los puertos finales de los equipos más delicados y costosos. Es decir, en estos paneles es donde se ubican los puertos o extremos (analógicos o digitales) de una red, normalmente localizados en un bastidor o rack de comunicaciones. Todas las líneas de entrada y salida de los equipos (computadoras, servidores, impresoras, entre otros) tienen su conexión a uno de estos paneles. Ilustración 8 - Patch panel de 48 puertos UTP Cat 5 SIS-313 3.2.8. Sistema de cableado El sistema de cableado de un Centro de Datos es un conjunto de cables que, dependiendo del tipo de cable, permite la alimentación eléctrica o la comunicación entre los equipos del Centro de Datos y la comunicación con el exterior del mismo. A continuación, vamos a detallar según la tipología, el cableado que se usa en un Centro de Datos y que cumple con la normativa TIA-942. CABLEADO ELÉCTRICO En la mayoría de los Centro de Datos la distribución desde los cuadros de los sistemas de alimentación ininterrumpida hacia los rack de equipos informáticos, se realiza mediante conductores RZ1 0.6/1kV de cobre de sección adecuada. Cada conexión con los cuadros hasta cada una de las PDU de racks se realiza con conectores cetac y con los amperios adecuados al consumo de cada rack. El resto de los cables eléctricos son estándar y suelen venir incluidos con el equipo que se instala en el rack que tiene conectores C14 para poder instalar cables de alimentación con conectores C13 a cada una de las fuentes de alimentación de los equipos y tener así redundancia eléctrica (N+1). Ilustración 9 - Cable con conector C13 Ilustración 10 - Conector de chasis C14 Ilustración 11 - Conectores Cetac SIS-313 CABLEADO DE RED COBRE El cable de par trenzado o UTP/FTP, es un tipo de conexión usado en telecomunicaciones en el que dos conductores eléctricos aislados son entrelazados para anular las interferencias de fuentes externas y diafonía de los cables adyacentes. Este se usa para conectar los equipos de comunicaciones con los servidores o entre ellos mismos, siendo el cableado UTP categoría 6 (10mb/s,100mb/s,1gb/s) con conector rj45 es el más usado, aunque cada día menos. En la actualidad los conectores SFTP+ tienen un uso más extendido porque son capaces de dar velocidades por encima de 1gb/s. Ilustración 12 - Conector RJ45 CABLEADO DE FIBRA La fibra óptica es un medio de transmisión, empleado habitualmente en redes de datos, consistente en un hilo muy fino de material transparente, vidrio o materiales plásticos, por el que se envían pulsos de luz que representan los datos a transmitir. El haz de luz queda completamente confinado y se propaga por el interior de la fibra con un ángulo de reflexión por encima del ángulo límite de reflexión total, en función de la ley de Snell, la fuente de luz puede provenir de un láser o un diodo LED. Las fibras se utilizan ampliamente en telecomunicaciones, ya que permiten enviar gran cantidad de datos a una gran distancia, con velocidades similares a las de la radio y superiores a las de un cable convencional. Son el medio de transmisión por excelencia, al ser inmune a las interferencias electromagnéticas, y también se utilizan para redes locales donde se necesite aprovechar las ventajas de la fibra óptica sobre otros medios de transmisión. El cable de fibra multi-modo (MM) permite más de un camino (o modo) de transmisión de la luz a través de la fibra. Los diámetros de este tipo de fibra son de 50 μm y 62,5 μm. Estos suelen usarse para conectar los servidores a cabinas de almacenamiento y backup, usando un cableado de fibra multimodo con conectores LC conectado a una SAN Fibre Channel. También se suele conectar dos cables a cada servidor para guardar la redundancia y cumplir con la normativa TIA942 en referente a cableado. SIS-313 Ilustración 13 - Conector LC monomodo y multinodo. 3.2.9. Equipos informáticos Los equipos informáticos se dividen en tres grandes grupos: equipos para las comunicaciones informáticas, equipos para almacenamiento de datos y equipos para cómputo que también se les llama servidores físicos. Equipos de comunicaciones Un equipo de comunicaciones es aquel dispositivo que participa en la comunicación entre dos dispositivos, pero que no es receptor final ni emisor original de los datos que forman parte de esa comunicación. También es el componente del circuito de datos que transforma o adecua las señales para poder utilizar el canal de comunicaciones. Hay diferentes tipos o categorías dependiendo de la finalidad de la comunicación, estos son los tres tipos más importantes: Firewall: proporciona seguridad a las comunicaciones permitiendo o negando el tráfico de red que genera una comunicación entre dos dispositivos. Router: permite enrutar el tráfico de red entre redes diferentes que se genera en una comunicación entre varios dispositivos. Switch: permite comunicar varios dispositivos retransmitiendo el tráfico de red que generan en su red. Equipos de cómputo Los equipos de cómputo también se les conoce como servidores físicos o máquinas físicas, pero en realidad son con una arquitectura y elementos parecidos a un ordenador personal, pero con características diferentes para ser más resistentes y potentes que estos. Estos equipos están diseñados para poder ser montados en un rack y absorben el aire frio por delante expulsando el aire caliente por detrás. Esto supone un ahorro de espacio frente a otros tipos o formatos, es escalable pero su principal problema radica en la dificultad que existe para refrigerarlos. SIS-313 Equipos de almacenamiento de datos Según el fabricante HPE (Hewlett Packard Enterprise), “El almacenamiento de datos refiere al uso de medios de grabación para conservar los datos utilizando PC y otros dispositivos. Las formas más frecuentes de almacenamiento de datos son el almacenamiento de archivos, el almacenamiento en bloque y el almacenamiento de objetos, cada uno de los cuales resulta adecuado para un fin diferente.” Un equipo de almacenamiento o cabina de almacenamiento, es físicamente un rack o varios llenos de discos duros que gracias a su tecnología y una red SAN (Storage Area Network) o red Ethernet proporcionan almacenamiento a los equipos de cómputo y a clientes que tienen acceso a estas cabinas. Una SAN es escalable y está diseñada para conectar servidores con las cabinas de almacenamiento con cables de fibra. El crecimiento constante del volumen de datos que generan las empresas y la actual tendencia a trabajar con entornos virtuales, han hecho que las necesidades de almacenamiento sean superiores a cualquier estimación. En consecuencia, los fabricantes de cabinas de discos han ampliado su oferta y han hecho que estas soluciones, sean económicamente más asequibles para organizaciones pequeñas y medianas. Algunas ventajas del almacenamiento compartido respecto al local, son: Mejora de utilización de la capacidad de disco. Aumento del rendimiento de los discos. Equipamientos redundados (fuente alimentación, discos, controladora de disco, caminos de acceso, interfaz de gestión, etc.) Gestión de Raid de discos por hardware. Gestión centralizada del almacenamiento. Copias centralizadas a través de la propia red SAN, liberando de carga la LAN. Escalabilidad para aumentar la capacidad de almacenamiento. Tecnologías Software de un Centro de Datos En el capítulo anterior hemos visto todos los elementos físicos (hardware) que suelen encontrarse en un Centro de Datos, estos elementos por sí solos no aportan valor ni sirven para lo que se han diseñado. Así pues, es necesario un software que gestione, integre y comunique todos estos elementos para que el Centro de Datos ofrezca servicios. 4. Software “Es el conjunto de los programas de cómputo, procedimientos, reglas, documentación y datos asociados, que forman parte de las operaciones de un sistema de computación”, según las fuentes de Wikipedia. SIS-313 Existen muchos tipos de software, algunos buscan una solución concreta a un problema o soluciones más complejas y holísticas donde una plataforma de Software proporciona una solución a muchos problemas de un mismo ámbito. Se pueden clasificar en tres tipos, aunque a veces un software no solo pertenece a un tipo, los tres tipos son: Software de sistema: es el software más necesario en un Centro de Datos. Proporciona al usuario y/o programador interfaces de alto nivel, controladores, herramientas y utilidades de apoyo que permiten el mantenimiento del sistema global. Un ejemplo, es Windows 10 que es un sistema operativo. Software de programación: Es un conjunto de herramientas que permiten a los programadores desarrollar programas informáticos, usando diferentes alternativas y lenguajes de alto nivel de programación, de una manera más práctica y legible para un humano. Un ejemplo es el programa Eclipse que permite desarrollar aplicaciones en varios lenguajes de programación. Software de aplicación: Está orientado a los usuarios porque realiza una o varias tareas específicas, en cualquier ámbito para cualquier actividad que sea susceptible de ser automatizada, son aplicaciones que aportan valor al negocio. Un ejemplo es Microsoft Word que es un procesador de textos. 4.1. Sistema Operativo Es un Software de sistema y probablemente el más importante. Este es el software principal o conjunto de programas de un equipo informático que se encarga de gestionar el hardware sobre el que está instalado. Se ejecuta en modo privilegiado para asegurarse que solo él gestiona el hardware y que solo él proporcionar servicios o recursos al resto de programas o software. Según las fuentes de Wikipedia: “El sistema operativo de escritorio dominante es Microsoft Windows con una cuota de mercado de alrededor del 82,74%. MacOS de Apple Inc. ocupa el segundo lugar (13,23%), y las variedades de GNU/Linux están en tercer lugar (1,57%). Las distribuciones Linux son dominantes en los sectores de servidores y supercomputación. 4.2. Virtualización La virtualización es una tecnología software que simula la funcionalidad del hardware, realizando una abstracción para crear servicios de TI basados en software como servidores de aplicaciones, almacenamiento y redes. Es la forma más eficaz de reducir gastos porque aumenta la eficiencia y la agilidad de las organizaciones, aunque son muchas más las ventajas que proporciona este tipo de tecnología imprescindible hoy en día en un Centro de Datos. Actualmente los cuatro tipos más importantes de virtualización completa son: virtualización de servidores, virtualización de red, virtualización de almacenamiento y virtualización de escritorio de usuario. SIS-313 4.2.1. Virtualización de servidores físicos La virtualización de servidores es una arquitectura de software que permite ejecutar más de un sistema operativo en un servidor como invitado o máquina virtual, en un host o servidor físico específico. El software del servidor de la máquina física se le llama hipervisor y se encarga de abstraer el hardware separando la capa física del servidor a las máquinas virtuales que estén ejecutándose. Estas máquinas virtuales se ejecutan dando por supuesto, que usan exclusivamente los recursos de memoria y de computación, aunque realmente se están ejecutando en una simulación virtual del hardware del servidor que proporciona el hipervisor. La virtualización de servidores proporciona un uso más eficiente de los recursos de TI porque se pueden trasladar cargas de trabajo entre diferentes máquinas virtuales y diferentes servidores físicos según la demanda de la carga. El mismo servidor físico puede ejecutar múltiples configuraciones y sistemas operativos lo que significa un aumento de la eficiencia y agilidad. Ilustración 14 - Virtualización de servidor físico 4.2.2. Virtualización de red La virtualización de red se refiere a la desvinculación de los recursos de red que tradicionalmente se proporcionaban en forma física como hardware. Esta virtualización puede abstraer varias redes físicas en una red virtual o dividir una red física en redes virtuales independientes y separadas, mediante redes definidas por software o SDN (Software Define Network). La virtualización de red desvincula los servicios de red del hardware y permite un aprovisionamiento virtual de toda la red. Los recursos de la red física, tales como conmutadores y enrutadores, se agrupan y están accesibles para cualquier usuario a través de un sistema de gestión centralizado. La virtualización de red también hace posible la automatización de muchas tareas administrativas, lo que reduce los errores manuales y el tiempo de aprovisionamiento. Puede aumentar la productividad y la eficiencia de la red. SIS-313 4.2.3. Virtualización de almacenamiento La virtualización de almacenamiento se puede definir como una agrupación de los recursos de almacenamiento físico y almacenamiento lógico. Esto proporciona una gestión centralizada de múltiples elementos de almacenamiento en red implicándolos en un único almacén de datos. Gracias a esta tecnología se pude ofrecer recursos de almacenamiento por Software, es decir, almacenamiento definido por Software (SDS). Estos tres tipos de virtualización proporcionan recursos virtuales definidos por software como se ha comentado anteriormente, gracias a estos, se puede definir todo un centro de datos por Software (SDDC). Este concepto se refiere a un centro de datos donde toda la infraestructura se virtualiza y se entrega como un servicio. El control del centro de datos está completamente automatizado por el software, es decir, la configuración del hardware o elementos físicos se mantiene a través de los sistemas de software inteligentes. Esto contrasta con los centros de datos tradicionales, donde la infraestructura se define típicamente por hardware y sus elementos físicos se mantienen por personal técnico que usan diferentes tipos de herramientas para cada caso. Las principales ventajas son: Simplifica la gestión del centro de datos. Mayor eficiencia con menos costes. Aplicaciones y servicios desplegados en minutos. Disponibilidad y seguridad a la medida de las aplicaciones y servicios. Distribución de las cargas de trabajo a través de cualquier plataforma. 4.3. Contenedores y Kubernetes En la actualidad se confunde el término “contenedores” con “Docker”, porque la empresa Docker fue pionera en la tecnología de contenedores, pero no es un estándar. Los contenedores constituyen un mecanismo de empaquetado lógico en el que las aplicaciones pueden abstraerse del entorno en que realmente se ejecutan. Este mecanismo facilita el despliegue uniforme y estandarizado de aplicaciones con independencia del entorno en el que sea desplegado. Es decir, un contenedor que contiene una aplicación se despliega, actualiza, configura y mantiene igual, aunque lo sistemas operativos sean diferentes. La creación de contenedores permite separar las áreas de trabajo, porque los desarrolladores se centran en la lógica de negocio y las dependencias de sus aplicaciones y los equipos de operaciones se dedican a la administración. Así pues, el equipo de operaciones IT no tiene que preocuparse por detalles de las versiones de software específicas o las configuraciones determinadas de las aplicaciones o los pasos que hay que realizar en un despliegue. Los contenedores no virtualizan la pila de hardware como ocurre con las máquinas virtuales, los contenedores se virtualizan a nivel del sistema operativo y para ello utiliza varios contenedores en ejecución encima del kernel que es el software más fundamental del sistema operativo. Esto proporciona que los contenedores sean mucho más ligeros porque comparten el kernel del sistema operativo, se inician mucho más rápido y utilizan una fracción de la memoria en SIS-313 comparación con el inicio de un sistema operativo completo. En la siguiente imagen se puede observar las diferencias entre ambos conceptos. Ilustración 15 - Máquinas virtuales VS Contenedores Los contenedores tienen muchas ventajas, pero tiene algunos problemas cuando se necesita alta disponibilidad, balanceos de carga, escalar y desescalar carga, persistencia de datos entre diferentes host, etc. Ante esta necesidad los ingenieros de Google desarrollaron y diseñaron Kubernetes que es una palabra que proviene del griego y significa timonel o piloto. Google fue unos de los primeros colaboradores de la tecnología de contenedores de Linux, además han comunicado públicamente que todo en Google se ejecuta en contenedores (Esta es la tecnología detrás de los servicios de toda la nube de Google). Kubernetes explicado de forma muy simple es un orquestador de contenedores, proporcionando una gestión centralizada de los contenedores y dotando a estos de la posibilidad de estar en alta disponibilidad en varios host físicos. También dota de la capacidad de escalar un servicio (añadir más contenedores) o desescalar un servicio (quitar los contenedores añadidos) dependiendo de la carga que tengan en cada momento. La arquitectura de Kubernetes cuenta dos tipos de nodos: Master y Worker, un nodo puede ser un host físico o una máquina virtual ambos con un sistema operativo. Los nodos master tienen que ser 3 o más nodos y se encargan de la administración de todos los recursos de cómputo, red y almacenamiento gestionados por Kubernetes. Los nodos Worker son gestionados por los nodos master y es donde se ejecutan los contenedores. Así pues, se forma un cluster se llama así porque todos los nodos están unidos entre sí con una red de alta velocidad y que se comportan como si fuesen un único servidor. SIS-313 Ilustración 16 - Arquitectura de Kubernetes 4.4. Cloud 4.4.1. Definición El término “Cloud” hoy en día está muy extendido, aunque todavía hay mucha confusión y desconocimiento entre los usuarios acerca de qué es exactamente. El termino más preciso para referirse a este, según su significado, es “computación en la nube”. Así pues, según Wikipedia: “la computación en la nube es la disponibilidad bajo demanda y en periodos de tiempo, de recursos y/o servicios informáticos, especialmente de almacenamiento de datos y de potencia de cómputo, sin la necesidad de una gestión activa directa por parte del usuario. Hay dos tipos de Cloud, el Cloud privado que suele estar limitado solo a una organización y el Cloud público que está disponible para cualquier organización o público que tenga acceso a Internet. Los servicios que provee un Cloud pueden ser usados por usuarios con acceso a Internet con dispositivos móviles o fijos, pero también otros servicios que residan en otros Cloud o Centro de Datos. En los Cloud públicos se pueden usar estos servicios en la modalidad pago por uso, es decir, se paga por el recurso o servicio que se ha usado durante un periodo de tiempo determinado. SIS-313 Ilustración 17 - Esquema básico de un Cloud 4.4.2. Características El Instituto Nacional de Estándares y Tecnología (NIST) identifica cinco características esenciales en un Cloud: 1. Un auto servicio en la demanda. Un cliente de un proveedor Cloud puede proporcionarse unilateralmente servicios informáticos o ampliación del mismo, según sea necesario, de forma automática, sin necesidad de una interacción humana. 2. Un amplio acceso a la red. Las capacidades están disponibles a través de la red de Internet y la propia red del proveedor del Cloud. Se accede a ellas a través de mecanismos estándar que promueven el uso de clientes web poco pesados que son fáciles y accesibles. 3. Los Tenant. Los servicios informáticos del proveedor se agrupan para atender a múltiples consumidores mediante un modelo de múltiples clientes, con diferentes recursos físicos y virtuales que son asignados o reasignados dinámicamente según la demanda del consumidor. 4. Una elasticidad rápida. Las capacidades se pueden aprovisionar y liberar elásticamente, en algunos casos de forma automática o programada, para escalar rápidamente verticalmente u horizontalmente de acuerdo con la demanda en cada momento. Esto produce la idea de que, las capacidades disponibles para el aprovisionamiento son ilimitadas y pueden disponerse en cualquier momento. 5. Un servicio automatizado y medido. El uso de servicios se puede monitorizar, controlar y reportar, proporcionando una transparencia tanto para el proveedor como para el cliente del servicio utilizado. SIS-313 4.4.3. Modelo de servicio En un Cloud “todo es un servicio” y para ello tiene un modelo de servicio propio. El NIST identifica tres tipos: 1. IaaS: Se entiende como ofrecer infraestructura como servicio y el NIST lo define como “el servicio donde el cliente del Cloud puede implementar y ejecutar software arbitrario, que puede incluir sistemas operativos y aplicaciones. El cliente no gestiona toda la infraestructura del Cloud porque está abstraído, pero tiene control sobre los sistemas operativos, almacenamiento y aplicaciones desplegadas”. El ejemplo más sencillo de IaaS, es una máquina virtual en un Cloud. 2. PaaS: es un servicio como plataforma y el NIST lo define como “el servicio que un cliente puede implementar sobre IaaS, aplicaciones del cliente utilizando lenguajes de programación, bibliotecas, servicios y herramientas compatibles con el proveedor”. El ejemplo más sencillo de PaaS, es un servicio de contenedores para aplicaciones. 3. SaaS: es un servicio como servicio y el NIST lo define como “El uso que puede hacer un cliente de los servicios publicados del propio proveedor del Cloud, sin la necesidad de que el cliente tenga que gestionar nada, solo tiene que preocuparse de cómo usar el servicio ofrecido”. El ejemplo más sencillo de SaaS, es un servicio de correo como GMAIL. Ilustración 18 - Modelo de servicio de un Cloud SIS-313 5. Normativas de un Centro de Datos Los Centros de datos se basan en normas y estándares nacionales e internacionales para garantizar su funcionamiento y seguridad en la gestión de la información. Las Normas más importante son: IEEE 802.3 y ANSI/TIA-942. Este último, gracias al estándar TIER de Uptime Institute establece 4 niveles Tier para clasificar un Centro de Datos según la disponibilidad que proporciona. 5.1. IEEE 802.3 La IEEE es la asociación profesional dedicada al avance de la innovación tecnológica y la excelencia para el beneficio de la humanidad, dentro de ella existe la normativa 802.3 que es una especificación estándar que define qué tipo de cableado para las comunicaciones en un Centro de Datos se permite y cuáles son las características de la señal que transporta. La especificación 802.3 original utilizaba un cable coaxial grueso de 50 ohm, que permite transportar una señal de 10 Mbps a uno 500 metros. Luego se añadió la posibilidad de utilizar otros tipos de cables como: Coaxial delgado; pares de cables trenzados, y fibra óptica. En la actualidad, hay cuatro tipos de datos que están definidos para la operación a través de cables de fibra óptica y cables de par trenzado: 10 Mbps – 10Base-T Ethernet (IEEE 802.3) 100 Mbps Fast Ethernet (IEEE 802.3u) 1000 Mbps – Gigabit Ethernet (IEEE 802.3z) 10-Gigabit – Ethernet de 10 Gbps (IEEE 802.3ae) 5.2. ANSI/TIA-942 En Abril de 2005, Telecomunication Industry Association (TIA) publica su estándar TIA-942 con la intención de unificar criterios en el diseño de áreas de tecnología y comunicaciones. Este estándar en sus orígenes se basaba en una serie de especificaciones para comunicaciones y cableado estructurado. Esta norma define los subsistemas de infraestructura generando las líneas base que se deben seguir para clasificar estos subsistemas en función de los distintos grados de disponibilidad que se pretende alcanzar. Los subsistemas son cuatro: Telecomunicaciones Arquitectura SIS-313 Sistema Eléctrico Sistema Mecánico La clasificación se realiza según el estándar desarrollado por el Uptime Institute, aceptado a nivel mundial, describe dentro de la normativa 4 niveles (Tiers) de centros de datos en función de su redundancia y disponibilidad de hasta el 99.995% al año. Los cuatro niveles son: Nivel I o Tier I Es el nivel de certificación más básico con una disponibilidad del 99,671% al año, este proporciona una infraestructura para respaldar la tecnología de la información para un entorno de oficina. Los requisitos para una instalación de Nivel I incluyen: Una fuente de alimentación ininterrumpida (UPS) para cortes de energía, cortes y picos. Un espacio para sistemas informáticos. Equipo de enfriamiento dedicado que funciona fuera del horario de oficina. Un generador de motor para cortes de energía. La instalación no tiene componentes redundantes en la distribución eléctrica y ni de equipos de refrigeración. Por lo tanto, pierde capacidad de operación ante el fallo de cualquiera de ellas. Nivel II o Tier II Las instalaciones de Nivel II con una disponibilidad del 99,741% al año, cuentan con componentes redundados para el suministro de energía y refrigeración, proporcionando ventanas de mantenimiento y seguridad contra interrupciones. Al igual que en una instalación de Nivel I, el cierre inesperado de un centro de datos de Nivel II afectará al sistema porque solo cuenta con una única línea de suministro eléctrico. Nivel III o Tier III Un centro de datos de Nivel III cuenta con una disponibilidad del 99,982% al año, tiene niveles importantes de tolerancia a fallos al contar con todos los equipamientos básicos redundados (N+1) incluido el suministro eléctrico, permitiéndose una configuración Activo / Pasivo. Todos los servidores deben contar con doble fuente y en un principio el Datacenter no requiere paradas para operaciones de mantenimiento básicas. Está conectado a múltiples líneas de distribución eléctrica y de refrigeración. Nivel IV o Tier IV Un centro de datos de Nivel IV cuenta con una disponibilidad del 99,995% al año, tiene varios sistemas independientes y físicamente aislados que actúan como componentes redundados y suministro eléctrico redundado. La separación es necesaria para evitar que un evento comprometa ambos sistemas. Sin embargo, si los componentes redundados se apagan por mantenimiento, el entorno puede experimentar un mayor riesgo de interrupción si ocurre un fallo. Las instalaciones de Nivel IV añaden tolerancia a fallos a la topología de Nivel III. Cuando falla un equipo o hay una interrupción en el suministro eléctrico, las operaciones de TI no se verán SIS-313 afectadas. Los centros de datos de nivel IV también requieren enfriamiento continuo para que el entorno sea estable. 6. Marcos de trabajo Wikipedia define como marco de trabajo “un conjunto estandarizado de conceptos, prácticas y criterios para enfocar un tipo de problemática particular que sirve como referencia, para enfrentar y resolver nuevos problemas de índole similar”. A continuación, se explica brevemente los marcos de trabajo más importantes en el ámbito de las tecnologías de la información. 6.1. COBIT COBIT está administrado por ISACA y suele mantener el estándar actualizado con la tecnología más reciente. Está pensado para abordar el crecimiento de TI en las empresas realizando reformulaciones de cómo funcionan los estándares existentes. Es una norma aceptada mundialmente y abarca mucho más que el ámbito de la seguridad de la información al que se limitan otras normas (incluye gestión de riesgos y gobierno TI). Es más fácil de aplicar de forma parcial sin la necesidad de realizar un análisis de espectro completo y sin requerir un compromiso por parte de la organización. Si bien el hecho de poseer un alcance tan amplio puede ser visto como una fortaleza clave, esta misma característica puede también suponer un obstáculo durante la implementación. Además, al no estar limitado por su diseño a una sola área, a menudo da lugar a lagunas en la cobertura. Su objetivo más importante es que las empresas controlen la TI empresarial y establezcan una dirección nítida para ello. Esto significa alinear los objetivos comerciales con los objetivos de TI, gestionar recursos y manejar los riesgos. Desde esta perspectiva, el modelo se postula como un marco adecuado para compañías grandes y más maduras en TI, con muchos procesos y una TI empresarial sustancial. Tabla 1 - Marco de trabajo COBIT COBIT (Control Objectives for Information and related Technology) Creador: ISACA (Information Systems Audit and Control Association) Fecha de creación: La primera edición fue publicada en 1996 SIS-313 Definición: Objetivos: Características más importantes: Fases o etapas: Es un modelo para garantizar el control y el seguimiento de la gobernabilidad de los SI/TI a largo plazo a través de auditorías Los objetivos de COBIT 5 son: agilizar el intercambio de información entre toda la organización, alcanzar objetivos corporativos incluyendo TI en la estrategia, minimizar y controlar la seguridad de la información y gestión de riesgos y optimizar el coste de TI Marco de alto nivel (con respecto a ITIL, ISO 27002 y NIST) Diseñado como un estándar ajustable a las buenas prácticas Suministra herramientas al responsable de los procesos para facilitar su control Ayuda a la gerencia a comprender y administrar los riesgos asociados con TI y a ejecutar con éxito las políticas clave Disminuye las brechas existentes entre control, riesgos de negocio y aspectos técnicos Formado por 4 dominios, cada uno de los cuales están organizados en procesos (34 en total): 1. Planificación y organización: Actividades que definen las estrategias de TI para que la compañía logre sus objetivos 2. Adquisición e implementación: Define, ajusta e implementa el plan de TI en línea con los procesos de negocio de la organización 3. Entrega y soporte: Comprende la entrega de los servicios requeridos garantizando la efectividad y eficiencia de los sistemas 4. Monitoreo y evaluación: Actividades de inspección de los procesos de TI con el fin de verificar que la solución corresponde con las necesidades de la organización desde una perspectiva estratégica Suministra un lenguaje común para ejecutivos, auditores y otro tipo de profesionales Proporciona roles y responsabilidades Ideal para todo tipo de empresa, PYME o gran empresa Expande la base de conocimiento a todos los sectores productivos de la industria Centrado en los documentos Mejora los criterios para la toma de decisiones Define los planes estratégicos de TI basados en la arquitectura Asegura el servicio continuo Ayuda en los procesos de auditoría Presenta un modelo bastante ambicioso que exige previamente estudio en profundidad Se necesita un esfuerzo significativo en la organización para implantar sus estándares Se limita a temas particulares y hay que adoptarlos por separado (gestión, seguridad, calidad, desarrollo, continuidad, etc.) Acentúa el abismo entre gerencia y operaciones Puntos Fuertes: Puntos Débiles: un SIS-313 6.2. ITIL ITIL es administrado por el gobierno del Reino Unido (UK), y en sus inicios se utilizaba principalmente en las organizaciones afines a ese país. Sin embargo, hoy en día es un marco global que puede ser considerado por cualquier compañía con independencia de su ubicación geográfica. ITIL destaca en el aumento de la visibilidad y la gestión de los procesos internos para impactar positivamente en la eficiencia y la economía. Este marco permite entregar el valor máximo a los clientes, optimizar el uso de recursos y capacidades, entregar servicios útiles y confiables, y finalmente, planificar procesos con objetivos tangibles y roles claramente definidos. No obstante, carece de detalles específicos para proporcionar una implementación detallada. Aunque su objetivo principal es organizar los servicios de TI en general y el trabajo de los departamentos de TI en particular, no hay que olvidar que también proporciona conceptos básicos “estratégicos” para la organización de servicios de IT. Estas características pueden ayudar a cubrir la mayoría de las necesidades en aquellas empresas modestas en fase de crecimiento. Por otro lado, su carácter altamente orientado al cliente también puede hacerlo interesante en compañías cuya actividad principal tiene una gran dependencia externa. Además, puede encajar en empresas de outsourcing de TI que prestan servicios a terceros, dado que este modelo está centrado en la gestión de servicios de TI (cómo se tiene gestionar y ofrecer un servicio de TI). Tabla 2 - Marco de trabajo ITIL ITIL (Information Technology Infrastructure Library) Creador: CCTA (Central Computer and Telecommunications Agency) del gobierno británico Fecha de creación: Se desarrolló durante los años 80, pero no fue ampliamente adoptada hasta mediados de 1990 Definición: Es un conjunto de conceptos y mejores prácticas para la gestión y administración efectiva de los servicios de TI Objetivos: Su objetivo es proporcionar a los administradores de sistemas de TI las mejores herramientas y documentos que les permitan mejorar la calidad de sus servicios, es decir, mejorar la satisfacción del cliente mientras se alcanzan los objetivos estratégicos de la organización. Para lograrlo, el departamento de TI debe ser considerado como un conjunto de procesos vinculados entre sí SIS-313 Características más importantes: Es un marco de trabajo de procesos IT no propietario basado en las mejores prácticas Es independiente de la industria, de los proveedores y de la tecnología empleada Describe los procesos críticos en la administración de servicios de TI poniendo especial énfasis en la seguridad Garantiza los niveles de servicio establecidos previamente Produce documentación de procesos, tareas y listas de verificación no específicas de la organización con el objetivo de poder implantar controles y medir el éxito Ciclo de vida del servicio (V3): Fases o etapas: 1. 2. 3. 4. Estrategia del servicio: Alinear los servicios proporcionados por TI a los objetivos estratégicos del negocio y definir los requisitos base Diseño del servicio: Análisis de la viabilidad del servicio en función de diferentes factores (económicos, técnicos, políticos, etc.) Transición del servicio: Se desarrollan las capacidades de los servicios asegurando los requisitos y acotando los riesgos (pruebas, evaluación de expectativas y puesta en marcha definitiva) Operación del servicio: Monitorización del servicio y registro de la percepción del cliente (se garantiza la eficacia con el fin de generar valor para el cliente y el proveedor del servicio) 5. Mejora Continua del servicio: Medición y feedback para documentar y evolucionar el servicio Puntos Fuertes: Mejora la comunicación con la organización al establecer un acuerdo en los puntos de contacto Conecta las TI y el negocio con seguridad, precisión, velocidad y disponibilidad en la entrega de servicios Enfocado a los procesos de negocio Más sencilla de adaptar al ser más flexible Mejora la comunicación entre usuarios finales, clientes y empleados de la organización Incrementa la seguridad en la entrega de servicios de TI Puntos Débiles: La entrega de servicios TI está muy orientada al cliente Los servicios se describen en un lenguaje más natural Fomenta la productividad y la eficiencia provocando un impacto positivo en los recursos financieros de la empresa Se puede usar como guía práctica para obtener una mejora continua en la organización Requiere tiempo y esfuerzo para lograr una implantación completa en la cultura organizacional Los procedimientos pueden convertirse en obstáculos burocráticos y entorpecer la adopción SIS-313 No siempre se ven las reducciones de coste y la mejora en la entrega de los servicios Requiere un compromiso real por parte de todos los empleados y niveles de la organización 6.3. COSO Se creó en 1985 y surgió como una iniciativa para combatir las malas prácticas empresariales que ya en aquellos años empezó a preocupar a organizaciones, países y ciudadanos. Se dedica a estudiar aquellos factores que arrojan información financiera sospechosa o fraudulenta y elabora recomendaciones en forma de textos para las organizaciones y otras entidades reguladoras. Se estableció en EEUU por cinco organizaciones: el Instituto de Contadores Administrativos (IMA), la Asociación Americana de Contabilidad (AAA), el Instituto Americano de Contadores Públicos Certificados (AICPA), el Instituto de Auditores Internos (IIA) y Financial Executives International (FEI). Fue diseñado para ayudar a las empresas a establecer, evaluar y mejorar su control interno. La importancia del control interno en las operaciones y la información financiera de una entidad no se puede menospreciar, dado que la existencia o ausencia del proceso determina la calidad de la producción realizada en los estados financieros. Un proceso de control interno actual y en funcionamiento proporciona a los usuarios una "garantía" de que los resultados presentados son precisos y de confianza. El marco propuesto de COSO ERM (2017) eleva el papel del riesgo en el debate del liderazgo sobre el futuro de la empresa. También enfatiza las conexiones entre riesgo, estrategia y valor. La actualización proporciona una nueva lente para evaluar cómo el riesgo informa las decisiones estratégicas, que finalmente afectan el desempeño de una organización. Además, el papel del riesgo se enfatiza más al establecer y ejecutar la estrategia, porque al alinear el riesgo y el rendimiento, las organizaciones estarán mejor posicionadas para aprovechar las oportunidades y orientarse hacia el futuro con mayor confianza. Tabla 3 - Marco de trabajo COSO COSO (Committee of Sponsoring Organizations) Creador: Patrocinada y financiada conjuntamente por 5 importantes asociaciones e institutos profesionales de contabilidad con sede en los Estados Unidos: Instituto Americano de Contadores Públicos Certificados (AICPA), Asociación Americana de Contabilidad (AAA), Financial Executives International (FEI), Instituto de Auditores Internos (IIA) e Instituto de Contadores Administrativos (IMA) En 1985 se formó el Comité de Organizaciones Patrocinadoras (COSO) Fecha de creación: SIS-313 Definición: Objetivos: Es un conjunto de directivas para ayudar a que las entidades evalúen y mejoren sus sistemas de control interno aplicando un enfoque orientado a la gestión de riesgos: COSO alinea los objetivos del grupo con los objetivos de las diferentes unidades de negocio, así como los riesgos asumidos y los controles puestos en acción Establecer una definición común del control interno Proporcionar un marco para cualquier tipo de organización con el fin de que ésta pueda evaluar sus sistemas de control y decidir cómo mejorarlos Ayudar a la dirección de las empresas a mejorar el control de las actividades de sus organizaciones Los puntos estratégicos más cruciales del marco son: Características más importantes: Fases o etapas: Puntos Fuertes: Gobierno y cultura: Garantiza transparencia en todas las actividades diarias Estrategia y fijación de objetivos: Requiere que los riesgos se evalúen objetivamente Rendimiento: Garantiza una notificación efectiva de los riesgos Revisión y corrección: Auditoría interna y el monitoreo de varios controles. Información, comunicación e informes: Dicta que debe haber un mecanismo de comunicación confiable entre los miembros internos y externos A continuación, se detalla un borrador inicial del plan de acción de alto nivel para implementar el enfoque de COSO-ERM: 1. Buscar la participación y supervisión de la junta directiva y la alta dirección 2. Identificar y elegir a un líder para impulsar la implantación 3. Establecer un grupo de trabajo de gestión 4. Realizar un inventario de las prácticas actuales de gestión de riesgos de la organización 5. Ejecutar una evaluación inicial de las estrategias clave y de los riesgos estratégicos relacionados 6. Desarrollar un plan de acción consolidado con el respaldo de la alta dirección de la organización 7. Desarrollar y mejorar los informes de riesgos 8. Desarrollar la próxima fase del plan de acción y poner en marcha las comunicaciones Aumenta el alcance de las oportunidades considerando los aspectos de los riesgos positivos y negativos Aumenta los resultados positivos y el negocio evitando sorpresas negativas Responde de manera proactiva ante los riesgos, y no con respuestas reactivas Mejora la capacidad de identificar y gestionar los riesgos en toda la organización Reduce las irregularidades del rendimiento Mejoras en la implementación de recursos SIS-313 Fomenta la comunicación fluida y constructiva con la alta dirección de la organización Puntos Débiles: El control interno no debe costar más de lo que recibe a través de sus beneficios; esto quiere decir que necesariamente se revisan los registros del costo-beneficio Establece que el control interno sólo está dirigido a cuestiones rutinarias, por lo que no se amolda a situaciones globales El control interno no debería tener errores; sin embargo, es propenso a quebrarse por los errores humanos que ocurren debido a la desinformación o confusiones durante la interacción de los empleados Cuando no es aplicado de forma adecuada, el control interno puede verse afectado por los abusos de poder 6.4. DevOps Es un término que está de moda en la actualidad en el mundo TI, pero no se puede decir que sea un marco de trabajo, aunque está en la línea de ser un conjunto de buenas prácticas y un marco de trabajo. DevOps es un conjunto de prácticas que automatiza los procesos entre el desarrollo de software y los equipos de operaciones TI, con el fin de construir, probar y ejecutar software de manera más ágil y confiable. El concepto de DevOps se basa en la creación de una cultura de colaboración entre equipos que históricamente funcionaban en silos aislados uno del otro. Los beneficios prometidos incluyen una mayor confianza, lanzamientos de software más rápidos, capacidad para resolver problemas críticos rápidamente y gestionar mejor el trabajo no planificado. Une la entrega ágil y continua, la automatización y mucho más, para ayudar a los equipos de desarrollo y operaciones a ser más eficientes, innovar más rápido y ofrecer un mayor valor a las empresas y los clientes. Actualmente, en la mayoría de las organizaciones el equipo de operaciones no es consciente de los trabajos de los equipos de desarrollo y viceversa, por este motivo, DevOps alinea los equipos para formar un único grupo de trabajo que trabajen de forma coordinada y con objetivos comunes, además de ofrecer mantenibilidad, previsibilidad, mayor calidad, rentabilidad y tiempo de comercialización. El ciclo de vida de la metodología de DevOps incluye: Desarrollo Pruebas Integración Implementación Monitorización SIS-313 Plano de obra civil del CPD *Total de superficie 82 m2 SIS-313 Esquema físico de red Ethernet SIS-313 SIS-313 Esquema de red SAN SIS-313 SIS-313 Plano de la Sala del Centro de Datos. *Total de superficie 82 m2 SIS-313 RACK DE PATCH PANEL. SIS-313 SIS-313 RACK DE EQUIPOS DE COMUNICACIONES. SIS-313 SIS-313 RACK DE EQUIPOS DE ALMACENAMIENTO. SIS-313 SIS-313 RACK SERVIDORES FÍSICOS. SIS-313

Use Quizgecko on...
Browser
Browser