Aspectos Fundamentales para Construir Infraestructura de TI (PDF)
Document Details
Uploaded by ITKnow
Universidad Siglo 21
José Friebel
Tags
Summary
This document examines key aspects of constructing IT infrastructure, focusing on data centers. It explores trends in colocation, cloud services, and open-source solutions, along with the growing need for efficiency optimization in data centers, especially in light of rising energy costs. The paper also discusses several key metrics related to data center efficiency, including PUE and DCiE.
Full Transcript
Aspectos fundamentales a considerar para construir infraestructura de TI En una entrevista, José Friebel explica que la tendencia del 2019 ha sido que …el porcentaje de data center en Colocation, Cloud u otros servicios gestionados aumentó de forma imparable por el crecimiento de la oferta, pero aún...
Aspectos fundamentales a considerar para construir infraestructura de TI En una entrevista, José Friebel explica que la tendencia del 2019 ha sido que …el porcentaje de data center en Colocation, Cloud u otros servicios gestionados aumentó de forma imparable por el crecimiento de la oferta, pero aún vemos que en América Latina sigue habiendo un gran número de data center enterprise. Los proyectos de esta nueva construcción se han dado sobre todo en el segmento Colocation y Cloud Services Provider, tales como Google, Ascenty, Odata, Tigo, Edge Uno, Oracle, Sonda, Megacable, ETIX, etc. La mayoría de las inversiones se han dado en el marco de la modernización de los data centers ya existentes, sobre todo en la parte eléctrica (generadores, UPS o fuentes de alimentación crítica); en data centers containers o micro data centers; el DCIM, por los sistemas de seguridad física o lógica; basada en software, como AI o Machine Learning; y también en soluciones de refrigeración. En 2019 se ha seguido hablando de infraestructura Open Source, esto incluye Open Compute Project y Open19, que es la siguiente etapa de la mercantilización de TI. La gran promesa del código abierto es que puede reducir los costos de TI e infraestructura (Capex y Opex) en una cantidad significativa. Sin embargo, el gran desafío para su adopción generalizada es que debe haber una cadena de suministro más madura. Se ha comenzado a hablar de liquid cooling o inmersión cooling, de data center microgrids y también mucho de edge. …En 2020, América Latina verá un cambio transformacional en el crecimiento de la industria de los centros de datos como ningún otro en su historia. El cambio no vendrá debido a una repentina aparición de IoT, transmisión de video, realidad virtual o análisis de big data, porque estas tendencias tecnológicas son comunes en todas las regiones del mundo. La gran demanda de la infraestructura de centros de datos por parte de los principales proveedores de Cloud en esas regiones tiene un denominador común: no pueden por sí mismos construir centros de datos lo suficientemente rápido para satisfacer su propia demanda y consumo, por lo que dependen y empujan a la innovación y construcción de centros de datos a los proveedores regionales de centros de datos, para así satisfacer sus demandas de crecimiento. Es la misma batalla y el enfoque para el dominio del mercado regional y su penetración que se ha visto en los EE. UU., Asia y Europa por Microsoft, AWS, Oracle, IBM, Google, Facebook y otros. Ahora se centrarán en América Latina, un mercado de centros de datos severamente infrarrepresentado. El pronóstico de crecimiento en la región de Latinoamérica se centra sobre todo en Brasil, luego México, Chile y Colombia. El data center será cada vez más complejo no solo por tener que tratar con diferentes entornos (On-Premise, Colocation, Cloud), sino por la automatización y el uso de IA. Además, continuará la exigencia de reducir el CAPEX, así como los data centers sin chiller y con refrigeración por inmersión, también el uso de energías renovables y redes microgrids van a cambiar el panorama de la eficiencia energética, convirtiéndolo en algo más complejo. Los 3 mayores desafíos de la industria del data center serán: gestionar diferentes entornos de data center (On-Premise, Colocation, Cloud), pronosticar los requisitos de capacidad futura del data center y acceder a la energía y optimizar su eficiencia. El reto principal para las infraestructuras es aumentar la capacidad de almacenamiento, de procesamiento y la creación de entornos flexibles, escalables y convergentes. (Friebel, 2020, https://www.datacenterdynamics.com/es/opinion/entrevista-josefriebel/). Caso de estudio: indicadores de e ciencia en centros de procesamiento de datos Aspectos fundamentales a considerar para construir infraestructura de TI Referencias Descarga en PDF Lección 1 de 4 Caso de estudio: indicadores de eficiencia en centros de procesamiento de datos Contexto del caso Existen en la actualidad dos grandes motivadores para promover e implementar acciones tendientes a mejorar la eficiencia energética en los data centers. La primera se relaciona con los efectos adversos que tiene sobre el medio ambiente el consumo de combustibles fósiles y la segunda, con el hecho de que las reservas de los combustibles fósiles han mostrado un descenso con respecto a la creciente demanda de energéticos en el mundo. Esto último ha elevado los precios de los combustibles, especialmente los usados para la generación de energía eléctrica, a valores casi imposibles de sostener. Por ejemplo, el carbón ha triplicado su valor histórico desde 2005 y el barril de petróleo ha oscilado y superado ampliamente los U$S 100. Estos costos obligan a ser muy ingeniosos y a optimizar por cualquier medio los consumos de energía para disminuir los costos asociados. Introducción Cuando se trata de evaluar de manera objetiva la eficiencia energética de un data center, se requiere de una serie de métricas que nos permitan obtener indicadores de eficiencia. Posiblemente la medida más utilizada para evaluar la eficiencia energética de un data center sea el PUE (efectividad en uso de la energía). Más adelante veremos cómo se define. El artículo se propone la inclusión de dos indicadores complementarios a los ya establecidos (DUE y DUR) que permitirían profundizar en los indicadores actuales aceptados por la industria. La aplicación de estos cuatro indicadores (DciE, PUE, DUE y DUR) y su análisis son mostrados a través de los resultados obtenidos según una muestra de 10 centros de procesamiento de datos reales. Las mediciones se tomaron entre enero de 2011 y abril de 2012. Adicionalmente, el caso propone la incorporación de un quinto indicador de índole financiera que permite visualizar la importancia de las demandas de energía en un centro de este tipo. Quien hizo el estudio fue la consultora DataCollector Co. sobre los 10 principales data center de México, de los cuales tres pertenecen a la industria de las telecomunicaciones, cuatro tienen como corazón de su negocio la venta de espacio digital y hosting, uno pertenece a una universidad privada y los restantes dos data center, a industrias que nada tienen que ver con las telecomunicaciones y infraestructura de TI. la informática, sino que poseen su propia Desarrollo del caso Desde el punto de vista energético, los data centers han tenido un crecimiento en la demanda de energía desde finales de los ochenta hasta la actualidad, al punto de que se calcula que el 1,50 % de la energía total que consume EE.UU. es demandada por este sector. Esto ha generado la necesidad de buscar alternativas de reducción de las demandas de energía, para que contribuyan a paliar las constantes variaciones del precio de los combustibles (especialmente el de la energía eléctrica) y, en forma paralela, contribuir al cuidado del medio ambiente. Estudios recientes han demostrado que la demanda de energía en los data centers se distribuye de la siguiente manera: La infraestructura de TI propiamente dicha, definida como los equipos de cómputo y de comunicaciones existentes dentro de los data centers. Típicamente la demanda de este grupo cubre entre el 45% y el 50% de la demanda total. Equipos de refrigeración, definidos como la infraestructura necesaria para mantener las condiciones medioambientales de temperatura y humedad relativas dentro de las salas donde operan los equipos de TI. Este segmento ocupa entre el 35 % a 40 % de la demanda total. Otros demandantes, entre los que se cuentan: iluminación, pérdidas de energía en los procesos de transformación de esta, oficinas de administración y sistemas de seguridad (interna y externa). Estos demandantes ocupan cerca del 15% de la demanda total. En tal sentido, la industria ha respondido con agresividad, ya que ha desarrollado tecnologías más eficientes para que cubran servidores, sistemas de almacenamiento y equipos que conforman la infraestructura TI de los data centers. No obstante, hay una pregunta en el ambiente que debe ser respondida con mucha objetividad: ¿cuál es la eficiencia de un data center? Y luego, ¿qué debo hacer entonces para que un centro de procesamiento de datos pueda optimizar su demanda de energía? Pues bien, con el objetivo de responder a la primera de las cuestiones, se acepta en la industria un indicador de eficiencia denominado DCiE (en inglés, data center infrastructure efficiency), que se define como la relación entre la energía requerida para atender la demanda de los equipos de TI y la energía total que demanda el data center: DCiE=(Demanda de equipos TI)/(Demanda total data center) x 100% Dónde “demanda total data center” se corresponde al consumo de energía de toda nuestra instalación, servidores, máquinas de climatización, iluminación. Haciendo un símil doméstico, se correspondería al total de nuestra factura de la luz para esa instalación. A la vez que “demanda equipos TI” se correspondería con el consumo de energía aportado por la infraestructura de TI únicamente (servidores, equipos de networking, etc.). El resultado se expresa en porcentaje e indica la porción de energía demandada o consumida por los equipos de TI propiamente dichos. A otra interpretación de este resultado se le ha denominado PUE (en inglés: power usage effectiveness), el cual es definido como la cantidad de energía requerida para mantener operando el data center en relación con la demanda de energía de los equipos de TI. En términos matemáticos el PUE es recíproco a DciE y se describe como: PUE=(Demanda total data center)/(Demanda equipos TI)=1/DCiE Podemos comprender, entonces que …el indicador PUE proporciona un valor que relaciona el consumo total de energía de la instalación con la cantidad de esta que se dedica a alimentar el equipamiento TI. Como se puede apreciar, el mejor valor de PUE posible (e inalcanzable en la práctica) es 1, ya que esto significaría que cada kW consumido en nuestra instalación se ha dedicado a alimentar servidores y no se ha empleado nada en refrigeración, iluminación, etc. (AODBC, 2011, https://aodbc.wordpress.com/2011/11/22/medida-del-pue-enel-datacenter/). El objetivo inicial de estas dos métricas es el de generar comparaciones entre distintos grupos de data centers, de forma tal que se puedan establecer, a futuro, niveles mínimos de eficiencia para la industria a modo de metas u objetivos. No obstante, estos dos indicadores DCiE y PUE tienen limitaciones cuando se los analiza por sí solos. En términos generales estos indicadores: No permiten establecer qué es lo que diferencia una eficiencia de la otra. En otras palabras, no permiten realmente definir si lo que estamos comparando es realmente comparable. Por ejemplo, no contempla si un centro es físicamente más grande que otro. No determinan dónde están las deficiencias en la demanda de energía y, por tanto, no permite canalizar esfuerzos hacia las áreas específicas de un data center. No tienen un componente histórico que permita trazar su tendencia con respecto a condiciones externas que afectan las demandas de energía y, por ende, a su demanda de energía. Como indica Vila López (2012): “Hay muchos factores, sobre todo ambientales (no es lo mismo refrigerar un data center en New York que en el Caribe, para llevarlo a un extremo) que influyen en el cálculo de los indicadores y en lo bueno o malo que resulta el índice en relación a instalaciones en condiciones ambientales similares” (p. 7). Así que, solo a modo de referencia, se incluye una gráfica y una tabla de clasificación. Sin embargo, no significa que las gráficas se deban cumplir sí o si, pues cada data center tendrá su propia relación. Figura 1: Eficiencia del data center Fuente: Vila López, 2011, p. 7. Figura 2: Eficiencia del data center Fuente: Vila López, 2011, p. 7. Estudios de campo La investigación llevada a cabo por la consultora en conjunto con los responsables de los data centers ha arrojado como resultado de los indicadores de eficiencia DCiE y PUE lo siguiente: Figura 3: Resultados de los indicadores de eficiencia DCiE y PUE Fuente: elaboración propia. Propuesta de solución La consultora, a través de la aplicación de distintas métricas en data centers, ha definido indicadores alternativos. Estos indicadores de eficiencia propuestos, que son complementarios al DCiE y el PUE, permiten definir métricas comparables entre sí, de forma tal que se puedan establecer méritos para calificar sí un data center es más eficiente que otro. Indicadores propuestos Densidad unitaria de energía (DUE) La densidad de energía demandada por los equipos de TI por unidad de área indica la cantidad de energía usada en equipos de TI, la cual debe ser refrigerada sobre una base comparable entre data centers de distinta índole y características técnicas. Numéricamente la DUE es definida como: DUE=(Demanda equipos TI)/(Área total ocupada por los equipos TI) [kWh/m2] Así, un valor alto del indicador revelará la presencia de servidores de alta densidad, inclusive servidores de tecnologías recientes (más difíciles de refrigerar), mientras que un valor bajo indicará la presencia de servidores que ocupan espacio con bajas demandas de energía, generalmente asociados a servidores ineficientes. La figura siguiente muestra las relaciones entre demanda total, demanda de TI, los indicadores tradicionales y el nuevo indicador DUE. Figura 4: Relación entre demanda total, demanda de TI, indicadores tradiciones y DUE Fuente: elaboración propia. La figura que sigue muestra la aplicación práctica sobre los diez data center de la muestra. De la aplicación del indicador resulta: Figura 5: Aplicación del indicador Fuente: elaboración propia. De la lectura de los gráficos resulta que, para los data center con eficiencias similares (DCiE cercanas al 53 %) se evidencia que el data center 5 es quien más alta densidad de demanda por metro cuadrado tiene, si se tiene en cuenta que su indicador DUE tiene un valor de casi el doble que el que corresponde a los otros sitios, como por ejemplo, comparado con el data center 4. Nótese que el indicador refleja que data centers con eficiencias similares (casos 9 y 10) son diferenciados claramente. Para el estudio realizado, se puede concluir que el data center 9 es más eficiente que el data center 10, si se tiene en cuenta que la infraestructura en equipos de soporte para atender demandas de 0.9 kWh/m2 es más compleja que la necesaria para atender demandas de 0.3 kWh/m2. Los valores del indicador DUE muestran a las claras que es posible obtener eficiencias del 56 % (DCiE) para demandas de 0.9 kWh/m2, o bien, eficiencias del 52 % para demandas de 0,65 kWh/m2. La experiencia realizada indica que no es recomendable tomar un solo indicador y basándose en ese número categorizar un data center. Siempre es conveniente usar una combinación de los dos indicadores para analizar si es posible mejorar la eficiencia del consumo de energía. Demanda unitaria de refrigeración (DUR) El segundo indicador agregado a la evaluación de un data center es el DUR, el cual permite identificar si el gasto de energía en el sistema de refrigeración es razonable con respecto a la demanda térmica a ser disipada en equipos de TI. El indicador DUR es definido como: DUR=(Demanda del sistema de refrigeración)/(Demanda de equipos) [kWhx/kWhc] Los valores altos del indicador señalan las instalaciones en donde la distribución de aire o el tipo de tecnología usada para la refrigeración es menos eficiente que en instalaciones con valores bajos del indicador DUR. El resultado de la aplicación del indicador DUR a los diez sitios de la muestra se indica en las figuras siguientes. Figura 6: Resultado de la aplicación del indicador DUR Fuente: elaboración propia. Figura 7: Resultado de la aplicación del indicador DUR Fuente: elaboración propia. De la lectura de los gráficos resulta que: Los valores más altos del indicador se asocian a los sitios con una menor eficiencia. Lo que el DUR permite confirmar es la sensibilidad de la eficiencia frente al gasto de energía de los sistemas de acondicionamiento de aire. Nótese que para los casos 1 y 2 se gasta más energía en el acondicionamiento de aire que lo que se gasta en equipos de TI (cerca del doble de los sitios más eficientes). El indicador DUR supera el 50 %. Para el caso del data center 5, se obtiene que este gasta menos energía en refrigeración que los demás sitios con eficiencias de 53 %, es decir, tiene la refrigeración más eficiente. Nótese que los resultados permiten concluir que un nivel del indicador DUR de 0,6 % o menos permite a los data centers obtener eficiencias superiores al 53 %. (Esolutions, s. f.) Demanda de energía total (DET) Hasta el momento, la totalidad de los indicadores que determinan la eficiencia de un data center tienen un carácter comparativo de índole unitaria (sobre una base comparable). No obstante, se requiere por lo menos un indicador que contribuya a determinar financieramente la eficiencia de un data center. En una encuesta realizada a los gerentes de operación de los data centers usados para la investigación, más del 80 % indicó que la cuenta de energía no es parte de sus responsabilidades, sino de otros departamentos dentro de cada organización. No obstante, el 100 % de los encuestados manifiesta que dentro de las compañías existe el interés por reducir los costos asociados a la operación de los data centers, incluida la factura de la energía. Dada esta necesidad, el primer indicador natural de la operación energética de un data center es la demanda de energía total (DET). Este indicador no tiene una finalidad comparativa, ya que son muchos los factores que afectan a la factura de energía y que hacen que un data center no sea igual a otro. El objetivo de este indicador es poder comparar la efectividad de las acciones realizadas para mejorar la eficiencia del sitio. Su cálculo no debe limitarse a conocer la magnitud de la demanda de energía en la totalidad de las instalaciones, ya que su valor radica en conocer la composición de la demanda y, a partir de los resultados, establecer un programa para atender los puntos de mayor consumo. La figura 8 es una muestra de 2 de los 10 casos analizados. Figura 8: Resultados con el indicador DET Fuente: elaboración propia. De la lectura de los gráficos resulta que: La demanda de energía del sitio 9 es de 195 kWh, mientras que la demanda del sitio 2 es de 121 kWh. Si se traduce esta demanda a un valor de energía anualizado, se tiene que el sitio 9 tiene un costo de operación de U$D 222 000 (USD$ 1850/m2), mientras que el sitio 2 cuesta anualmente USD$ 138 000 (USD$ 1380/m2). Estos resultados pueden ser usados para obtener tasas de inversión y de retorno sobre el costo de infraestructuras más eficientes. Conclusiones generales La consultora concluyó el trabajo e hizo recomendaciones a los data centers que quisieran escuchar propuestas. Todos lo hicieron y un resumen muy breve de las conclusiones se vuelca a continuación: Se hizo mucho hincapié en que los indicadores aceptados por la industria, así como los aquí propuestos, se complementan para obtener valores que contribuyen a identificar data center energéticamente optimizables. Se les realizó una propuesta a los diez emplazamientos para continuar con el análisis temporal, es decir, para determinar cómo varían los valores de los indicadores con el tiempo, de forma que se indiquen las tendencias que permitan determinar cuáles son los factores que afectan el comportamiento energético de los data centers. Se expusieron ante los directores de los data centers las nuevas tendencias en cuanto a infraestructura de TI y refrigeración. Nunca debe olvidarse que el mayor consumo energético está en la refrigeración del centro y que las acciones que se tomen redundarán en beneficios para el medioambiente y para los gastos de las organizaciones. Se dejó claro que este trabajo debería ser realizado en forma sistemática y que los indicadores deberán ser monitoreados en forma continua con acciones de corto, mediano y largo plazo. Al cabo de un año, en febrero de 2013, 7 de los 10 emplazamientos habían logrado mejorar en un promedio del 10 % el indicador DCiE, por lo que mejoró sustancialmente la forma en que regulaban el control de temperatura dentro de los edificios. C O NT I NU A R Lección 2 de 4 Aspectos fundamentales a considerar para construir infraestructura de TI Presentación del caso Retomamos el caso de la lectura 1 del módulo 2, en cual, como especialista en sistemas de información, lo convocan para asesorar al gobierno en la realización del próximo Censo Nacional. Recuerde que el conocimiento estructurado y formal sobre administración de proyectos y, específicamente hablando, sobre proyectos de Infraestructura de TI no es algo común o que crezca en los árboles. Probablemente, tenga que explicar decisiones de proyecto relativas a la infraestructura tecnológica del censo aún a pares o colegas que tienen formación técnica, pero no de proyectos. Conociendo ya las tendencias en hardware, software y redes (vistas en el módulo anterior) debes decidir cómo encararás el proyecto de implementación de esta infraestructura, atendiendo a los requerimientos y expectativas del gobierno. Aspectos fundamentales a considerar para construir infraestructura de TI Puedes usar como punto de partida el apartado sobre data centers que se incluye en la lectura 1 del módulo 2. Es realmente dificultoso, para cualquiera, tratar de resumir en unos pocos pasos lo que significa la instalación de la infraestructura necesaria para la implementación de proyectos de tecnologías de la información. La exposición de lo que se describe a continuación está fundamentada en los trabajos de instalación de centros para el procesamiento de información de todo el mundo. A modo ilustrativo, la infraestructura indispensable que debe contener un centro de procesamiento de datos puede ser clasificada en básica o elemental, mediana e ideal. BÁ S I C A ME D IANA ID EAL Una sala independiente y de ingreso restringido con un conjunto de servidores y equipos de comunicaciones montados sobre racks metálicos; un sistema de climatización; control y restricción de acceso; muros pisos y cielorrasos no combustibles; redes eléctricas normadas y equilibradas, e independientes del consumo general del resto del edificio. BÁ S I C A ME D IANA ID EAL Tiene sistemas de protección eléctrica; redes eléctricas exclusivas; filtros en línea; UPS; generadores; sistemas de detección y extinción de incendios (idealmente FM 200); muros especiales y herméticos; pisos técnicos no combustibles y normados; sistemas de cielorraso acordes; y, en general, un sistema para controlar altas temperaturas, se recomienda el sistema normado mínimo F 60. BÁ S I C A ME D IANA ID EAL Cuenta con sistemas redundantes, equipos reflejados en distintas zonas geográficas y un servicio de atención y solución de 24 horas, además de toda la normalización de ISO 118011 actualizada y un monitoreo online de los sistemas. (Pérez, s. f., http://perezknaya.blogspot.com/2010/10/router.html). ISO 11801. (noviembre de 2017). Information technology — Generic cabling for customer premises [Tecnología de la información— Cableado genérico https://www.iso.org/standard/66182.html para las instalaciones del cliente]. Recuperado de Como indica el ADC (s. f.): El centro de datos es un recurso clave. Muchas organizaciones simplemente paran cuando sus empleados y clientes no pueden acceder a los servidores, sistemas de almacenaje y dispositivos de red que residen ahí. Literalmente, algunas empresas —como los grandes bancos, las líneas aéreas, los consignadores de paquetes y agentes de bolsa en línea— pueden perder millones de dólares en una sola hora de inactividad. Dadas estas consecuencias, un atributo clave del centro de datos es la confiabilidad. Otro es la flexibilidad. Las necesidades del futuro tal vez no sean las mismas que las actuales. Los avances tecnológicos, las reestructuraciones organizativas e incluso los cambios en la sociedad en general pueden imponer nuevas exigencias. No es una tarea simple o insignificante diseñar y construir un centro de datos que satisfaga estas necesidades. (ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wpcontent/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_9 42.pdf). Considera los elementos mencionados a continuación, ya que comprenden cuestiones clave del diseño de un centro de datos y la infraestructura de TI relacionada. Figura 9: Factores clave Fuente: elaboración propia con base en ADC, s. f. Teniendo claros los requerimientos de servicio del data center para el censo, ¿imaginas cómo dimensionar estos elementos clave para convertir esos requerimientos en especificaciones? Espacio y diagrama de distribución Lugar físico: determinados los espacios y las dimensiones mínimas requeridas, se deberá seleccionar el lugar de emplazamiento. La norma ANSI/TIA-9422, por ejemplo, establece para un centro de procesamiento de datos de alta complejidad y disponibilidad (TIER 4) la utilización de un edificio en forma exclusiva y destinado a tales fines. Para otros estándares menos restrictivos, se establecen normas de seguridad y requerimientos que pueden ser cumplimentadas en edificios preexistentes y hasta compartidos. Cuando quienes diseñan se encuentran frente al desafío de una remodelación de un centro de cómputo ya existente y en funcionamiento, se debe evaluar seriamente si no resulta más conveniente la construcción de una sala nueva en un lugar diferente. Ya que durante las obras de remodelación se deberá trabajar, por lo general, sin interrumpir las operaciones, con muy poco margen de corte de energía y con el riesgo de provocar alguna interrupción involuntaria del servicio durante la obra. Esta ecuación muchas veces nos orienta hacia el armado de un nuevo centro y la posterior migración de los equipos de procesamiento. Sistemas de control de acceso y seguridad física: para resguardar el valor patrimonial y, aún más importante, el valor de los datos, se deben establecer sistemas de control y seguridad que protejan al edificio en su totalidad. Sistemas de detección y extinción de incendios; cámaras de seguridad; controles de acceso a salas; control de acceso a nivel de racks; detección de fluidos; control de temperatura y humedad; BMS (en inglés, building management system); procesos para determinar quién puede y quién no puede ingresar a las salas; etc. son algunos de los ítems a tener en cuenta para lograr el nivel de seguridad adecuado del edificio. Para el espacio y el diagrama de distribución, indica el ADC (s. f.): Espacio: el inmueble del centro de datos es muy costoso, por lo tanto, los diseñadores deben asegurarse de que haya suficiente espacio y que se use prudentemente. Esta tarea requerirá: TIA-942. (julio de 2017). Telecommunications Infrastructure Standard for Data Centers [Estándar de infraestructura de telecomunicaciones para centros de datos]. Recuperado de https://tiaonline.org/standard/tia942/ Asegurarse de que el cálculo del espacio necesario para el centro de datos considere expansiones en el futuro. El espacio que se necesita al principio puede ser insuficiente en el futuro. Asegurarse de que el diagrama de distribución incluya vastas áreas de espacio flexible en blanco, esto es, espacio libre dentro del centro que se pueda reasignar a una función en particular, tal como un área para equipos nuevos. Asegurarse de que haya espacio para expandir el centro de datos si superara sus confines actuales. Esto se logra particularmente al garantizar que el espacio que rodea al centro de datos se pueda anexar de manera fácil y económica. Diagrama de distribución: En un centro de datos bien diseñado, las áreas funcionales se deben plantear de manera que garanticen que: Se pueda reasignar fácilmente el espacio para satisfacer necesidades cambiantes, en particular de crecimiento. Se puedan manejar fácilmente los cables de manera que los tendidos de cable no superen las distancias recomendadas y que los cambios no sean innecesariamente difíciles. …La TIA-942, es la norma de infraestructura de telecomunicaciones para centros de datos y ofrece orientación sobre el diagrama de distribución del centro de datos. Según la norma, un centro de datos debe tener las siguientes áreas funcionales claves: Uno o más cuartos de entrada. Un área de distribución principal (MDA, en inglés: main distribution area). Una o más áreas de distribución horizontal (HDA, en inglés: horizontal distribution areas) Un área de distribución de zona (ZDA, en inglés: zone distribution area) Un área de distribución de equipos. (http://orbitum.frm.utn.edu.ar/Datacenters/wpcontent/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_942. pdf). Figura 10: Distribución sugerida por TIA-942 Fuente: ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wpcontent/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_942.pdf El ADC (s. f.) explica cada una de las áreas funcionales: Cuarto de entrada: el cuarto de entrada alberga el equipo de los operadores de telefonía y el punto de demarcación. Puede estar dentro del cuarto de cómputo, pero la norma recomienda que esté en un cuarto aparte por razones de seguridad. Si está ubicado en el cuarto de cómputo, deberá estar consolidado dentro del área de distribución principal. Área de distribución principal: el área de distribución principal alberga el punto de conexión cruzada central para el sistema de cableado estructurado del centro de datos. Esta área debe estar ubicada en una zona central para evitar superar las distancias del cableado recomendadas y puede contener una conexión cruzada horizontal para un área de distribución de un equipo adyacente. La norma específica que los racks deben estar separados en cables de fibra, UTP y coaxial. Área de distribución horizontal: es la ubicación de las interconexiones horizontales, esto es, el punto de distribución para el cableado hacia las áreas de distribución de los equipos. Puede haber una o más áreas de distribución horizontal, según el tamaño del centro de datos y las necesidades de cableado. Una directriz para un área de distribución horizontal especifica un máximo de 2000 cables UTP de 4 pares o de terminaciones coaxiales. Como en el caso del área de distribución principal, la norma específica que debe haber racks separados para cables de fibra, UTP y coaxiales. Área de distribución de zonas: es el área de cableado estructurado para los equipos que van en el suelo y no pueden aceptar paneles de parcheo. Como ejemplo, las computadoras centrales y los servidores. Área de distribución de los equipos: es la ubicación de los gabinetes y racks de equipos. La norma específica que estos deben colocarse en una configuración hot aisle/cold aisle (pasillo caliente/pasillo frío) para que disipen de manera eficaz el calor de f., los equipos electrónicos. (ADC, s. http://orbitum.frm.utn.edu.ar/Datacenters/wp- content/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_9 42.pdf). Analiza la principal decisión a tomar: construir versus alquilar. ¿Cómo impacta el factor espacio que acabas de analizar? Administración de Conexiones Cableado La clave para la administración óptima de las conexiones en el centro de datos es comprender que el sistema de cableado es permanente y genérico. Es como el sistema eléctrico, un servicio muy confiable y flexible al que se puede conectar cualquier aplicación nueva. Cuando está diseñado con este concepto en mente, no es difícil o perjudicial hacer adiciones o cambios. (ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wp- content/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_9 42.pdf). Los sistemas de cableado altamente confiables y resistentes cumplen con los siguientes principios: Se usan racks comunes en toda la distribución principal y las áreas de distribución horizontal para simplificar el montaje del rack y brindar un control unificado de los cables. Se instalan administradores de cables verticales y horizontales, comunes y extensos dentro de y entre los racks para garantizar una administración de cables eficaz y prever un crecimiento ordenado. Se instalan extensas trayectorias para cables (por arriba y por debajo del piso) para garantizar una administración eficaz y prever un crecimiento ordenado. Los cables UTP y coaxiales se separan de la fibra en las trayectorias horizontales para evitar aplastarla. Los cables eléctricos van en bandejas de cables y la fibra, en canales montados en bandejas. El tendido de la fibra se hace en un sistema de canales para evitar que se dañe. (ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wpcontent/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_942. pdf). Figura 11: Racks de administración de cableado Fuente: ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wpcontent/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_942.pdf Racks y gabinetes: la administración de los cables comienza con los racks y gabinetes, que deben brindar un amplio control de cables horizontales y verticales. Una administración adecuada no solo mantiene el cableado organizado, sino que también mantiene los equipos frescos al eliminar los obstáculos que impiden el movimiento del aire. Estas características de los administradores de cables tienen como objetivo proteger los cables, asegurar que no se excedan los límites del radio de curvatura y manejar la holgura de los cables con eficacia (figura 11). Conviene hacer algunos cálculos para asegurarse de que el rack o gabinete brinde la capacidad adecuada para manejar los cables. Debajo se muestra la fórmula para UTP, categoría 6. El último cálculo (multiplicar por 1,3) se hace para garantizar que el sistema de administración de cables no supere el 70 % de capacidad. Fórmula: cables × 0,0625 pulgadas cuadradas (diámetro del cable) × 1,30= necesidad de manejo de cable. Ejemplo: 350 cables × 0,0625 × 1,30 = 28,44 pulgadas cuadradas (administrador de cable mínimo de 6” × 6” o 4” × 8”). (ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wp- content/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_9 42.pdf). ¿Cómo sería un sistema de tendido de cable y rack ideal? La figura 12 es un ejemplo de algunas características clave. 1 El FiberGuide® se monta en la parte superior de los racks de cables y protege el cableado de fibra óptica. 2 Como las unidades Express Exits™ se pueden montar donde haga falta, permiten una expansión flexible o la aparición de nuevos elementos de red. 3 Se usan canales de cable superiores e inferiores para cables de parcheo y puentes, y se usa un bastidor de cable superior para la conexión a los equipos ubicados en todo el centro de datos. 4 El administrador de cable de riel de 8 pulgadas con control de cable horizontal incorporado organiza los cables y ayuda a lograr tendidos y rastreos de cables precisos. 5 Los racks están equipados con canales superiores de 3,5 pulgadas (2 unidades de rack) y canales inferiores de 7 pulgadas (4 unidades de rack), que brindan espacio suficiente para el tendido de cable. 6 Se muestran administradores de cable verticales de ocho pulgadas. También hay disponibles administradores de cable de seis, diez y doce pulgadas para satisfacer mejor las necesidades de la instalación y aplicaciones del centro de datos. (ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wp- content/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_942. pdf). Figura 12. Racks de administración de cableado Fuente: ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wpcontent/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_942.pdf Métodos de conexión Indica el ADC (s. f.) que la industria reconoce tres métodos para conectar equipos en el centro de datos: conexión directa, interconexión y conexión cruzada. Sin embargo, solo una —la conexión cruzada— cumple con el modelo de un sistema de cableado para un servicio altamente confiable, flexible y permanente. La conexión directa: en el centro de datos, la conexión directa (figura 13) no es una opción acertada, porque cuando se producen cambios, los operadores están obligados a localizar cables y moverlos con cuidado hacia una nueva ubicación. Es un esfuerzo impertinente, costoso, poco confiable y que requiere tiempo. Los centros de datos que cumplen con la norma TIA-942 no conectan los equipos en forma directa. (http://orbitum.frm.utn.edu.ar/Datacenters/wpcontent/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_9 42.pdf). Figura 13: Conexión Directa Fuente: ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wpcontent/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_942.pdf Interconexión: cuando se produce algún cambio en una interconexión (figura 14), los operadores vuelven a tender los cables del sistema final para poder volver a tender el circuito. Este método es mucho más eficaz que la conexión directa, pero no es tan sencillo o fiable como el método de conexión cruzada. (ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wp- content/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_9 42.pdf). Figura 14: Interconexión Fuente: ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wpcontent/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_942.pdf Conexión cruzada: con un sistema de parcheo de conexión cruzada centralizada se pueden alcanzar los requisitos de bajo costo y un servicio muy confiable. En esta estructura simplificada, todos los elementos de la red tienen conexiones de cables de equipos permanentes que se terminan una vez y no se vuelven a tocar. Los técnicos aíslan elementos, conectan nuevos, rastrean problemas y realizan el mantenimiento y otras funciones usando conexiones de cable de parcheo semipermanentes en el frente de un sistema de conexión cruzada, como el del rack de distribución de Ethernet que se muestra en f., la figura 15. (ADC, s. http://orbitum.frm.utn.edu.ar/Datacenters/wp- content/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_9 42.pdf). Figura 15: Conexión cruzada Fuente: ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wpcontent/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_942.pdf ¿Qué esquema de conexión deberías evitar en tu data center? ¿Por qué? Energía Indica el ADC (s. f.): Requerimientos: la electricidad es la parte vital de un centro de datos. Un corte de energía de apenas una fracción de segundo es suficiente para ocasionar una falla en el servidor. Para satisfacer los exigentes requerimientos de disponibilidad de servicio, los centros de datos hacen todo lo posible para garantizar un suministro de energía confiable. Los procedimientos normales incluyen: Dos o más alimentaciones de energía de la empresa de servicio. Suministro de alimentación interrumpible (UPS). Circuitos múltiples para los sistemas de comunicaciones, y para los equipos de enfriamiento Generadores en el sitio. cómputo y Las medidas que se tomen para evitar disrupciones dependerán del nivel de fiabilidad requerido y, desde luego, de los costos. Con el fin de ayudarte a clasificar las compensaciones, el Uptime Institute, una organización dedicada a mejorar el rendimiento de los centros de datos, ha desarrollado un método de clasificación de centros de datos en cuatro niveles: el nivel I brinda la menor fiabilidad y el nivel IV, la mayor. (ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wp- content/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_9 42.pdf). Consulta la lectura 1 del módulo 2 para mejor referencia. Para calcular las necesidades de energía del centro de datos, podemos utilizar la siguiente secuencia: 1 Establezca las necesidades eléctricas para los servidores y los dispositivos de comunicación que están en uso. Puede obtener esta información en la placa que indica las características del dispositivo. Si bien la potencia nominal de servicio no es una medida perfecta, es la mejor información que tiene disponible. 2 Calcule la cantidad de dispositivos necesarios para adaptar un crecimiento futuro y suponga que estos nuevos dispositivos necesitarán el consumo de energía promedio de los dispositivos actuales. Cerciórese de que este cálculo incluya a los equipos que suministrarán el nivel de redundancia necesario para su centro de datos. Si bien calcular las necesidades futuras es un ejercicio difícil e impreciso, brindará orientación sobre las necesidades futuras mejor que cualquier otro método. 3 Calcule las necesidades de los equipos de apoyo, tales como suministros de acondicionamiento, energía, generación sistemas de electrónicos respaldo, de calefacción, ventilación y aire acondicionado (HVAC por sus siglas en inglés, heating, ventilating and air coditioning), iluminación, etc. También, cerciórese de incluir en el cálculo las instalaciones redundantes donde hagan falta. 4 Calcule las necesidades de energía para este equipo de apoyo. 5 Sume las necesidades de energía de esta lista. (ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wp- content/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_942. pdf). ¿Tienes un plan de respaldo en el caso de falta de energía? ¿Lo has testeado? Refrigeración ADC (s. f.) explica sobre este tema: Los servidores, dispositivos de áreas de almacenamiento y los equipos de comunicación vienen cada vez más pequeños y potentes. La tendencia es usar más equipos en espacios más pequeños para, de esta forma, concentrar una cantidad increíble de calor. Es un gran desafío ocuparse de este calor. Aunque sea una solución inicial, tener equipos de refrigeración adecuados es una buena forma de empezar a resolver el problema. La circulación de aire también es muy importante. Para favorecerla, la industria ha adoptado un procedimiento conocido como hot aisle/cold aisle (pasillo caliente/pasillo frío). En una configuración hot aisle/cold aisle, los racks de los equipos se disponen en filas alternas de pasillos calientes y fríos. En el pasillo frío, los racks de los equipos se disponen frente a frente. En el pasillo caliente, están dorso contra dorso. Las placas perforadas en el piso elevado de los pasillos fríos permiten que llegue aire frío al frente de los equipos. Este aire frío envuelve al equipo y se expulsa por la parte trasera hacia pasillo caliente. En el pasillo caliente, desde luego, no hay placas perforadas para evitar que se mezclen el aire caliente con el frío. Para obtener los mejores resultados con este método, los pasillos deben tener dos azulejos de ancho para permitir el uso de placas perforadas en ambas filas, si fuera necesario. (ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wp- content/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_9 42.pdf). Figura 16. Refrigeración Fuente: ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wpcontent/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_942.pdf. Este método obtuvo una gran aprobación por parte de la industria. De hecho, forma parte de la recomendación de la norma TIA-942. Lamentablemente, el sistema no es perfecto. Si bien es normal que los equipos expulsen calor por la parte trasera, no es un procedimiento universal. Algunos equipos succionan aire por la parte inferior y expulsan el aire caliente por la parte superior o los costados. Algunos toman aire frío por los costados y expulsan aire caliente por la parte superior. Si se exigen más medidas, se pueden probar las siguientes alternativas: Dispersar los equipos por las partes sin usar del piso elevado. Obviamente, es una alternativa válida solo si hay espacio sin usar disponible. Aumentar la altura del piso elevado. Duplicar la altura del piso ha demostrado aumentar la corriente de aire hasta un 50 %. Usar racks abiertos en lugar de gabinetes. Si no se puede usar racks por motivos de seguridad o por la profundidad de los servidores, se puede usar gabinetes con una malla en el frente y en el dorso como alternativa. Aumentar la corriente de aire debajo del piso al bloquear todos los escapes de aire innecesarios. Reemplazar las placas perforadas actuales con otras con agujeros más grandes. La mayoría de las placas vienen con 25 % de agujeros, pero algunas tienen entre 40 y 60 % de agujeros. (ADC, s. f., http://orbitum.frm.utn.edu.ar/Datacenters/wp- content/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_942. pdf). C O NT I NU A R Lección 3 de 4 Referencias ADC. (s. f.). Cómo diseñar un centro de datos óptimo. Recuperado de http://orbitum.frm.utn.edu.ar/Datacenters/wpcontent/uploads/2013/05/1167828372.Norma_ANSI_EIA_TIA_942.pdf AODBC. (22 de noviembre de 2019). Medida del PUE en Data Center [Publicación en el blog AODBC]. Recuperado de https://aodbc.wordpress.com/2011/11/22/medida-del-pue-en-eldatacenter/ Friebel, J. (9 de enero de 2020). Tendencias y desafíos del Data Center en 2020 [Entrevista]. Recuperado de https://www.datacenterdynamics.com/es/opinion/entrevista-jose-friebel/ Esolutions. (s. f.). Indicadores de eficiencia en data centers [Publicación en el blog de Esolutions]. Recuperado de http://docshare01.docshare.tips/files/23643/236438872.pdf ISO 11801. (2017). Information technology — Generic cabling for customer premises [Tecnología de la información— Cableado genérico para las instalaciones del cliente]. Recuperado de https://www.iso.org/standard/66182.html Pérez, K. (s. f.). ¿Qué infraestructura básica debe tener un Data Center? [Publicación en el blog de Pérez-Knaya]. Recuperado de http://perezknaya.blogspot.com/2010/10/router.html TIA-942. (2017). Telecommunications Infrastructure Standard for Data Centers [Estándar de infraestructura de telecomunicaciones para centros de datos]. Recuperado de https://tiaonline.org/standard/tia-942/ Lección 4 de 4 Descarga en PDF Módulo 4 - Lectura 1.pdf 2.1 MB Calidad en la gestión de proyectos Los 8 crímenes más comunes contra la calidad del software La mala calidad del software lleva a los usuarios a la frustración, al enfado, a la decepción y a desinstalar la aplicación o cambiar de proveedor. También desespera a los desarrolladores, quienes pierden interés en el producto o les enfurece tocar ciertas partes del código, porque están poco probadas o, directamente, no probadas. La industria del desarrollo de software ha debatido hasta la extenuación sobre los ciclos de desarrollo, el modelo a seguir, los procesos, etc. Sin embargo, pese a todo este debate, aún se ven muchas situaciones en las que la calidad se deja de lado. Especialmente en las start-up, las cuales miden con cuidado si su producto será viable o si es mejor dedicarse a otra cosa. 1. No tener ingenieros dedicados a la calidad Si nadie se dedica expresamente a la calidad del software, comprobarla se convierte en una responsabilidad compartida, reducida e ignorada. La idea es que si los desarrolladores programan sin arnés de seguridad, son responsables de su código y, por tanto, producen un código de más calidad. Entiendo que detrás de esta afirmación se incluye que los desarrolladores añadan pruebas automáticas que comprueben su código, lo que los convierte en automatizadores de pruebas a tiempo parcial. Sin embargo, un desarrollador es responsable de su código, haya ingenieros de calidad o no. Tenerlos solo le ayudaría a mejorar su trabajo. Los desarrolladores no prueban su código como lo haría un ingeniero de pruebas. Como todas las actividades, el probar mejora con la experiencia. Sus pruebas no tienen tanta maldad, porque les da miedo romper su trabajo. Lo mismo sucede con la automatización de las pruebas más complejas. Automatizar lleva tiempo y requiere preparación. Más allá de las pruebas unitarias, un desarrollador tendría que invertir mucho tiempo en hacerlas, tiempo que no estaría dedicando a mejorar sus habilidades de desarrollo o a mejorar el producto. 2. Posponer la contratación de ingenieros de calidad, porque el proyecto está empezando Al no tener QA (aseguramiento de calidad) en las primeras fases, puede que se desarrollen productos difícilmente automatizables o que caigan en errores de arquitectura que generan un lastre en el producto indefinidamente. Precisamente, en el comienzo de los proyectos es donde un ingeniero de calidad puede prevenir problemas venideros. Tratando de minimizar la “matriz del dolor”, persiguiendo que cada parte del sistema sea automatizable y, en general, mejorando los procesos de desarrollo. ¿Es necesario crear productos mínimamente viables con una inmensa deuda técnica? 3. No preparar pruebas automáticas Si no se automatizan las pruebas, se tendrán que hacer manualmente o asumir que se publicará un producto lleno de bugs. Esto se puede conseguir contratando a un ejército de probadores manuales para que verifiquen cada parte del sistema en cada nueva release. Por supuesto, este ejército se frustrará al pasar tantos regresivos. Preparar test automáticos es una inversión en el proyecto, ya que suponen un mecanismo de monitorización del sistema, que permite tener todo lo probado bajo control. También suponen una fuente de documentación del proyecto, ya que describen escenarios de uso del producto. La automatización de pruebas es la clave para conseguir la entrega continua, si quisiéramos seguir ese proceso. Tener una suite de pruebas automatizadas es el mejor regresivo para un producto, porque permite la refactorización del código sin miedo a romper nada, lo que contribuye a reducir la deuda técnica de los proyectos. 4. Eliminar las pruebas manuales En el lado contrario de la balanza nos encontramos con el crimen de eliminar las pruebas manuales esperando que la automatización sea suficiente. La automatización tiene muchísimos beneficios, pero nunca tendrá sentido común. Nadie como un humano para comprender a los usuarios. La experiencia del usuario es algo que las máquinas difícilmente podrán probar, al menos en los próximos años. Las pruebas manuales deben ser test exploratorios en los que se analice la aplicación y se tengan en cuenta los casos de uso de los clientes del producto. Estas pruebas permiten tener un conocimiento exhaustivo del producto. Son las que dan lugar a ideas de mejora y para las que se necesita más creatividad. Cuanto más completa sea la suite de pruebas automatizadas, más creatividad se podrá usar en este tipo de pruebas: “rompiendo” el producto de diversas formas, investigando y analizando mejor los resultados. Una corriente en empresas con alto número de usuarios es utilizar un cierto porcentaje de usuarios para conseguir feedback real sobre el funcionamiento de la nueva versión o su funcionalidad. Esto es, dejar este tipo de pruebas en manos de los usuarios finales, quienes verán la aplicación sin finalizar antes de tiempo, ya que son los conejillos de indias. Este modelo solo puede funcionar si tienes muchos usuarios y si no te importa que algunos encuentren bugs de usabilidad. Pero, en cualquier caso, alguien deberá gestionar esos bugs, ese feedback de los usuarios finales. ¿Quién mejor que un ingeniero de calidad para esa tarea? 5. No tener test unitarios Esta es una tarea normalmente exclusiva de los desarrolladores. Pero sin ella los bugs se propagan como una plaga. Los test unitarios son la primera barrera de control contra posibles bugs. Son la base del testdriven development, si se quisiera seguir ese proceso. Agilizan el trabajo al poder cambiar partes del código y comprobar los fallos rápidamente. Sirven de ejemplo para los nuevos desarrolladores que se añadan al proyecto. Algunas ideas contrarias a los test unitarios se basan en que un buen diseño o una buena planificación arregla muchos más problemas que los detectados por este tipo de test. Aunque el diseño sea fantástico, no puedes asegurar que el código funciona sin estos test y dependerías de otras pruebas a más alto nivel. 6. No tener test de integración Los test de integración son los que verdaderamente comprueban que el sistema está funcionando. Unen partes del sistema y comprueban que encajen sin problemas. Son la base del behaviour driven development, junto con los test funcionales. Los test unitarios no tienen en cuenta elementos tan importantes como los accesos a bases de datos o peticiones de red ni son suficiente para comprobar que el comportamiento es correcto. Gracias a este tipo de test podemos encontrar bugs directamente en los pull requests sin necesidad de pasar regresivos relacionados con esa parte del producto. Hacen que el sistema sea fiable, pudiendo confiar en las partes protegidas por estos test, ya que tendrán el comportamiento deseado al ser llamados por otros componentes. Protegen a los grupos de desarrolladores para que el código de otros componentes no les sorprenda de formas desagradables. 7. No tener test funcionales Es un paso más allá de los test de integración. Los test funcionales tratan de probar el sistema como lo haría un usuario. Aquí entra especialmente en juego la automatización de interfaces gráficas. Son las pruebas funcionales las que más mantenimiento necesitan y, también, las más lentas. Sin embargo, los beneficios son similares a los anteriores tipos de pruebas. Protegen contra interfaces fallidas y quitan trabajo a la hora de hacer pruebas manuales. Son especialmente útiles al configurarlas y prepararlas para ser ejecutadas en todos los entornos en los que se distribuye o se ejecuta la aplicación. Por ejemplo, en cada uno de los diferentes navegadores soportados, si el interfaz a probar fuera un entorno web. Sin este tipo de test, estamos condenados a probar manualmente las interfaces, lo que nos puede dejar en el tintero posibles combinaciones. Suelen ser los mejores para las pequeñas suites de sanity test. 8.- No tener QA mánager El QA mánager o, como lo denominan en Google, el testing engineering manager, es alguien que domina el producto en profundidad, porque conoce sus mayores riesgos, sus debilidades y sus posibilidades de mejora. Es el que mejor puede saber dónde se deberían hacer los mayores esfuerzos de automatización o pruebas manuales. El motivo más habitual para obviar este rol es el uso de las metodologías ágiles o poságiles, porque se asume que mantener una alta calidad del producto es una responsabilidad compartida de todo el equipo. Aun así, alguien tiene que tomar las decisiones y en estos casos son los líderes de desarrollo. (Bertolín, 2017, https://solidgeargroup.com/los-8-crimenesmas-comunes-contra-la-calidad-del-software/). Calidad en la gestión de proyectos Referencias Lección 1 de 2 Calidad en la gestión de proyectos Administración de la calidad en la gestión del proyecto Presentación del caso Retomamos el caso de la lectura 3 del módulo 1, en el cual eres el nuevo gerente de TI de la tarjeta de crédito Cobrex y, en tu primera reunión de staff, el CEO de la compañía comenta que, si bien los números de la compañía están en verde, no están consiguiendo los objetivos planteados por los accionistas. Empiezas a pensar en un proyecto para dotar de tecnología tipo contactless a la red de comercios que usan la tarjeta Cobrex. Para esto, debes tener en cuenta los costos y los plazos que se han propuesto y, sobre todo, los riesgos que significa cambiar algo que anda bien —la tecnología actual— por algo novedoso y en desarrollo —como contactless—. La primera idea es tomar el proyecto directamente en tus manos, pero necesitas actualizarte en project management y entender todo lo que esto involucra. Administración de la calidad del proyecto Esta área de conocimiento de la Gestión de Proyectos tiene como objetivo identificar los requisitos y/o estándares de calidad para el proyecto y sus entregables, así como documentar cómo el proyecto demostrará el cumplimiento de estos. Adoptamos la definición tradicional de calidad: “El grado en el que un proyecto cumple con los requisitos” (Zabala, 2019, https://enredandoproyectos.com/gestion-calidad-en-los-proyectos/), por lo que estamos ante un concepto medible. Por ello, se deberá planificar y diseñar el sistema de calidad, el nivel de calidad esperado, los controles y los criterios de aceptación antes de que empiece la fase de ejecución del proyecto. El grado está relacionado con la funcionalidad, la forma u otras características del producto. Incluso, un producto de grado bajo —de pocas funcionalidades— puede tener un gran nivel de calidad. No por eso vamos a dejar de entender que también la expectativa de nuestro cliente y su satisfacción es medible —aunque subjetiva— y constituye un factor importante en el grado en que se han conseguido los objetivos. La relación entre la gestión de calidad y la gestión del riesgo es total, ya que toda la planificación de la calidad la realizaremos basándonos en el análisis de riesgos del producto y del proyecto. Esto se conoce como planificación avanzada de la calidad o APQP. Basándonos en el análisis de riesgos del producto y del proyecto (podemos usar AMFE, FODA, etc.), entenderemos cuáles riesgos tienen más potencial de impacto en el producto/proyecto, una mayor probabilidad de ocurrencia o una menor posibilidad de ser detectados en fases tempranas. Esto dará origen a los planes de calidad o planes de control, en los cuales se establecerán, riesgo por riesgo, aquellos controles o alarmas que se implementarán para evitar que el riesgo se concrete o que avisarán si el riesgo sucedió efectivamente. Este tema lo trataremos en la lectura siguiente. La gestión de calidad se basa simplemente en la aplicación de estos planes de calidad durante el lapso para el cual fueron definidos y en la toma de decisiones sobre los hechos ocurridos o detectados a raíz del mencionado plan. Como marca la ya conocida rueda de Demmings, padre de los sistemas de calidad, con la aplicación del plan aprenderemos nuevas soluciones y nuevos riesgos, los que resultaran en nuevas modificaciones al plan y así sucesivamente (ciclo PDCA, según sus siglas en inglés: Plan, Do, Check, Act). Figura 1: Rueda de Demmings Fuente: elaboración propia. ¿Tienes claro qué procesos aplicarán en el proyecto de implementación de contactless y cuáles no? Esto es fundamental para entender las salidas esperadas de los proyectos y medir su calidad. Teniendo ya claro, la dimensión “P” de la rueda de Demmings —ampliaremos en la siguiente lectura—, el paso siguiente es poner esos planes en práctica (Do). Esto está determinado por cada proyecto y su estado al momento de implementar dichos planes. Como menciona la introducción a este módulo, los roles del ingeniero de QA o de QA manager son claves en tanto consiguen que esta implementación sea realizada de forma rigurosa y profesional. Con cada etapa de la implementación de los planes ya en marcha, estos empezarán a mostrar resultados (Check). Estos serán los que definan, por contraste con las expectativas del plan, si es necesario realizar correcciones o mejoras en cada aspecto considerado. Para las correcciones o acciones correctivas (Act) hay infinidad de herramientas de análisis y solución de problemas que nos permiten encontrar sus causas raíces y evitar su repetición. Dentro de las cuales podemos mencionar: Diagrama causa-efecto o diagramas de Ishikawa Diagramas de flujo Hojas de verificación Histogramas Diagramas de Pareto Diagramas de control Diagrama de dispersión Talleres Kaizen Puedes usar el brainstorming con el equipo de proyectos para poner en discusión cómo impactan las fallas y retrasos en el proyecto y ponderarlos. El método Kaizen se basa en realizar pequeñas mejoras involucrando a todos en una organización, desde directores a trabajadores. Los pasos son pequeños, pero firmes y las mejoras son sostenibles en el tiempo y deben replicarse luego en cada sector de la organización. Figura 2: Kaizen Fuente: [Imagen sin título sobre el método Kaizen]. (11 de noviembre de 2017). Recuperado de https://www.infobae.com/tendencias/innovacion/2017/11/11/como-es-el-metodo-kaizenjapones-para-mejorar-la-productividad-de-pymes-argentinas/ El método Ishikawa o espina de pescado es quizá el método más conocido para encontrar los factores que contribuyen al problema y diseñar la mejor solución definitiva. Se basa en analizar algunos factores clave de cualquier proceso (las M del proceso) y ponderar su colaboración en la generación de problemas o fallas. Figura 3: Ishikawa Fuente: Reyes, 2012, https://es.slideshare.net/oscarreyesnova/espina-de-pescado-12042502 Las métricas de calidad o KPI (key process indicators) describen de manera específica cada atributo del producto o proyecto y la manera en que se medirá (valor real) el proceso de control de calidad. Habrá que indicar una tolerancia para definir las variaciones permitidas de las métricas, de manera de tener claro si estamos en un rango aceptable o no. Se emplean en cada proceso del mapa conceptual para validar el avance o el cumplimiento de las tareas definidas en cada uno. Algunos ejemplos de estas métricas son: índice de puntualidad, ejecución del presupuesto vs. tiempo, la frecuencia de defectos, el nivel de retraso, etc. ¿Puedes estimar alguna métrica individual de calidad del proyecto que te sirva para saber en qué grado se están cumpliendo los objetivos de este? ISO 10006:2017 Indican las Normas ISO (2017): Este documento proporciona directrices sobre la gestión de la calidad en los proyectos. Perfila los principios y prácticas de gestión de la calidad, cuya implementación es importante para el logro de los objetivos de la calidad en los proyectos. Está alineado con las Normas ISO 9000:20151 e ISO 9001:20152, y complementa la orientación proporcionada en la Norma ISO 21500:20123. Las directrices proporcionadas en este documento están dirigidas a proyectos que pueden tomar muchas formas, desde pequeños a muy grandes, desde simples a complejos, desde un proyecto individual a un proyecto que forme parte de un programa o portafolio de proyectos. Están pensadas para su utilización por personas con experiencia en la gestión de proyectos que necesitan asegurarse de que su organización aplica las prácticas contenidas en las normas de sistemas de gestión de la calidad, así como por aquellas que tienen experiencia en la gestión de la calidad y necesitan interactuar con organizaciones de proyectos al aplicar sus conocimientos y experiencia en el proyecto. Este documento emplea el enfoque a procesos, el cual incorpora el ciclo Planificar–Hacer–Verificar–Actuar (PHVA) y el pensamiento basado en riesgos. Los dos conceptos de "gestión de la calidad en proyectos" y "sistemas de gestión de la calidad en proyectos" se distinguen como sigue: — La gestión de la calidad en proyectos incluye: sistemas de gestión de la calidad en proyectos, responsabilidad de la dirección en proyectos, gestión de recursos en proyectos, realización del producto/servicio en proyectos y la medición, análisis y mejora en proyectos — Los sistemas de gestión de la calidad en proyectos incluyen: características del proyecto, principios de gestión de la calidad en proyectos, procesos del sistema de gestión de la calidad del proyecto y un plan de la calidad para el proyecto. Se reconoce que hay dos aspectos en la aplicación de la gestión de la calidad en los proyectos: los procesos del proyecto que se gestionan dentro del sistema de gestión del proyecto, y la calidad de las salidas del proyecto en forma de productos y servicios. El incumplimiento de cualquiera de estos dos aspectos puede tener efectos significativos en los productos y servicios del proyecto, en los clientes del proyecto y otras partes interesadas, y en la organización del proyecto.4 Para una mejor orientación, te acercamos la tabla de cross-reference de requisitos de ISO 10006:2017 y las otras normas de gestión de calidad y gestión de proyectos que se usan habitualmente. ISO 9000. (2015). Sistemas de gestión de calidad — Fundamentos y vocabulario. Organización Internacional de Normalización. Recuperado de https://www.iso.org/obp/ui/es/#iso:std:iso:9000:ed-4:v1:es ISO 9001. (2015). Sistemas de gestión de calidad — Requisitos. Organización Internacional de Normalización. Recuperado de https://www.iso.org/obp/ui/#iso:std:iso:9001:ed-5:v1:es ISO 21500. (2012). Dirección y gestión de proyectos. Organización Internacional de Normalización. Recuperado de https://www.iso.org/obp/ui/#iso:std:iso:9001:ed-5:v1:es ISO 10006. (2017). Gestión de la calidad — Directrices para la gestión de la calidad en proyectos. Organización Internacional de Normalización. Recuperado de https://www.iso.org/obp/ui/#iso:std:iso:10006:ed-3:v1:es Figura 4: Requisitos Normas ISO 10006:2017 vs. otros Fuente: Coquillat, 2018, http://iso-21500.es/content/la-nueva-iso-10006-2017-qualitymanagement-guidelines-quality-management-projects-se-integra Beneficios de una gestión de calidad del proyecto Alinear los servicios de las tecnologías de la información a las necesidades de negocio. Aumentar la satisfacción del cliente. Proporcionar una adecuada gestión de la calidad del servicio de tecnologías de la información ofrecido. Maximizar la calidad y eficiencia del servicio de las tecnologías de la información. Reducir los riesgos asociados a los servicios de tecnologías de la información. Reducir costes y generar negocios. Mejorar la visión de la capacidad de los departamentos de tecnologías de la información. Minimizar el tiempo de recuperación ante incidentes y cambios. Mejorar resultados basándose en métricas. Tomar de decisiones con base en indicadores de negocio sustentadas en las tecnologías de la información. Convertirse en un verdadero valor diferencial para las organizaciones que trabajan seriamente en calidad en relación a las empresas competidoras. Gestión de la calidad en Project Management Body of Knowledge (PMBOK) Dentro del mapa de los procesos normalizados propuestos por PMBOK para la gestión de proyectos, los procesos de calidad son los siguientes: Figura 5: Procesos de gestión de calidad en PMBOK Fuente: [Imagen sin título sobre procesos de gestión de calidad]. (s. f.). Recuperado de https://lh3.googleusercontent.com/1nMHy7FdEdu0h6aSKbcXSQUVt1jd7BwV_VNcCqbQAzqc KPUVkZYFgi8XGdvoj0SkAS8bfg=s122 Analizaremos esto en detalle en la siguiente lectura, correspondiente al punto titulado Planes de la calidad. C O NT I NU A R Lección 2 de 2 Referencias Bertolín, S. (20 de abril de 2017). Los 8 crímenes más comunes contra la calidad del software [Publicación en el blog Solid Gear Group]. Recuperado de https://solidgeargroup.com/los-8-crimenes-mas-comunes-contra-la-calidaddel-software/ Coquillat, M. (3 de abril de 2018). La nueva ISO 10006: 2017 "Quality management - Guidelines for quality management in projects" se integra con la ISO 21500 y la ISO 9001 [Publicación en el blog Grupo de Análisis Norma ISO 21500]. Recuperado de http://iso-21500.es/content/la-nueva-iso-100062017-quality-management-guidelines-quality-management-projects-seintegra [Imagen sin título sobre el método kaizen]. (11 de noviembre de 2017). Recuperado de https://www.infobae.com/tendencias/innovacion/2017/11/11/como-es-elmetodo-kaizen-japones-para-mejorar-la-productividad-de-pymes-argentinas/ [Imagen sin título sobre procesos de gestión de calidad]. (s. f.). Recuperado de https://lh3.googleusercontent.com/1nMHy7FdEdu0h6aSKbcXSQUVt1jd7Bw V_VNcCqbQAzqcKPUVkZYFgi8XGdvoj0SkAS8bfg=s122 ISO 9000. (2015). Sistemas de gestión de calidad — Fundamentos y vocabulario. Organización Internacional de Normalización. Recuperado de https://www.iso.org/obp/ui/es/#iso:std:iso:9000:ed-4:v1:es ISO 9001. (2015). Sistemas de gestión de calidad — Requisitos. Organización Internacional de Normalización. Recuperado de https://www.iso.org/obp/ui/#iso:std:iso:9001:ed-5:v1:es ISO 10006. (2017). Gestión de la calidad — Directrices para la gestión de la calidad en proyectos. Recuperado de https://www.iso.org/obp/ui/#iso:std:iso:10006:ed-3:v1:es ISO 21500. (2012). Dirección y gestión de proyectos. Organización Internacional de Normalización. Recuperado de https://www.iso.org/obp/ui/#iso:std:iso:9001:ed-5:v1:es Reyes Nova, O. (16 de marzo 2012). Genere una tormenta de ideas sobre las causas posibles [Publicación en SlideShare]. Recuperado de https://es.slideshare.net/oscarreyesnova/espina-de-pescado-12042502 Zabala, I. (10 de octubre de 2019). La gestión de calidad en los proyectos [Publicación en el blog Enredando Proyectos]. Recuperado https://enredandoproyectos.com/gestion-calidad-en-los-proyectos/ de Planes de calidad en la gestión de proyectos En 1984, General Motors creó una empresa junto a Toyota (NUMMI, New United Motor Manufacturing Inc.) con el fin de aprender las técnicas de producción de su socio. Para esto, transfirió a las nuevas instalaciones una buena parte del personal de la planta de Fremont, quizás la de peores resultados de toda la organización. Dos años después, la nueva planta era ya la más productiva y llegó a alcanzar niveles de calidad comparables con los obtenidos en Japón. Este experimento único demostró la importancia de gestionar equipos de alto rendimiento y fomentar la cooperación entre ellos, basándose en herramientas de calidad y corrección de fallas. Tolerancia cero a los defectos y al incumplimiento en las fechas de entrega (producción ajustada para asegurar el just-in-time en las entregas) y continuos procesos de mejora (basados en la filosofía Kaizen) marcan los sistemas de producción de Toyota (TPS según sus siglas en inglés, Toyota Production System) y con ellos la forma en que esta organización entiende la gestión del conocimiento y la mejora continua. Cada unidad de producción establece sus propios procedimientos y planes de mejora sin que existan directrices globales. Se fomenta el respeto a los empleados y el establecimiento de mecanismos informales de cooperación entre las unidades, pero poco más. En definitiva, un modelo basado en la gestión de la mejora y encaminado a aumentar la eficiencia de la producción, fomentar la mejora continua y la excelencia con el único fin de lograr una ventaja competitiva a largo plazo. Es un modelo extraño, difícil de asimilar para un occidental y, sin embargo, de este han surgido conceptos como Kaizen (ahora mejor conocido como Lean manufacturing), las técnicas de análisis de las causas de los problemas basadas en los 5 porqués y el concepto de las 5S para la mejora de las condiciones del puesto de trabajo. (Arjona, 2014, https://www.calidadytecnologia.com/2014/05/GestionConocimiento-Mejores-Empresas.html). Planes de calidad en la gestión de proyectos Video conceptual Referencias Lección 1 de 3 Planes de calidad en la gestión de proyectos Presentación del caso Dada la unidad conceptual con la lectura anterior, seguiremos el hilo del caso presentado en esta. Preparación de los planes de calidad del proyecto Figura 1: Procesos de gestión de calidad en Project Management Body of Knowledge (PMBOK) Fuente: [Imagen sin título sobre procesos de gestión de calidad en PMBOK]. (s. f.). Recuperado de https://www.jramonet.com/sites/default/files/il3-pmi-bcn-2017-11-23-jrf.pdf Partimos del concepto asociado a gestión de la calidad del PMBOK, el cual detalla tres procesos o áreas de conocimiento relacionados a la gestión de calidad. El primero de ellos se relaciona con la preparación de los planes de calidad. Según el PMI (2017) es “el proceso de identificar los requisitos y/o estándares de calidad para el proyecto y sus entregables, así como de documentar cómo el proyecto demostrará el cumplimiento de estos”. Como se aprecia claramente en el diagrama de la figura 2, el proceso de planificación de la calidad del proyecto comienza al considerar como entradas a todos aquellos documentos fundacionales del proyecto, ya estudiados en capítulos anteriores. A modo de ejemplo, citamos aquí el statement of work; los requisitos o especificaciones tanto del cliente como los definidos por el propio proyecto; el plan de riesgos; el cronograma de trabajo; el alcance definido de las tareas individuales o globales; los roles y responsabilidades de los miembros del equipo; las partes interesadas, etc. Con base en estos documentos y el uso de las herramientas y técnicas comunes para esta disciplina, se podrá obtener como salida del proceso un plan de calidad que detalle acciones de control, eliminación o mitigación de riesgos y seguimiento y consecución de objetivos. Figura 2: Planificar la gestión de la calidad Fuente: PMI, 2017. Durante la fase de planificación, el director del proyecto y el equipo del proyecto determinan cómo probar o inspeccionar el producto, entregable o servicio que motiva el proyecto para satisfacer las necesidades y expectativas de los interesados, así como la forma de cumplir con el objetivo para el desempeño y la fiabilidad del producto. Las pruebas e inspecciones dependen de la industria y pueden incluir, por ejemplo, pruebas alfa y beta en proyectos de software, pruebas de resistencia en proyectos de construcción, inspección de fabricación y pruebas de campo y pruebas no destructivas en ingeniería. Esto se denomina habitualmente plan de control. El plan de gestión de la calidad es un componente del plan para la dirección del proyecto que describe cómo se implementarán las políticas, procedimientos y pautas aplicables para alcanzar los objetivos de calidad. Describe las actividades y los recursos necesarios para que el equipo de dirección del proyecto alcance los objetivos de calidad establecidos. El plan de gestión de la calidad puede ser formal o informal, detallado o formulado de manera general. El estilo y el grado de detalle del plan de gestión de la calidad se determinan en función de los requisitos del proyecto. El plan de gestión de la calidad puede incluir, entre otros, los siguientes componentes: Estándares de calidad que serán utilizados por el proyecto. Objetivos de calidad del proyecto. Roles y responsabilidades en cuanto a calidad. Entregables y procesos del proyecto sujetos a revisión de la calidad. Actividades de control de calidad y de gestión de calidad previstas en el proyecto. Herramientas de calidad que se utilizarán para el proyecto. Principales procedimientos pertinentes para el proyecto, tales como: abordar la no conformidad, procedimientos de acciones correctivas y procedimientos de mejora continua. Deberías tomar como un input importante para la planificación de la calidad el plan de riesgos y asociar a cada riesgo del plan un control o contramedida. Gestión de calidad y revisión de los planes de calidad Se debe revisar el plan de gestión de la calidad en una etapa temprana del proyecto para asegurar que las decisiones estén basadas en información exacta. Los beneficios de esta revisión incluyen: un enfoque más claro sobre la propuesta de valor del proyecto, las reducciones de costos y una menor frecuencia de retrasos en el cronograma debidos a retrabajos o reparaciones. Una herramienta típica de la revisión es el análisis de las métricas de calidad. Una métrica de calidad describe de manera específica un atributo del producto o del proyecto y la manera en que el proceso de revisión verificará su cumplimiento. Algunos ejemplos de métricas de calidad incluyen: porcentaje de tareas completadas a tiempo, desempeño del costo medido por CPI, tasa de fallas, número de defectos identificados por día, tiempo de inactividad total por mes, errores encontrados por línea de código, puntuaciones de satisfacción de los clientes y porcentaje de requisitos cubiertos por el plan de pruebas como medida de la cobertura de la prueba. Las revisiones de los planes de calidad son actividades formales que deberían implicar a todos los directamente involucrados en el proyecto de contactless. Figura 3: Gestión de la calidad Fuente: PMI, 2017. La otra herramienta típica de gestión de los planes de calidad es la auditoria. Esto es, un proceso sistemático e independiente de recopilación, análisis y puesta en juicio de información verificable que sirve como evidencia de una actividad. En la dirección de proyectos, el enfoque en el aseguramiento de la calidad reside en los procesos utilizados en el proyecto. El aseguramiento de calidad trata del uso eficaz de los procesos del proyecto. Se trata de seguir y cumplir con los estándares, a fin de asegurar a los interesados que el producto final satisfará sus necesidades, expectativas y requisitos. Gestionar la calidad incluye todas las actividades de aseguramiento de calidad y, también, se ocupa de los aspectos de diseño de producto y mejoras de procesos. El trabajo de gestionar la calidad se encuentra en conformidad con el costo de mantener la calidad. Control de calidad y actualizaciones del plan de calidad Indica EALDE Business School (2018) que El control de calidad es el proceso de monitorear y registrar los resultados de la ejecución de las actividades de gestión de calidad para evaluar el desempeño y asegurar que las salidas del proyecto sean completas, correctas y satisfagan las expectativas del cliente. Esta actividad puede dispararse por novedades o recomendaciones encontradas o realizadas luego de la actividad de revisión de los planes de calidad. (https://www.ealde.es/planificacion-gestion-control-calidaddireccion-de-proyectos/). Este proceso es iterativo y será efectuado repetidas veces durante el ciclo de vida del proyecto. Cualquier cambio en el plan para la gestión de calidad del proyecto pasa por el proceso de control de cambios de la organización, mediante una solicitud de cambio. Los componentes que pueden requerir una solicitud de cambio en el plan de la dirección del proyecto incluyen, entre otros, los siguientes: Plan de gestión de los riesgos: las decisiones sobre el enfoque de gestión de la calidad pueden requerir cambios en la orientación acordada para gestionar el riesgo en el proyecto, los cuales serán registrados en el plan de gestión de los riesgos. Línea base del alcance: la línea base del alcance puede cambiar como resultado de este proceso, si fuese necesario añadir actividades de gestión de calidad específicas. El diccionario de la EDT (estructura de descomposición del trabajo) también registra los requisitos de calidad, los cuales pueden necesitar actualización. Plan de gestión de la calidad: el enfoque acordado para la gestión de la calidad puede necesitar ser modificado debido a los resultados reales. Línea base del cronograma: la línea base del cronograma puede cambiar como resultado de las actividades específicas de gestión de la calidad. Línea base de costos: la línea base de costos puede cambiar como resultado de las actividades específicas de gestión de la calidad. Figura 4: Control de la calidad Fuente: PMI, 2017. Las actualizaciones del plan contactless deben incluir todas las acciones tendientes a corregir desvíos detectados en el desarrollo de la solución propuesta. C O NT I NU A R Lección 2 de 3 Video conceptual Video. El plan de calidad del proyecto C O NT I NU A R Lección 3 de 3 Referencias Arjona, K. (16 de mayo de 2014). Las nueve empresas que mejor han gestionado el conocimiento [Publicación en el blog Calidad y Tecnología]. Recuperado de https://www.calidadytecnologia.com/2014/05/Gestion- Conocimiento-Mejores-Empresas.html EALDE Business School. (22 de noviembre de 2018). Herramientas para la planificación, gestión y control de la calidad en Dirección de Proyectos [Publicación en el blog de EALDE Business School]. Recuperado de https://www.ealde.es/planificacion-gestion-control-calidad-direccion-deproyectos/ [Imagen sin título sobre procesos de gestión de calidad en PMBOK]. (s. f.). Recuperado de https://www.jramonet.com/sites/default/files/il3-pmi-bcn2017-11-23-jrf.pdf Project Management Institute. (2017). A Guide to the Project Management Body of Knowledge. PMBOK Guide. London, EN: Project Management Institute. Planes de seguridad en la gestión de proyectos San Luis declaró la emergencia administrativa tras ser víctima de un temible ciberataque El gobierno de San Luis declaró la emergencia en toda la administración pública tras sufrir un ciberataque que estuvo dirigido especialmente al data center provincial, según revelaron fuentes oficiales de la provincia. De acuerdo a un informe suministrado por el Ministerio de Ciencia y Tecnología, los inconvenientes generados en la gestión del Gobierno provincial a partir del ciberataque están acotados al sistema de expedientes de 2019, ya que se logró reconstruir la base de datos hasta diciembre de 2018. Desde el ministerio se informó que la emergencia se declara por un plazo de 90 días hábiles administrativos, que se cuentan desde ayer, a fin de posibilitar la reorganización administrativa necesaria para optimizar y restablecer "los recursos económicos y las funciones administrativas, derechos subjetivos y de interés público para el logro de los fines y objetivos fundamentales del Estado provincial", según fue manifestado por las autoridades. Sobre el hecho, la ministra de Ciencia y Tecnología, Alicia Bañuelos explicó que se trata de un delito de extorsión, ya que el secuestro de información se hizo con la finalidad de "obtener dinero a cambio de su devolución". La ministra aclaró que se logró reconstruir la base de datos del sistema de expedientes hasta diciembre de 2018, mientras que el resto de los sistemas e infraestructura están operativos, por lo que "los sueldos, los proveedores, el sistema contable y el sistema de registros médicos no están afectados”. "Se sigue tratando de desencriptar los 350 GB que restan, que contienen todo el 2019. Con la asistencia de empresas y especialistas en este tipo de ataques, se estableció un sistema de contingencia para poner en operación los procesos de gobierno, comenzando por los críticos", aseguró Bañuelos. Y precisó: "Se trata de un secuestro de información para exigir un rescate. Es un delito internacional, porque no se sabe desde donde proviene el ataque". Por último, Bañuelos explicó que el lunes 25 de noviembre se detectó el ataque de una variedad del virus ransomware, un programa de software malicioso que encripta archivos y deja un mensaje exigiendo el pago de dinero para restablecer el sistema. El jueves pasado, al intentar reconstruir la base de datos del sistema de expedientes, el proceso falló luego de 40 horas de trabajo, porque un disco estaba muy afectado por el ataque, detalló la ministra y aclaró que el resto de los sistemas e infraestructura están operativos. (Clarín, 2019, https://www.clarin.com/tecnologia/san-luis-declaro-emergenciaadministrativa-victima-temible-ciberataque_0_OKAJAl_J.html). Planes de seguridad en la gestión de proyectos Referencias Revisión del módulo Lección 1 de 3 Planes de seguridad en la gestión de proyectos Presentación del caso Continuando con el caso de la lectura 4 del módulo 1, eres analista sénior del área de TI de un gran hipermercado y por tus manos pasan diariamente miles de datos e información acerca de personas, productos, estados de cuenta, direcciones de correo, etc. También eres responsable del manejo de una parte de la infraestructura asociada con las ventas del hipermercado, específicamente todo lo asociado a medios de pago. En ese rol tienes que administrar las terminales POS (point of sale) y todas las capas de software asociadas a autorizaciones de pago e imputación a estados contables. Al analizar una posible reducción de costos de infraestructura de IT, estás viendo la opción de externalizar completamente el cómputo y el almacenamiento de los datos relativos a las operaciones electrónicas de pago, lo cual es una revolución total para la cultura de la organización. Y te preguntas: ¿qué factores de seguridad debo considerar como posibles riesgos para informar al top management y conseguir la aprobación del proyecto? Seguridad del proyecto Existen muchos significados de la palabra “seguridad” y algunos de ellos ya han sido tratados en este mismo módulo (ver: Administración del riesgo). En este caso, nos vamos a concentrar en tres aspectos importantes de la seguridad relativos al proyecto. Un plan de seguridad podrá contener como mínimo los siguientes documentos: La memoria: documento en el que se especifican las características de la obra, de la instalación y los riesgos. El pliego de condiciones: documento en el que se resumen las normas, los reglamentos de seguridad, la organización, las obligaciones sociales y la documentación del contratista. Planos: documentos complementarios a las medidas preventivas definidas en la memoria, expresadas en gráficos o esquemas. Mediciones: documentos que ponen en consideración las protecciones individuales, las protecciones colectivas, los medios contraincendios, etc. Presupuesto: documento en el que se valoriza el plan en cuanto a los precios de las acciones preventivas a llevar a cabo. Seguridad en el trabajo del proyecto El plan de gestión de salud y seguridad ocupacional está basado en el ciclo compuesto por las etapas que ya conocemos de la rueda de Demmings: planificación (Plan), desarrollo (Do), verificación o comprobación (Check) y actuación consecuente (Act), las cuales constituyen, como es sabido, una espiral de mejora continua. Los elementos y contenidos del plan de gestión de salud y seguridad ocupacional se pueden apreciar en la figura 1 y en la figura 2. Figura 1: Plan de gestión de la seguridad laboral Fuente: G&D proyectos, 2015, https://es.slideshare.net/JulioArnulfoVivarGonzalez/plan-deseguridad-gampd-proyectos Como indican Barros Arrieta y Carrillo Maestre (2016): Una revisión inicial (RI) es la documentación e identificación sistemática de los impactos (o impactos potenciales) significativos en la salud y calidad de vida laboral. Estos están asociados, directa o indirectamente, a las actividades, los productos y los procesos de la organización. Dirigida a todos los aspectos de la organización, identifica los hechos internos (puntos fuertes y débiles) y los hechos externos (amenazas y oportunidades) como base para la introducción de un sistema de gestión de salud y seguridad ocupacional. (p. 27). Figura 2: Ciclo de mejora de la seguridad laboral Fuente: G&D Proyectos, 2015, https://es.slideshare.net/JulioArnulfoVivarGonzalez/plan-deseguridad-gampd-proyectos Los autores explican que La revisión inicial cubre áreas claves, tales como: Los requisitos legislativos y reglamentarios que son aplicables y su grado de cumplimiento. Esto permite desarrollar el registro de la legislación, reglamentaciones y regulaciones a las que se deberá ajustar el sistema de gestión de salud y seguridad ocupacional. La revisión de las prácticas y procedimientos existentes de prevención de riesgos o impactos de salud laborales. Esto es, determinar qué mejoras de gestión estructural se requerirían para controlar en forma efectiva las actividades, los productos y los procesos que causan los riesgos o impactos significativos identificados. Una valoración de la gestión de la investigación de los incidentes, accidentes y enfermedades laborales ocurridas. (Barros Arrieta y Carrillo Maestre, 2016, p. 27). Continúan los autores: La planificación, en general, consiste en establecer de una manera debidamente organizada: Cómo, cuándo y quién debe hacerla, a partir de los resultados de la revisión inicial. Objetivos y metas a conseguir, tanto para el conjunto del sistema como para cada nivel operativo de la estructura de la organización que intervienen en la gestión del sistema. Asignación de prioridades y plazos para los objetivos y metas establecidos. Asignación de recursos y medios en relación a las responsabilidades definidas y a la coordinación e integración de los otros sistemas de gestión de la empresa. (Barros Arrieta y Carrillo Maestre, 2016, p. 30). ¿Conoces si hay riesgos de seguridad laboral en el proveedor externo de data center? Puedes sufrir las consecuencias si hay un accidente. Seguridad física del proyecto La seguridad física de los proyectos de infraestructura de TI implica proteger la infraestructura crítica de amenazas externas o intrusiones que atenten contra las actividades de una empresa. Elementos de alto valor y sumamente importantes, tales como servidores, switches y unidades de almacenamiento, caen dentro de esta consideración de criticidad. Este tipo de seguridad puede incluir videovigilancia a través de cámaras, sistemas de control de acceso y seguridad perimetral. El mercado global de seguridad física para data centers se segmenta en cuatro niveles con base en las capas de seguridad: 1 Seguridad del perímetro. 2 Seguridad de las instalaciones. 3 Seguridad de la sala de ordenadores. 4 Seguridad a nivel de racks. (MTNET, 2016). MTNET (2016) explica cada una: Seguridad perimetral: primera capa El principal objetivo de esta capa de protección de la infraestructura se basa en las tres D: detener, detectar y demorar. Existen varios ejemplos de barreras que pueden ser utilizadas para proteger la infraestructura en esta primera capa: desde los elementos más convencionales como bardas o cercas hasta los métodos más sofisticados como fosas con cocodrilos (sí, los animales de verdad). Todo depende del enfoque y el tipo de empresa, por lo general encontraremos métodos más complejos en instituciones bancarias y en compañías que brindan su data center como servicio a terceros. Seguridad de las instalaciones: segunda capa El objetivo de esta segunda capa de protección se centra en restringir el acceso en el caso de que se presente una violación en el perímetro. La vigilancia en interiores, los sistemas de identificación y los métodos de verificación son algunos de los elementos esenciales de esta capa de protección física. El tipo de instalación dictará los niveles necesarios de seguridad en relación al balance considerado entre la seguridad requerida y la experiencia de las visitas. Por ejemplo, un sistema tan drástico o complejo no sería necesario en una sede corporativa, ya que resultaría inapropiado que un alto ejecutivo o cliente sea expuesto a trampas humanas. Seguridad de la sala de ordenadores: tercera capa El objetivo de esta tercera capa de seguridad física es restringir el acceso a través de múltiples métodos de verificación, monitorear todos los accesos autorizados y contar con redundancia energética y de comunicaciones. El acceso a la sala de ordenadores de un data center está restringido a un pequeño grupo de personas. Existen diversos métodos para restringir el acceso a esta área, y estos pueden ser clasificados basándose en su nivel de confiabilidad: “Lo que sabes”: esta categoría es la menos confiable y hace referencia principalmente a contraseñas. “Lo que tienes”: categoría intermedia la cual engloba dispositivos como tarjetas o llaves de acceso. “Lo que eres”: esta categoría es el método más confiable y se basa en la autenticación biométrica. Seguridad a nivel de racks: cuarta capa Esta última capa de seguridad es particularmente importante y efectiva para minimizar las amenazas internas. La mayoría de los data center enfocan su atención en las primeras tres capas de seguridad, pero la ausencia de control en los racks puede resultar en una costosa fuga de información causada por un empleado con malas intenciones. Algunas consideraciones importantes para esta cuarta capa de seguridad: Sistemas de bloqueo electrónico para racks de servidores. Sistemas biométricos para acceso a los racks. Videovigilancia IP para capturar imágenes o clips de la actividad de las 2016, personas en los racks. (MTNET, https://www.mtnet.com.mx/seguridad-fisica-en-el-data- center-las-cuatro-capas/). ¿Has definido quién podrá acceder físicamente a las instalaciones del data center? Haz una lista y evalúa el riesgo. Seguridad informática del proyecto Desarrollar un sistema de seguridad informática, significa planear, organizar, dirigir y controlar todas las actividades informáticas para mantener y garantizar la integridad física de los recursos informáticos y resguardar los activos informáticos intangibles del proyecto. Lo primero que debe hacerse es la evaluación de riesgos informáticos para valorar los elementos sobre los cuales serán aplicadas las políticas de seguridad informática. Esta evaluación de las posibles amenazas y causas de ataques informáticos es la que determina las mejores políticas de seguridad informática que deben implementarse en el proyecto. Para ello es necesario realizar un estudio previo de todos los recursos tecnológicos y humanos con los que cuenta el proyecto, con el fin de ejecutar el plan y los procedimientos de aplicación efectivos. Para la ejecución, se toma como base el estudio y el análisis de los componentes informáticos lógicos y físicos que tiene el proyecto para su gestión y administración, y el análisis de las condiciones del uso de dichos recursos por parte de los empleados, con el fin de determinar las posibles vulnerabilidades a las que puede estar expuesta la información del proyecto. Finalmente, con base en el estudio y análisis requerido para determinar los riesgos inherentes a los recursos informáticos del proyecto se definen las políticas de seguridad informática. Estas permiten establecer nuevos procedimientos y estrategias gerenciales y administrativas que van a posibilitar el resguardo y el blindaje de los recursos informáticos de la empresa. A modo de ejemplo, puedes tomar esta tabla de análisis de posibles riesgos a la seguridad informática del proyecto: Figura 3: Riesgos posibles de seguridad informática Fuente: elaboración propia. Estos tipos de amenazas han hecho que las empresas (y los proyectos) creen directivas y normativas para regular el nivel de seguridad de su estructura interna, con el fin de protegerse de ataques externos o cubrir la negligencia de sus propios empleados. Un ejemplo de una iniciativa para mitigar el impacto de estas amenazas puede ser la siguiente tabla de permisos de accesos (ver figura 4). Obviamente, estas iniciativas de seguridad informática son implementadas en conjunto con las otras iniciativas descriptas en los puntos anteriores. Figura 4: Permisos de acceso Fuente: elaboración propia. Nomenclatura L: Permiso de lectura. E: Permiso de escritura. J: Permiso de ejecución. T: Permiso de acceso al panel administrativo de todos los dispositivos. Tiene todos los permisos sobre todos los recursos. N: No tiene permisos. ¿Has definido una tabla de accesos y permisos por función o usarás una matriz de acceso con base en la información resguardada? C O NT I NU A R Lección 2 de 3 Referencias Barros Arrieta, D. A. y Carrillo Maestre, T. A. (2016). Sistema de gestión de seguridad y salud en el trabajo para la mina San Luis con contrato en virtud de aporte 01-001-95, ubicado en la vereda Aguas Calientes, Municipio de Iza, Departamento de Boyaca [Tesis]. Recuperado de https://repositorio.uptc.edu.co/bitstream/001/1887/1/TGT-467.pdf Clarín. (7 de diciembre de 2019). San Luis declaró la emergencia administrativa tras ser víctima de un temible ciberataque. Diario Clarín [versión digital]. Recuperado de https://www.clarin.com/tecnologia/san-luisdeclaro-emergencia-administrativa-victima-temibleciberataque_0_OKAJAl_J.html G&D Proyectos. (2015). Plan de seguridad y salud ocupacional. Recuperado de https://es.slideshare.net/JulioArnulfoVivarGonzalez/plan-de-seguridad- gampd-proyectos MTNET. (2016). Seguridad física en el data center: las cuatro capas de protección [Publicación en el blog de MTNET]. Recuperado https://www.mtnet.com.mx/seguridad-fisica-en-el-data-center-las-cuatrocapas/ de Project Management Institute. (2017). A Guide to the Project Management Body of Knowledge. Londres, EN: Project Management Institute. C O NT I NU A R Lección 3 de 3 Revisión del módulo Hasta acá aprendimos Aspectos fundamentales a considerar para construir una infraestructura de TI – Aspectos fundamentales a considerar para construir una infraestructura de TI Los elementos claves a considerar en un proyecto de infraestructura de TI son: el espacio físico, la distribución, las conexiones, la energía y la refrigeración. Calidad en la gestión de proyectos – Esta área de conocimiento de la gestión de proyectos tiene como objetivo identificar los requisitos y/o estándares de calidad para el proyecto y sus entregables, así como documentar cómo el proyecto demostrará el cumplimiento con estos. Planes de calidad: preparación, revisión, aceptación y actualización – La preparación de los planes de calidad es “el proceso de identificar los requisitos y/o estándares de calidad para el proyecto y sus entregables, así como de documentar cómo el proyecto demostrará el cumplimiento con los mismos” (Project Management Institute, 2017). Planes de seguridad: objetivo y contenidos – Existen muchos significados de la palabra “seguridad” y algunos de ellos ya han sido tratados. En este caso, nos vamos a concentrar en tres aspectos importantes de la seguridad relativos al proyecto: la seguridad en el trabajo, la seguridad física y la seguridad informática. C O NT I NU A R