Podcast
Questions and Answers
¿Cómo se organizan los recursos, los servicios y las políticas de seguridad que contrata y configura un usuario u organización en Google Cloud?
¿Cómo se organizan los recursos, los servicios y las políticas de seguridad que contrata y configura un usuario u organización en Google Cloud?
- En proyectos y zonas.
- En zonas, que contienen diferentes folders.
- En proyectos, que contienen folders.
- En folders, que contienen proyectos. (correct)
Si queremos aumentar la disponibilidad de un servicio GCP, ¿qué debemos hacer?
Si queremos aumentar la disponibilidad de un servicio GCP, ¿qué debemos hacer?
- Desplegarlo en una región que no presente problemas legales con la información que gestiona.
- Desplegarlo como recurso regional o multirregional. (correct)
- Desplegarlo en la región más cercana a su uso.
- Desplegar una instancia VM que esté siempre ejecutándose.
Elige la respuesta incorrecta:
Elige la respuesta incorrecta:
- GCP proporciona una serie de servicios de Al bajo Cloud Al Building Blocks, para usuarios no expertos en el dominio, los cuales quieran usar Al en sus aplicaciones sin desarrollar ningún modelo.
- GCP proporciona una serie de servicios de Al bajo Al Platform, para usuarios expertos en el dominio que quieran usar Al en sus aplicaciones desarrollando sus propios modelos.
- GCP proporciona una serie de servicios de Al bajo Al Platform, para usuarios no expertos en el dominio, los cuales quieran usar Al en sus aplicaciones sin desarrollar ningún modelo. (correct)
- Entre los servicios Al para uso directo, se pueden encontrar herramientas de clasificación de imágenes o vídeo, o traductores entre diferentes idiomas.
En cuanto a la seguridad, ¿qué esquema sigue GCP?
En cuanto a la seguridad, ¿qué esquema sigue GCP?
¿Qué opción es más interesante para ejecutar tareas cortas y no críticas, que se podrían repetir si fuera necesario?
¿Qué opción es más interesante para ejecutar tareas cortas y no críticas, que se podrían repetir si fuera necesario?
Una empresa quiere almacenar los datos históricos de las nóminas de los empleados, con el único objetivo de hacer frente a una posible auditoría en los cinco años siguientes al pago de cada nómina ¿Qué opción de almacenamiento de GCP es la más adecuada en cuanto a acceso y coste?
Una empresa quiere almacenar los datos históricos de las nóminas de los empleados, con el único objetivo de hacer frente a una posible auditoría en los cinco años siguientes al pago de cada nómina ¿Qué opción de almacenamiento de GCP es la más adecuada en cuanto a acceso y coste?
Cuando se crea un proyecto en Google Cloud, ¿cómo se interconectan los servicios que engloba?
Cuando se crea un proyecto en Google Cloud, ¿cómo se interconectan los servicios que engloba?
Elige la respuesta incorrecta: Si quisiéramos desplegar un clúster Hadoop en GCP, podríamos...
Elige la respuesta incorrecta: Si quisiéramos desplegar un clúster Hadoop en GCP, podríamos...
¿A qué base de datos de código libre se asemeja BigTable?
¿A qué base de datos de código libre se asemeja BigTable?
Relaciona cada servicio GCP con el que sería su equivalente en proyectos Apache:
Relaciona cada servicio GCP con el que sería su equivalente en proyectos Apache:
Flashcards
Google Cloud Platform (GCP)
Google Cloud Platform (GCP)
Plataforma de Google para ejecutar aplicaciones a gran escala, ofreciendo recursos en la nube con alta disponibilidad y seguridad.
Región (GCP)
Región (GCP)
Área geográfica independiente con baja latencia, compuesta por zonas con recursos de GCP.
Zona (GCP)
Zona (GCP)
Dominio único de fallo dentro de una región; si una zona falla, las demás no se ven afectadas.
Recursos zonales (GCP)
Recursos zonales (GCP)
Signup and view all the flashcards
Recursos regionales (GCP)
Recursos regionales (GCP)
Signup and view all the flashcards
Recursos multiregionales (GCP)
Recursos multiregionales (GCP)
Signup and view all the flashcards
Latencia (GCP)
Latencia (GCP)
Signup and view all the flashcards
Responsabilidad compartida (GCP)
Responsabilidad compartida (GCP)
Signup and view all the flashcards
Organización (GCP)
Organización (GCP)
Signup and view all the flashcards
Google Compute Engine (GCE)
Google Compute Engine (GCE)
Signup and view all the flashcards
Instancia de máquina virtual (VM)
Instancia de máquina virtual (VM)
Signup and view all the flashcards
Preemptible instances (GCP)
Preemptible instances (GCP)
Signup and view all the flashcards
Sole-tenant nodes (GCP)
Sole-tenant nodes (GCP)
Signup and view all the flashcards
Microservicios (GCP)
Microservicios (GCP)
Signup and view all the flashcards
Google Kubernetes Engine (GKE)
Google Kubernetes Engine (GKE)
Signup and view all the flashcards
Google Cloud Run
Google Cloud Run
Signup and view all the flashcards
Virtual Private Cloud (VPC)
Virtual Private Cloud (VPC)
Signup and view all the flashcards
Subredes (GCP)
Subredes (GCP)
Signup and view all the flashcards
Persistent Disk (GCP)
Persistent Disk (GCP)
Signup and view all the flashcards
Cloud Storage (GCP)
Cloud Storage (GCP)
Signup and view all the flashcards
Standard multi-regional (GCP)
Standard multi-regional (GCP)
Signup and view all the flashcards
Standard regional (GCP)
Standard regional (GCP)
Signup and view all the flashcards
Nearline (GCP)
Nearline (GCP)
Signup and view all the flashcards
Coldline (GCP)
Coldline (GCP)
Signup and view all the flashcards
Filestore (GCP)
Filestore (GCP)
Signup and view all the flashcards
Cloud SQL (GCP)
Cloud SQL (GCP)
Signup and view all the flashcards
Bigtable (GCP)
Bigtable (GCP)
Signup and view all the flashcards
Cloud Memorystore (GCP)
Cloud Memorystore (GCP)
Signup and view all the flashcards
Dataproc (GCP)
Dataproc (GCP)
Signup and view all the flashcards
BigQuery (GCP)
BigQuery (GCP)
Signup and view all the flashcards
Study Notes
Cloud Computing III
- El concepto de computación en la nube ha sido explorado con Microsoft Azure y Amazon Web Services.
- Se profundiza en Google Cloud Platform (GCP), el tercer proveedor principal.
- Se detalla organización de recursos y servicios transversales.
- Se examinan los servicios de infraestructura (IaaS) y los de plataforma con relación a big data, analítica y machine learning.
Introducción y Objetivos
- Aprender sobre Google Cloud Platform (GCP) como proveedor principal de servicios en la nube.
- Explorar los servicios en la nube que proporciona GCP.
- Analizar detalladamente los servicios IaaS de GCP sobre los que se pueden aplicar las tecnologías de big data estudiadas.
- Conocer alternativas PaaS y SaaS enfocadas en big data, análisis y machine learning que GCP ofrece de forma nativa.
Google Cloud Platform
- Google Cloud Platform (GCP) nace de la necesidad de Google de ejecutar sus apps (Gmail, Drive...) a la escala de sus usuarios.
- La plataforma se extiende para atender las demandas del público general con esquema de pago por uso.
- Google Platform ofrece recursos en la nube con acceso global, disponibilidad, seguridad y pago por uso.
- Presenta servicios comunes de computación en la nube: almacenamiento, procesamiento, redes y seguridad.
- También ofrece: analítica de datos, DevOps, bases de datos, IA, IoT y desarrollo móvil.
- Permite modelos en la nube o híbridos, combinando ejecución en servidores propios y en la nube.
Regiones y Zonas
- GCP tiene disponibilidad global, con servicios accesibles desde cualquier lugar del mundo.
- Las localizaciones están divididas en regiones y zonas.
- Una región es un área geográfica independiente con baja latencia, compuesta por zonas donde GCP despliega recursos (un centro de datos).
- Una zona representa un dominio único de fallo dentro de una región; si falla una zona, no afecta a las demás.
- Para mayor tolerancia a fallos, las aplicaciones deben ser desplegadas en varias zonas de una región.
- GCP permite desplegar aplicaciones en varias regiones para mejorar la tolerancia a nivel regional (por ejemplo, ante un desastre natural).
- GCP ofrece servicios y recursos en tres modalidades: zonales, regionales y multiregionales.
- Los servicios zonales se despliegan en una zona, dejan de funcionar si la zona falla.
- Los servicios regionales se replican en más de una zona dentro una región,aumentando la disponibilidad de los recursos zonales..
- Los recursos multirregionales gestionados por Google se despliegan en zonas dentro de una región y también en varias regiones.
- Los recursos multiregionales optimizan la disponibilidad y eficacia, pero es más costosa.
- Pocos servicios tienen esta opción; una lista actualizada puede ser consultada en la documentación de GCP.
Consideraciones para elegir la Región
- Latencia: elegir la región más cercana a los usuarios de recursos y servicios en GCP para reducir la distancia y la latencia.
- Coste: el precio puede variar dependiendo de legislación, impuestos y otras limitaciones.
- Legislación: relacionada con la localización de datos sensibles (como el reglamento GDPR).
- Disponibilidad: no todos los servicios están disponibles en todas las regiones; consultar la documentación de GCP.
Servicios transversales: Seguridad y Gestión
- La seguridad es una prioridad en GCP, basada en infraestructura protegida por capas, control y monitorización.
- Se enfoca en privacidad y transparencia; el usuario controla el acceso y la gestión de datos.
- Los servicios de GCP comparten las mismas medidas de seguridad internas de Google.
- Seguridad operacional: búsqueda de amenazas y vulnerabilidades mediante herramientas propias y comerciales.
- Alerta sobre ataques malware que busca comprometer la integridad de cuentas o provocar robos de datos.
- Utiliza mecanismos de monitorización, prevención, detección y eliminación de software malicioso.
- Entre los aspectos supervisados están el tráfico de la red, las acciones de los empleados y bases de datos de vulnerabilidades.
- En caso de incidentes de seguridad, existen procesos definidos para manejar efectos en la confidencialidad, integridad o disponibilidad.
- GCP aplica tecnología con seguridad priorizada desde el diseño, la protección de datos está entre los principales lineamientos.
- La infraestructura está asegurada en capas que contemplan: protección en centros de datos, alarmas, seguridad del recinto, biometría, detección de intrusos,logs e informes de acceso,grabaciones, guardias de seguridad, y fuertes restricciones que limitan el acceso a menos del 1 % de los empleados de Google.
Mecanismos de Seguridad Física y Lógica
- Los centros de datos tienen fuentes de energía redundantes, climatización y detección de incendios.
- A nivel de red, tiene su red de fibra y cables submarinos para baja latencia global.
- Asegura que solo protocolos autorizados accedan y usen la red, mediante firewalls, listas control de acceso o rutado vía Google Front End (GFE).
- GFE monitorea y detecta ataques de denegación de servicio (DDoS).
- En tránsito, se usa el protocolo TLS (con Cloud Load Balancer o túneles seguros Cloud VPN).
- Ofrece servicios en distintas zonas y regiones para tolerancia a fallos y desastres naturales.
- Uso de datos: Los datos son responsabilidad del usuario, no de Google; Google no accede ni procesa datos para publicidad o venta a terceros.
- Acceso y restricciones de datos: Google aísla los datos lógicamente aunque estén en servidores físicos compartidos.
- Los diferentes roles de los usuarios tienen privilegios específicos para acceder a los datos de un proyecto en GCP.
- Cumplimiento de la regulación: Google se actualiza constantemente para cumplir con las regulaciones de cada región.
- Los servicios de GCP se rigen por un modelo de seguridad compartida entre usuario y proveedor según el servicio; IaaS, PaaS o SaaS.
Documentación de Seguridad
- Google Cloud ofrece mecanismos de seguridad y guías para cumplir con obligaciones en seguridad.
- Esta documentación se denomina security blueprints y es parte de jerarquía de seguridad de Google Cloud, con cuatro capas:
- Seguridad de la infraestructura central de Google Cloud: Proporciona seguridad a nivel de almacenamiento, privacidad de datos, comunicación entre servicios, y usuarios vía Internet, operaciones y administración.
- Seguridad en servicios y productos de Google: diseña seguridad desde el principio, controla el acceso, segmenta los servicios y protege los datos.
- Guías básicas de seguridad (foundation security blueprints): principios para ayudar al usuario a construir su implementación en la nube y cubre lo siguiente:
- Estructura de una organización en Google Cloud: Cada organización con servicios de Google Cloud es denominada como organización, la cual gestiona los recursos y políticas.
- Cada organización tiene carpetas que contienen proyectos, definiendo un conjunto de recursos.
- La función de las carpetas es unificar las políticas para la configuración de recursos consistente.
- Jerarquía de recursos y despliegue: Implementa los recursos mediante tuberías para automatización, facilita revisión, aprobación y retroceso en cada despliegue.
- Autenticación y autorización: Provee servicios de gestión de identidad (Google Cloud Identity) para administrar acceso de usuarios y mecanismos de federación de identidad (Active Directory y Single Sign-On).
- Cloud IAM permite definir grupos con roles, permisos de acceso y uso de recursos.
- Redes (segmentación y seguridad): Ofrece conexiones para interconectar nubes híbridas con los recursos on-premises y su nube pública.
- Shared Virtual Private Cloud (VPC) permite alojar los proyectos y facilita la gestión de los recursos de red.
- Para proteger y aislar recursos de proyectos diferentes, proporciona firewalls, Cloud DNS o VPC Service Controls.
- Gestión de secretos: Google Secret Manager almacena claves diferentes, API keys contraseñas, certificados y demás datos delicados cuyo acceso se maneja por medio de Cloud IAM.
- Registros: Google Cloud Logging colecta todos los logs de los servicios contratados por la organización.
- Supervisión: Google Cloud utiliza la telemetría de su plataforma para identificar configuraciones no recomendables, vulnerabilidades y comportamientos.
- También utiliza servicios como Security Command Center, Chronicle, Cloud Asset Inventory o Cloud Logging.
- Configuración del consumo: Existen mecanismos para la monitorización del uso de los recursos contratados en Google Cloud.
- Alertas evitan consumos inesperados.
- Guía de seguridad en trabajos aplicaciones:Google Cloud da recomendaciones para diseñar, construir y operar trabajos y apps en la nube como Cloud Healthcare Data Protection Toolkit (sector salud).
Servicios Básicos de GCP
- Después de conocer los conceptos transversales, hay que contemplar los servicios básicos que ofrece este proveedor.
- Al igual que todos los servicios de computación en la nube, existe bloques fundamentales sobre los cuales se dan los servicios big data de Google Cloud.
- Los bloques importantes son seguridad, computación, almacenamiento y redes.
- GCP ofrece un conjunto enfocado en big data y aprendizaje automático que reducen parte de la complicación de la gestión de infraestructura y de recursos.
Servicios de computación
- Al igual que otras plataformas, la computación es un servicio básico.
- Se pueden encontrar opciones administradas por Google, pertenecientes al modelo PaaS o SaaS (serverless), sin preocupación por la infraestructura.
- AppEngine está orientada a eventos y procesados puntuales con Cloud Functions.
- Otras opciones permiten elegir el hardware subyacente y gestionar el servicio hasta el sistema operativo con Compute Engine (IaaS).
- Existen soluciones intermedias donde Google permite configurar un grupo de máquinas, mediante un grupo Kubernetes con Kubernetes Engine (GKE) o contenedores Docker con Cloud Run, y alojado dentro de contenedores.
Casos de Uso
- Alojamiento y servicio de páginas web (desde páginas web estáticas hasta balanceo de carga y escala, y apps web con administración como Heroku o Engine Yard).
- Desplegar un grupo Hadoop para big data o servir un modelo de aprendizaje de máquina con TensorFlow.
- Las opciones más importantes dada su habilidad de montar grupos de tecnologías de big data son: Google Compute Engine (servicios vinculados) y contenedores.
- Google Compute Engine (GCE) da servidores virtuales donde el usuario elige hardware (tipo de máquina, tamaño de disco y memoria, capacidad de la red...).
- También permite configurar y administrar software quedando en las manos del usuario, pero eliminando la falta de comprar las máquinas.
- GCP se ocupa instalar el sistema operativo y las herramientas básicas.
- Para montar una instancia de GCE, Instancia de máquina virtual (VM), se tiene que elegir su modelo.
- Determina aspectos como memoria, CPU (con opciones standard, high-memory, high CPU, shared-core o GPU).
- También determina: tipo y tamaño del almacenamiento persistente (standard, SSD, local SSD o cloud storage; con atributos de capacidad, velocidad, redundancia y precio) y:
- Zona donde la instancia se va a desplegar.
- Opciones de firewall.
Configuraciones Preestablecidas
- Es posible elegir configuraciones preestablecidas para diferentes propósitos: máquinas generales (E2, N1, N2, N2D).
- También: máquinas optimizadas para cómputo intensivo (C2), requisitos de memoria altos (M2) o aceleración de hardware (A2).
- GCP muestra el precio aproximado al configurar cada instancia.
- Cada instancia tiene un disco persistente pequeño para el funcionamiento básico de la máquina.
- VM tiene ciertos sistemas operativos con herramientas preinstaladas.
- El usuario puede usar imágenes públicas (preconstruidas) o personales.
- Cada VM pertenece a una misma red virtual privada (VPC), donde las instancias de una misma VPC se comunican más rápido que diferentes VPC mediante Internet.
- Si se van a interconectar instancias, es mejor que estén en la misma PPC para mejorar la velocidad de transmisión de datos.
Alternativas a Máquinas Virtuales
- Instancias Preemptible: Instancias con menor costo, con la posibilidad de que desaparezcan en cualquier momento.
- Tiene un preaviso de 30 segundos, para guardar lo que se quiera.
- Esta es una opción para aplicaciones con tolerancia a fallos con una duración límite de 24 horas.
- Su probabilidad de cancelación depende del día y la zona, y además no se ejecutan durante las actualizaciones, lo que lleva a finalizaciones automatizadas.
- Nodos Sole-tenant: Da servidores GCE solo para los trabajos del usuario que lo contrata.
- Ofrece los VM de GCE en términos de capacidad, sistemas operativos, etc., pero todo de forma dedicada al usuario.
- Se tiene hardware dedicado, para ejecutar software con licencia atada a un único hardware.
- Contenedores: Si la aplicación a ejecutar requiere componentes (webservice, base de datos, etc.), al tener dependencias se pueden separar estos componentes en distintos contenedores.
Arquitectura y Uso de Contenedores
- Los contenedores o microservicios usan tecnologías como Docker y Kubernetes.
- VMs de GCE pueden ejecutar contenedores instalando Docker o Kubernetes, siendo el despliegue manual administrado.
- GCP tiene dos servicios específicos, Google Kubernetes Engine (GKE) y Google Run para quitar la complejidad de montar y administrar un grupo Kubernetes o contenedores Docker respectivamente.
- Las herramientas actuales pasan el despliegue de los contenedores que forman la app a las manos del desarrollador, escondiendo los detalles.
- Los contenedores crear una instancia en los nodos donde pueden ser instalados varios contenedores.
- Las ventajas de usar contenedores giran en torno la compartimentalización o microservicios.
- Aislamiento de capa de aplicación, datos y procesado de otras capas.
- Tienen portabilidad, y por esta razón se pueden desplegar en otros sistemas y desplegarlos sin complicaciones.
- Despliegue rápido, al ser muy ligeros ya que solo virtualizan el sistema operativo que los hace eficientes en velocidad.
- Contenedores pueden crear instancias y dan registro de imágenes preconstruidas.
- GCE proporciona su registro de contenedores con Google Container Registry.
- Se pueden juntar contenedores fácilmente con sistemas on-premises.
Almacenamiento de Contenedores
- Los los contenedores gozan de las mismas opciones de almacenamiento que las instancias VM de GCE.
- Sus discos son efímeros; cuando un contenedor culmina, los datos que estén guardados en disco se eliminan y al reiniciarse empieza de cero.
- gcePersistentDisk monta discos persistentes que mantengan la data de los contenedores.
- Google Cloud Run llega más allá de contenedores Docker, pero abstrayendo por completo todo el manejo de la plataforma.
- Permite escalar automáticamente ajustando el tamaño según necesite la app al momento.
Servicios de Red
- Google Cloud posee un servicio denominado Virtual Private Cloud (VPC).
- VPC representa una versión virtual de una red física de interconexión, en este caso, de servicios cloud.
- Esta configuración propicia la interconexión entre instancias VM de GCE, instancias de App Engine y otros componentes de GCP.
- Dispone además de mecanismos de equilibrio y túneles de carga para conectar redes on-premises con la red en la nube.
- VPC distribuye el tráfico hacia el backend.
Opciones de Compartir una VPC
- Organizaciones de gran tamaño pueden definir una red VPC compartida (shared) para todos usando una única cuenta.
- Una red VPC consta de particiones de direcciones IP designadas subredes.
- Cada subred se asigna a una región con al menos una subred dentro de una red VPC para usarse.
- Al crear el proyecto, se añade una red VPC que monta una subred por región.
- La red VPC son recursos globales (sin rango de IP asignadas).
- Las subredes son recursos regionales con un rango de direcciones IP asignado.
- Al montar un recurso hay que seleccionar una subred y una zona la cual determinará que subredes serán las elegibles.
- Firewall regula el tráfico en VPC y subredes.
- Recursos vinculados con PPC se pueden comunicar con otros siempre y cuando el firewall lo autorice, mediante tráfico IPv4.
- Las redes VPC se pueden modificar según las redes en juego y el tráfico a querer pasar.
Servicios de almacenamiento
- Existen distintos almacenamientos en GCP para las necesidades distintas.
- Desde almacenamiento por bloques para las instancias VM hasta almacenamiento inmutable para objetos como imágenes y videos.
- También pasando por bases de datos que se verán posteriormente.
- GCP da un rango de distintos servicios de transferencia de datos a GCP desde distintas fuentes.
- Persistent Disk es un servicio orientado a bloques cuya utilidad principal resulta en ser el almacenamiento persistente para las instancias VM y para contenedores.
- Se precisa que disco persistente e instancia de cómputo estén en la misma zona, dando opciones de replicaciones y disponibilidad multi región.
- La capacidad de almacenamiento aumenta durante el uso, tiene encriptación de datos tanto en tránsito como en reposo.
- A diferencia de otros, las instancias VM leen data del mismo atributo Persistent Disk.
- El almacenamiento monta opciones: : Discos persistentes HDD para acceso secuencial y con un costo menor. : Discos persistentes SSD con eficiencia en el acceso selectivo. : Discos SSDs locales que son físicos y atados a una instancia VM en especial.
- Cloud Storage está orientado al almacenamiento ilimitado de objetos accesibles a nivel global, su perdurabilidad es del 99,999999999% con latencia menor.
Tipos Almacenamiento Cloud
- El almacenamiento se organiza en depósitos (buckets), y todos poseen un nombre único y adjuntados a región con acceso diferente y duración del almacenamiento.
- Cloud Storage da distintas alternativas:
- Standard Multi-Regional, un método para acceso recurrente desde cada parte del mundo con redundancia del 99,95 % en un par de regiones separadas por cien millas.
- Genera la opción la más cara.
- Standard Regional con un acceso frecuente desde una zona del mundo, la probabilidad está al 99,9%, y da servicios analíticos o a instancias VM.
- Nearline con acceso por lo menos una vez por mes con disponibilidad del 99%, y está obligada a que la data siga almacenada por treinta días, pero el costo se inclina más a la lectura de la data.
- Coldline da acceso una vez al año como máximo que ofrece un 99% de probabilidad con la misma velocidad de acceso, pero da un costo muy alto de lectura y está obligada su data seguir almacenada por lo menos noventa días, mayormente usado para recuperación ante algún desastre o el tratamiento de data archiva y a lo mejor no vuelve a necesitarse.
- Archive por una probabilidad de un mantenimiento almacenado, que debe durar 365, mayormente orientado a archivo de regulado.
Data Encriptation
- Además, GCP posee un servicio llamado Object Lifecycle Managment (OLM), que puede armar transiciones de data de opciones con costos más accesibles según la recurrencia del acceso va disminuyéndose con el tiempo.
- GCP sustituye HDFS, a Cloud Storage para evadir un namenode que esté en uso en una instancia VM por todo el tiempo, generando un costo muy alto.
- Filestore se entiende como un sistema de almacenamiento de archivos en la nube de forma similar a NAS (Network Attached Storage) para las instancias VM y GKE, dando chance de escalar a centenares de TB.
- Siendo un servicio en la nube que Google se encarga de tareas necesarias para ejecutar un sistema de datos conectado a una red dándole la oportunidad a las distintas instancias VM y GKE que lo compartan.
Bases de datos
- GCP proporciona opciones de bases de datos y da dos clasificaciones bases de datos relacionales y NoSQL.
- Hay que mencionar las bases de datos en memoria (Redis) en esta sección.
- En caso de que le interese montar la base de datos, se pueden usar instancias VM o GKE, siendo su gestión propia ( Instalación, mantenimiento).
Cloud SQL
- Cloud SQL es un sistema administrado de datos totalmente por Google, que permite desplegar datos relacionales PostgreSQL, MySQL y SQL Server en la nube.
- Este servicio puede replicarse siendo parte de una zona y aumentando su eficiencia.
- Está orientado a OLTP, mejor para consultas accionarias en tandas, ni siendo oportuno para OLAP por el tamaño de consistencia que ejecuta a cada consulta.
- La singularidad que destaca dicha alternativa da un escalamiento horizontal el cual da mayor capacidad de almacenamiento y más replicación si lo amerita.
- Transfer Service da chance de transferir data desde Cloud Storage hacía AWS ( Un Bucket S3), HTTP/Htpps, Archivos locale u otro Bucket de Cloud Storage.
- Cloud Spanner es un servicio similar a Cloud SQL, pero ejecuta un motor individual.
Almacenamiento
- El almacenamiento puede ser tanto regional o global, y da probabilidades del 99,9% de actividad.
- Apunta a consultas en tandas (OLTP), y da una consistencia bastante sobresaliente entre las copias adicionales del escalamiento horizontal el cual va incrementándose las necesidades del sistema..
- La base de datos NoSQL tiene BigTabl, es oportuno para casos de leer con latencia menor con buena capacidad de acceso y escalamiento donde cargas altas analíticas o app de baja latencia pueden ajustarse.
- Se le da un atributo global o regional con una latencia que ordena unos cuentos milisegundos..
- BigTable su atributo se basa a montar exámenes rápidos de llaves continuas y también hay que diseñar sus claves ya que esos servicios almacenan llaves similares.
Modelos de Google Cloud Contigua
- BigTable se asimila a Hbase se enfocan en columnas siendo marcadas para data dispersa que ayuda a no malgastar tanto espacio,.
- BigTable lo administra GCP de HBase pero con detalles propios, da chance escalar su atributo horizontal con su propia probabilidad que disminuya y sin manejar ni mantenimiento en bases de datos.
- Asimismo tener familias de columna con soporte de almacenamiento desnormalizado.
- Cloud Firestore se entiende como uno las bases de data datos NoSQL de dirección a documentos con esquema donde transacciones ACDI puede garantizar el 99,9% con la duplicación multiregión.
- Generalmente se busca alternativas interactivas no para transacciones si no para una evaluación de velocidad .
- Firestore dependerá el tamaño del historial para consulta,. siendo diferente a si la data da 10 entradas o 10 millones.
- Para alcanzar esta función necesita de índices que den lectura rápida,. por ello no es indicado insertar data continua.o.
Plataformas
- Esta cerca a bases de datos relacionales con el atributo de hacer consulta continuas, no apuntado con la data que no ha sido estructurado.
- No da salvaguardias bastante grandes con tamaño mayor a 10MB y resulta conveniente su acceso cuando hay urgencia en la evaluación de lectura y carpetas de jerarquías guardar la alternativa y que sea indexada con actualizaciones muy lentas..
- Cloud Memorystore se agrupa a base de datos en memoria,. la administra Google, da una data Redis lo cual da probabilidad y agilidad por milisegundo.
- GCP da una rama amplia con los servicios administrados adicionales en esta plataforma.
- Los más señalados se inclinan en técnica big data para culminar los servicios de maquina.
Big Data en la Nube
- GCP posee algunos servicios que hacen referencia a big data y analíticas, con la virtud de montar una administración por GCP.
- Los datos de Apache poseen mucha similitudes a la rama de Hadoop previos.
- Dataproc da la virtud de montar clusters administrados siendo parte de las herramientas de Hadoop ,
- GCP da Hadoop (HDFS, MarReduce e YARN),
- Dataproc usa Google Cloud Storagel para evadir tener un "data central" el el cual genera el mismo costo..
- GCP está a la par lo cual está lista para accionar y culminar y dar soporte a desarrollos administrados con los que se opera en Hadoop y se ejecutan en Google Dataproc
- A la par se puede montar escalar e culminar en un rango no mayor a 90 segundos.
- Los clusters de dataporc sostienen instancias expulsables ya que son opciones idóneas para ejercer cargas con buen punto y ayudar a restaurar costo producir predicciones.
- Si no, deben estar en uso en el almacenamiento es solo para procesos,. una de ellas es el acceso la accesibilidad incluso durante una tarea, esto puede alcanzarse incorporando o extinguiendo almacenamiento o trabajando de manera interna.
- Dataproc suministra en conjuto otras herramientas de parte con como BigQuery, Cloud Storage o BigTable lo que da una buena plataforma de data
Trabajos de Proceso
- Dataflow es un sistema ETL que acciona Spark , por lo que estas versiones acciona Apache Beam con el atributos de el que permite edificar procesos de transformaciones que trabaja un buen caudal es que fragmenta y procesa a la par en un modo lote con tamaño de datos excesivos por transmisiones en vivo de gran caudal.
- . Esta función está en el atributo de la data DAG para organizar con la finalidad de las transformaciones con estructura en procesos con tarea única que encapsulan procesos a partir data externa..
- Ese camino esta fijado en programa driver con computaciones a la par en backend nodos ,, el deposito variada, como objetivo en las tablas de Cloud Sotrage o BigQuery
- BigQuey es un sistema para el que se va a hacer examenes con lenguaje SQL para trabajar conglomerados en tablas de big data, el le hace diferente con el estilo Hadoop
- No hace uso de ACID, pero con analítica de data warehouse
- Hive y Biguery hace uso para examinar esquemas y data al tener acceso a dicha data que no está siendo escrita o en almacenamiento
- El arquetipo data se montan en datasets esto solo puede ser un objetivo en big query con tablas fila columnas donde esquema se crea para evaluar la data.Cloud Pubs/sub el atributo es traspaso o es un sistema de un intermediario de capacidad con variedad donde se comunica en apache las implementaciones dan noticia a los receptores datos el suceso .
Tecnologías Cloud
- Datalab es un servicio Cloud que adiciona a su vez analiza y examina data lo que permite es de forma particular.
- Da integración , servicios Google Cloud como Dataflow Cloud Storage
- Cloud Datprep se adiciona con herramienta para examinar y mutar cantidades exorbitantes de información de fuente dispares tal se exhibe el como este herramienta interpreta lectura porcedentes cómputo.
Studying That Suits You
Use AI to generate personalized quizzes and flashcards to suit your learning preferences.
Related Documents
Description
Este cuestionario explora la organización de recursos, servicios y políticas de seguridad en Google Cloud. También aborda la disponibilidad de servicios, la seguridad en GCP y las opciones de almacenamiento de datos históricos. Además cubre la interconexión de servicios en un proyecto y el despliegue de clústeres Hadoop.