Apache Hadoop - Introducción y Características
39 Questions
2 Views

Choose a study mode

Play Quiz
Study Flashcards
Spaced Repetition
Chat to lesson

Podcast

Play an AI-generated podcast conversation about this lesson

Questions and Answers

¿Cuál es una ventaja de Apache Hadoop en comparación con soluciones tradicionales de almacenamiento de datos?

  • Coste de implantación mucho más bajo (correct)
  • Mayor coste de implantación
  • Permite almacenar datos únicamente en bases de datos relacionales
  • Requiere hardware especializado y caro
  • ¿Qué tipo de datos puede almacenar Apache Hadoop?

  • Cualquier tipo de datos: estructurados, semi-estructurados y no estructurados (correct)
  • Solo datos estructurados
  • Solo datos no estructurados
  • Datos estructurados y semi-estructurados únicamente
  • ¿Cuál es el componente que utiliza Hadoop para almacenar y recuperar datos?

  • Hadoop Cloud
  • Hadoop Data Store
  • HDFS (correct)
  • Apache Hive
  • ¿Qué se entiende por la escalabilidad de Apache Hadoop?

    <p>Capacidad de aumentar la infraestructura según necesidades</p> Signup and view all the answers

    ¿Qué tipo de procesamiento permite Apache Hadoop?

    <p>Ambos, procesamiento en lotes y en tiempo real</p> Signup and view all the answers

    ¿Cuál de las siguientes afirmaciones es incorrecta sobre Apache Hadoop?

    <p>Hadoop es una solución comercial que requiere pagos de licencias</p> Signup and view all the answers

    ¿Cuál de las siguientes características describe mejor a Apache Hadoop?

    <p>Es tolerante a fallos y funciona en un entorno distribuido</p> Signup and view all the answers

    ¿Qué significa que Hadoop se basa en hardware commodity?

    <p>Puede ejecutarse en hardware común de bajo coste</p> Signup and view all the answers

    ¿Cuál de las siguientes herramientas se utiliza para la gobernanza de datos en Hadoop?

    <p>Apache Atlas</p> Signup and view all the answers

    ¿Qué funcionalidad ofrece Apache Accumulo?

    <p>Acceso aleatorio y atómico a datos</p> Signup and view all the answers

    ¿Qué función principal tiene Apache Impala?

    <p>Tratamiento de datos en HDFS mediante SQL con alto rendimiento</p> Signup and view all the answers

    ¿Cuál es el propósito de Apache Mahout?

    <p>Desarrollar y ejecutar modelos de machine learning</p> Signup and view all the answers

    ¿Qué proporciona Apache Zeppelin a los Data Scientists?

    <p>Notebooks para análisis y colaboración</p> Signup and view all the answers

    ¿Cómo actúa el conjunto de servidores en la arquitectura de Hadoop ante un usuario externo?

    <p>Como una sola máquina, ocultando la distribución de los datos</p> Signup and view all the answers

    ¿Cuál de las siguientes afirmaciones sobre Apache Phoenix es correcta?

    <p>Permite el acceso a HBase mediante una interfaz SQL</p> Signup and view all the answers

    ¿Qué característica es especial de Apache Atlas en comparación con otras herramientas?

    <p>Específicamente diseñada para gobierno de datos</p> Signup and view all the answers

    Cuál es la capacidad habitual de memoria RAM en los nodos worker?

    <p>128 o 256 gigabytes</p> Signup and view all the answers

    Qué tipo de configuraciones suelen tener los discos en los nodos worker?

    <p>JBOD</p> Signup and view all the answers

    Cuál es la velocidad habitual de red en un sistema distribuido?

    <p>10 gigabits por segundo</p> Signup and view all the answers

    Qué se intenta maximizar en los nodos worker respecto al almacenamiento?

    <p>Capacidad de almacenamiento</p> Signup and view all the answers

    Cuántos discos suelen tener, en promedio, los nodos worker?

    <p>10-12 discos</p> Signup and view all the answers

    Cuál es la configuración común para las CPUs en los nodos worker?

    <p>Dos CPUs con 6-8 núcleos cada una</p> Signup and view all the answers

    Qué tipo de fuentes de alimentación se suelen utilizar en estos sistemas?

    <p>Fuentes de alimentación redundantes</p> Signup and view all the answers

    ¿Cuál es la función del nodo pasivo en un clúster Hadoop?

    <p>Realizar copias de seguridad del nodo activo.</p> Signup and view all the answers

    ¿Cómo garantiza Hadoop la tolerancia a fallos en el almacenamiento?

    <p>Haciendo duplicados de los datos en diferentes nodos.</p> Signup and view all the answers

    ¿Cuál de las siguientes afirmaciones sobre los nodos frontera es correcta?

    <p>Se suelen montar varios servicios en diferentes nodos.</p> Signup and view all the answers

    ¿Qué ocurre si un nodo worker falla durante la ejecución de una tarea?

    <p>El maestro reenvía la tarea a otro nodo.</p> Signup and view all the answers

    ¿Qué método utiliza Hadoop para manejar el fallo de un nodo activo?

    <p>Transfiere automáticamente todas las operaciones al nodo pasivo.</p> Signup and view all the answers

    ¿Qué se debe hacer si se desea aumentar la capacidad de almacenamiento en un clúster Hadoop?

    <p>Incrementar el número de nodos worker.</p> Signup and view all the answers

    ¿Cómo se asegura el clúster Hadoop de que puede continuar accesando datos tras la rotura de un disco?

    <p>Utilizando réplicas almacenadas en otros nodos.</p> Signup and view all the answers

    ¿Cuál es la relación entre los nodos maestros y nodos worker en un clúster Hadoop?

    <p>Los nodos worker realizan tareas bajo la coordinación de los nodos maestros.</p> Signup and view all the answers

    ¿Cuál es uno de los principales factores que limita el uso de Hadoop en las organizaciones?

    <p>La escasez de perfiles con conocimientos en Hadoop</p> Signup and view all the answers

    ¿Cuál es una consecuencia del aumento de la demanda de perfiles en Big Data?

    <p>Los salarios de los profesionales en este campo son más altos</p> Signup and view all the answers

    ¿Qué debe tener en cuenta una empresa al implementar Hadoop en su infraestructura?

    <p>Los costos de adquisición y mantenimiento de la plataforma</p> Signup and view all the answers

    ¿Qué implica la necesidad de formar a los empleados al introducir Hadoop?

    <p>Los empleados deben adaptarse a una nueva tecnología</p> Signup and view all the answers

    ¿Qué se debe considerar acerca del hardware al implementar Hadoop?

    <p>No siempre implica costos inferiores a otras tecnologías</p> Signup and view all the answers

    ¿Cuál es un riesgo asociado a la escasez de perfiles especializados en Hadoop?

    <p>Puede haber una fuga constante de talento hacia otras ofertas</p> Signup and view all the answers

    ¿Qué aspecto de Hadoop puede ser engañoso respecto a su costo?

    <p>El costo del hardware puede ser subestimado</p> Signup and view all the answers

    ¿Cuál es un beneficio que pueden disfrutar los profesionales en Big Data debido a la alta demanda?

    <p>Pueden elegir proyectos y compañías más atractivas</p> Signup and view all the answers

    Study Notes

    Apache Hadoop

    • Es una plataforma open source para almacenamiento y procesamiento a bajo coste de grandes volúmenes de datos.
    • Se basa en la utilización de hardware commodity y en un paradigma de procesamiento de datos distribuido.
    • Tiene un diseño escalable y tolerante a errores, ideal para entornos donde los fallos del hardware son comunes.

    Caracteristicas Claves

    • Almacenamiento: Ofrece la capacidad de almacenamiento y recupero de datos a través de un sistema de ficheros llamado HDFS.
    • Procesamiento: Permite la creación de aplicaciones para procesar datos almacenados en el sistema de archivos, tanto de forma batch como real-time.
    • Coste: Es significativamente más económico que las soluciones tradicionales de almacenamiento y procesamiento de datos como las bases de datos relacionales o los sistemas mainframe.
    • Volumen: Permite almacenar una amplia variedad de volúmenes de datos, desde megabytes hasta petabytes.
    • Estructura: Admite datos estructurados, semiestructurados y no estructurados.
    • Distribuido: Opera en un conjunto de servidores (nodos) que trabajan juntos para almacenar o procesar datos, en lugar de un único servidor centralizado.
    • Escalable: La infraestructura (servidores) se puede ampliar para satisfacer las necesidades de almacenamiento o procesamiento del caso de uso.

    Arquitectura Hadoop

    • Modelo Distribuido: Se instala en un conjunto de servidores que trabajan juntos para realizar las tareas.
    • Tolerancia a Fallos:
      • Se implementa mediante redundancia de nodos.
      • En caso de que un nodo falle, los otros nodos asumen su trabajo y garantizan la continuidad del servicio.
      • Los datos se replican en diferentes nodos para evitar la pérdida de información en caso de fallo.
      • Los nodos maestros se duplican para garantizar la continuidad del servicio en caso de fallo del nodo activo.
    • Escalabilidad: Se puede aumentar o disminuir el número de nodos worker para ajustar la capacidad del sistema de almacenamiento o procesamiento.

    Recursos del Sistema

    • Memoria: Lo habitual es una capacidad de 128 o 256 GB de memoria RAM de alta calidad.
    • Red: Se necesita una red rápida para evitar cuellos de botella en el rendimiento del sistema. Lo común es una red de 10 GB por segundo en par duplicado, alcanzando 20 GB, pero también se utilizan redes de alto rendimiento como Infiniband, que superan los 50 GB por segundo.
    • Fuente de alimentación: Se utilizan fuentes de alimentación redundantes para garantizar el suministro en caso de interrupciones.

    Configuración de Nodos Worker

    • Disco: Se montan discos sin replicación, ya que la replicación se realiza a nivel de HDFS. Se utiliza la configuración JBOD (Just a Bunch of Disks), donde cada disco es independiente y se utiliza para aumentar la capacidad del nodo.
    • CPU: Normalmente se utilizan CPUs de gama media con dos CPUs por nodo y 6-8 núcleos por CPU.
    • Memoria: Se necesita una memoria mínima de 64 GB para la ejecución de tareas, la mayoría utiliza nodos con 128 o 256 GB de RAM.
    • Red: Se utiliza la misma que los nodos maestros, con un ancho de banda de 10-20 gigabits por segundo.

    Retos y Consideraciones

    • Falta de profesionales: Hay escasez de perfiles con experiencia en Hadoop y en las herramientas del ecosistema, lo cual genera altos costes de personal y rotación de personal.
    • Coste del hardware: Aunque es más económico que otras tecnologías, no es tan barato como se cree. Es importante realizar una estimación precisa de los costes de adquisición y mantenimiento del sistema.
    • Integración: La integración de Hadoop con otras arquitecturas de gestión de datos puede ser compleja y requerir adaptación y formación del personal.

    Studying That Suits You

    Use AI to generate personalized quizzes and flashcards to suit your learning preferences.

    Quiz Team

    Related Documents

    Description

    Este cuestionario ofrece una visión general sobre Apache Hadoop, una plataforma open source diseñada para el almacenamiento y procesamiento de grandes volúmenes de datos. Aprenderás sobre su arquitectura, características clave y ventajas frente a soluciones tradicionales. Ideal para quienes buscan entender el ecosistema de Big Data.

    More Like This

    Understanding Apache Hadoop Framework
    10 questions
    Apache Hadoop Overview
    10 questions

    Apache Hadoop Overview

    WellManneredPrime avatar
    WellManneredPrime
    Introduction to Apache Hadoop
    33 questions

    Introduction to Apache Hadoop

    ExuberantPenguin7970 avatar
    ExuberantPenguin7970
    Use Quizgecko on...
    Browser
    Browser