Cursos de Hadoop

Cursos de Hadoop

Capacitación en Apache Hadoop - una implementación de código abierto de dos soluciones Google BigData: GFS (Google File System) y el paradigma de programación MapReduce. Es un marco completo destinado a almacenar y procesar grandes conjuntos de datos. Hadoop es utilizado por la mayoría de los proveedores del servicio de nube global como Yahoo, Facebook o LinkedIn. Los cursos de capacitación local en vivo de Apache Hadoop demuestran a través de la discusión y la práctica manual los componentes principales del ecosistema de Hadoop y cómo estas tecnologías se pueden utilizar para resolver problemas a gran escala. La capacitación en Hadoop está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en México o en los centros de capacitación corporativa de NobleProg en México, la segunda se lleva a cabo a través de un escritorio remoto interactivo.

NobleProg -- Su Proveedor Local de Capacitación

Testimonios

★★★★★
★★★★★

Algunos de nuestros clientes

Programa del curso Apache Hadoop

Nombre del Curso
Duración
Descripción General
Nombre del Curso
Duración
Descripción General
21 horas
Python es un lenguaje de programación escalable, flexible y ampliamente utilizado para la ciencia de datos y el aprendizaje por máquina. Spark es un motor de procesamiento de datos utilizado en la búsqueda, análisis y transformación de datos grandes, mientras que Hadoop es un marco de biblioteca de software para almacenamiento y procesamiento de datos de gran escala. Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a desarrolladores que desean utilizar y integrar Spark, Hadoop, y Python para procesar, analizar y transformar grandes y complejos conjuntos de datos. Al final de este curso, los participantes podrán:
    Configure el entorno necesario para comenzar el procesamiento de datos grandes con Spark, Hadoop, y Python. Comprender las características, los componentes centrales y la arquitectura de Spark y Hadoop. Aprende cómo integrar Spark, Hadoop, y Python para el procesamiento de datos grandes. Explora las herramientas en el ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, y Flume). Construye sistemas de recomendación de filtros colaborativos similares a Netflix, YouTube, Amazon, Spotify y Google. Utilice Apache Mahout para escalar algoritmos de aprendizaje de máquina.
Formato del curso
    Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
    Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
7 horas
This course covers how to use Hive SQL language (AKA: Hive HQL, SQL on Hive, HiveQL) for people who extract data from Hive
14 horas
Datameer es una plataforma de inteligencia de negocios y análisis construida en Hadoop. Permite a los usuarios finales acceder, explorar y correlacionar datos a gran escala, estructurados, semiestructurados y no estructurados de una manera fácil de usar. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Datameer para superar la pronunciada curva de aprendizaje de Hadoop a medida que avanzan en la configuración y el análisis de una serie de grandes fuentes de datos. Al final de esta capacitación, los participantes podrán:
  • Crea, selecciona e interactivamente explora un lago de datos empresariales
  • Acceda a almacenes de datos de inteligencia empresarial, bases de datos transaccionales y otras tiendas analíticas
  • Use una interfaz de usuario de hoja de cálculo para diseñar las tuberías de procesamiento de datos de extremo a extremo
  • Acceda a funciones preconstruidas para explorar relaciones de datos complejas
  • Utilice asistentes de arrastrar y soltar para visualizar datos y crear paneles
  • Use tablas, cuadros, gráficos y mapas para analizar los resultados de las consultas
Audiencia
  • Analistas de datos
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
21 horas
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment Course goal: Getting knowledge regarding Hadoop cluster administration
35 horas
Audiencia: El curso está dirigido a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en un entorno de sistema distribuido Gol: Conocimiento profundo sobre administración de clúster de Hadoop.
28 horas
Audience: This course is intended to demystify big data/hadoop technology and to show it is not difficult to understand.
28 horas
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components (HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.  
21 horas
Apache Hadoop es uno de los frameworks más populares para procesar Big Data en clusters de servidores. Este curso profundiza en el manejo de datos en HDFS, Pig, Hive y HBase. Estas técnicas avanzadas de programación serán beneficiosas para los desarrolladores experimentados de Hadoop. Audiencia: desarrolladores Duración: tres días Formato: conferencias (50%) y laboratorios prácticos (50%).
21 horas
This course introduces HBase – a NoSQL store on top of Hadoop.  The course is intended for developers who will be using HBase to develop applications,  and administrators who will manage HBase clusters. We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course  is very  hands-on with lots of lab exercises.
Duration : 3 days Audience : Developers  & Administrators
21 horas
Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. En este curso de tres (opcionalmente, cuatro) días, los asistentes aprenderán sobre los beneficios empresariales y los casos de uso de Hadoop y su ecosistema, cómo planificar el despliegue y crecimiento del clúster, cómo instalar, mantener, monitorear, solucionar y optimizar Hadoop. También practicarán la carga de datos a granel del clúster, se familiarizarán con varias distribuciones de Hadoop y practicarán la instalación y administración de herramientas del ecosistema de Hadoop. El curso finaliza con la discusión sobre la seguridad del clúster con Kerberos. "... Los materiales estaban muy bien preparados y cubiertos a fondo. El laboratorio fue muy servicial y bien organizado "
- Andrew Nguyen, Ingeniero Principal de Integración DW, Microsoft Online Advertising Audiencia
Administradores de Hadoop Formato
Conferencias y laboratorios prácticos, balance aproximado 60% conferencias, 40% laboratorios.
21 horas
Apache Hadoop is the most popular framework for processing Big Data. Hadoop provides rich and deep analytics capability, and it is making in-roads in to tradional BI analytics world. This course will introduce an analyst to the core components of Hadoop eco system and its analytics Audience Business Analysts Duration three days Format Lectures and hands on labs.
21 horas
Hadoop es el marco de procesamiento de Big Data más popular .
14 horas
Audience
  • Developers
Format of the Course
  • Lectures, hands-on practice, small tests along the way to gauge understanding
21 horas
Este curso está dirigido a desarrolladores, arquitectos, científicos de datos o cualquier perfil que requiera acceso a los datos de forma intensiva o regular. El enfoque principal del curso es la manipulación y transformación de datos. Entre las herramientas del ecosistema de Hadoop, este curso incluye el uso de Pig y Hive, que se utilizan mucho para la transformación y manipulación de datos. Esta capacitación también aborda las métricas de rendimiento y la optimización del rendimiento. El curso es completamente práctico y está marcado por presentaciones de los aspectos teóricos.
14 horas
In this instructor-led training in México, participants will learn the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems. By learning these foundations, participants will  improve their ability to communicate with the developers and implementers of these systems as well as the data scientists and analysts that many IT projects involve. Audience
  • Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
  • Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
14 horas
Apache Samza es un marco computacional asíncrono de código abierto casi en tiempo real para el procesamiento de flujos. Utiliza Apache Kafka para mensajería y Apache Hadoop YARN para tolerancia a fallas, aislamiento de procesador, seguridad y administración de recursos. Esta capacitación en vivo dirigida por un instructor presenta los principios detrás de los sistemas de mensajería y el procesamiento distribuido de flujo, mientras acompaña a los participantes a través de la creación de un proyecto basado en Samza y la ejecución de trabajos. Al final de esta capacitación, los participantes podrán: Usa Samza para simplificar el código necesario para producir y consumir mensajes
Desacoplar el manejo de los mensajes de una aplicación
Utilice Samza para implementar cálculos asincrónicos casi en tiempo real
Utilice el procesamiento de flujo para proporcionar un mayor nivel de abstracción en los sistemas de mensajería
Audiencia
  • Desarrolladores
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
7 horas
Alexio es un sistema de almacenamiento distribuido virtual de código abierto que unifica sistemas de almacenamiento dispares y permite que las aplicaciones interactúen con datos a la velocidad de la memoria. Es utilizado por compañías como Intel, Baidu y Alibaba. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Alexio para unir diferentes marcos de computación con sistemas de almacenamiento y administrar de manera eficiente los datos de escala de varios petabytes mientras avanzan en la creación de una aplicación con Alluxio. Al final de esta capacitación, los participantes podrán:
  • Desarrolle una aplicación con Alluxio
  • Conecte aplicaciones y sistemas de big data mientras conserva un espacio de nombres
  • Extrae de manera eficiente el valor de los grandes datos en cualquier formato de almacenamiento
  • Mejorar el rendimiento de la carga de trabajo
  • Implemente y administre Alluxio de forma independiente o en clúster
Audiencia
  • Científico de datos
  • Desarrollador
  • Administrador de sistema
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Tigon es un marco de procesamiento de flujo de fuente abierta, en tiempo real, de baja latencia y alto rendimiento, nativo, que se asienta sobre HDFS y HBase para la persistencia. Las aplicaciones de Tigon abordan casos de uso tales como detección y análisis de intrusiones de red, análisis de mercado de redes sociales, análisis de ubicación y recomendaciones en tiempo real para los usuarios. Este curso presencial, dirigido por un instructor, presenta el enfoque de Tigon para combinar el procesamiento en tiempo real y por lotes a medida que guía a los participantes a través de la creación de una aplicación de muestra. Al final de esta capacitación, los participantes podrán:
  • Cree aplicaciones potentes de procesamiento de flujo para manejar grandes volúmenes de datos
  • Fuentes de flujo de procesos como Twitter y registros de servidor web
  • Utilice Tigon para unir, filtrar y agregar secuencias rápidamente
Audiencia
  • Desarrolladores
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
     
21 horas
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo. Al final de esta capacitación, los participantes podrán:
  • Instalar y configurar Apachi NiFi
  • Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes.
  • Automatice los flujos de datos
  • Habilitar análisis de transmisión
  • Aplicar varios enfoques para la ingestión de datos
  • Transformar Big Data y en conocimientos empresariales
Audiencia
  • Administradores del sistema
  • Ingenieros de datos
  • Desarrolladores
  • DevOps
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
7 horas
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una cantidad de extensiones de demostración, componentes y procesadores que usan Apache NiFi. Al final de esta capacitación, los participantes podrán:
  • Comprender los conceptos de arquitectura y flujo de datos de NiFi
  • Desarrollar extensiones utilizando NiFi y API de terceros
  • Desarrolla a medida su propio procesador Apache Nifi
  • Ingerir y procesar datos en tiempo real de formatos de archivo dispares y poco comunes y fuentes de datos
Audiencia
  • Desarrolladores
  • Ingenieros de datos
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
     
28 horas
Hadoop es un popular marco de procesamiento Big Data. Python es un lenguaje de programación de alto nivel famoso por su claridad de sintaxis y código. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo trabajar con Hadoop, MapReduce, Pig y Spark utilizando Python, ya que pasan por múltiples ejemplos y casos de uso. Al final de esta capacitación, los participantes podrán:
  • Comprender los conceptos básicos detrás de Hadoop, MapReduce, Pig y Spark
  • Utilice Python con Hadoop Distributed File System (HDFS), MapReduce, Pig y Spark
  • Utilice Snakebite para acceder mediante programación a HDFS dentro de Python
  • Usa mrjob para escribir trabajos de MapReduce en Python
  • Escribir programas Spark con Python
  • Extienda la funcionalidad del cerdo usando las UDF de Python
  • Administrar trabajos de MapReduce y scripts Pig utilizando Luigi
Audiencia
  • Desarrolladores
  • Profesionales de TI
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Sqoop es una herramienta de software de código abierto para transferir datos entre Hadoop y bases de datos relacionales o mainframes Se puede usar para importar datos desde un sistema de administración de bases de datos relacionales (RDBMS) como MySQL u Oracle o un mainframe al Sistema de archivos distribuidos de Hadoop (HDFS) A partir de entonces, los datos se pueden transformar en Hadoop MapReduce, y luego se pueden volver a exportar a un RDBMS En esta capacitación en vivo con instructor, los participantes aprenderán a usar Sqoop para importar datos de una base de datos relacional tradicional al almacenamiento de Hadoop, como HDFS o Hive y viceversa Al final de esta capacitación, los participantes podrán: Instalar y configurar Sqoop Importar datos de MySQL a HDFS y Hive Importar datos de HDFS y Hive a MySQL Audiencia Administradores del sistema Ingenieros de datos Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica manual Nota Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos .
21 horas
El análisis de Big Data implica el proceso de examinar grandes cantidades de conjuntos de datos variados para descubrir correlaciones, patrones ocultos y otras ideas útiles. La industria de la salud tiene cantidades masivas de datos clínicos y médicos heterogéneos complejos. La aplicación de análisis de big data en datos de salud presenta un enorme potencial para obtener información para mejorar la prestación de servicios de salud. Sin embargo, la magnitud de estos conjuntos de datos plantea grandes desafíos en los análisis y aplicaciones prácticas en un entorno clínico. En esta capacitación en vivo (remota) dirigida por un instructor, los participantes aprenderán cómo realizar análisis de big data en salud a medida que realizan una serie de ejercicios prácticos de laboratorio en vivo. Al final de esta capacitación, los participantes podrán:
  • Instale y configure herramientas de análisis de big data como Hadoop MapReduce y Spark
  • Comprender las características de los datos médicos.
  • Aplicar técnicas de big data para manejar datos médicos.
  • Estudiar los sistemas y algoritmos de big data en el contexto de las aplicaciones de salud.
Audiencia
  • Desarrolladores
  • Científicos de datos
Formato del curso
  • Conferencia en parte, discusión en parte, ejercicios y práctica práctica.
Nota
  • Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
35 horas
Apache Hadoop es un marco de procesamiento de datos popular para el procesamiento de grandes conjuntos de datos en muchos ordenadores. Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a los administradores de sistemas que desean aprender cómo configurar, implementar y gestionar Hadoop clusters dentro de su organización. Al final de este curso, los participantes podrán:
    Instalar y configurar Apache Hadoop. Comprender los cuatro componentes principales del ecosistema: HDFS, MapReduce, YARN y Hadoop Common. Utilice Hadoop Sistema de archivos distribuidos (HDFS) para escalar un cluster a cientos o miles de nodos. •   Instalar HDFS para operar como motor de almacenamiento para los despachos de Spark en prisión. Instalar Spark para acceder a soluciones de almacenamiento alternativas como Amazon S3 y NoSQL sistemas de datos como Redis, Elasticsearch, Couchbase, Aerospike, etc. Realizar tareas administrativas como proporcionar, gestionar, monitorear y asegurar un cluster de Apache.
Formato del curso
    Lecciones y discusiones interactivas. Muchos ejercicios y prácticas. Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
    Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
21 horas
Cloudera Impala es un motor de consulta SQL de procesamiento masivo paralelo (MPP) de código abierto para clústeres Apache Hadoop. Impala permite a los usuarios emitir consultas SQL de baja latencia a los datos almacenados en Hadoop Distributed File System y Apache Hbase sin necesidad de movimiento o transformación de datos. Audiencia Este curso está dirigido a analistas y científicos de datos que realizan análisis sobre datos almacenados en Hadoop a través de herramientas de Business Intelligence o SQL. Después de este curso, los delegados podrán
  • Extraer información significativa de los clústeres de Hadoop con Impala.
  • Escriba programas específicos para facilitar la Inteligencia de Negocios en Impala SQL Dialect.
  • Solucionar problemas de Impala.
21 horas
Apache Ambari es una plataforma de administración de código abierto para el aprovisionamiento, la administración, el monitoreo y la seguridad de los clústeres de Apache Hadoop. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán las herramientas y prácticas de administración proporcionadas por Ambari para administrar con éxito los clústeres de Hadoop. Al final de esta capacitación, los participantes podrán: Configure un clúster de Big Data en tiempo real usando Ambari
  • Aplicar las características y funcionalidades avanzadas de Ambari a varios casos de uso
  • Agregue y elimine nodos sin problemas según sea necesario
  • Mejore el rendimiento de un clúster de Hadoop a través de ajustes y ajustes
Audiencia
  • DevOps
  • Administradores del sistema
  • DBAs
  • Profesionales de prueba de Hadoop
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
21 horas
Hortonworks Data Platform es una plataforma de soporte de Apache Hadoop de código abierto que proporciona una base estable para el desarrollo de soluciones de big data en el ecosistema de Apache Hadoop. Esta capacitación en vivo dirigida por un instructor presenta a Hortonworks y guía a los participantes a través del despliegue de la solución Spark + Hadoop. Al final de esta capacitación, los participantes podrán:
  • Use Hortonworks para ejecutar confiablemente Hadoop a gran escala
  • Unifique las capacidades de seguridad, gobierno y operaciones de Hadoop con los flujos de trabajo analíticos ágiles de Spark.
  • Use Hortonworks para investigar, validar, certificar y dar soporte a cada uno de los componentes en un proyecto Spark
  • Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo.
Audiencia
  • Administradores de Hadoop
Formato del curso
  • Conferencia de parte, discusión en parte, ejercicios y práctica práctica
     

Last Updated:

Próximos Cursos Apache Hadoop

Cursos de Fin de Semana de Apache Hadoop, Capacitación por la Tarde de Hadoop, Apache Hadoop boot camp, Clases de Apache Hadoop, Capacitación de Fin de Semana de Apache Hadoop, Cursos por la Tarde de Hadoop, Hadoop coaching, Instructor de Hadoop, Capacitador de Hadoop, Hadoop con instructor, Cursos de Formación de Apache Hadoop, Hadoop en sitio, Cursos Privados de Apache Hadoop, Clases Particulares de Apache Hadoop, Capacitación empresarial de Hadoop, Talleres para empresas de Hadoop, Cursos en linea de Hadoop, Programas de capacitación de Hadoop, Clases de Apache Hadoop

Promociones

No hay descuentos de cursos por ahora.

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No transmitiremos ni venderemos su dirección a otras personas.
En cualquier momento puede cambiar sus preferencias o cancelar su suscripción por completo.

is growing fast!

We are looking to expand our presence in Mexico!

As a Business Development Manager you will:

  • expand business in Mexico
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!

Este sitio en otros países / regiones