Capacitación en Apache Hadoop - una implementación de código abierto de dos soluciones Google BigData: GFS (Google File System) y el paradigma de programación MapReduce.
Es un marco completo destinado a almacenar y procesar grandes conjuntos de datos. Hadoop es utilizado por la mayoría de los proveedores del servicio de nube global como Yahoo, Facebook o LinkedIn. Los cursos de capacitación local en vivo de Apache Hadoop demuestran a través de la discusión y la práctica manual los componentes principales del ecosistema de Hadoop y cómo estas tecnologías se pueden utilizar para resolver problemas a gran escala.
La capacitación en Hadoop está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en México o en los centros de capacitación corporativa de NobleProg en México, la segunda se lleva a cabo a través de un escritorio remoto interactivo.
NobleProg -- Su Proveedor Local de Capacitación
Testimonios
★★★★★
★★★★★
El conocer que hay un programa que tiene muchas aplicaciones potenciales para el trabajo que desarrollo
Jorge Alberto Martinez - Rosalía Báez Sánchez, OIT para México y Cuba
Curso: Apache NiFi for Administrators
La interación del profesor con el alumno, que esperaba a cada alumno jy explicaba si era necesario repetidas veces.
Daniela Guadalupe Tenorio Rodríguez - Rosalía Báez Sánchez, OIT para México y Cuba
Curso: Apache NiFi for Administrators
En realidad todo estuvo interesante
Alvaro Lopez Zenteno Cato - Rosalía Báez Sánchez, OIT para México y Cuba
Curso: Apache NiFi for Administrators
Los temas los maneja muy bien y resuelve las dudas, además nos llevaba paso a paso en las prácticas.
Francisco Javier Hernández Sánchez - Rosalía Báez Sánchez, OIT para México y Cuba
Curso: Apache NiFi for Administrators
Los temas los maneja muy bien y resuelve las dudas, además nos llevaba paso a paso en las prácticas.
Francisco Javier Hernández Sánchez - Rosalía Báez Sánchez, OIT para México y Cuba
Curso: Apache NiFi for Administrators
El dominio del tema
Rosalía Báez Sánchez, OIT para México y Cuba
Curso: Apache NiFi for Administrators
La exposición Excelente
SANDRA RAMIREZ - Alejandra Nava Huerta, Organización Internacional del Trabajo
Curso: Apache NiFi for Developers
la explicación
Alejandra Nava Huerta, Organización Internacional del Trabajo
Python es un lenguaje de programación escalable, flexible y ampliamente utilizado para la ciencia de datos y el aprendizaje por máquina. Spark es un motor de procesamiento de datos utilizado en la búsqueda, análisis y transformación de datos grandes, mientras que Hadoop es un marco de biblioteca de software para almacenamiento y procesamiento de datos de gran escala.
Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a desarrolladores que desean utilizar y integrar Spark, Hadoop, y Python para procesar, analizar y transformar grandes y complejos conjuntos de datos.
Al final de este curso, los participantes podrán:
Configure el entorno necesario para comenzar el procesamiento de datos grandes con Spark, Hadoop, y Python.
Comprender las características, los componentes centrales y la arquitectura de Spark y Hadoop.
Aprende cómo integrar Spark, Hadoop, y Python para el procesamiento de datos grandes.
Explora las herramientas en el ecosistema Spark (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka, y Flume).
Construye sistemas de recomendación de filtros colaborativos similares a Netflix, YouTube, Amazon, Spotify y Google.
Utilice Apache Mahout para escalar algoritmos de aprendizaje de máquina.
Formato del curso
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Datameer es una plataforma de inteligencia de negocios y análisis construida en Hadoop. Permite a los usuarios finales acceder, explorar y correlacionar datos a gran escala, estructurados, semiestructurados y no estructurados de una manera fácil de usar.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Datameer para superar la pronunciada curva de aprendizaje de Hadoop a medida que avanzan en la configuración y el análisis de una serie de grandes fuentes de datos.
Al final de esta capacitación, los participantes podrán:
Crea, selecciona e interactivamente explora un lago de datos empresariales
Acceda a almacenes de datos de inteligencia empresarial, bases de datos transaccionales y otras tiendas analíticas
Use una interfaz de usuario de hoja de cálculo para diseñar las tuberías de procesamiento de datos de extremo a extremo
Acceda a funciones preconstruidas para explorar relaciones de datos complejas
Utilice asistentes de arrastrar y soltar para visualizar datos y crear paneles
Use tablas, cuadros, gráficos y mapas para analizar los resultados de las consultas
Audiencia
Analistas de datos
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment
Course goal:
Getting knowledge regarding Hadoop cluster administration
Audiencia:
El curso está dirigido a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en un entorno de sistema distribuido
Gol:
Conocimiento profundo sobre administración de clúster de Hadoop.
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components (HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.
Apache Hadoop es uno de los frameworks más populares para procesar Big Data en clusters de servidores. Este curso profundiza en el manejo de datos en HDFS, Pig, Hive y HBase. Estas técnicas avanzadas de programación serán beneficiosas para los desarrolladores experimentados de Hadoop.
Audiencia: desarrolladores
Duración: tres días
Formato: conferencias (50%) y laboratorios prácticos (50%).
This course introduces HBase – a NoSQL store on top of Hadoop. The course is intended for developers who will be using HBase to develop applications, and administrators who will manage HBase clusters.
We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course is very hands-on with lots of lab exercises.
Duration : 3 days
Audience : Developers & Administrators
Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. En este curso de tres (opcionalmente, cuatro) días, los asistentes aprenderán sobre los beneficios empresariales y los casos de uso de Hadoop y su ecosistema, cómo planificar el despliegue y crecimiento del clúster, cómo instalar, mantener, monitorear, solucionar y optimizar Hadoop. También practicarán la carga de datos a granel del clúster, se familiarizarán con varias distribuciones de Hadoop y practicarán la instalación y administración de herramientas del ecosistema de Hadoop. El curso finaliza con la discusión sobre la seguridad del clúster con Kerberos.
"... Los materiales estaban muy bien preparados y cubiertos a fondo. El laboratorio fue muy servicial y bien organizado "
- Andrew Nguyen, Ingeniero Principal de Integración DW, Microsoft Online Advertising
Audiencia
Administradores de Hadoop
Formato
Conferencias y laboratorios prácticos, balance aproximado 60% conferencias, 40% laboratorios.
Apache Hadoop is the most popular framework for processing Big Data. Hadoop provides rich and deep analytics capability, and it is making in-roads in to tradional BI analytics world. This course will introduce an analyst to the core components of Hadoop eco system and its analytics
Audience
Business Analysts
Duration
three days
Format
Lectures and hands on labs.
Este curso está dirigido a desarrolladores, arquitectos, científicos de datos o cualquier perfil que requiera acceso a los datos de forma intensiva o regular.
El enfoque principal del curso es la manipulación y transformación de datos.
Entre las herramientas del ecosistema de Hadoop, este curso incluye el uso de Pig y Hive, que se utilizan mucho para la transformación y manipulación de datos.
Esta capacitación también aborda las métricas de rendimiento y la optimización del rendimiento.
El curso es completamente práctico y está marcado por presentaciones de los aspectos teóricos.
In this instructor-led training in México, participants will learn the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems. By learning these foundations, participants will improve their ability to communicate with the developers and implementers of these systems as well as the data scientists and analysts that many IT projects involve.
Audience
Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
Apache Samza es un marco computacional asíncrono de código abierto casi en tiempo real para el procesamiento de flujos. Utiliza Apache Kafka para mensajería y Apache Hadoop YARN para tolerancia a fallas, aislamiento de procesador, seguridad y administración de recursos.
Esta capacitación en vivo dirigida por un instructor presenta los principios detrás de los sistemas de mensajería y el procesamiento distribuido de flujo, mientras acompaña a los participantes a través de la creación de un proyecto basado en Samza y la ejecución de trabajos.
Al final de esta capacitación, los participantes podrán:
Usa Samza para simplificar el código necesario para producir y consumir mensajes
Desacoplar el manejo de los mensajes de una aplicación
Utilice Samza para implementar cálculos asincrónicos casi en tiempo real
Utilice el procesamiento de flujo para proporcionar un mayor nivel de abstracción en los sistemas de mensajería
Audiencia
Desarrolladores
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Alexio es un sistema de almacenamiento distribuido virtual de código abierto que unifica sistemas de almacenamiento dispares y permite que las aplicaciones interactúen con datos a la velocidad de la memoria. Es utilizado por compañías como Intel, Baidu y Alibaba.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Alexio para unir diferentes marcos de computación con sistemas de almacenamiento y administrar de manera eficiente los datos de escala de varios petabytes mientras avanzan en la creación de una aplicación con Alluxio.
Al final de esta capacitación, los participantes podrán:
Desarrolle una aplicación con Alluxio
Conecte aplicaciones y sistemas de big data mientras conserva un espacio de nombres
Extrae de manera eficiente el valor de los grandes datos en cualquier formato de almacenamiento
Mejorar el rendimiento de la carga de trabajo
Implemente y administre Alluxio de forma independiente o en clúster
Audiencia
Científico de datos
Desarrollador
Administrador de sistema
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Tigon es un marco de procesamiento de flujo de fuente abierta, en tiempo real, de baja latencia y alto rendimiento, nativo, que se asienta sobre HDFS y HBase para la persistencia. Las aplicaciones de Tigon abordan casos de uso tales como detección y análisis de intrusiones de red, análisis de mercado de redes sociales, análisis de ubicación y recomendaciones en tiempo real para los usuarios.
Este curso presencial, dirigido por un instructor, presenta el enfoque de Tigon para combinar el procesamiento en tiempo real y por lotes a medida que guía a los participantes a través de la creación de una aplicación de muestra.
Al final de esta capacitación, los participantes podrán:
Cree aplicaciones potentes de procesamiento de flujo para manejar grandes volúmenes de datos
Fuentes de flujo de procesos como Twitter y registros de servidor web
Utilice Tigon para unir, filtrar y agregar secuencias rápidamente
Audiencia
Desarrolladores
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo.
Al final de esta capacitación, los participantes podrán:
Instalar y configurar Apachi NiFi
Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes.
Automatice los flujos de datos
Habilitar análisis de transmisión
Aplicar varios enfoques para la ingestión de datos
Transformar Big Data y en conocimientos empresariales
Audiencia
Administradores del sistema
Ingenieros de datos
Desarrolladores
DevOps
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una cantidad de extensiones de demostración, componentes y procesadores que usan Apache NiFi.
Al final de esta capacitación, los participantes podrán:
Comprender los conceptos de arquitectura y flujo de datos de NiFi
Desarrollar extensiones utilizando NiFi y API de terceros
Desarrolla a medida su propio procesador Apache Nifi
Ingerir y procesar datos en tiempo real de formatos de archivo dispares y poco comunes y fuentes de datos
Audiencia
Desarrolladores
Ingenieros de datos
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Hadoop es un popular marco de procesamiento Big Data. Python es un lenguaje de programación de alto nivel famoso por su claridad de sintaxis y código.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo trabajar con Hadoop, MapReduce, Pig y Spark utilizando Python, ya que pasan por múltiples ejemplos y casos de uso.
Al final de esta capacitación, los participantes podrán:
Comprender los conceptos básicos detrás de Hadoop, MapReduce, Pig y Spark
Utilice Python con Hadoop Distributed File System (HDFS), MapReduce, Pig y Spark
Utilice Snakebite para acceder mediante programación a HDFS dentro de Python
Usa mrjob para escribir trabajos de MapReduce en Python
Escribir programas Spark con Python
Extienda la funcionalidad del cerdo usando las UDF de Python
Administrar trabajos de MapReduce y scripts Pig utilizando Luigi
Audiencia
Desarrolladores
Profesionales de TI
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Sqoop es una herramienta de software de código abierto para transferir datos entre Hadoop y bases de datos relacionales o mainframes Se puede usar para importar datos desde un sistema de administración de bases de datos relacionales (RDBMS) como MySQL u Oracle o un mainframe al Sistema de archivos distribuidos de Hadoop (HDFS) A partir de entonces, los datos se pueden transformar en Hadoop MapReduce, y luego se pueden volver a exportar a un RDBMS En esta capacitación en vivo con instructor, los participantes aprenderán a usar Sqoop para importar datos de una base de datos relacional tradicional al almacenamiento de Hadoop, como HDFS o Hive y viceversa Al final de esta capacitación, los participantes podrán: Instalar y configurar Sqoop Importar datos de MySQL a HDFS y Hive Importar datos de HDFS y Hive a MySQL Audiencia Administradores del sistema Ingenieros de datos Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica manual Nota Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos .
El análisis de Big Data implica el proceso de examinar grandes cantidades de conjuntos de datos variados para descubrir correlaciones, patrones ocultos y otras ideas útiles. La industria de la salud tiene cantidades masivas de datos clínicos y médicos heterogéneos complejos. La aplicación de análisis de big data en datos de salud presenta un enorme potencial para obtener información para mejorar la prestación de servicios de salud. Sin embargo, la magnitud de estos conjuntos de datos plantea grandes desafíos en los análisis y aplicaciones prácticas en un entorno clínico. En esta capacitación en vivo (remota) dirigida por un instructor, los participantes aprenderán cómo realizar análisis de big data en salud a medida que realizan una serie de ejercicios prácticos de laboratorio en vivo. Al final de esta capacitación, los participantes podrán:
Instale y configure herramientas de análisis de big data como Hadoop MapReduce y Spark
Comprender las características de los datos médicos.
Aplicar técnicas de big data para manejar datos médicos.
Estudiar los sistemas y algoritmos de big data en el contexto de las aplicaciones de salud.
Audiencia
Desarrolladores
Científicos de datos
Formato del curso
Conferencia en parte, discusión en parte, ejercicios y práctica práctica.
Nota
Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
Apache Hadoop es un marco de procesamiento de datos popular para el procesamiento de grandes conjuntos de datos en muchos ordenadores.
Este entrenamiento guiado por instructores, en vivo (online o on-site) está dirigido a los administradores de sistemas que desean aprender cómo configurar, implementar y gestionar Hadoop clusters dentro de su organización.
Al final de este curso, los participantes podrán:
Instalar y configurar Apache Hadoop.
Comprender los cuatro componentes principales del ecosistema: HDFS, MapReduce, YARN y Hadoop Common.
Utilice Hadoop Sistema de archivos distribuidos (HDFS) para escalar un cluster a cientos o miles de nodos. •
Instalar HDFS para operar como motor de almacenamiento para los despachos de Spark en prisión.
Instalar Spark para acceder a soluciones de almacenamiento alternativas como Amazon S3 y NoSQL sistemas de datos como Redis, Elasticsearch, Couchbase, Aerospike, etc.
Realizar tareas administrativas como proporcionar, gestionar, monitorear y asegurar un cluster de Apache.
Formato del curso
Lecciones y discusiones interactivas.
Muchos ejercicios y prácticas.
Implementación de manos en un entorno de laboratorio en vivo.
Opciones de Customización de Curso
Para solicitar una formación personalizada para este curso, por favor contacta con nosotros para organizar.
Cloudera Impala es un motor de consulta SQL de procesamiento masivo paralelo (MPP) de código abierto para clústeres Apache Hadoop.
Impala permite a los usuarios emitir consultas SQL de baja latencia a los datos almacenados en Hadoop Distributed File System y Apache Hbase sin necesidad de movimiento o transformación de datos.
Audiencia
Este curso está dirigido a analistas y científicos de datos que realizan análisis sobre datos almacenados en Hadoop a través de herramientas de Business Intelligence o SQL.
Después de este curso, los delegados podrán
Extraer información significativa de los clústeres de Hadoop con Impala.
Escriba programas específicos para facilitar la Inteligencia de Negocios en Impala SQL Dialect.
Apache Ambari es una plataforma de administración de código abierto para el aprovisionamiento, la administración, el monitoreo y la seguridad de los clústeres de Apache Hadoop.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán las herramientas y prácticas de administración proporcionadas por Ambari para administrar con éxito los clústeres de Hadoop.
Al final de esta capacitación, los participantes podrán:
Configure un clúster de Big Data en tiempo real usando Ambari
Aplicar las características y funcionalidades avanzadas de Ambari a varios casos de uso
Agregue y elimine nodos sin problemas según sea necesario
Mejore el rendimiento de un clúster de Hadoop a través de ajustes y ajustes
Audiencia
DevOps
Administradores del sistema
DBAs
Profesionales de prueba de Hadoop
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Hortonworks Data Platform es una plataforma de soporte de Apache Hadoop de código abierto que proporciona una base estable para el desarrollo de soluciones de big data en el ecosistema de Apache Hadoop.
Esta capacitación en vivo dirigida por un instructor presenta a Hortonworks y guía a los participantes a través del despliegue de la solución Spark + Hadoop.
Al final de esta capacitación, los participantes podrán:
Use Hortonworks para ejecutar confiablemente Hadoop a gran escala
Unifique las capacidades de seguridad, gobierno y operaciones de Hadoop con los flujos de trabajo analíticos ágiles de Spark.
Use Hortonworks para investigar, validar, certificar y dar soporte a cada uno de los componentes en un proyecto Spark
Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo.
Audiencia
Administradores de Hadoop
Formato del curso
Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Last Updated:
Próximos Cursos Apache Hadoop
Impala para Inteligencia Empresarial
2023-10-08 09:30
21 horas
Apache Ambari: Administre de manera eficiente los clústeres de Hadoop
Cursos de Fin de Semana de Apache Hadoop, Capacitación por la Tarde de Hadoop, Apache Hadoop boot camp, Clases de Apache Hadoop, Capacitación de Fin de Semana de Apache Hadoop, Cursos por la Tarde de Hadoop, Hadoop coaching, Instructor de Hadoop, Capacitador de Hadoop, Hadoop con instructor, Cursos de Formación de Apache Hadoop, Hadoop en sitio, Cursos Privados de Apache Hadoop, Clases Particulares de Apache Hadoop, Capacitación empresarial de Hadoop, Talleres para empresas de Hadoop, Cursos en linea de Hadoop, Programas de capacitación de Hadoop, Clases de Apache Hadoop
Promociones
No hay descuentos de cursos por ahora.
Descuentos en los Cursos
Respetamos la privacidad de su dirección de correo electrónico. No transmitiremos ni venderemos su dirección a otras personas. En cualquier momento puede cambiar sus preferencias o cancelar su suscripción por completo.
is growing fast!
We are looking to expand our presence in Mexico!
As a Business Development Manager you will:
expand business in Mexico
recruit local talent (sales, agents, trainers, consultants)
recruit local trainers and consultants
We offer:
Artificial Intelligence and Big Data systems to support your local operation
high-tech automation
continuously upgraded course catalogue and content
good fun in international team
If you are interested in running a high-tech, high-quality training and consulting business.