
Los cursos de capacitación locales, guiados por instructores en vivo de Apache, demuestran a través de la práctica cómo la chispa encaja en el gran ecosistema de datos y cómo usar la chispa para el análisis de datos.
El entrenamiento de Apache Spark está disponible como "entrenamiento en vivo en el sitio" o "entrenamiento remoto en vivo". El entrenamiento en vivo se puede realizar localmente en las instalaciones del cliente en México o en los centros de entrenamiento corporativos de NobleProg en México. El entrenamiento remoto en vivo se lleva a cabo por medio de un escritorio remoto interactivo.
NobleProg--su proveedor de capacitación local
Machine Translated
Testimonios
Richard es muy tranquilo y metódico, con una visión analítica, exactamente las cualidades necesarias para presentar este tipo de curso.
Kieran Mac Kenna
Curso: Spark for Developers
Machine Translated
compartir diagrama conceptual y también muestra para manos sucias
Mark Yang - FMR
Curso: Spark for Developers
Machine Translated
Casos y casos aplicables
zhaopeng liu - Fmr
Curso: Spark for Developers
Machine Translated
Análisis de caso
国栋 张
Curso: Spark for Developers
Machine Translated
todas las partes de esta sesión
Eric Han - Fmr
Curso: Spark for Developers
Machine Translated
Sabemos mucho más sobre todo el entorno.
John Kidd
Curso: Spark for Developers
Machine Translated
El entrenador hizo la clase interesante y entretenida, lo que ayuda bastante con el entrenamiento de todo el día.
Ryan Speelman
Curso: Spark for Developers
Machine Translated
Creo que el entrenador tenía un estilo excelente de combinar el humor y las historias de la vida real para que los temas disponibles fueran muy accesibles. Recomiendo encarecidamente a este profesor en el futuro.
Curso: Spark for Developers
Machine Translated
Ernesto hizo un gran trabajo al explicar los conceptos de alto nivel del uso de Spark y sus diversos módulos.
Michael Nemerouf
Curso: Spark for Developers
Machine Translated
Este es uno de los mejores cursos prácticos de programación de ejercicios que he tomado.
Laura Kahn
Curso: Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Machine Translated
Esta es una de las mejores capacitaciones en línea de calidad que he tomado en mi carrera de 13 años. ¡Mantener el buen trabajo!.
Curso: Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Machine Translated
Richard estaba muy dispuesto a divagar cuando queríamos hacer preguntas semi relacionadas con cosas que no estaban en el programa de estudios. Las explicaciones fueron claras y él estuvo al frente de las advertencias en cualquier consejo que nos dio.
ARM Limited
Curso: Spark for Developers
Machine Translated
La VM me gustó mucho El profesor estaba muy bien informado sobre el tema, así como otros temas, era muy agradable y amable Me gustó la instalación en Dubai.
Safar Alqahtani - Elm Information Security
Curso: Big Data Analytics in Health
Machine Translated
tareas de práctica
Pawel Kozikowski - GE Medical Systems Polska Sp. Zoo
Curso: Python and Spark for Big Data (PySpark)
Machine Translated
Ajay fue muy amable, servicial y también conocedor del tema que estaba discutiendo.
Biniam Guulay - ICE International Copyright Enterprise Germany GmbH
Curso: Spark for Developers
Machine Translated
Los ejercicios de laboratorio. Aplicando la teoría desde el primer día en los días siguientes.
Dell
Curso: A Practical Introduction to Stream Processing
Machine Translated
El profesor ha adaptado el programa de capacitación a nuestras necesidades actuales.
EduBroker Sp. z o.o.
Curso: Python and Spark for Big Data (PySpark)
Machine Translated
Hacer ejercicios similares de diferentes maneras realmente ayuda a comprender lo que cada componente ( Hadoop / Spark, independiente / clúster) puede hacer por sí solo y en conjunto. Me dio ideas sobre cómo debería probar mi aplicación en mi máquina local cuando desarrollo frente a cuando se implementa en un clúster.
Thomas Carcaud - IT Frankfurt GmbH
Curso: Spark for Developers
Machine Translated
atención individual.
ARCHANA ANILKUMAR - PPL
Curso: Python and Spark for Big Data (PySpark)
Machine Translated
Fue genial para obtener una comprensión de lo que está pasando bajo el capó de Spark. Saber lo que está pasando bajo el capó ayuda a entender mejor por qué el código está haciendo o no lo que espera que haga. Gran parte de la formación fue manos en las que siempre es genial y la sección sobre optimizaciones fue excepcionalmente relevante para mi trabajo actual, que fue agradable.
Intelligent Medical Objects
Curso: Apache Spark in the Cloud
Machine Translated
Creo que el entrenador tenía un estilo excelente de combinar el humor y las historias de la vida real para que los temas disponibles fueran muy accesibles. Recomiendo encarecidamente a este profesor en el futuro.
Curso: Spark for Developers
Machine Translated
Esta es una de las mejores capacitaciones en línea de calidad que he tomado en mi carrera de 13 años. ¡Mantener el buen trabajo!.
Curso: Artificial Intelligence - the most applied stuff - Data Analysis + Distributed AI + NLP
Machine Translated
Algunos de nuestros clientes














.png)




















.jpg)

_ireland.gif)

.jpg)










Spark Subcategorías
Programas de los cursos Spark
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Alexio para unir diferentes marcos de computación con sistemas de almacenamiento y administrar de manera eficiente los datos de escala de varios petabytes mientras avanzan en la creación de una aplicación con Alluxio.
Al final de esta capacitación, los participantes podrán:
- Desarrolle una aplicación con Alluxio
- Conecte aplicaciones y sistemas de big data mientras conserva un espacio de nombres
- Extrae de manera eficiente el valor de los grandes datos en cualquier formato de almacenamiento
- Mejorar el rendimiento de la carga de trabajo
- Implemente y administre Alluxio de forma independiente o en clúster
Audiencia
- Científico de datos
- Desarrollador
- Administrador de sistema
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
La industria de la salud tiene cantidades masivas de datos clínicos y médicos heterogéneos complejos. La aplicación de análisis de big data en datos de salud presenta un enorme potencial para obtener información para mejorar la prestación de servicios de salud. Sin embargo, la magnitud de estos conjuntos de datos plantea grandes desafíos en los análisis y aplicaciones prácticas en un entorno clínico.
En esta capacitación en vivo (remota) dirigida por un instructor, los participantes aprenderán cómo realizar análisis de big data en salud a medida que realizan una serie de ejercicios prácticos de laboratorio en vivo.
Al final de esta capacitación, los participantes podrán:
- Instale y configure herramientas de análisis de big data como Hadoop MapReduce y Spark
- Comprender las características de los datos médicos.
- Aplicar técnicas de big data para manejar datos médicos.
- Estudiar los sistemas y algoritmos de big data en el contexto de las aplicaciones de salud.
Audiencia
- Desarrolladores
- Científicos de datos
Formato del curso
- Conferencia en parte, discusión en parte, ejercicios y práctica práctica.
Nota
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán sobre las diversas ofertas de tecnología e implementaciones para procesar datos de gráficos. El objetivo es identificar los objetos del mundo real, sus características y relaciones, luego modelar estas relaciones y procesarlas como datos utilizando enfoques de computación gráfica. Comenzamos con una amplia visión general y nos limitamos a herramientas específicas a medida que avanzamos en una serie de estudios de casos, ejercicios prácticos e implementaciones en vivo.
Al final de esta capacitación, los participantes podrán:
- Comprender cómo se conservan y atraviesan los datos de gráfico
- Seleccione el mejor marco para una tarea determinada (desde bases de datos de gráficos hasta marcos de procesamiento por lotes)
- Implemente Hadoop, Spark, GraphX y Pregel para llevar a cabo la computación gráfica en muchas máquinas en paralelo
- Ver problemas de Big Data en el mundo real en términos de gráficos, procesos y recorridos
Audiencia
- Desarrolladores
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Esta capacitación en vivo dirigida por un instructor presenta a Hortonworks y guía a los participantes a través del despliegue de la solución Spark + Hadoop.
Al final de esta capacitación, los participantes podrán:
- Use Hortonworks para ejecutar confiablemente Hadoop a gran escala
- Unifique las capacidades de seguridad, gobierno y operaciones de Hadoop con los flujos de trabajo analíticos ágiles de Spark.
- Use Hortonworks para investigar, validar, certificar y dar soporte a cada uno de los componentes en un proyecto Spark
- Procese diferentes tipos de datos, incluidos estructurados, no estructurados, en movimiento y en reposo.
Audiencia
- Administradores de Hadoop
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
En este entrenamiento en vivo dirigido por un instructor (in situ o remoto), los participantes aprenderán cómo configurar e integrar diferentes marcos de Procesamiento de Stream con los sistemas de almacenamiento de big data existentes y aplicaciones de software y microservicios relacionados.
Al final de esta capacitación, los participantes podrán:
- Instale y configure diferentes marcos de procesamiento de flujo, como Spark Streaming y Kafka Streaming
- Comprender y seleccionar el marco más adecuado para el trabajo
- Proceso de datos de forma continua, concurrente y de forma récord por registro
- Integre soluciones de procesamiento de flujo con bases de datos existentes, almacenes de datos, lagos de datos, etc.
- Integración de la biblioteca de procesamiento de flujo más apropiada con aplicaciones empresariales y microservicios
Audiencia
- Desarrolladores
- Arquitectos de software
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Notas
- Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos.
Esta capacitación en vivo dirigida por un instructor presenta los conceptos y enfoques para implementar el análisis geospacial y guía a los participantes a través de la creación de una aplicación de análisis predictivo utilizando Magellan en Spark.
Al final de esta capacitación, los participantes podrán:
- Consultar, analizar y unir datos geoespaciales de manera eficiente a escala
- Implementar datos geoespaciales en inteligencia empresarial y aplicaciones de análisis predictivo
- Utilice el contexto espacial para ampliar las capacidades de dispositivos móviles, sensores, registros y dispositivos portátiles
Audiencia
- Desarrolladores de aplicaciones
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
This instructor-led, live training (online or onsite) is aimed at developers who wish to carry out big data analysis using Apache Spark in their .NET applications.
By the end of this training, participants will be able to:
- Install and configure Apache Spark.
- Understand how .NET implements Spark APIs so that they can be accessed from a .NET application.
- Develop data processing applications using C# or F#, capable of handling data sets whose size is measured in terabytes and pedabytes.
- Develop machine learning features for a .NET application using Apache Spark capabilities.
- Carry out exploratory analysis using SQL queries on big data sets.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
This instructor-led, live training (online or onsite) is aimed at data scientists who wish to use the SMACK stack to build data processing platforms for big data solutions.
By the end of this training, participants will be able to:
- Implement a data pipeline architecture for processing big data.
- Develop a cluster infrastructure with Apache Mesos and Docker.
- Analyze data with Spark and Scala.
- Manage unstructured data with Apache Cassandra.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
This instructor-led, live training (online or onsite) is aimed at engineers who wish to deploy Apache Spark system for processing very large amounts of data.
By the end of this training, participants will be able to:
- Install and configure Apache Spark.
- Understand the difference between Apache Spark and Hadoop MapReduce and when to use which.
- Quickly read in and analyze very large data sets.
- Integrate Apache Spark with other machine learning tools.
Format of the Course
- Interactive lecture and discussion.
- Lots of exercises and practice.
- Hands-on implementation in a live-lab environment.
Course Customization Options
- To request a customized training for this course, please contact us to arrange.
AUDIENCIA:
Ingeniero de Datos, DevOps , Científico de Datos
Este curso presentará Apache Spark . Los estudiantes aprenderán cómo Spark encaja en el ecosistema de Big Data y cómo usar Spark para el análisis de datos. El curso cubre el shell de Spark para análisis de datos interactivos, componentes internos de Spark, API de Spark, Spark SQL , transmisión de Spark y aprendizaje automático y graphX.
AUDIENCIA
Desarrolladores / Analistas de datos
En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Python y Spark juntos para analizar los datos grandes mientras trabajan en ejercicios prácticos.
Al final de esta capacitación, los participantes podrán:
- Aprenda a usar Spark con Python para analizar Big Data
- Trabajar en ejercicios que imitan las circunstancias del mundo real
- Utilice diferentes herramientas y técnicas para el análisis de Big Data utilizando PySpark
Audiencia
- Desarrolladores
- Profesionales de TI
- Científicos de datos
Formato del curso
- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
Esta capacitación en vivo dirigida por un instructor (en el sitio o remota) está dirigida a ingenieros de software que desean transmitir grandes datos con Spark Streaming y Scala .
Al final de esta capacitación, los participantes podrán:
- Cree aplicaciones Spark con el lenguaje de programación Scala .
- Use Spark Streaming para procesar flujos continuos de datos.
- Procese flujos de datos en tiempo real con Spark Streaming.
Formato del curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
- para ejecutar consultas SQL .
- para leer datos de una instalación de Hive existente.
En esta capacitación en vivo dirigida por un instructor (en el sitio o remota), los participantes aprenderán cómo analizar varios tipos de conjuntos de datos usando Spark SQL .
Al final de esta capacitación, los participantes podrán:
- Instalar y configurar Spark SQL .
- Realizar análisis de datos usando Spark SQL .
- Consultar conjuntos de datos en diferentes formatos.
- Visualizar datos y resultados de consultas.
Formato del curso
- Conferencia interactiva y discusión.
- Muchos ejercicios y práctica.
- Implementación práctica en un entorno de laboratorio en vivo.
Opciones de personalización del curso
- Para solicitar una capacitación personalizada para este curso, contáctenos para organizarlo.
Se divide en dos paquetes:
- spark.mllib contiene la API original construida sobre RDDs.
- spark.ml proporciona una API de nivel superior construida en la parte superior de DataFrames para la construcción de tuberías de ML.
Audiencia
Este curso está dirigido a ingenieros y desarrolladores que buscan utilizar una biblioteca de máquinas construida para Apache Spark