Big Data es un término que se refiere a soluciones destinadas a almacenar y procesar grandes conjuntos de datos. Desarrollado inicialmente por Google, estas soluciones han evolucionado e inspirado otros proyectos, de los cuales muchos están disponibles como código abierto. Según los informes de Gartner, Big Data es el próximo gran paso en TI justo después del Cloud Computing y será una tendencia líder en los próximos años.
Los cursos locales dirigidos por instructor en vivo de capacitación en Big Data comienzan con una introducción a conceptos elementales, luego avanzan hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de Datos. Las herramientas y la infraestructura para habilitar el almacenamiento de Big Data, el Procesamiento Distribuido y la Escalabilidad se discuten, comparan e implementan en sesiones demostrativas de práctica. La capacitación en Big Data está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en México o en los centros de capacitación corporativa de NobleProg en México, la segunda se lleva a cabo a través de un escritorio remoto interactivo.
NobleProg -- The World's Local Trainer Provider
Me gusto la metodologia esperada por Jorge
Experian Colombia S.A
Curso: Spark para Desarrolladores
Se abarcaron otros temas adicionales que se sugirieron
German Alonso Durango Colmenares
Curso: Capacitación de Administrador para Apache Hadoop
Aprender sobre todos los tipos de gráficos y para qué se utilizan. Aprendiendo el valor del desorden. Aprendiendo sobre los métodos para mostrar datos de tiempo.
Susan Williams
Curso: Visualización de Datos
Translated by
Entrenador estaba entusiasmado.
Diane Lucas
Curso: Visualización de Datos
Translated by
Me gustó mucho el contenido / Instructor.
Craig Roberson
Curso: Visualización de Datos
Translated by
Soy un aprendiz práctico y esto fue algo que hizo mucho.
Lisa Comfort
Curso: Visualización de Datos
Translated by
Me gustaron los ejemplos.
Peter Coleman
Curso: Visualización de Datos
Translated by
En general, me beneficio de los ejemplos.
Peter Coleman
Curso: Visualización de Datos
Translated by
Disfruté los buenos ejemplos del mundo real, las revisiones de los informes existentes.
Ronald Parrish
Curso: Visualización de Datos
Translated by
Realmente me beneficié de la buena disposición del entrenador para compartir más.
Balaram Chandra Paul
Curso: Una introducción práctica al análisis de datos y Big Data
Translated by
Él fue interactivo.
Suraj
Curso: Descripción de la Web Semántica
Translated by
Sabemos mucho más sobre todo el entorno.
John Kidd
Curso: Spark para Desarrolladores
Translated by
El entrenador hizo la clase interesante y entretenida, lo que ayuda bastante con el entrenamiento de todo el día.
Ryan Speelman
Curso: Spark para Desarrolladores
Translated by
Creo que el entrenador tenía un estilo excelente de combinar el humor y las historias de la vida real para que los temas disponibles fueran muy accesibles. Recomiendo encarecidamente a este profesor en el futuro.
Curso: Spark para Desarrolladores
Translated by
Me gustó mucho la forma interactiva de aprender.
Luigi Loiacono
Curso: Análisis de Datos con Hive / HiveQL
Translated by
Fue un entrenamiento muy práctico, me gustaron los ejercicios prácticos.
Proximus
Curso: Análisis de Datos con Hive / HiveQL
Translated by
Me beneficié de la buena visión general, un buen equilibrio entre la teoría y los ejercicios.
Proximus
Curso: Análisis de Datos con Hive / HiveQL
Translated by
Disfruté de la interacción dinámica y "manos a la obra" del tema, gracias a la Máquina Virtual, ¡muy estimulante !.
Philippe Job
Curso: Análisis de Datos con Hive / HiveQL
Translated by
Ernesto hizo un gran trabajo al explicar los conceptos de alto nivel del uso de Spark y sus diversos módulos.
Michael Nemerouf
Curso: Spark para Desarrolladores
Translated by
Me beneficié de la competencia y el conocimiento del entrenador.
Jonathan Puvilland
Curso: Análisis de Datos con Hive / HiveQL
Translated by
Me beneficié de algunas ideas nuevas e interesantes. Reunión e interacción con otros asistentes.
TECTERRA
Curso: Internet de las Cosas (IoT) para Empresarios, Gerentes e Inversores
Translated by
Cubría una amplia gama de información.
Continental AG / Abteilung: CF IT Finance
Curso: Una introducción práctica al análisis de datos y Big Data
Translated by
En general, me beneficié de la presentación de tecnologías.
Continental AG / Abteilung: CF IT Finance
Curso: Una introducción práctica al análisis de datos y Big Data
Translated by
En general, el contenido fue bueno.
Sameer Rohadia
Curso: Una introducción práctica al análisis de datos y Big Data
Translated by
En general, disfruté el sistema Hardtop Eco.
Adnan Rafiq
Curso: Inteligencia de Negocios de Big Data para Agencias del Gobierno
Translated by
Michael the trainer es muy conocedor y habilidoso sobre el tema de Big Data y R. Es muy flexible y personaliza rápidamente la capacitación que satisface las necesidades de los clientes. Él también es muy capaz de resolver problemas técnicos y de temas sobre la marcha. Fantástico y profesional entrenamiento !.
Xiaoyuan Geng - Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Curso: Programación con Big Data en R
Translated by
Realmente disfruté la presentación de nuevos paquetes.
Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Curso: Programación con Big Data en R
Translated by
El tutor, el Sr. Michael An, interactuó muy bien con la audiencia, la instrucción fue clara. El tutor también profundiza para agregar más información en función de las solicitudes de los estudiantes durante la capacitación.
Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Curso: Programación con Big Data en R
Translated by
El tema y el ritmo fueron perfectos.
Tim - Ottawa Research and Development Center, Science Technology Branch, Agriculture and Agri-Food Canada
Curso: Programación con Big Data en R
Translated by
El ejemplo y el material de capacitación fueron suficientes y facilitaron la comprensión de lo que está haciendo.
Teboho Makenete
Curso: Ciencia de Datos para Big Data Analytics
Translated by
Este es uno de los mejores cursos prácticos de programación de ejercicios que he tomado.
Laura Kahn
Curso: Inteligencia Artificial - La Materia más Aplicada - Análisis de Datos + AI Distribuido + PNL
Translated by
Esta es una de las mejores capacitaciones en línea de calidad que he tomado en mi carrera de 13 años. ¡Mantener el buen trabajo!.
Curso: Inteligencia Artificial - La Materia más Aplicada - Análisis de Datos + AI Distribuido + PNL
Translated by
Fue muy práctico, pasamos la mitad del tiempo haciendo cosas en Clouded / Hardtop, ejecutando comandos diferentes, revisando el sistema, etc. Los materiales adicionales (libros, sitios web, etc.) fueron realmente apreciados, tendremos que seguir aprendiendo. Las instalaciones fueron bastante divertidas y muy prácticas, la configuración del clúster desde cero fue realmente buena.
Ericsson
Curso: Capacitación de Administrador para Apache Hadoop
Translated by
El estilo de entrenamiento de Richard lo mantuvo interesante, los ejemplos del mundo real utilizados ayudaron a llevar los conceptos a casa.
Jamie Martin-Royle - NBrown Group
Curso: De los Datos a la Decisión con Big Data y Análisis Predictivo
Translated by
El contenido, ya que me pareció muy interesante y creo que me ayudaría en mi último año en la Universidad.
Krishan Mistry - NBrown Group
Curso: De los Datos a la Decisión con Big Data y Análisis Predictivo
Translated by
Los ejercicios prácticos son buenos para que podamos apreciar la capacidad y las características de Talent.
Iverson Associates Sdn Bhd
Curso: Talend Open Studio para Integración de Datos
Translated by
Disfruté sobre todo del entrenamiento práctico.
Muraly Muniandy - Iverson Associates Sdn Bhd
Curso: Talend Open Studio para Integración de Datos
Translated by
Me gustó el conocimiento y la flexibilidad del capacitador con discusiones ligeramente fuera del tema del curso.
Iverson Associates Sdn Bhd
Curso: Talend Open Studio para Integración de Datos
Translated by
Me gustó el vasto conocimiento y experiencia sobre el tema.
Iverson Associates Sdn Bhd
Curso: Talend Open Studio para Integración de Datos
Translated by
El entrenador fue fantástico y realmente sabía lo que hacía. ¡Aprendí mucho sobre el software que no conocía anteriormente que ayudará mucho en mi trabajo !.
Steve McPhail - Alberta Health Services - Information Technology
Curso: Análisis de Datos con Hive / HiveQL
Translated by
Los principios de alto nivel sobre Hive, HDFS ...
Geert Suys - Proximus Group
Curso: Análisis de Datos con Hive / HiveQL
Translated by
El handson La práctica de la mezcla / theroy
Proximus Group
Curso: Análisis de Datos con Hive / HiveQL
Translated by
Fulvio pudo comprender el caso de negocios de nuestras empresas y pudo correlacionarse con el material del curso, casi al instante.
Samuel Peeters - Proximus Group
Curso: Análisis de Datos con Hive / HiveQL
Translated by
Muchos ejercicios prácticos.
Ericsson
Curso: Capacitación de Administrador para Apache Hadoop
Translated by
Herramienta de gestión de ambari. Capacidad para discutir experiencias prácticas de Hadoop de otros casos de negocios que no sean las telecomunicaciones.
Ericsson
Curso: Capacitación de Administrador para Apache Hadoop
Translated by
Disfruté del buen equilibrio entre la teoría y los laboratorios prácticos.
N. V. Nederlandse Spoorwegen
Curso: Apache Ignite: Mejora la Velocidad, la Escala y la Disponibilidad con la Informática en la Memoria
Translated by
En general me beneficié de la mayor comprensión de Ignite ..
N. V. Nederlandse Spoorwegen
Curso: Apache Ignite: Mejora la Velocidad, la Escala y la Disponibilidad con la Informática en la Memoria
Translated by
Me gustaron sobre todo las buenas conferencias.
N. V. Nederlandse Spoorwegen
Curso: Apache Ignite: Mejora la Velocidad, la Escala y la Disponibilidad con la Informática en la Memoria
Translated by
Richard estaba muy dispuesto a divagar cuando queríamos hacer preguntas semi relacionadas con cosas que no estaban en el programa de estudios. Las explicaciones fueron claras y él estuvo al frente de las advertencias en cualquier consejo que nos dio.
ARM Limited
Curso: Spark para Desarrolladores
Translated by
En general me gustó el conocimiento del fernando.
Valentin de Dianous - Informatique ProContact INC.
Curso: Big Data Architect
Translated by
Creo que el entrenador tenía un estilo excelente de combinar el humor y las historias de la vida real para que los temas disponibles fueran muy accesibles. Recomiendo encarecidamente a este profesor en el futuro.
Curso: Spark para Desarrolladores
Translated by
Esta es una de las mejores capacitaciones en línea de calidad que he tomado en mi carrera de 13 años. ¡Mantener el buen trabajo!.
Curso: Inteligencia Artificial - La Materia más Aplicada - Análisis de Datos + AI Distribuido + PNL
Translated by
Código | Nombre | Duración | Información General |
---|---|---|---|
smtwebint | Descripción de la Web Semántica | 7 horas | La Web Semántica es un movimiento de colaboración dirigido por el World Wide Web Consortium (W3C) que promueve formatos comunes para los datos en la World Wide Web. La Web Semántica proporciona un marco común que permite que los datos sean compartidos y reutilizados a través de límites de aplicaciones, empresas y comunidades. |
datavault | Bóveda de Datos: Creación de un Almacén de Datos Escalable | 28 horas | El modelado de bóvedas de datos es una técnica de modelado de bases de datos que proporciona almacenamiento histórico a largo plazo de datos que provienen de múltiples fuentes. Una bóveda de datos almacena una única versión de los hechos, o "todos los datos, todo el tiempo". Su diseño flexible, escalable, consistente y adaptable abarca los mejores aspectos de la tercera forma normal (3NF) y el esquema de estrella. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a construir una Bóveda de datos. Al final de esta capacitación, los participantes podrán: - Comprender los conceptos de arquitectura y diseño detrás de Data Vault 2.0 y su interacción con Big Data, NoSQL y AI. - Utilice las técnicas de bóvedas de datos para habilitar la auditoría, el seguimiento y la inspección de datos históricos en un almacén de datos - Desarrollar un proceso ETL consistente (consistente) y repetible (Extraer, Transformar, Cargar) - Construya y despliegue almacenes altamente escalables y repetibles Audiencia - Modeladores de datos - Especialista en almacenamiento de datos - Especialistas en inteligencia empresarial - Ingenieros de datos - Administradores de bases Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
sparkpython | Python y Spark para Big Data (PySpark) | 21 horas | Python es un lenguaje de programación de alto nivel famoso por su claridad de sintaxis y código. Spark es un motor de procesamiento de datos utilizado para consultar, analizar y transformar big data. PySpark permite a los usuarios interactuar con Spark con Python. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Python y Spark juntos para analizar los datos grandes mientras trabajan en ejercicios prácticos. Al final de esta capacitación, los participantes podrán: - Aprenda a usar Spark con Python para analizar Big Data - Trabajar en ejercicios que imitan las circunstancias del mundo real - Utilice diferentes herramientas y técnicas para el análisis de Big Data utilizando PySpark Audiencia - Desarrolladores - Profesionales de TI - Científicos de datos Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
bigdatabicriminal | Big Data Business Intelligence para análisis de inteligencia criminal | 35 horas | Los avances en las tecnologías y la creciente cantidad de información están transformando la forma en que se lleva a cabo la aplicación de la ley. Los desafíos que plantea Big Data son casi tan desalentadores como la promesa de Big Data. Almacenar datos de manera eficiente es uno de estos desafíos; analizarlo efectivamente es otro. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán la mentalidad con la cual abordarán las tecnologías de Big Data, evaluarán su impacto en los procesos y políticas existentes, e implementarán estas tecnologías con el propósito de identificar la actividad delictiva y prevenir el delito. Se examinarán estudios de casos de organizaciones de orden público de todo el mundo para obtener información sobre sus enfoques, desafíos y resultados de adopción. Al final de esta capacitación, los participantes podrán: - Combine la tecnología Big Data con procesos tradicionales de recopilación de datos para armar una historia durante una investigación - Implementar soluciones industriales de almacenamiento y procesamiento de big data para el análisis de datos - Preparar una propuesta para la adopción de las herramientas y procesos más adecuados para permitir un enfoque basado en datos para la investigación criminal Audiencia - Especialistas en aplicación de la ley con experiencia técnica Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
BDATR | Big Data Analytics para reguladores de telecomunicaciones | 16 horas | Para cumplir con el cumplimiento de los reguladores, los CSP (proveedores de servicios de comunicación) pueden acceder a Big Análisis de datos que no solo los ayuda a cumplir con el cumplimiento, sino que están dentro del alcance de los mismos proyecto pueden aumentar la satisfacción del cliente y así reducir el abandono. De hecho desde el cumplimiento está relacionado con la calidad del servicio vinculada a un contrato, cualquier iniciativa para cumplir cumplimiento, mejorará la "ventaja competitiva" de los CSP. Por lo tanto, es importante que Los reguladores deberían ser capaces de asesorar / orientar un conjunto de prácticas analíticas de Big Data para los CSP que ser de beneficio mutuo entre los reguladores y los CSP. 2 días de curso: 8 módulos, 2 horas cada uno = 16 horas |
graphcomputing | Introducción a Graph Computing | 28 horas | Una gran cantidad de problemas del mundo real se pueden describir en términos de gráficos. Por ejemplo, el gráfico web, el gráfico de red social, el gráfico de red de tren y el gráfico de lenguaje. Estos gráficos tienden a ser extremadamente grandes; su procesamiento requiere un conjunto especializado de herramientas y procesos; estas herramientas y procesos se pueden denominar Computación de Gráficos. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán sobre las diversas ofertas de tecnología e implementaciones para procesar datos de gráficos. El objetivo es identificar los objetos del mundo real, sus características y relaciones, luego modelar estas relaciones y procesarlas como datos utilizando enfoques de computación gráfica. Comenzamos con una amplia visión general y nos limitamos a herramientas específicas a medida que avanzamos en una serie de estudios de casos, ejercicios prácticos e implementaciones en vivo. Al final de esta capacitación, los participantes podrán: - Comprender cómo se conservan y atraviesan los datos de gráfico - Seleccione el mejor marco para una tarea determinada (desde bases de datos de gráficos hasta marcos de procesamiento por lotes) - Implemente Hadoop, Spark, GraphX y Pregel para llevar a cabo la computación gráfica en muchas máquinas en paralelo - Ver problemas de Big Data en el mundo real en términos de gráficos, procesos y recorridos Audiencia - Desarrolladores Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
matlabpredanalytics | Matlab para Análisis Predictivo | 21 horas | El análisis predictivo es el proceso de usar el análisis de datos para hacer predicciones sobre el futuro. Este proceso utiliza datos junto con la extracción de datos, estadísticas y técnicas de aprendizaje automático para crear un modelo predictivo para pronosticar eventos futuros. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo usar Matlab para construir modelos predictivos y aplicarlos a grandes conjuntos de datos de muestra para predecir eventos futuros basados en los datos. Al final de esta capacitación, los participantes podrán: - Crear modelos predictivos para analizar patrones en datos históricos y transaccionales - Use modelos predictivos para identificar riesgos y oportunidades - Cree modelos matemáticos que capturen tendencias importantes - Use datos de dispositivos y sistemas comerciales para reducir el desperdicio, ahorrar tiempo o reducir costos Audiencia - Desarrolladores - Ingenieros - Expertos de dominio Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
nifidev | Apache NiFi para desarrolladores | 7 horas | Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los fundamentos de la programación basada en flujo a medida que desarrollan una cantidad de extensiones de demostración, componentes y procesadores que usan Apache NiFi. Al final de esta capacitación, los participantes podrán: - Comprender los conceptos de arquitectura y flujo de datos de NiFi - Desarrollar extensiones utilizando NiFi y API de terceros - Desarrolla a medida su propio procesador Apache Nifi - Ingerir y procesar datos en tiempo real de formatos de archivo dispares y poco comunes y fuentes de datos Audiencia - Desarrolladores - Ingenieros de datos Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
nifi | Apache NiFi para administradores | 21 horas | Apache NiFi (Hortonworks DataFlow) es una plataforma de procesamiento de eventos y logística de datos integrada en tiempo real que permite mover, rastrear y automatizar los datos entre los sistemas. Está escrito usando programación basada en flujo y proporciona una interfaz de usuario basada en web para administrar flujos de datos en tiempo real. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a implementar y administrar Apache NiFi en un entorno de laboratorio en vivo. Al final de esta capacitación, los participantes podrán: - Instalar y configurar Apachi NiFi - Fuente, transformar y gestionar datos de fuentes de datos dispersas y distribuidas, incluidas bases de datos y lagos de datos grandes. - Automatice los flujos de datos - Habilitar análisis de transmisión - Aplicar varios enfoques para la ingestión de datos - Transformar Big Data y en conocimientos empresariales Audiencia - Administradores del sistema - Ingenieros de datos - Desarrolladores - DevOps Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
solrcloud | Curso de SolrCloud | 14 horas | Apache SolrCloud es un motor de procesamiento de datos distribuidos que facilita la búsqueda y la indexación de archivos en una red distribuida. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a configurar una instancia de SolrCloud en Amazon AWS. Al final de esta capacitación, los participantes podrán: - Comprender las características de SolCloud y cómo se comparan con las de los clústeres maestros-esclavos convencionales - Configurar un clúster centralizado de SolCloud - Automatice procesos como la comunicación con fragmentos, agregue documentos a los fragmentos, etc. - Utilice Zookeeper junto con SolrCloud para automatizar aún más los procesos - Use la interfaz para administrar informes de errores - Balance de carga una instalación de SolrCloud - Configure SolrCloud para un procesamiento continuo y conmutación por error Audiencia - Desarrolladores de Solr - Gerentes de proyecto - Administradores del sistema - Analistas de búsqueda Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
datameer | Datameer para Analistas de Datos | 14 horas | Datameer es una plataforma de inteligencia de negocios y análisis construida en Hadoop. Permite a los usuarios finales acceder, explorar y correlacionar datos a gran escala, estructurados, semiestructurados y no estructurados de una manera fácil de usar. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Datameer para superar la pronunciada curva de aprendizaje de Hadoop a medida que avanzan en la configuración y el análisis de una serie de grandes fuentes de datos. Al final de esta capacitación, los participantes podrán: - Crea, selecciona e interactivamente explora un lago de datos empresariales - Acceda a almacenes de datos de inteligencia empresarial, bases de datos transaccionales y otras tiendas analíticas - Use una interfaz de usuario de hoja de cálculo para diseñar las tuberías de procesamiento de datos de extremo a extremo - Acceda a funciones preconstruidas para explorar relaciones de datos complejas - Utilice asistentes de arrastrar y soltar para visualizar datos y crear paneles - Use tablas, cuadros, gráficos y mapas para analizar los resultados de las consultas Audiencia - Analistas de datos Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
memsql | Curso de MemSQL | 28 horas | MemSQL es un sistema de administración de bases de datos SQL distribuidas y en memoria para la nube y las instalaciones. Es un almacén de datos en tiempo real que brinda información de forma inmediata a partir de datos históricos y en vivo. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán los elementos esenciales de MemSQL para el desarrollo y la administración. Al final de esta capacitación, los participantes podrán: - Comprender los conceptos clave y las características de MemSQL - Instalar, diseñar, mantener y operar MemSQL - Optimizar esquemas en MemSQL - Mejorar las consultas en MemSQL - Rendimiento de referencia en MemSQL - Construya aplicaciones de datos en tiempo real usando MemSQL Audiencia - Desarrolladores - Administradores - Ingenieros de operación Formato del curso - Conferencia de parte, discusiaón en parte, ejercicios y práctica práctica |
tigon | Tigon: Transmisión en Tiempo Real para el Mundo Real | 14 horas | Tigon es un marco de procesamiento de flujo de fuente abierta, en tiempo real, de baja latencia y alto rendimiento, nativo, que se asienta sobre HDFS y HBase para la persistencia. Las aplicaciones de Tigon abordan casos de uso tales como detección y análisis de intrusiones de red, análisis de mercado de redes sociales, análisis de ubicación y recomendaciones en tiempo real para los usuarios. Este curso presencial, dirigido por un instructor, presenta el enfoque de Tigon para combinar el procesamiento en tiempo real y por lotes a medida que guía a los participantes a través de la creación de una aplicación de muestra. Al final de esta capacitación, los participantes podrán: - Cree aplicaciones potentes de procesamiento de flujo para manejar grandes volúmenes de datos - Fuentes de flujo de procesos como Twitter y registros de servidor web - Utilice Tigon para unir, filtrar y agregar secuencias rápidamente Audiencia - Desarrolladores Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
ApacheIgnite | Apache Ignite: Mejora la Velocidad, la Escala y la Disponibilidad con la Informática en la Memoria | 14 horas | Apache Ignite es una plataforma informática en memoria que se encuentra entre la aplicación y la capacidad de datos para mejorar la velocidad, la escala y la disponibilidad. En este entrenamiento en vivo dirigido por un instructor, los participantes aprendieron los principios detrás del almacenamiento persistente y puro en la memoria a medida que avanzan en la creación de un proyecto de ejemplo de computación en memoria. Al final de esta capacitación, los participantes podrán: - Utilice Ignite para la memoria en la memoria, la persistencia en disco y una base de datos en memoria puramente distribuida - Logre la persistencia sin sincronizar los datos a una base de datos relacionales - Use Ignite para llevar a cabo SQL y Uniones Distribuidas - Mejore el rendimiento moviendo los datos más cerca de la CPU, usando la RAM como almacenamiento - Extienda conjuntos de datos en un clúster para lograr la escalabilidad horizontal - Integre Ignite con RDBMS, NoSQL, Hadoop y procesadores de aprendizaje automático Audiencia - Desarrolladores Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
vespa | Vespa: Sirve Datos a Gran Escala en Tiempo Real | 14 horas | Vespa, un motor de procesamiento y publicación de grandes volúmenes de código abierto creado por Yahoo. Se utiliza para responder a las consultas de los usuarios, hacer recomendaciones y proporcionar contenido personalizado y publicidades en tiempo real. Este entrenamiento en vivo, dirigido por un instructor, presenta los desafíos de servir datos a gran escala y guía a los participantes a través de la creación de una aplicación que puede calcular las respuestas a las solicitudes de los usuarios, en grandes conjuntos de datos en tiempo real. Al final de esta capacitación, los participantes podrán: - Use Vespa para calcular rápidamente los datos (almacenar, buscar, clasificar, organizar) en el momento de servir mientras un usuario espera - Implementar Vespa en aplicaciones existentes que involucran búsqueda de funciones, recomendaciones y personalización - Integre e implemente Vespa con los sistemas de big data existentes, como Hadoop y Storm. Audiencia - Desarrolladores Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
apex | Apache Apex: Procesamiento de Big Data-in-Motion | 21 horas | Apache Apex es una plataforma nativa de YARN que unifica la transmisión y el procesamiento por lotes. Procesa big data-in-motion de una manera que es escalable, de rendimiento, tolerante a fallas, con estado, seguro, distribuido y de fácil operación. Este curso en vivo dirigido por un instructor presenta la arquitectura de procesamiento de flujo unificado de Apache Apex y guía a los participantes a través de la creación de una aplicación distribuida usando Apex en Hadoop. Al final de esta capacitación, los participantes podrán: - Comprender los conceptos de canalización de procesamiento de datos, como conectores para fuentes y sumideros, transformaciones de datos comunes, etc. - Cree, escale y optimice una aplicación Apex - Procesar flujos de datos en tiempo real de manera confiable y con mínima latencia - Utilice Apex Core y la biblioteca Apex Malhar para permitir el desarrollo rápido de aplicaciones - Use la API Apex para escribir y reutilizar el código Java existente - Integra Apex en otras aplicaciones como un motor de procesamiento - Sintonizar, probar y escalar aplicaciones Apex Audiencia - Desarrolladores - Arquitectos empresariales Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
alluxio | Alluxio: Unificando Sistemas de Almacenamiento Dispares | 7 horas | Alexio es un sistema de almacenamiento distribuido virtual de código abierto que unifica sistemas de almacenamiento dispares y permite que las aplicaciones interactúen con datos a la velocidad de la memoria. Es utilizado por compañías como Intel, Baidu y Alibaba. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar Alexio para unir diferentes marcos de computación con sistemas de almacenamiento y administrar de manera eficiente los datos de escala de varios petabytes mientras avanzan en la creación de una aplicación con Alluxio. Al final de esta capacitación, los participantes podrán: - Desarrolle una aplicación con Alluxio - Conecte aplicaciones y sistemas de big data mientras conserva un espacio de nombres - Extrae de manera eficiente el valor de los grandes datos en cualquier formato de almacenamiento - Mejorar el rendimiento de la carga de trabajo - Implemente y administre Alluxio de forma independiente o en clúster Audiencia - Científico de datos - Desarrollador - Administrador de sistema Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
flink | Flink para Flujo Escalable y Procesamiento de Datos por Lotes | 28 horas | Apache Flink es un marco de código abierto para flujo escalable y procesamiento de datos por lotes. Este curso presencial, dirigido por un instructor, presenta los principios y enfoques detrás del procesamiento distribuido de datos en secuencia y por lotes, y guía a los participantes a través de la creación de una aplicación de transmisión de datos en tiempo real. Al final de esta capacitación, los participantes podrán: - Configure un entorno para desarrollar aplicaciones de análisis de datos - Empaque, ejecute y monitoree las aplicaciones de transmisión de datos basadas en Flink y tolerantes a fallas - Administrar diversas cargas de trabajo - Realice análisis avanzados usando Flink ML - Configurar un clúster Flink multinodo - Mida y optimice el rendimiento - Integrar Flink con diferentes sistemas Big Data - Compare las capacidades de Flink con las de otros marcos de procesamiento de big data Audiencia - Desarrolladores - Arquitectos - Ingenieros de datos - Profesionales de analítica - Gerentes técnicos Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
samza | Samza para el Procesamiento de la Secuencia | 14 horas | Apache Samza es un marco computacional asíncrono de código abierto casi en tiempo real para el procesamiento de flujos. Utiliza Apache Kafka para mensajería y Apache Hadoop YARN para tolerancia a fallas, aislamiento de procesador, seguridad y administración de recursos. Esta capacitación en vivo dirigida por un instructor presenta los principios detrás de los sistemas de mensajería y el procesamiento distribuido de flujo, mientras acompaña a los participantes a través de la creación de un proyecto basado en Samza y la ejecución de trabajos. Al final de esta capacitación, los participantes podrán: Usa Samza para simplificar el código necesario para producir y consumir mensajes Desacoplar el manejo de los mensajes de una aplicación Utilice Samza para implementar cálculos asincrónicos casi en tiempo real Utilice el procesamiento de flujo para proporcionar un mayor nivel de abstracción en los sistemas de mensajería Audiencia - Desarrolladores Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
zeppelin | Zeppelin para Análisis de Datos Interactivos | 14 horas | Apache Zeppelin es un portátil basado en web para capturar, explorar, visualizar y compartir datos basados en Hadoop y Spark. Esta capacitación en vivo dirigida por un instructor presenta los conceptos detrás del análisis interactivo de datos y guía a los participantes a través de la implementación y el uso de Zeppelin en un entorno de usuario único o multiusuario. Al final de esta capacitación, los participantes podrán: - Instalar y configurar Zeppelin - Desarrollar, organizar, ejecutar y compartir datos en una interfaz basada en navegador - Visualice resultados sin consultar la línea de comando o los detalles del clúster - Ejecute y colabore en flujos de trabajo largos - Trabaja con cualquiera de los lenguajes de plug-in / back-end de procesamiento de datos, como Scala (con Apache Spark), Python (con Apache Spark), Spark SQL, JDBC, Markdown y Shell. - Integra Zeppelin con Spark, Flink y Map Reduce - Asegure las instancias multiusuario de Zeppelin con Apache Shiro Audiencia - Ingenieros de datos - Analistas de datos - Científicos de datos - Desarrolladores de software Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
magellan | Magellan: Análisis Geoespacial con Spark | 14 horas | Magellan es un motor de ejecución distribuida de código abierto para el análisis geoespacial en big data. Implementado sobre Apache Spark, amplía Spark SQL y proporciona una abstracción relacional para el análisis geoespacial. Esta capacitación en vivo dirigida por un instructor presenta los conceptos y enfoques para implementar el análisis geospacial y guía a los participantes a través de la creación de una aplicación de análisis predictivo utilizando Magellan en Spark. Al final de esta capacitación, los participantes podrán: - Consultar, analizar y unir datos geoespaciales de manera eficiente a escala - Implementar datos geoespaciales en inteligencia empresarial y aplicaciones de análisis predictivo - Utilice el contexto espacial para ampliar las capacidades de dispositivos móviles, sensores, registros y dispositivos portátiles Audiencia - Desarrolladores de aplicaciones Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
hadooppython | Hadoop con Python | 28 horas | Hadoop es un popular marco de procesamiento Big Data. Python es un lenguaje de programación de alto nivel famoso por su claridad de sintaxis y código. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo trabajar con Hadoop, MapReduce, Pig y Spark utilizando Python, ya que pasan por múltiples ejemplos y casos de uso. Al final de esta capacitación, los participantes podrán: - Comprender los conceptos básicos detrás de Hadoop, MapReduce, Pig y Spark - Utilice Python con Hadoop Distributed File System (HDFS), MapReduce, Pig y Spark - Utilice Snakebite para acceder mediante programación a HDFS dentro de Python - Usa mrjob para escribir trabajos de MapReduce en Python - Escribir programas Spark con Python - Extienda la funcionalidad del cerdo usando las UDF de Python - Administrar trabajos de MapReduce y scripts Pig utilizando Luigi Audiencia - Desarrolladores - Profesionales de TI Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
monetdb | Curso de MonetDB | 28 horas | MonetDB es una base de datos de código abierto que fue pionera en el enfoque de la tecnología columna-tienda. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán cómo usar MonetDB y cómo sacar el máximo provecho de ella. Al final de esta capacitación, los participantes podrán: - Comprender MonetDB y sus características - Instalar y comenzar con MonetDB - Explora y realiza diferentes funciones y tareas en MonetDB - Acelere la entrega de su proyecto maximizando las capacidades de MonetDB Audiencia - Desarrolladores - Expertos técnicos Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
PentahoDI | Fundamentos de Integración de Datos Pentaho | 21 horas | Pentaho Data Integration es una herramienta de integración de datos de código abierto para definir trabajos y transformaciones de datos. En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán a usar las poderosas capacidades de ETL de Pentaho Data Integration y su rica GUI para administrar todo un ciclo de vida de big data, maximizando el valor de los datos para la organización. Al final de esta capacitación, los participantes podrán: - Crear, previsualizar y ejecutar transformaciones de datos básicas que contengan pasos y saltos - Configure y asegure el Repositorio de Pentaho Enterprise - Aproveche fuentes de datos dispares y genere una única versión unificada de la verdad en un formato listo para análisis. - Proporcionar resultados a aplicaciones de terceros para su posterior procesamiento Audiencia - Analista de datos - Desarrolladores de ETL Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica |
introtostreamprocessing | Una introducción práctica al procesamiento de flujo | 21 horas | El procesamiento de flujo se refiere al procesamiento en tiempo real de "datos en movimiento", es decir, realizar cálculos sobre datos a medida que se reciben. Dichos datos se leen como flujos continuos de fuentes de datos tales como eventos de sensores, actividad de usuarios de sitios web, transacciones financieras, transferencias de tarjetas de crédito, transmisiones de clics, etc. Los marcos de procesamiento de flujos pueden leer grandes volúmenes de datos entrantes y proporcionar información valiosa casi instantáneamente. En este entrenamiento en vivo dirigido por un instructor (in situ o remoto), los participantes aprenderán cómo configurar e integrar diferentes marcos de Procesamiento de Stream con los sistemas de almacenamiento de big data existentes y aplicaciones de software y microservicios relacionados. Al final de esta capacitación, los participantes podrán: - Instale y configure diferentes marcos de procesamiento de flujo, como Spark Streaming y Kafka Streaming - Comprender y seleccionar el marco más adecuado para el trabajo - Proceso de datos de forma continua, concurrente y de forma récord por registro - Integre soluciones de procesamiento de flujo con bases de datos existentes, almacenes de datos, lagos de datos, etc. - Integración de la biblioteca de procesamiento de flujo más apropiada con aplicaciones empresariales y microservicios Audiencia - Desarrolladores - Arquitectos de software Formato del curso - Conferencia de parte, discusión en parte, ejercicios y práctica práctica Notas - Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos. |
confluent | Building Kafka Solutions with Confluent | 14 horas | este entrenamiento en vivo (in situ o remoto) dirigido por un instructor está dirigido a ingenieros que deseen utilizar Confluent (una distribución de Kafka) para construir y administrar una plataforma de procesamiento de datos en tiempo real para sus aplicaciones. al final de esta formación, los participantes podrán: - instalar y configurar la plataforma Confluent. - use herramientas y servicios de administración de Confluent & #39; s para ejecutar Kafka más fácilmente. - Store y procese los datos de la secuencia entrante. - optimice y administre clústeres de Kafka. flujos de datos - Secure. Format del curso Conferencia y discusión - Interactive. - muchos ejercicios y prácticas. implementación práctica de - en un entorno de laboratorio en vivo. Opciones de personalización de Course - este curso se basa en la versión de código abierto de Confluent: fuente abierta Confluent. - para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para organizar. |
dataminpython | Data Mining with Python | 14 horas | este entrenamiento en vivo (in situ o remoto) dirigido por un instructor está dirigido a analistas de datos y científicos de datos que deseen implementar técnicas de análisis de datos más avanzadas para la minería de datos mediante python. al final de esta formación, los participantes podrán: - comprender áreas importantes de minería de datos, incluyendo la minería de reglas de asociación, análisis de sentimiento de texto, Resumen de texto automático y detección de anomalías de datos. - compare e implemente diversas estrategias para resolver problemas de minería de datos en el mundo real. - comprender e interpretar los resultados. Format del curso Conferencia y discusión - Interactive. - muchos ejercicios y prácticas. implementación práctica de - en un entorno de laboratorio en vivo. Opciones de personalización de Course - para solicitar una formación personalizada para este curso, póngase en contacto con nosotros para organizar. |
sparkcloud | Apache Spark in the Cloud | 21 horas | Apache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS. AUDIENCE: Data Engineer, DevOps, Data Scientist |
bigdataanahealth | Big Data Analytics in Health | 21 horas | El análisis de Big Data implica el proceso de examinar grandes cantidades de conjuntos de datos variados para descubrir correlaciones, patrones ocultos y otros conocimientos útiles La industria de la salud tiene cantidades masivas de información médica y clínica compleja y heterogénea La aplicación de análisis de big data en datos de salud presenta un gran potencial para obtener ideas para mejorar la prestación de la atención médica Sin embargo, la enormidad de estos conjuntos de datos plantea grandes desafíos en análisis y aplicaciones prácticas para un entorno clínico En este entrenamiento en vivo con instructor (remoto), los participantes aprenderán cómo realizar análisis de big data en salud a medida que avanzan en una serie de ejercicios livelab manuales Al final de esta capacitación, los participantes podrán: Instalar y configurar herramientas de análisis de big data como Hadoop MapReduce y Spark Comprender las características de los datos médicos Aplicar técnicas de big data para tratar datos médicos Estudiar los sistemas de big data y los algoritmos en el contexto de las aplicaciones de salud Audiencia Desarrolladores Científicos de datos Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica de handson pesado Nota Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos . |
arrow | Apache Arrow for Data Analysis across Disparate Data Sources | 14 horas | Apache Arrow es un marco de procesamiento de datos inmemory de código abierto A menudo se usa junto con otras herramientas de ciencia de datos para acceder a almacenes de datos dispares para el análisis Se integra bien con otras tecnologías como bases de datos de GPU, bibliotecas y herramientas de aprendizaje automático, motores de ejecución y marcos de visualización de datos En esta capacitación presencial en línea, los participantes aprenderán a integrar Apache Arrow con varios marcos de Data Science para acceder a datos de diferentes fuentes de datos Al final de esta capacitación, los participantes podrán: Instalar y configurar Apache Arrow en un entorno distribuido en clúster Utilice la flecha de Apache para acceder a datos de fuentes de datos dispares Utilice la flecha Apache para eludir la necesidad de construir y mantener tuberías complejas de ETL Analice datos en fuentes de datos dispares sin tener que consolidarlo en un repositorio centralizado Audiencia Científicos de datos Ingenieros de datos Formato del curso Conferencia de parte, parte de discusión, ejercicios y práctica manual Nota Para solicitar una capacitación personalizada para este curso, contáctenos para hacer arreglos . |
Curso | Fecha | Precio del Curso [A distancia / Presencial] |
---|---|---|
Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data - Guadalajara - Puerta del Hierro | Mar, 2019-03-05 09:30 | 85,000MXN / 112,800MXN |
Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data - Monterrey - Oficinas en el Parque | Mié, 2019-03-13 09:30 | 85,000MXN / 111,900MXN |
Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data - Monterrey - Dataflux | Lun, 2019-03-25 09:30 | 85,000MXN / 108,600MXN |
Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data - Guadalajara - Country Club Financial | Mar, 2019-03-26 09:30 | 85,000MXN / 108,600MXN |
Apache Accumulo: Construcción de Altamente Escalable Aplicaciones Big Data - Puebla - Triangulo Las Animas | Mar, 2019-04-02 09:30 | 85,000MXN / 105,450MXN |
Curso | Ubicación | Fecha | Precio del Curso [A distancia / Presencial] |
---|---|---|---|
Aprendizaje Profundo para la Visión con Caffe | Querétaro - Milenio III | Mié, 2019-02-20 09:30 | 89,910MXN / 113,510MXN |
R Programación para Finanzas | Puebla - Triangulo Las Animas | Mar, 2019-03-12 09:30 | 101,250MXN / 121,850MXN |
Inteligencia Artificial en Automoción | Guadalajara - Country Club Financial | Mié, 2019-03-27 09:30 | 62,550MXN / 84,950MXN |
Blockchain para Médico | Puebla - Triangulo Las Animas | Jue, 2019-05-16 09:30 | 52,110MXN / 72,410MXN |
Introducción al Uso de Neural Networks | Puebla - Triangulo Las Animas | Vie, 2019-06-28 09:30 | 34,110MXN / 54,260MXN |
We are looking to expand our presence in Ecuador!
If you are interested in running a high-tech, high-quality training and consulting business.
Apply now!