Programa del Curso

DÍA 1 - REDES NEURONALES ARTIFICIALES

Introducción y estructura de ANN.

    Bioneuronas lógicas y neuronas artificiales. Modelo de una ANN. Funciones de activación utilizadas en las RNA. Clases típicas de arquitecturas de red.

Mathematica l Fundamentos y mecanismos de aprendizaje.

    Revisión del álgebra vectorial y matricial. Conceptos de espacio de estados. Conceptos de optimización. Aprendizaje de corrección de errores. Aprendizaje basado en la memoria. Aprendizaje hebbiano. Aprendizaje competitivo.

Perceptrones de una sola capa.

    Estructura y aprendizaje de los perceptrones. Clasificador de patrones: introducción y clasificadores de Bayes. Perceptrón como clasificador de patrones. Convergencia de perceptrones. Limitaciones de los perceptrones.

Feedforward ANN.

    Estructuras de redes feedforward multicapa. Algoritmo de propagación hacia atrás. Retropropagación: formación y convergencia. Aproximación funcional con retropropagación. Cuestiones prácticas y de diseño del aprendizaje de la propagación hacia atrás.

Redes de funciones de base radial.

    Separabilidad e interpolación de patrones. Teoría de la Regularización. Redes de regularización y RBF. Diseño y capacitación de redes RBF. Propiedades de aproximación de RBF.

Aprendizaje competitivo y autoorganización ANN.

    Procedimientos generales de agrupación. Cuantización de vectores de aprendizaje (LVQ). Algoritmos y arquitecturas de aprendizaje competitivo. Mapas de entidades autoorganizados. Propiedades de los mapas de entidades.

Difuso Neural Networks.

    Sistemas neuro-difusos. Antecedentes de conjuntos difusos y lógica. Diseño de tallos difusos. Diseño de RNAs difusas.

Aplicaciones

    Se discutirán algunos ejemplos de aplicaciones de redes neuronales, sus ventajas y problemas.

DÍA -2 APRENDIZAJE AUTOMÁTICO

    El Marco de Aprendizaje PAC Garantías para un conjunto finito de hipótesis: caso coherente Garantías para un conjunto finito de hipótesis – caso inconsistente Generalidades Determinista cv. Escenarios estocásticos Ruido de error de Bayes Errores de estimación y aproximación Selección de modelos
Complejidad de Radmeacher y VC – Dimensión Equilibrio entre sesgo y varianza
  • Regularización
  • Sobreajuste
  • Validación
  • Máquinas de vectores de soporte
  • Kriging (Regresión del proceso gaussiano)
  • PCA y PCA del kernel
  • Mapas de Autoorganización (SOM)
  • Espacio vectorial inducido por kernel Mercer Kernels y Kernel: métricas de similitud inducida
  • Reinforcement Learning
  • DÍA 3 - APRENDIZAJE PROFUNDO
  • Esto se enseñará en relación con los temas tratados en el Día 1 y el Día 2
  • Regresión Logística y Softmax Autocodificadores dispersos Vectorización, PCA y Blanqueamiento Aprendizaje autodidacta Redes profundas Decodificadores lineales Convolución y agrupación Codificación dispersa Análisis independiente de componentes Análisis de correlación canónica Demostraciones y aplicaciones
  • Requerimientos

    Buena comprensión de las matemáticas.

    Good comprensión de la estadística básica.

    No se requieren conocimientos básicos de programación, pero se recomiendan.

      21 horas
     

    Número de participantes


    Comienza

    Termina


    Las fechas están sujetas a disponibilidad y tienen lugar entre 09:30 y 16:30.
    Los cursos de formación abiertos requieren más de 5 participantes.

    Testimonios (2)

    Cursos Relacionados

    Categorías Relacionadas