Módulo/Materia
- Materia de Nivel 1: Aprendizaje
- Materia de Nivel 2: Aprendizaje
Subir
Descripción/Contenidos
Perceptrón y perceptrón multicapa. Bases teóricas de las redes neuronales profundas. Redes neuronales profundas. Redes de creencia profundas: autocodificadores profundos. Redes convolucionales y recurrentes. Regularización.
Subir
Competencias genéricas
- CG4 - Saber utilizar los procesos teóricos y aplicados que permiten extraer información a partir de conjuntos de datos de naturaleza homogénea u heterogénea, en particular cuando se trata de grandes volúmenes de datos.
- CG5 - Identificar las soluciones más adecuadas y efectivas para los problemas que se planteen el marco de la Ciencia de Datos, teniendo en cuenta tanto las características propias del problema como el entorno del mismo
Subir
Competencias específicas
- CE15- Ser capaces de pensar críticamente sobre los datos, identificando los modos de almacenamiento, pre-procesamiento y análisis más adecuados para los objetivos del estudio.
- CE16- Manejar los métodos de aprendizaje tanto estadísticos como automáticos aplicados a conjuntos de datos.
- CE17- Entender las estructuras bioinspiradas para el aprendizaje, sus bases teóricas, su diseño y sus aplicaciones en diferentes problemas.
Subir
Resultados aprendizaje
- RA9. Explicar el funcionamiento de una red neuronal.
- RA10. Describir las características de los diferentes tipos de redes neuronales profundas.
- RA11. Diseñar redes neuronales profundas para el tratamiento de datos e información.
Subir
Metodología
Metodología-Actividad |
Horas presenciales |
Horas no presenciales |
Clases expositivas/participativas |
28 |
|
Prácticas |
28 |
|
Realización de trabajos/proyectos en grupo |
|
10 |
Estudio y trabajo autónomo del estudiante |
|
78 |
Tutorías |
|
2 |
Pruebas de evaluación |
4 |
|
Total |
60 |
90 |
Subir
Evaluación
Resultados de aprendizaje |
Actividad de evaluación |
Peso (%) |
Carácter recuperable |
Nota mínima requerida |
RA9, RA10 |
Examen teórico-práctico (una o varias pruebas) |
35 |
Sí |
5 |
RA9, RA10, RA11 |
Participación activa en clase |
5 |
No |
|
RA11 |
Realiación de proyectos en grupo (memoria escrita) |
20 |
No |
|
RA11 |
Realización de proyectos en grupo (presentación) |
10 |
No |
|
RA9, RA10, RA11 |
Memoria de prácticas |
30 |
Sí |
5 |
Si en alguna de las actividades no se cumpliera el mínimo para ponderar, la nota de la asignatura será como máximo 4,9 sobre 10 (suspenso).
Subir
Temario
- Tema 1. Redes neuronales y sus fundamentos (8h)
- 1.1 El perceptrón multicapa (1h)
- 1.2 Algoritmo del gradiente y variantes (1h)
- 1.3 Redes ¿profundas¿ y nuevos retos (2h)
- 1.4 Estrategias de regularización (2h)
- 1.5 Búsqueda de hiperparámetros (2h)
- Tema 2. Redes convolucionales (CNNs) (8h)
- 2.1 Convolución en la visión artificial (2h)
- 2.2 Redes neuronales convolucionales (4h)
- 2.3 Evolución en las arquitecturas (2h)
- Tema 3. Redes recurrentes (RNNs) (8h)
- 3.1 Modelos recurrentes (2h)
- 3.2 Evolución de los modelos recurrentes (2h)
- 3.3 Aplicación a procesamiento del lenguaje natural (4h)
- Tema 4. Nuevas técnicas de fusión de información en redes neuronales (4h)
- 4.1 Funciones de agregación (2h)
- 4.2 Funciones de similitud y distancias (2h)
Subir
Programa de prácticas experimentales
- Práctica 1. Introducción a PyTorch (4h)
- Práctica 2. Clasificación mediante perceptrón multicapa (4h)
- Práctica 3. Transfer Learning aplicado a clasificación de imagen (4h)
- Práctica 4. Predicción en series temporales mediante redes recurrentes (4h)
- Práctica 5. Clasificación de textos usando redes recurrentes (4h)
- Práctica 6. Modificación de capas en CNNs aplicados a clasificación de radiografías (4h)
- Práctica 7. Modificación de capas en RNNs aplicados a predicción de procesos (4h)
Subir
Bibliografía
Acceda a la bibliografía que el profesorado de la asignatura ha solicitado a la Biblioteca.
La bibliografía básica de la asignatura es la que sigue:
- Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep learning. Cambridge, Londres: MIT press
- Kamath. U., Liu J., & Whitaker. J. (2019). Deep Learning for NLP and Speech Recognition. Cham: Springer
La bibliografía complementaria de la asignatura es la siguiente:
- Stevens, E., & Antiga, L., (2021). Deep Learning with PyTorch: Build, Train, and Tune Neural Networks Using Python Tools. Manning Publications
Subir
Idiomas
Castellano.
Subir
Lugar de impartición
Universidad Pública de Navarra, Campus Arrosadía
Subir