Créditos
6
Tipos
Obligatoria
Requisitos
Esta asignatura no tiene requisitos
, pero tiene capacidades previas
Departamento
CS
Este curso presenta los conceptos fundamentales de las redes neuronales y el aprendizaje profundo, incluyendo arquitecturas básicas, algoritmos de aprendizaje y aplicaciones prácticas, proporcionando a los estudiantes las bases necesarias para comprender y aplicar estos métodos.
Profesorado
Responsable
- Luis Antonio Belanche Muñoz ( belanche@cs.upc.edu )
Otros
- Joan Llop Palao ( joan.llop@upc.edu )
Horas semanales
Teoría
2
Problemas
0
Laboratorio
2
Aprendizaje dirigido
0
Aprendizaje autónomo
6
Competencias
Transversales
Básicas
Específicas
Genéricas
Objetivos
-
Saber identificar un problema de análisis de datos y resolverlo de principio a fin (end to end)
Competencias relacionadas: CE13, CE15, CG8, CG9, CG4, CT5, -
Conèixer els fonaments teòrics de les xarxes neuronals com a models d'aprenentatge automatic
Competencias relacionadas: CE01, CE12, CE13, CE18, CE20, CE26, CG4, -
Conocer y comprender los ámbitos de aplicación de las redes neuronales y saber desarrollar soluciones a problemas concretos
Competencias relacionadas: CE12, CE15, CE18, CG9, -
Saber diseñar soluciones para problemas relacionados con el lenguaje, la imagen o el sonido
Competencias relacionadas: CB3, CE13, CE15, CE18, CE26, CT5, CG4, CG8, CG9,
Contenidos
-
Conceptos generales de aprendizaje automático
Repaso a los conceptos teóricos generales de aprendizaje automático. El aprendizaje como problema de optimización. Interpretación bayesiana del problema de aprendizaje. Modelos lineales generalizados. -
Fundamentos de las redes neuronales artificiales.
Fundamentos de las redes neuronales artificiales. Conceptos biológicos básicos. Modelo McCulloch-Pitts. Implicaciones cognitivas y computacionales. Redes de Lippmann. Funciones de pérdida, funciones de activación. -
Redes neuronales feed-forward
Redes neuronales feed-forward.
Redes lineales (I): el Perceptrón.
Redes lineales (II): la regla Delta.
Perceptrones multicapa y retropropagación.
Descenso de gradientes y variantes.
Otros optimizadores: pseudo-Newton, CG, Rprop.
Redes de funciones de base radial.
Autoencoders y VAEs.
Máquinas de vectores soporte.
Redes convolucionales. -
Redes neuronales avanzadas
Redes de Hopfield.
Redes neuronales para grafos.
Actividades
Actividad Acto evaluativo
Clases de laboratorio
Ejemplos de aplicación de los conceptos vistos en las clases de teoría. Explicaciones relativas a o els llenguatges de programació triats. Explicacions addicionals relevants per l'assignatura: bone pràctiques, metodologia experimental, etc.Objetivos: 1 4
Contenidos:
Teoría
0h
Problemas
0h
Laboratorio
28h
Aprendizaje dirigido
0h
Aprendizaje autónomo
25h
Examen Parcial
Examen parcial (a mediados de cuatrimestre) que cubre todo el temario visto hasta ese momento, o algo antes, a criterio del profesor. El examen se realizará en aula de laboratorio y puede consistir en preguntas de teoría, metodológicas o prácticas.Objetivos: 1 2 3
Semana: 9 (Fuera de horario lectivo)
Teoría
0h
Problemas
0h
Laboratorio
0h
Aprendizaje dirigido
0h
Aprendizaje autónomo
0h
Examen final
Examen final (en época de exámenes finales) que cubre todo el temario visto en la asignatura. El examen se realizará en aula de teoría y puede consistir en preguntas de teoría o metodológicas.Objetivos: 1 2 3 4
Semana: 15 (Fuera de horario lectivo)
Teoría
0h
Problemas
0h
Laboratorio
0h
Aprendizaje dirigido
0h
Aprendizaje autónomo
0h
Metodología docente
El curso profundiza en uno de los paradigmas de aprendizaje automático más importantes en la actualidad: las redes neuronales artificiales, con una sólida base en probabilidad, estadística y matemáticas. La teoría se introduce en clases magistrales en las que el profesor expone los conceptos. Estos conceptos se ponen en práctica en las clases de laboratorio, donde el alumno aprende a desarrollar soluciones de aprendizaje automático a problemas reales de cierta complejidad. Los estudiantes deben trabajar y entregar un proyecto al final del curso.Método de evaluación
El curso se califica de la siguiente manera:P = Nota del examen (control) parcial
F = Nota del examen final
T = Nota de los trabajos prácticos
Nota exámenes = 0.6F+0.4P si F< P ó F=P
F si F>P
Nota final = 40% T + 60% Nota exámenes
Reevaluación: sólo se pueden presentar en la reevaluación aquellas personas que, habiéndose presentado en el examen final (no vale un NP), tengan una nota exámenes menor a 4. La nota máxima de exámenes que se puede obtener en la reevaluación es un 7.
Bibliografía
Básico
-
Pattern recognition and machine learning
- Bishop, Christopher M,
Springer,
cop. 2006.
ISBN: 0387310738
https://discovery.upc.edu/discovery/fulldisplay?docid=alma991003157379706711&context=L&vid=34CSUC_UPC:VU1&lang=ca -
Deep learning
- Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron,
MIT Press,
2016.
ISBN: 9780262035613
https://www.deeplearningbook.org/ -
Neural networks and deep learning : a textbook
- Aggarwal, Charu C,
Springer,
2023.
ISBN: 9783031296420
https://ebookcentral-proquest-com.recursos.biblioteca.upc.edu/lib/upcatalunya-ebooks/detail.action?pq-origsite=primo&docID=30620507 -
Neural networks and learning machines
- Haykin, Simon S,
Prentice Hall,
cop. 2009.
ISBN: 9780131471399
https://discovery.upc.edu/discovery/fulldisplay?docid=alma991003533949706711&context=L&vid=34CSUC_UPC:VU1&lang=ca