Créditos
6
Tipos
Obligatoria de especialidad (Redes de Computadores y Sistemas Distribuidos)
Requisitos
Esta asignatura no tiene requisitos
, pero tiene capacidades previas
Departamento
AC
Mail
jose.maria.barcelo@upc.edu
Profesorado
Responsable
- Jose Maria Barceló Ordinas ( jose.maria.barcelo@upc.edu )
Otros
- Jorge García Vidal ( jorge@ac.upc.edu )
Horas semanales
Teoría
4
Problemas
0
Laboratorio
0
Aprendizaje dirigido
0
Aprendizaje autónomo
7.11
Competencias
Computer networks and distributed systems
Genéricas
Razonamiento
Básicas
Objetivos
-
Capacidad para formular un problema de optimización convexa
Competencias relacionadas: CG3, CEE2.3, CB6, CTR6, -
Capacidad para resolver problemas de optimización no lineal.
Competencias relacionadas: CG3, CEE2.3, CB6, CTR6, -
Capacidad de aplicar a un problema real temas relacionados con la optimización
Competencias relacionadas: CG3, CEE2.2, CEE2.3, CEE2.1, CB8, CTR6, -
Capacidad de entender los algoritmos básicos de aprendizaje de la máquina
Competencias relacionadas: CG3, CEE2.3, CB6, CTR6, -
Capacidad de aplicar los algoritmos de aprendizaje de la máquina a escenarios reales.
Competencias relacionadas: CG3, CEE2.2, CEE2.3, CEE2.1, CB8, CTR6, -
Capacidad para comprender las redes neuronales y los algoritmos de aprendizaje profundo
Competencias relacionadas: CG3, CEE2.3, CB6, CTR6, -
Capacidad para aplicar redes neuronales y algoritmos de aprendizaje profundo a escenarios reales
Competencias relacionadas: CG3, CEE2.2, CEE2.3, CEE2.1, CB8, CTR6,
Contenidos
-
Fundamentos de la optimización de la convexidad
En este tema introduciremos los conceptos del hombre de la optimización no lineal con especial énfasis en la optimización convexa. Específicamente veremos: conjuntos convexos, funciones convexas, problemas de optimización convexa (COP) y dualidad (función dual de Lagrange, condiciones óptimas de KKT), métodos para resolver COP (Métodos de Descenso General, Métodos de Puntos Interiores) -
Métodos de kernel en aprendizaje máquina
Ejemplos de cómo se aplica la optimización en el campo del aprendizaje automático en redes informáticas y redes distribuidas. En concreto, se explicará como funciona la reproducción de espacios kernel de Hilbert (RKHS), métodos supervisados con kernels entre los que se incluyen la regresión kernel ridge (KRR), los procesos gaussianos, las máquinas de vectores de soporte (para clasificación y para regressión), y el kernel PCA. -
Modelos de aprendizaje profundo e IA generativa
En este tema se introducen los conceptos básicos relacionados con el aprendizaje profundo y los modelos de IA generativa aplicados a las redes informáticas y a los sistemas distribuidos. En concreto, se tratarán redes bayesianas neuronales, modelos de montecarlo, inferencia variacional, LLMs, transformers, modelos de variable latente (EM, ELBO, etc), modelos AI generativos como son los modelos autoregresivos, de flujo, difusivos y variacionales (VAE).
Actividades
Actividad Acto evaluativo
Metodología docente
Durante las sesiones iniciales de cada tema, los principales resultados se explicarán en la pizarra. El estudiante resolverá algunos ejercicios para probar sus habilidades en el tema. Finalmente, los estudiantes desarrollarán proyecto para los temas estudiados.Método de evaluación
La evaluación se basa en el desarrollo de 3 proyectos (cada proyecto vale igual) y 2 exámenes escritos. La nota final del curso (FM) será:FM = 0.6*(P1+P2+P3) + 0.2*Ex1 + 0.2*Ex2.
Para cada proyecto se entrega un reporte de investigación donde se analiza el problema propuesto, se describe la metodología de resolución y se describen los resultados y conclusiones. Se evaluará la capacidad del alumno para demostrar entendimiento y comprensión de la teoría, capacidad de razonamiento y de comunicar resultados (competencias CG3, CEE2.2, CEE2.3, CEE2.1, CB8, CTR6).
En los exámenes escritos, se les dará una lista de conceptos teóricos relacionados con los temas de la asignatura en los que tienen que demostrar una comprensión y entendimiento. En el examen se les pedirá que expliquen la comprensión que tienen sobre esos conceptos (competencias CG3, CEE2.3, CB6, CTR6).
Bibliografía
Básico
-
Convex optimization
- Boyd, S.P.; Vandenberghe, L,
Cambridge University Press,
2004.
ISBN: 0521833787
http://cataleg.upc.edu/record=b1253105~S1*cat -
Pattern recognition and machine learning
- Bishop, Christopher M,
Springer,
2006.
ISBN: 0387310738
https://discovery.upc.edu/discovery/fulldisplay?docid=alma991003157379706711&context=L&vid=34CSUC_UPC:VU1&lang=ca -
Machine learning : a bayesian and optimization perspective
- Theodoridis, S,
Elsevier Academic Press,
2020.
ISBN: 9780128188033
https://ebookcentral-proquest-com.recursos.biblioteca.upc.edu/lib/upcatalunya-ebooks/detail.action?pq-origsite=primo&docID=6118601 -
Deep learning
- Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron,
The MIT Press,
[2016].
ISBN: 9780262035613
https://www.deeplearningbook.org/ -
Deep Learning, Foundations and Concepts
- Bishop, Christopher M.; Bishop, Hugh,
Springer,
2024.
ISBN: 9783031454677
https://ebookcentral-proquest-com.recursos.biblioteca.upc.edu/lib/upcatalunya-ebooks/detail.action?pq-origsite=primo&docID=30853138
Web links
- Book in PDF: "Convex Optimization" of Stephen P. Boyd and Lieven Vandenberghe, http://www.stanford.edu/~boyd/cvxbook/
- Book in PDF and supplementary material for "Deep Learning" of Goodfellow, Ian; Bengio, Yoshua; Courville, Aaron https://www.deeplearningbook.org