Créditos
6
Tipos
Obligatoria de especialidad (Redes de Computadores y Sistemas Distribuidos)
Requisitos
Esta asignatura no tiene requisitos
, pero tiene capacidades previas
Departamento
AC
Profesorado
Responsable
- Jorge García Vidal ( jorge@ac.upc.edu )
Otros
- Jose Maria Barceló Ordinas ( jose.maria.barcelo@upc.edu )
Horas semanales
Teoría
3.4
Problemas
0.6
Laboratorio
0
Aprendizaje dirigido
0
Aprendizaje autónomo
7.1
Competencias
Computer networks and distributed systems
Genéricas
Actitud frente al trabajo
Básicas
Objetivos
Contenidos
-
repaso de modelos de probabilidad
Axiomas de probabilidad, combinatoria, variables aleatorias, probabilidad condicionada e independencia, valores esperados, independencia condicional, desigualdades Ley (débil) de los grandes números. Ley del límite central. Propiedades de la distribución gausiana multivariada. Teoría de la información (Entropía, información mútua, divergencia KL, etc). -
Estimación. Técnicas básicas de ML para clasificación y regressión
estimación de máxima verosimilitud y bayesiana. Funciones de decisión, coste, riego, minimización del riesgo empírico. Aproximación y estimación. Compromiso entre el bias y la varianza. Clasificación. Regresión lineal. Regresión logística. K-means. Clustering. Random forest. Introducción a las redes neuronales. FFNN, backpropagation, SGD, CNN, RNN, autoencoders. -
Modelos lineales y reducción de dimensionalidad
Review of basic linear algebra results, spectral theorem for symmetric matrices, positive definite matrices, matrix calculus, trace operator, SVD, matrix norms, Eckart-Young theorem, condition number, dimensionality reduction, PCA, eigenfaces, Sparse representation, Fourier matrices.
Actividades
Actividad Acto evaluativo
Modelos probabilísticos
Axiomas de probabilidad, combinatoria, variables aleatorias, probabilidad condicionada e independencia, valores esperados (revisión, problemas y material on-line). Inclusión/exclusión, independencia condicional, desigualdades y ejemplos de distribuciones discretas. Ley (débil) de los grandes números. Funciones de distribución acumulativas, funciones de densidad de probabilidad, ejemplos (revisión, material online). Teoría de la información (Entropía, información mútua, etc). Propiedades de la distribución exponencial y gausiana multivariada. Ley del límite central.Objetivos: 1
Contenidos:
Teoría
8h
Problemas
2h
Laboratorio
0h
Aprendizaje dirigido
0h
Aprendizaje autónomo
0h
Modelos lineales
Teorema espectral para matrices simétricas, Matrices positivas definidas, formas cuadráticas. SVD. Reducción de dimensión. PCA. Pseudo inversa de Monroe-Penrose. Espacios de dimensión infinita, Continuidad de operadores lineales. Espacios de Hilbert. Teorema de representación de Riesz.Objetivos: 1
Contenidos:
Teoría
8h
Problemas
2h
Laboratorio
0h
Aprendizaje dirigido
0h
Aprendizaje autónomo
0h
estimación. Técnicas básicas de aprendizaje automático para regresión y clasificación.
estimación de máxima verosimilitud y bayesiana. Regresión linear. Maximum likelihood and bayesian estimation. Regresión lineal. Bias-variance tradeoff Clasificación.
Teoría
26.9h
Problemas
4.1h
Laboratorio
0h
Aprendizaje dirigido
0h
Aprendizaje autónomo
0h
Teoría
0h
Problemas
0h
Laboratorio
0h
Aprendizaje dirigido
0h
Aprendizaje autónomo
0h
Teoría
0h
Problemas
0h
Laboratorio
0h
Aprendizaje dirigido
0h
Aprendizaje autónomo
0h
Trabajo 1
Teoría
0h
Problemas
0h
Laboratorio
0h
Aprendizaje dirigido
0h
Aprendizaje autónomo
19.9h
Trabajo 2
Teoría
0h
Problemas
0h
Laboratorio
0h
Aprendizaje dirigido
0h
Aprendizaje autónomo
20h
Trabajo 3
Teoría
0h
Problemas
0h
Laboratorio
0h
Aprendizaje dirigido
0h
Aprendizaje autónomo
20h
Metodología docente
Algunos materiales estarán disponibles online. Los principales resultados se explicarán en clase. Se harán clases de problemas y de ejemplos de aplicación.Método de evaluación
La evaluación se basa en el desarrollo de 3 proyectos y dos controles (C1, C2), uno a mediados de los curso y otro al final del curso, que se puntuan entre 0 y 10. Cada proyecto será evaluado (0=<nota=<10). La nota final del curso (FM) se calcula como:FM = 0.2(C1+C2+P1+P2+P3)
En este curso los proyectos propuestos serán:
* P1: Probabilidad básica, teoría de la información y álgebra linial,
* P2: Métodos básicos de estimación y Machine Learning.
* P3: Redes Neuronales
Bibliografía
Básico
-
Information theory, inference, and learning algorithms
- MacKay, D.J.C,
Cambridge University Press,
2003.
ISBN: 0521642981
https://discovery.upc.edu/discovery/fulldisplay?docid=alma991002876809706711&context=L&vid=34CSUC_UPC:VU1&lang=ca -
An introduction to probability theory and its applications
- Feller, W,
John Wiley and Sons,
1968.
ISBN: 0471257117
https://discovery.upc.edu/discovery/fulldisplay?docid=alma991000036749706711&context=L&vid=34CSUC_UPC:VU1&lang=ca -
Pattern recognition and machine learning
- Bishop, C.M,
Springer,
2006.
ISBN: 0387310738
https://discovery.upc.edu/discovery/fulldisplay?docid=alma991003157379706711&context=L&vid=34CSUC_UPC:VU1&lang=ca -
Linear Algebra and learning from data
- G. Strang,
Wellesley-Cambridge,
2020.
ISBN: 9780692196380
https://discovery.upc.edu/discovery/fulldisplay?docid=alma991004193269706711&context=L&vid=34CSUC_UPC:VU1&lang=ca -
An Introduction to Statistical Learning
- James, G ... [et al.],
Springer,
2021.
ISBN: 9781071614174
https://ebookcentral-proquest-com.recursos.biblioteca.upc.edu/lib/upcatalunya-ebooks/detail.action?pq-origsite=primo&docID=6686746