Conceptos Avanzados en Inteligencia Computacional

Usted está aquí

Créditos
4
Tipos
Optativa
Requisitos
Esta asignatura no tiene requisitos, pero tiene capacidades previas
Departamento
CS
El objetivo de este curso es dar a conocer a los estudiantes diferentes técnicas avanzadas de inteligencia computacional. Una vez adquiridos los conocimientos básicos de computación difusa, evolutiva y neural en el curso anterior, CI-MAI, los estudiantes están listos para aprender nuevas aproximaciones de la inteligencia computacional tales como las técnicas computacionales híbridas: los sistemas neuro-difusos y genético-difusos, el razonamiento inductivo borroso, las redes neuronales difusas y heterogéneas, así como las redes neuronales recurrentes y métodos incrementales para la construcción de redes neuronales.

Profesores

Responsable

  • René Alquezar Mancho ( )

Otros

  • Enrique Romero Merino ( )
  • Luis Antonio Belanche Muñoz ( )
  • Maria Angela Nebot Castells ( )

Horas semanales

Teoría
1.8
Problemas
0
Laboratorio
0.9
Aprendizaje dirigido
0.3
Aprendizaje autónomo
5

Competencias

Competencias Técnicas Genéricas

Genéricas

  • CG3 - Capacidad para la modelización, cálculo, simulación, desarrollo e implantación en centros tecnológicos y de ingeniería de empresa, particularmente en tareas de investigación, desarrollo e innovación en todos los ámbitos relacionados con la Inteligencia Artificial.
  • CG4 - Capacidad para la dirección general, dirección técnica y dirección de proyectos de investigación, desarrollo e innovación, en empresas y centros tecnológicos, en el ámbito de la Inteligencia Artificial.

Competencias Técnicas de cada especialidad

Académicas

  • CEA11 - Capacidad de comprender las técnicas avanzadas de Inteligencia Computacional, y saber diseñar, implementar y aplicar estas técnicas en el desarrollo de aplicaciones, servicios o sistemas inteligentes.

Profesionales

  • CEP2 - Capacidad de resolver los problemas de toma de decisiones de las diferentes organizaciones, integrando herramientas inteligentes.
  • CEP3 - Capacidad de aplicación de las técnicas de Inteligencia Artificial en entornos tecnológicos e industriales para la mejora de la calidad y la productividad.

Competencias Transversales

Trabajo en equipo

  • CT3 - Ser capaz de trabajar como miembro de un equipo interdisciplinar ya sea como un miembro mas, o realizando tareas de direccion con la finalidad de contribuir a desarrollar proyectos con pragmatismo y sentido de la responsabilidad, asumiendo compromisos teniendo en cuenta los recursos disponibles.

Objetivos

  1. Comprender la metodología dell razonamiento inductivo difuso para modelar sistemas y predecir su comportamiento.
    Competencias relacionadas: CEA11, CG3, CG4,
  2. Aplicar la metodología del razonamiento inductivo difuso a la simulación de procesos medioambientales, biomédicos, industriales o económicos.
    Competencias relacionadas: CEP2, CEP3, CT3,
  3. Comprender las diferentes maneras de diseñar técnicas híbridas de inteligencia computacional integrando lógica difusa, redes neuronales y algoritmos evolutivos.
    Competencias relacionadas: CEA11, CG3, CG4,
  4. Aplicar técnicas híbridas de inteligencia computacional a la resolución de problemas complejos de minería de datos.
    Competencias relacionadas: CEP2, CEP3, CT3,
  5. Comprender algunas de las técnicas más avanzadas y recientes en el campo de las redes neuronales (por ejemplo, redes neuronales recurrentes, máquinas de aprendizaje extremo, redes neuronales profundas).
    Competencias relacionadas: CEA11, CG3, CG4,
  6. Aplicar técnicas avanzadas de redes neuronales para la resolución de problemas complejos de minería de datos.
    Competencias relacionadas: CEP2, CEP3, CT3,

Contenidos

  1. Razonamiento inductivo difuso
    La metodolgía FIR de razonamiento inductivo difuso permite modelar cualitativamente sistemas y predecir cuantitativamente su comportamiento.
  2. Sistemas difusos híbridos: sistemas neuro-difusos y sistemas genético-difusos
    Los sistemas difusos híbridos mejoran las habilidades de los sistemas difusos usando las redes neuronales y los algoritmos genéticos para aprender y adaptar sus parámetros de cara a un mejor rendimiento.
  3. Redes neuronales heterogéneas y difusas
    Las redes neuronales basadas en similaridad, posiblemente entrenadas con algoritmos evolutivos, permiten el procesamiento de datos difusos y heterogéneos en problemas de clasificación o regresión sin necesidad de codificar los datos.
  4. Métodos incrementales de construcción de redes neuronales y máquinas de aprendizaje extremo
    Los métodos incrementales para la construcción de redes neuronales permiten una computación eficiente de modelos sencillos con buen comportamiento de generalización. Las máquinas de aprendizaje extremo hacen lo mismo asignando pesos aleatorios a una parte de la arquitectura neuronal y optimizando el resto de pesos.
  5. Redes neuronales profundas
    Las redes neuronales profundas... (a completar)
  6. Redes neuronales recurrentes
    Las redes neuronales recurrentes de tiempo discreto permiten el aprendizaje y procesamiento de tareas con entrada/salida dinámica, tales como la predicción de series temporales, la clasificación de secuencias y la traducción.

Actividades

Actividad Acto evaluativo


Fuzzy Inductive Reasoning

Development of the corresponding topic and laboratory exercises
Objetivos: 1 2
Contenidos:
Teoría
1.8h
Problemas
0h
Laboratorio
1.8h
Aprendizaje dirigido
0h
Aprendizaje autónomo
4h

Hybrid fuzzy systems

Development of the corresponding topic and laboratory exercises
Objetivos: 3 4
Contenidos:
Teoría
3.6h
Problemas
0h
Laboratorio
1.8h
Aprendizaje dirigido
0h
Aprendizaje autónomo
6h

Fuzzy and heterogeneous neural networks

Development of the corresponding topic
Objetivos: 3
Contenidos:
Teoría
3.6h
Problemas
0h
Laboratorio
0.9h
Aprendizaje dirigido
0h
Aprendizaje autónomo
4h

Incremental neural networks and extreme learning machines

Development of the corresponding topic and laboratory exercises
Objetivos: 5 6
Contenidos:
Teoría
2.7h
Problemas
0h
Laboratorio
1.8h
Aprendizaje dirigido
0h
Aprendizaje autónomo
5h

Deep neural networks

Development of the corresponding topic and laboratory exercises
Objetivos: 5 6
Contenidos:
Teoría
5.4h
Problemas
0h
Laboratorio
1.8h
Aprendizaje dirigido
0h
Aprendizaje autónomo
8h

Redes neuronales recurrentes

Desarrollo del tema correspondiente de la asignatura y ejercicios de laboratorio
Objetivos: 5 6
Contenidos:
Teoría
4.5h
Problemas
0h
Laboratorio
2.7h
Aprendizaje dirigido
0h
Aprendizaje autónomo
9h


Examen final


Objetivos: 1 3 5
Semana: 15 (Fuera de horario lectivo)
Tipo: examen final
Teoría
0h
Problemas
0h
Laboratorio
0h
Aprendizaje dirigido
3h
Aprendizaje autónomo
4h

Metodología docente

Las clases de teoría introducen todos los conocimientos, las técnicas y los conceptos necesarios que se ponen en práctica en las clases de laboratorio. Las clases de teoría serán mayoritariamente del tipo clase magistral, pero algunas de ellas pueden ser del tipo clase expositiva participativa, con participación de los estudiantes en la resolución de problemas o ejercicios.

Las clases de laboratorio tienen como objetivo que los estudiantes trabajen con herramientas de software que permiten aplicar las técnicas presentadas en teoría a problemas reales. Los estudiantes usarán estas herramientas para desarrollar su trabajo práctico de la asignatura, que constará de una parte de trabajo autónomo individual y una parte de trabajo en equipo de 2/3 personas. Una parte del tiempo de las clases de laboratorio se dedicará a la orientación y supervisión por parte del profesor de estos trabajos autónomos y cooperativos.

Habrá un examen final que evaluará los objetivos específicos de comprensión de los conceptos y métodos presentados durante el curso. Por otra parte, los trabajos individuales y en equipo de los
estudiantes permitirán evaluar los objetivos específicos de aplicación de las técnicas presentadas,
así como las competencias generales, básicas y transversales asociadas a la asignatura.

Método de evaluación

La nota de las competencias técnicas (N) se calcula de la siguiente manera:

N = 0.40 * EX_FINAL + 0.60 * TRAB_PRACT

donde

* EX_FINAL es la nota del examen final;
* TRAB_PRACT es la nota global de los trabajos prácticos definidos por los profesores de la asignatura a lo largo del curso (al menos 3 trabajos) y realizados en grupos pequeños; se calcula como la media de las notas de dichos trabajos.


No obstante, N será NP si el estudiante no presenta nada en ninguna de las actividades de evaluación.

La nota de la competencia transversal (Trabajo en Equipo) se obtendrá directamente de TRAB_PRACT.

Bibliografía

Básica:

  • Fuzzy inductive reasoning for variable selection analysis and modelling of biological systems - NEBOT, Àngela; CELLIER, François E; CARVAJAL, Raúl; MUGICA, Francisco, International Journal of General Systems, 2009 / Volume 38, Issue 8, pages 793-811. ISBN: 0308-1079
  • Foundations of Neuro-Fuzzy Systems - NAUCK, Detlef; KLAWONN, Frank; KRUSE, Rudolf, John Wiley & sons, 1997. ISBN: 978-0471971511
    http://cataleg.upc.edu/record=b1132739~S1*cat
  • Genetic Fuzzy Systems: Evolutionary Tuning and Learning of Fuzzy Knowledge Bases - CORDÓN, Oscar; HERRERA, Francisco; HOFFMANN, Frank; MAGDALENA, Luis , World Scientific, 2001. ISBN: 978-981-02-4016-5
  • Fuzzy Neural Network Theory and Application - LIU, Puyin; LI, Hongxing , World Scientific, 2004. ISBN: 978-981-238-786-8
  • Recurrent neural networks - SCHMIDHUBER, Jürgen, updated 2011.
    http://www.idsia.ch/~juergen/rnn.html
  • Extreme learning machine: Theory and applications - HUANG, Guang-Bin; ZHU, Qin-Yu; SIEW, Chee-Kheong, Neurocomputing, 2006 / Vol. 70, pp 489–501. ISBN: 0925-2312
  • A fast learning algorithm for deep belief nets - HINTON, G. E; OSINDERO, S.; and TEH, Y. W. , Neural Computation, 2006 / Vol. 18, pp:1527-1554. ISBN: 0899-7667
  • Reducing the dimensionality of data with neural networks - HINTON, G. E. and SALAKHUTDINOV, R. R. , Science, 2006 / Vol. 313, pp:504-507. ISBN: 0036-8075

Complementaria:

  • Confidence measures for predictions in fuzzy inductive reasoning - CELLIER, François E; LÓPEZ, Josefina; NEBOT, Àngela; CEMBRANO, Gabriela, International Journal of General Systems , 2010 / Vol.39 (8), pp: 839-853. ISBN: 0308-1079
  • Optimization of fuzzy partitions for inductive reasoning using genetic algorithms - ACOSTA, Jesús.; NEBOT, Àngela; VILLAR, Pedro; and FUERTES, Josep Maria, International Journal of Systems Science , 2007 / Vol. 38, No. 12, pp: 991–1011. ISBN: 0020-7721
  • Neuro-fuzzy and soft computing: a computational approach to learning and machine intelligence - JANG, Jyh-Shing Roger; SUN, Chuen-Tsai; MIZUTANI, Eiji , Prentice Hall , 1997. ISBN: 978-0132610667
  • Heterogeneous Neural Networks: Theory and Applications - BELANCHE, Lluís, Universitat Politècnica de Catalunya, Ph.D. thesis , June 2000.
    http://www.lsi.upc.edu/~belanche/PhDThesis/TLABM1de3.pdf
  • Discrete-time recurrent neural networks - FORCADA, Mikel L., , 2002.
    http://www.dlsi.ua.es/~mlf/nnafmc/pbook/node21.html
  • Recurrent Neural Networks - HU, Xiaolin; and BALASUBRAMANIAM P. (eds.), InTech , 2008. ISBN: 978-953-7619-08-4
  • Constructive Neural Networks - FRANCO, Leonardo; JEREZ, José M. (Eds.), Springer , 2010. ISBN: 978-3-642-04512-7
  • Extreme learning machines: a survey - HUANG, Guang-Bin; WANG, Dian Hui; LAN, Yuan, International Journal of Machine Learning and Cybernetics , 2011 / Vol. 2, pp:107–122. ISBN: 1868-8071
  • Exploring Strategies for Training Deep Neural Networks - LAROCHELLE, Hugo; BENGIO, Yoshua; LOURADOUR, Jerôme; LAMBLIN, Pascal , Journal of Machine Learning Research , 2009 / Vol.1, pp:1-40 . ISBN: 1533-7928

Web links

Capacidades previas

Conceptos básicos de Inteligencia Computacional, principalmente redes neuronales, lógica difusa y algoritmos evolutivos