Aprendizaje automático para minería de datos / Introducción a Machine Learning
Datos generales
Nombre Completo del Programa de Posgrado: |
Maestría en Ciencias en Ingeniería Eléctrica
|
Nombre Completo del Curso: |
Aprendizaje automático para minería de datos / Introducción a Machine Learning
|
Tipo de curso: |
Electivo
|
Créditos: |
8
|
Número de Horas: |
- Teóricas: 60 Presenciales
- Prácticas: 20 No presenciales
|
Profesores que impartirán el curso: |
Andrés Méndez Vázquez
|
1. Introducción
1.1. ¿Qué es un clasificador?
1.2. Dos enfoques para la predicción
1.3. Un poco de teoría estadística de decisiones
1.4. Clases de estimadores
2. Aprendizaje supervisado
2.1. Clasificadores Lineares
2.1.1. Introducción a la regresión lineal
2.1.2. Estimación lineal del error cuadrático medio: Forma canónica, Gradiente descendiente
2.1.3. Regularización
2.1.4. Discriminador lineal de Fischer
2.1.5. Regresión logística
2.1.6. Selección de características
2.1.7. Métodos de Shrinkage: Regresión de Ridge, LASSO2.
2.2. Gradiente descendiente y el gradiente descendiente estocástico
2.2.1. El método del gradiente descendiente
2.2.2. Aplicación a la función de costo de error cuadrático medio
2.2.3. Aproximación estocástica
2.2.4. El algoritmo adaptativo de mínimos cuadrados medios
2.2.5. ADAM - Estimación adaptativa del momento
2.3. Clasificadores probabilísticos
2.3.1. Funciones discriminantes
2.3.2. Naive Bayes
2.3.3. Máxima verosimilitud
2.3.4. Maximización de la expectación y mezcla de Gaussianas
2.3.5. Maximum a Posterior
2.3.6. Modelos generativos versus modelos discriminativos
2.4. Métodos de Kernels
2.4.1. Introducción
2.4.2. Máquinas de soporte vectorial
2.4.3. Aprendiendo en espacios de Kernel de reproducción de Hilbert
2.5. Algoritmos de árbol
2.5.1. Árboles de decisión
2.5.2. Árboles Random
2.5.3. Árboles de Bagging
2.5.4. Variantes
2.6. Hidden Markov Models
2.6.1. Introducción
2.6.2. Los tres problemas
2.6.3. Algoritmo Fordward
2.6.4. Algoritmo de Viterbi
2.6.5. Algoritmos de Baum-Welch
2.7. Redes Neuronales
2.7.1. Perceptron
2.7.2. Perceptron multicapa
2.7.3. El teorema de aproximación universal
2.7.4. Redes convolucionales profundas
2.8. Problemas importantes
2.8.1. El dilema de Bias-Varianza
2.8.2. La matriz de confusión
2.8.3. Validación K-Cross
2.9. Preparación de la data
2.9.1. Preprocesamiento
2.9.2. Métodos estadísticos
2.9.3. Separabilidad de las clases
2.9.4. Selección de características
2.9.5. Generación de características
2.9.6. Discriminante de Fisher
2.9.7. Reducción de dimensionalidad
2.10. Combinando de clasificadores
2.10.1. Promedio Bayesiano
2.10.2. Comités
2.10.3. AdaBoosting
2.10.4. Boosting gradiente
3. Aprendizaje no supervisado
3.1. Clustering
3.1.1. Medidas de proximidad
3.1.2. K-Means, K-Meoids, K-Centers
3.1.3. Clustering Jerárquico
3.1.4. Clustering para big data sets
3.1.5. Clustering espectral medidas de calidad
3.2. Rules asociativas
3.2.1. The Market Problem
3.2.2. The Apriori Algorithm
3.3. Locality sensitive hashing
3.3.1. búsqueda de elementos en alta dimensionalidad
3.3.2. Locality sensitive hashing
3.4. Estructura de la web
3.4.1. Algoritmo de page rank
3.4.2. Búsqueda de comunidades
3.5. Aprendizaje semi-supervisado
3.5.1. Introducción a aprendizaje semi-supervisado
3.5.2. Métodos gráficos
3.5.3. Transducción
- Amparo Albalate and Wolfgang Minker. Semi-Supervised and Unsupervised Machine Learning: Novel Strate-gies. John Wiley & Sons, 2013.
- Alessio Benavoli, Giorgio Corani, Janez Demsar, and Marco Zaffalon. Time for a change: a tutorial for comparingmultiple classifiers through bayesian analysis. arXiv preprint arXiv:1606.04316, 2016.
- Christopher M. Bishop. Pattern Recognition and Machine Learning (Information Science and Statistics). Springer-Verlag New York, Inc., Secaucus, NJ, USA, 2006.
- Léon Bottou. Large-scale machine learning with stochastic gradient descent. In Proceedings of COMP-STAT2010, pages 177186. Springer, 2010.
- Olivier Chapelle, Bernhard Schlkopf, and Alexander Zien. Semi-Supervised Learning. The MIT Press, 1st edition,2010.
- John Duchi, Elad Hazan, and Yoram Singer. Adaptive subgradient methods for online learning and stochasticoptimization. Journal of Machine Learning Research, 12(Jul):21212159, 2011.
- Richard O. Duda, Peter E. Hart, and David G. Stork. Pattern Classification (2Nd Edition). WileyInterscience, 2000.
- Mário A. T. Figueiredo. Adaptive sparseness for supervised learning. IEEE Trans. Pattern Anal. Mach. Intell.,25(9):11501159, September 2003.
- T. Hastie, R. Tibshirani, and J. Friedman. The Elements of Statistical Learning: Data Mining, Inference, andPrediction, Second Edition. Springer Series in Statistics. Springer New York, 2009.
- Simon Haykin. Neural Networks and Learning Machines. Prentice-Hall, Inc., Upper Saddle River, NJ, USA,2008.
- Amy N. Langville and Carl D. Meyer. Googles PageRank and Beyond: The Science of Search Engine Rankings.Princeton University Press, Princeton, NJ, USA, 2006.
- Geoffrey McLachlan. Discriminant analysis and statistical pattern recognition, volume 544. John Wiley & Sons, 2004.
- Kevin P. Murphy. Machine Learning: A Probabilistic Perspective. The MIT Press, 2012.
- Loïc Paulevé, Hervé Jégou, and Laurent Amsaleg. Locality sensitive hashing: A comparison of hash function typesand querying mechanisms. Pattern Recogn. Lett., 31(11):13481358, August 2010.
- Lawrence R. Rabiner. Readings in speech recognition. chapter A Tutorial on Hidden Markov Models and SelectedApplications in Speech Recognition, pages 267296. Morgan Kaufmann Publishers Inc., San Francisco, CA, USA,1990.
- Anand Rajaraman and Jeffrey David Ullman. Mining of Massive Datasets. Cambridge University Press, New York, NY, USA, 2011.
- Raul Rojas. Adaboost and the super bowl of classifiers: A tutorial introduction to adaptive boosting. 2009.
- Hanan Samet. Foundations of Multidimensional and Metric Data Structures (The Morgan Kaufmann Series inComputer Graphics and Geometric Modeling). Morgan Kaufmann Publishers Inc., San Francisco, CA, USA, 2005.
- Sergios Theodoridis. Machine Learning: A Bayesian and Optimization Perspective. Academic Press, 1st edition,2015.
- Ji Zhu, Saharon Rosset, Hui Zou, and Trevor Hastie. Multi-class adaboost. Ann Arbor, 1001(48109):1612, 2006.
- Xiaojin Zhu and Andrew B Goldberg. Introduction to semi-supervised learning. Synthesis lectures on artificialintelligence and machine learning, 3(1):1130, 2009
- Tareas 0%
- Exámenes (2 parciales y un final) 0%
- Proyecto Final 0%
- Total 0%
- Conocimientos:
- Habilidades:
- Actitudes y valores:
Centro de Investigación y de Estudios Avanzados del Instituto Politécnico Nacional
Av. del Bosque 1145, colonia el Bajío, CP 45019, Zapopan , Jalisco, México.
Tel: (33) 3777-3600 Fax: (33) 3777-3609