Zusammenfassung
Bisher haben wir uns auf ML-Methoden konzentriert, die das ERM-Prinzip verwenden und eine Hypothese lernen, indem sie die Diskrepanz zwischen ihren Vorhersagen und den wahren Labels in einem Trainingsset minimieren.
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Notes
- 1.
Beachten Sie, dass der Ausdruck (8.14) nur für eine invertierbare (nicht-singuläre) Kovarianzmatrix \({\boldsymbol{\Sigma }}\) gültig ist.
- 2.
Denken Sie daran, dass die Grade der Zugehörigkeit \(y^{(i)}_{c}\) als (unbekannte) Labelwerte für Datenpunkte betrachtet werden. Die Wahl oder Definition der Labels von Datenpunkten ist eine Designentscheidung. Insbesondere können wir die Labels von Datenpunkten mit einem hypothetischen probabilistischen Modell wie dem GMM definieren.
Literatur
C.M. Bishop, Pattern Recognition and Machine Learning (Springer, Berlin, 2006)
B. Kulis, M.I. Jordan, Revisiting k-means: new algorithms via bayesian nonparametrics, in Proceedings of the 29th International Conference on Machine Learning, ICML 2012, Edinburgh, Scotland, UK, June 26 - July 1, 2012. icml.cc/Omnipress (2012)
S. Wade, Z. Ghahramani, Bayesian cluster analysis: point estimation and credible balls (with discussion). Bayesian Anal. 13(2), 559–626 (2018)
D. Arthur, S. Vassilvitskii, k-means++: the advantages of careful seeding, in Proceedings of the Eighteenth Annual ACM-SIAM Symposium on Discrete Algorithms (Society for Industrial and Applied Mathematics, Philadelphia, 2007)
R. Gray, J. Kieffer, Y. Linde, Locally optimal block quantizer design. Inf. Control 45, 178–198 (1980)
D. Bertsekas, J. Tsitsiklis, Introduction to Probability, 2. Aufl. (Athena Scientific, 2008)
E.L. Lehmann, G. Casella, Theory of Point Estimation, 2. Aufl. (Springer, New York, 1998)
S.M. Kay, Fundamentals of Statistical Signal Processing: Estimation Theory (Prentice Hall, Englewood Cliffs, 1993)
T. Hastie, R. Tibshirani, J. Friedman, The Elements of Statistical Learning Springer Series in Statistics. (Springer, New York, 2001)
L. Xu, M. Jordan, On convergence properties of the EM algorithm for Gaussian mixtures. Neural Comput. 8(1), 129–151 (1996)
U. von Luxburg, A tutorial on spectral clustering. Stat. Comput. 17(4), 395–416 (2007). (Dec.)
A.Y. Ng, M.I. Jordan, Y. Weiss, On spectral clustering: analysis and an algorithm, in Advances in Neural Information Processing Systems (2001)
A. Jung, Y. SarcheshmehPour, Local graph clustering with network lasso. IEEE Signal Process. Lett. 28, 106–110 (2021)
M. Ester, H.-P. Kriegel, J. Sander, X. Xu, A density-based algorithm for discovering clusters a density-based algorithm for discovering clusters in large spatial databases with noise, in Proceedings of the Second International Conference on Knowledge Discovery and Data Mining. (Portland, Oregon, 1996), S. 226–231
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
Copyright information
© 2024 Der/die Autor(en), exklusiv lizenziert an Springer Nature Singapore Pte Ltd.
About this chapter
Cite this chapter
Jung, A. (2024). Clustering. In: Maschinelles Lernen. Springer, Singapore. https://doi.org/10.1007/978-981-99-7972-1_8
Download citation
DOI: https://doi.org/10.1007/978-981-99-7972-1_8
Published:
Publisher Name: Springer, Singapore
Print ISBN: 978-981-99-7971-4
Online ISBN: 978-981-99-7972-1
eBook Packages: Computer Science and Engineering (German Language)