Zusammenfassung
Kap. 2 diskutierte Merkmale als jene Eigenschaften eines Datenpunkts, die leicht gemessen oder berechnet werden können. Manchmal ergibt sich die Wahl der Merkmale natürlich aus der verfügbaren Hardware und Software. Zum Beispiel könnten wir die numerische Messung \(z\in \mathbb {R}\) die von einem Sensor geliefert wird, als Merkmal verwenden. Allerdings könnten wir dieses einzelne Merkmal mit neuen Merkmalen wie den Potenzen \(z^{2}\) und \(z^{3}\) oder das Hinzufügen einer Konstanten \(z+5\) erweitern. Jede dieser Berechnungen erzeugt ein neues Merkmal. Welche dieser zusätzlichen Merkmale sind am nützlichsten?
Access this chapter
Tax calculation will be finalised at checkout
Purchases are for personal use only
Notes
- 1.
Einige Autoren definieren die Datenmatrix als \(\mathbf{Z}\!=\!\big ( \widetilde{\mathbf{z}}^{(1)}, \ldots , \widetilde{\mathbf{z}}^{(m)} \big )^{T}\!\in \!\mathbb {R}^{m\times D}\) mit „zentrierten“ Rohmerkmalsvektoren \(\widetilde{\mathbf{z}}^{(i)} - \widehat{\mathbf{m}}\), die durch Subtraktion des Durchschnitts \(\widehat{\mathbf{m}} = (1/m) \sum _{i=1}^{m} \mathbf{z}^{(i)}\) erhalten werden.
Literatur
I. Goodfellow, Y. Bengio, A. Courville, Deep Learning (MIT Press, Cambridge, 2016)
G. Strang, Computational Science and Engineering (Wellesley-Cambridge Press, MA, 2007)
T. Hastie, R. Tibshirani, J. Friedman, The Elements of Statistical Learning. Springer Series in Statistics (Springer, New York, 2001)
J. Wright, Y. Peng, Y. Ma, A. Ganesh, S. Rao, Robust principal component analysis: exact recovery of corrupted low-rank matrices by convex optimization, in Neural Information Processing Systems, NIPS 2009 (2009)
S. Roweis, EM Algorithms for PCA and SPCA. Advances in Neural Information Processing Systems (MIT Press, Cambridge, 1998), S. 626–632
M.E. Tip**, C. Bishop, Probabilistic principal component analysis. J. Roy. Stat. Soc. B 21(3), 611–622 (1999)
M.E.J. Newman, Networks: An Introduction (Oxford University Press, Oxford, 2010)
U. von Luxburg, A tutorial on spectral clustering. Stat. Comput. 17(4), 395–416 (2007)
S. Wachter, Data protection in the age of big data. Nat. Electron. 2(1), 6–7 (2019)
A. Makhdoumi, S. Salamatian, N. Fawaz, M. Médard, From the information bottleneck to the privacy funnel, in 2014 IEEE Information Theory Workshop (ITW 2014), S. 501–505 (2014)
Y.Y. Shkel, R.S. Blum, H.V. Poor, Secrecy by design with applications to privacy and compression. IEEE Trans. Inf. Theory 67(2), 824–843 (2021)
Q. Du, J. Fowler, Low-complexity principal component analysis for hyperspectral image compression. Int. J. High Perform. Comput. Appl., 438–448 (2008)
A. Sharma, K. Paliwal, Fast principal component analysis using fixed-point analysis. Pattern Recogn. Lett. 28, 1151–1155 (2007)
S. Foucart, H. Rauhut, A Mathematical Introduction to Compressive Sensing (Springer, New York, 2012)
B. Schölkopf, A. Smola, Learning with Kernels: Support Vector Machines, Regularization, Optimization, and Beyond (MIT Press, Cambridge, 2002)
Author information
Authors and Affiliations
Corresponding author
Rights and permissions
Copyright information
© 2024 Der/die Autor(en), exklusiv lizenziert an Springer Nature Singapore Pte Ltd.
About this chapter
Cite this chapter
Jung, A. (2024). Merkmalslernen. In: Maschinelles Lernen. Springer, Singapore. https://doi.org/10.1007/978-981-99-7972-1_9
Download citation
DOI: https://doi.org/10.1007/978-981-99-7972-1_9
Published:
Publisher Name: Springer, Singapore
Print ISBN: 978-981-99-7971-4
Online ISBN: 978-981-99-7972-1
eBook Packages: Computer Science and Engineering (German Language)