Merkmalslernen

  • Chapter
  • First Online:
Maschinelles Lernen
  • 2112 Accesses

Zusammenfassung

Kap. 2 diskutierte Merkmale als jene Eigenschaften eines Datenpunkts, die leicht gemessen oder berechnet werden können. Manchmal ergibt sich die Wahl der Merkmale natürlich aus der verfügbaren Hardware und Software. Zum Beispiel könnten wir die numerische Messung \(z\in \mathbb {R}\) die von einem Sensor geliefert wird, als Merkmal verwenden. Allerdings könnten wir dieses einzelne Merkmal mit neuen Merkmalen wie den Potenzen \(z^{2}\) und \(z^{3}\) oder das Hinzufügen einer Konstanten \(z+5\) erweitern. Jede dieser Berechnungen erzeugt ein neues Merkmal. Welche dieser zusätzlichen Merkmale sind am nützlichsten?

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Subscribe and save

Springer+ Basic
EUR 32.99 /Month
  • Get 10 units per month
  • Download Article/Chapter or Ebook
  • 1 Unit = 1 Article or 1 Chapter
  • Cancel anytime
Subscribe now

Buy Now

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 49.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Hardcover Book
USD 64.99
Price excludes VAT (USA)
  • Durable hardcover edition
  • Dispatched in 3 to 5 business days
  • Free ship** worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Einige Autoren definieren die Datenmatrix als \(\mathbf{Z}\!=\!\big ( \widetilde{\mathbf{z}}^{(1)}, \ldots , \widetilde{\mathbf{z}}^{(m)} \big )^{T}\!\in \!\mathbb {R}^{m\times D}\) mit „zentrierten“ Rohmerkmalsvektoren \(\widetilde{\mathbf{z}}^{(i)} - \widehat{\mathbf{m}}\), die durch Subtraktion des Durchschnitts \(\widehat{\mathbf{m}} = (1/m) \sum _{i=1}^{m} \mathbf{z}^{(i)}\) erhalten werden.

Literatur

  1. I. Goodfellow, Y. Bengio, A. Courville, Deep Learning (MIT Press, Cambridge, 2016)

    Google Scholar 

  2. G. Strang, Computational Science and Engineering (Wellesley-Cambridge Press, MA, 2007)

    Google Scholar 

  3. T. Hastie, R. Tibshirani, J. Friedman, The Elements of Statistical Learning. Springer Series in Statistics (Springer, New York, 2001)

    Google Scholar 

  4. J. Wright, Y. Peng, Y. Ma, A. Ganesh, S. Rao, Robust principal component analysis: exact recovery of corrupted low-rank matrices by convex optimization, in Neural Information Processing Systems, NIPS 2009 (2009)

    Google Scholar 

  5. S. Roweis, EM Algorithms for PCA and SPCA. Advances in Neural Information Processing Systems (MIT Press, Cambridge, 1998), S. 626–632

    Google Scholar 

  6. M.E. Tip**, C. Bishop, Probabilistic principal component analysis. J. Roy. Stat. Soc. B 21(3), 611–622 (1999)

    Article  MathSciNet  Google Scholar 

  7. M.E.J. Newman, Networks: An Introduction (Oxford University Press, Oxford, 2010)

    Google Scholar 

  8. U. von Luxburg, A tutorial on spectral clustering. Stat. Comput. 17(4), 395–416 (2007)

    Article  MathSciNet  Google Scholar 

  9. S. Wachter, Data protection in the age of big data. Nat. Electron. 2(1), 6–7 (2019)

    Article  Google Scholar 

  10. A. Makhdoumi, S. Salamatian, N. Fawaz, M. Médard, From the information bottleneck to the privacy funnel, in 2014 IEEE Information Theory Workshop (ITW 2014), S. 501–505 (2014)

    Google Scholar 

  11. Y.Y. Shkel, R.S. Blum, H.V. Poor, Secrecy by design with applications to privacy and compression. IEEE Trans. Inf. Theory 67(2), 824–843 (2021)

    Article  MathSciNet  Google Scholar 

  12. Q. Du, J. Fowler, Low-complexity principal component analysis for hyperspectral image compression. Int. J. High Perform. Comput. Appl., 438–448 (2008)

    Google Scholar 

  13. A. Sharma, K. Paliwal, Fast principal component analysis using fixed-point analysis. Pattern Recogn. Lett. 28, 1151–1155 (2007)

    Article  Google Scholar 

  14. S. Foucart, H. Rauhut, A Mathematical Introduction to Compressive Sensing (Springer, New York, 2012)

    Google Scholar 

  15. B. Schölkopf, A. Smola, Learning with Kernels: Support Vector Machines, Regularization, Optimization, and Beyond (MIT Press, Cambridge, 2002)

    Google Scholar 

Download references

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Alexander Jung .

Rights and permissions

Reprints and permissions

Copyright information

© 2024 Der/die Autor(en), exklusiv lizenziert an Springer Nature Singapore Pte Ltd.

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Jung, A. (2024). Merkmalslernen. In: Maschinelles Lernen. Springer, Singapore. https://doi.org/10.1007/978-981-99-7972-1_9

Download citation

Publish with us

Policies and ethics

Navigation