Wie Unternehmen mit Unsicherheit umgehen

  • Chapter
  • First Online:
Wie künstliche Intelligenz Entscheidungen prägt
  • 766 Accesses

Zusammenfassung

Wir haben im letzten Kapitel herausgearbeitet, dass künstliche Intelligenz Unsicherheit im Sinne eines Nicht-Wissens über die Zukunft verursacht, das die Übertragung von Entscheidungsgewalt erschwert. Im Folgenden stellen wir fest, dass Organisationen unterschiedlich mit der Unsicherheit umgehen. Wir besprechen zunächst, dass sie sich hinsichtlich ihrer Unsicherheitstoleranz unterscheiden.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Subscribe and save

Springer+ Basic
EUR 32.99 /Month
  • Get 10 units per month
  • Download Article/Chapter or Ebook
  • 1 Unit = 1 Article or 1 Chapter
  • Cancel anytime
Subscribe now

Buy Now

Chapter
EUR 29.95
Price includes VAT (Germany)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
EUR 49.99
Price includes VAT (Germany)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
EUR 64.99
Price includes VAT (Germany)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free ship** worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Die Charakteristika dieser unterschiedlichen Kontexte erklärt Mintzberg (1979: 18 ff.) ausführlich.

  2. 2.

    Der entspannte Umgang mit künstlicher Intelligenz in weniger erfolgskritischen Organisationseinheiten widerspricht den Forschungsergebnissen von Wenzelburger et al. (2022). Sie gehen davon aus, dass die Bearbeitung bedeutsamer Probleme die Akzeptanz künstlicher Intelligenz positiv beeinflusst. Das ist in den untersuchten Unternehmen absolut nicht der Fall. Die Differenzen sind möglicherweise dadurch zu erklären, dass Wenzelburger et al. (2022) ihre Analyse nicht auf der Befragung von Organisationsmitgliedern, sondern Privatpersonen aufbauen.

  3. 3.

    Dieser Zusammenhang wird auch in der Literatur angenommen. So z.B. bei Wagner (2020).

  4. 4.

    In der Wahrnehmung der Organisation sind Faustregeln demnach zweifelsfrei ein wertvolles Instrument. Einige wissenschaftliche Beiträge sehen ihre Zuverlässigkeit sogar als objektive Tatsache an. Czerlinski et al. (1999: 106 ff.) sowie Buzogány (2019: 55) stellen fest, dass Faustregeln in vielen Situationen bessere Ergebnisse herbeiführen als rationale Entscheidungsverfahren. Konsens ist das allerdings nicht (vgl. Gigerenzer 2011: 454).

  5. 5.

    Pinch (ebd.) spricht eigentlich davon, dass in der Testumgebung ein „Bündel von Aktivitäten“ mit dem Testgegenstand durchgeführt wird. Dies lässt den Testgegenstand allerdings passiv erscheinen. Daher ist hier die Rede von der „Interaktion“ des Testgegenstands mit der „Testumgebung“. Diese Formulierung lässt mehr Spielraum für Aktivität auf Seiten des Testobjekts.

  6. 6.

    Dazu kommt das Problem, dass man sich von der Technik bessere Entscheidungen erhofft als von Organisationsmitgliedern. Aus dieser Perspektive laufen Menschen Gefahr, eventuelle Vorsprünge der technischen Lösung fehlzudeuten, wenn sie Bewertungskriterien aufstellen.

  7. 7.

    Diese Erkenntnis harmoniert mit der Beobachtung von Callen (2021), dass Organisationsmitglieder dem Output von Algorithmen folgen, sofern sie Indizien für seine Richtigkeit finden. Die vorliegende Arbeit ergänzt diesbezüglich die Einsicht, dass Organisationen nicht auf Indizien für die Richtigkeit der Entscheidungen künstlicher Intelligenz warten, sondern sie selbst herstellen.

  8. 8.

    Vergleiche und Verlässlichkeitskontrollen bestätigen die Entscheidungskompetenz künstlicher Intelligenz natürlich nicht zwangsläufig. Damit sie eine Wirkung entfalten können, müssen sie ergebnisoffen sein. Obwohl es dafür keine empirischen Beispiele gibt, lässt sich schlussfolgern, dass schlechtes Abschneiden in Vergleichen und Kontrollen Unsicherheit verstärken würde. Fehler erscheinen dadurch als Ausdruck eines allgemeinen Versagens der Technik. Dies würde die Organisation zwingen, die Entscheidungsgewalt künstlicher Intelligenz einzuschränken, um Unsicherheit zu reduzieren. Die hier diskutierten Mechanismen können die Rolle künstlicher Intelligenz also auch infrage stellen.

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Christian Scharff .

Rights and permissions

Reprints and permissions

Copyright information

© 2024 Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Scharff, C. (2024). Wie Unternehmen mit Unsicherheit umgehen. In: Wie künstliche Intelligenz Entscheidungen prägt. Springer Gabler, Wiesbaden. https://doi.org/10.1007/978-3-658-44262-0_7

Download citation

Publish with us

Policies and ethics

Navigation