• 452 Accesses

Zusammenfassung

Zur Untersuchung der Rolle der Verständlichkeit in einer spezialisierten Rezeptionssituation wie der journalistischen Nachrichtenauswahl stützten wir uns auf die Durchführung einer Input-Output-Analyse.

This is a preview of subscription content, log in via an institution to check access.

Access this chapter

Subscribe and save

Springer+ Basic
EUR 32.99 /Month
  • Get 10 units per month
  • Download Article/Chapter or Ebook
  • 1 Unit = 1 Article or 1 Chapter
  • Cancel anytime
Subscribe now

Buy Now

Chapter
USD 29.95
Price excludes VAT (USA)
  • Available as PDF
  • Read on any device
  • Instant download
  • Own it forever
eBook
USD 59.99
Price excludes VAT (USA)
  • Available as EPUB and PDF
  • Read on any device
  • Instant download
  • Own it forever
Softcover Book
USD 74.99
Price excludes VAT (USA)
  • Compact, lightweight edition
  • Dispatched in 3 to 5 business days
  • Free ship** worldwide - see info

Tax calculation will be finalised at checkout

Purchases are for personal use only

Institutional subscriptions

Notes

  1. 1.

    Mit diesem zeitlichen Puffer ist im Übrigen auch eine allgemeine Einschränkung zur Bestimmung der Medienresonanzen verbunden, auf die wir in Abschnitt 6.2.2 genauer eingehen.

  2. 2.

    Natürlich gibt es trotzdem Unterschiede bezüglich des Ausmaßes der Berichterstattung über die einzelnen DAX-Unternehmen. Dies werden wir später versuchen, bei unseren Auswertungen zu berücksichtigen.

  3. 3.

    Auch dynamische Inhalte lassen sich vollständig automatisiert sammeln. Bei 29 Unternehmensseiten bedeutet das aber im ungünstigsten Fall, dass eben auch die Besonderheiten von 29 Seiten bei der Programmierung berücksichtigt werden müssen, um eine reibungslose Automatisierung zu ermöglichen. Das von uns gewählte Verfahren erschien im Vergleich wesentlich ökonomischer und zielführender.

  4. 4.

    Sämtliche Schritte von der Link-Extraktion bis zum Web Scra** führten wir mit Hilfe der Software R (R Core Team, 2019) durch, insbesondere unter Einsatz der Pakete XML (Temple Lang & CRAN Team, 2019) und httr (Wickham, 2018). Die Erhebungen und Analysen für diese Arbeit fanden naturgemäß über einen längeren Zeitraum statt, sodass die verwendete R-Version sowie die R-Paketversionen mehrfach aktualisiert wurden. Wir geben in der Regel die aktuellste, bei uns laufende Softwareversion an.

  5. 5.

    Die Textextraktion ließe sich auch stärker automatisieren. So zeigte beispielsweise die Anwendung des R-Paketes boilerpipeR (Annau, 2015) vielversprechende Resultate. Die Textextraktion mit boilerpipeR ist zwar weniger genau als die hier angewandte, an die untersuchten Fälle angepasste Textextraktion, da sie mit allgemeinen Heuristiken an die Webtexte herangeht, die naturgemäß nicht immer und in jedem Einzelfall gleichermaßen gut funktionieren können. Werden mehr Quellen z. B. über einen längeren Zeitraum untersucht, können sie allerdings die mühsame Anpassung der Textsammlung an die spezifischen Website-Strukturen ersetzen sowie mögliche Veränderungen der Websites im Zeitverlauf leichter auffangen.

  6. 6.

    Beispielsweise sind Zwischenüberschriften wie Über das weitere Verfahren wird noch entschieden denkbar. Vollkommen automatisiert, ohne inhaltliche Begutachtung und ohne Kenntnis aller möglichen Unternehmen(-sbereiche) ist es demnach nicht möglich, eine rein schematisch ablaufende Textbereinigung der Unternehmens(-bereichs-)beschreibungen durchzuführen.

  7. 7.

    Für die Speicherung in Korpus-Form kamen insbesondere die R-Pakete tm (Feinerer et al., 2008) und quanteda (Benoit et al., 2018) zum Einsatz.

  8. 8.

    Insbesondere das Veröffentlichungsdatum war nicht immer bzw. nicht bei allen Websites in einem explizit gekennzeichneten HTML-Element verortet und musste daher teilweise aus den Pressemitteilungstexten extrahiert werden. Die Qualität der Informationsextraktion wurde stichprobenartig überprüft. Beim Pressemitteilungskorpus wurde in einer Stichprobe mit sechs Pressemitteilungen pro Unternehmen (N = 174) ein Fehler bei den Veröffentlichungsdaten entdeckt. Das heißt, mit nur wenigen Ausnahmen ist auf die extrahierten Daten verlass.

  9. 9.

    Zu den Merkmalen der vier grundlegenden Angebotsformen des Wirtschaftsjournalismus nach Mast (2012b) siehe Abschnitt 3.2.2.

  10. 10.

    Die (linksliberale) Frankfurter Rundschau wurde 2013 von der (konservativ-liberalen) Frankfurter Allgemeinen Zeitung übernommen, blieb nach Aussagen der Verantwortlichen aber als unabhängiges Medium bestehen (Göpfert, 2013; Leidecker & Wilke, 2015). Sie ging aus diesem Grund in unser Sample ein.

  11. 11.

    Die Stuttgarter Zeitung und die Stuttgarter Nachrichten kündigten 2015 zwar eine verstärkte redaktionelle Kooperation an, nach eigenen Angaben sollte allerdings durch unterschiedliche Maßnahmen der „Charakter der Stuttgarter Zeitung und ihr Qualitätsjournalismus“ (Dorfs, 2015) gesichert werden.

  12. 12.

    Eine beispielhafte Suchkette findet sich im Codebuch (siehe Online-Anhang C im elektronischen Zusatzmaterial).

  13. 13.

    Auch die Extraktion dieser Informationen wurde – wie schon beim Pressemitteilungskorpus – kontrolliert. Für die Kontrolle des Medienkorpus, das aufgrund der meist standardisierten Inhaltsaufbereitung in den Archiven als weniger problematisch eingestuft wurde, wurden zufällig sechs Artikel pro Medium (N = 108) gezogen und kontrolliert. Hierbei wurden keine Fehler bei den für die nachfolgenden Analysen besonders relevanten Veröffentlichungsdaten entdeckt.

  14. 14.

    Diese Konstellation erscheint uns im Übrigen relativ unwahrscheinlich. In den allermeisten Fällen werden Aussagen über das Unternehmen wohl auch mit einer Unternehmensnennung verbunden sein.

  15. 15.

    Der Dienst ist erreichbar unter https://trends.google.de.

  16. 16.

    Für die Sammlung der Daten kam das R-Paket gtrendsR von Massicotte und Eddelbuettel (2019) zum Einsatz.

  17. 17.

    Solche Namen, die allein zu wenig eindeutig sind (z. B. kann das Wort Allianz auch ganz allgemein im Kontext politischer oder wirtschaftlicher Allianzen verwendet werden), wurden durch die jeweilige Rechtsform AG oder SE ergänzt.

  18. 18.

    Für den Überblick über das Wirtschaftsjahr 2015 greifen wir zurück auf: „Das Wirtschaftsjahr 2015 von A bis Z“ (2015), Jacobsen (2015), „Was hat das Wirtschaftsjahr 2015 gebracht?“ (2015) und „Machtkämpfe, Krisen, Streiks: Das Wirtschaftsjahr 2015“ (2015).

  19. 19.

    Die Liste an berücksichtigten Abkürzungen basiert auf der Wiktionary-Liste Abkürzung (Deutsch). Wikipedia stellt als Hilfestellung zum Herunterladen einzelner Seiten eine sogenannte Spezialseite (https://de.wiktionary.org/wiki/Spezial:Exportieren) zur Verfügung. Unter Angabe der gesuchten Kategorie ist es so möglich, die innerhalb der Kategorie gebündelten Inhalte als Auflistung angezeigt zu bekommen oder alternativ als XML-Datei herunterzuladen. Auf dieser Grundlage haben wir eine Abkürzungsliste mit 1625 Einträgen von Abkürzungen mit Abkürzungspunkten sowie in der Schreibweise mit und ohne Leerzeichen erstellt.

  20. 20.

    Festgelegt wurden mindestens fünf Wörter vor und mindestens vier Wörter nach dem Doppelpunkt.

  21. 21.

    Genau genommen sind unter Berücksichtigung der gesamten Häufigkeitsklassen 0 bis 8 die 1157 häufigsten Wörter berücksichtigt.

  22. 22.

    Das Korpus deu_news_2015_1M wurde über https://wortschatz.uni-leipzig.de/de/download bezogen und um falsch tokenisierte Einträge bereinigt, bei denen es sich nicht um einzelne, sondern um mehrere, mit Leerzeichen getrennte Wörter handelte. Es umfasst N = 714944 Wörter.

  23. 23.

    Eine Mindestlänge für die Zählung als eigenständiger Satzteil wurde, anders als bei Kercher (2013, S. 195), nicht definiert. Für die Satzteilmessung wurden jedoch in Klammern befindliche Kommata gelöscht, um zu vermeiden, dass Klammerinhalte auf unterschiedliche Satzteile verteilt werden.

  24. 24.

    Berechnet wurde der Index mit dem R-Paket koRpus (Michalke, 2020, 2021).

  25. 25.

    Wie schon für die Erklärungen in Abschnitt 2.2.2, wurde die Datei dewak100k_lsa verwendet. Die Datei ist unter https://sites.google.com/site/fritzgntr/software-resources/semantic_spaces erreichbar. Als zusätzlicher Vorbereitungsschritt für die Kohäsionsmessung wurden Bindestriche innerhalb von Wörtern sowie sämtliche Satzzeichen, Zahlen und Symbole mit Ausnahme von Punkten gelöscht. Die Texte wurden in Kleinschreibung überführt.

  26. 26.

    Die Dissertationen wurden über den Katalog der Deutschen Nationalbibliothek unter https://www.dnb.de recherchiert und heruntergeladen.

  27. 27.

    Die Ressortbezeichnungen mussten mindestens einen der folgenden (Teil-)Begriffe enthalten, wobei nicht zwischen Groß- und Kleinschreibung unterschieden wurde: wirt, b.*rse, unternehmen, manag, geld, finanz, verbrauch, m.*rkt, industr, innov oder mittelst.

  28. 28.

    Die Ressortbezeichnungen mussten den (Teil-)Begriff polit enthalten. Auch hier wurde nicht zwischen Groß- und Kleinschreibung unterschieden. Für den Spiegel, das Handelsblatt und die Wirtschaftswoche konnten keine DAX-bezogenen Artikel aus entsprechend benannten, politikbezogenen Ressorts berücksichtigt werden. Für den Stern waren es 5, für die Frankfurter Allgemeine Sonntagszeitung 36 Artikel.

  29. 29.

    Die Unterschiede zwischen den hier betrachteten Artikeln aus wirtschaftsbezogenen Ressorts und jenen in den politikbezogenen Ressorts fallen dabei innerhalb der Medien eher klein aus. Gleiches gilt für die unterschiedlichen Spezialisierungsgrade der Angebote. Am ehesten lässt sich hierbei beobachten, dass die regionalen Universalmedien eine etwas komplexere Sprache verwenden als die überregionalen Universalmedien und die Wirtschaftsmedien (für eine detaillierte Darstellung dieser Ergebnisse siehe Abbildung A.1 im Online-Anhang im elektronischen Zusatzmaterial).

  30. 30.

    Neben den Merkmalen der Mitteilungen an sich, spielen hierbei auch Merkmale der (wirtschaftlichen) Kommunikatoren und der (journalistischen) Adressaten eine Rolle und werden im weiteren Verlauf berücksichtigt.

  31. 31.

    Die Software von Louis Bloomfield steht unter https://plagiarism.bloomfieldmedia.com/software/ als Open-Source-Software zur Verfügung.

  32. 32.

    Schrägstriche werden durch Leerzeichen ersetzt, Bindestriche innerhalb von Wörtern werden gelöscht.

  33. 33.

    Für die Berechnung der Kosinus-Ähnlichkeit griffen wir auf das Paket quanteda zurück (Benoit et al., 2018).

  34. 34.

    Für die TF-IDF-Gewichtung verwendeten wir das R-Paket tidytext (Silge & Robinson, 2016).

  35. 35.

    Nur noch jene, die die grundsätzliche Bedingung erfüllen, dass das Erscheinungsdatum der Pressemitteilung vor bzw. maximal auf dem gleichen Tag liegt wie das Erscheinungsdatum des Artikels.

  36. 36.

    Diese Filterungen werden nicht vorher vorgenommen, da die Reduktion der Fallzahl die Normalisierung der Daten beeinflusst.

  37. 37.

    Für die Berechnung der LCS griffen wir auf das R-Paket qualV von Jachner et al. (2007) zurück.

  38. 38.

    Hierfür wird die Stoppwortliste aus dem R-Paket lsa (Wild, 2020) verwendet.

  39. 39.

    Grund für den Einsatz der Monte-Carlo-Methode ist, dass die erwartete Zellhäufigkeit vergleichsweise schnell in über 20 Prozent der Zellen unter fünf fallen kann, ohne dass dies automatisch mit einer kleinen Fallzahl einhergehen müsste. Die Berechnung des exakten Tests kann so schnell sehr rechenintensiv werden und die Berechnung im Extremfall stoppen.

  40. 40.

    An dieser Stelle sei den zwölf Codierern aus dem Sommersemester 2016 für ihr Engagement und die angenehme Zusammenarbeit im Seminar gedankt.

  41. 41.

    Hierbei haben wir uns grob an Welbers et al. (2018) orientiert, die eine manuelle Codierung von sechs Stichproben mit je 75 Textpaaren mit unterschiedlichen Ähnlichkeitswerten vornehmen, um einen Goldstandard zur Prüfung ihres Algorithmus zu erhalten.

  42. 42.

    Zur Überprüfung der Intercoderreliabilität codierten zwei Codierer (darunter die Forscherin) 35 aus beiden verwendeten Datensätzen zufällig ausgewählte Textpaare entlang der hier definierten Ausprägungen. Dabei konnten angesichts der Komplexität der Kategorie akzeptable Reliabilitätswerte erreicht werden (Krippendorffs \(\alpha \) = .76; Holsti = .86; zum Thema Reliabilität siehe auch Abschnitt 6.2.3). Die hier definierten Ausprägungen zur Kategorisierung der Textpaare können daher als eindeutig und nachvollziehbar genug angesehen werden.

  43. 43.

    Auf diese Weise werden in dieser Hinsicht gleiche Bedingungen für den Vergleich der manuellen und der automatisierten Codierung geschaffen.

  44. 44.

    In diesem Zuge kam es zu einer fehlerhaften Einordnung des Wirtschaftsmagazins Capital, das fälschlicherweise nicht als monatlich erscheinendes Medium behandelt wurde. Für Capital wurden also statt der eigentlich für monatlich erscheinende Medien vorgesehenen 45 Tage zwischen Erscheinung der Pressemitteilung und der Medienresonanz nur 14 Tage berücksichtigt.

  45. 45.

    Gemeint ist damit lediglich, dass es sich nicht um gleichgroße Gruppen handelt.

  46. 46.

    Wir sprechen wiederholt von potenziell (nicht) übernommenen Pressemitteilungen und potenziellen Resonanzen, da die automatisierte Identifikation der Resonanzen nicht perfekt ist. Die Einstufung der Texte als übernommen oder nicht übernommen ist mit einem gewissen Grad an Unsicherheit verbunden, der allerdings auch nicht allzu groß ausfällt (siehe Abschnitt 6.2.2 zur Qualität der automatisierten Identifikation der Medienresonanzen).

  47. 47.

    Berücksichtigt wurden im PRIME-Datensatz Capital, Manager Magazin, Wirtschaftswoche, Handelsblatt, Der Spiegel, Die Zeit, Focus, Frankfurter Allgemeine Sonntagszeitung, Stern, Welt am Sonntag, Die Welt, Frankfurter Allgemeine Zeitung, Frankfurter Rundschau und Süddeutsche Zeitung. Somit fehlen im Vergleich zu unserem Medienset lediglich die regionalen Tageszeitungen. Berücksichtigt wurde der Zeitraum vom 25.12.2014 (also eine Woche vor dem 01.01.2015) bis zum 31.12.2015. Damit gingen 11471 Artikel in den Datensatz ein.

  48. 48.

    Das Ranking konnte über das R-Paket forbesListR (Bresler, 2016) bezogen werden.

  49. 49.

    Für die Berechnung der Reliabilitätskoeffizienten kamen die R-Pakete irr (Gamer et al., 2019) und tidycomm (Unkel, 2019) zum Einsatz.

  50. 50.

    Auch die detailliertere Einstufung der Relevanz (nicht relevant, relevant im engeren und relevant im weiteren Sinne) war ausreichend reliabel (Krippendorffs \(\alpha \) = .69; Holsti = .88).

  51. 51.

    Auch die detailliertere Einstufung der Relevanz (nicht relevant, relevant im engeren und relevant im weiteren Sinne) war ausreichend reliabel (Krippendorffs \(\alpha \) = .88; Holsti = .94).

  52. 52.

    Im Zuge der Hauptcodierung wurden Pressemitteilungen auf die Codiererinnen verteilt, sodass immer alle einer Pressemitteilung zugewiesenen Resonanzen von einer Person codiert wurden.

  53. 53.

    Hadler (2004, S. 72, Anmerkung 4) weist darauf hin, dass der Begriff Intercept angesichts der möglichen Variation der Konstante im Mehrebenenkontext passender ist.

  54. 54.

    Dies ist tendenziell darauf zurückzuführen, dass ohnehin nur ein geringer Teil der Varianz der abhängigen Variable durch Unternehmensmerkmale erklärt werden kann.

Author information

Authors and Affiliations

Authors

Corresponding author

Correspondence to Claudia Thoms .

6.1 Elektronische Zusatzmaterial

Rights and permissions

Reprints and permissions

Copyright information

© 2023 Der/die Autor(en), exklusiv lizenziert an Springer Fachmedien Wiesbaden GmbH, ein Teil von Springer Nature

About this chapter

Check for updates. Verify currency and authenticity via CrossMark

Cite this chapter

Thoms, C. (2023). Methode. In: Im Sinne der Medien – Textverständlichkeit im Nachrichtenauswahlkontext. Springer VS, Wiesbaden. https://doi.org/10.1007/978-3-658-40007-1_6

Download citation

  • DOI: https://doi.org/10.1007/978-3-658-40007-1_6

  • Published:

  • Publisher Name: Springer VS, Wiesbaden

  • Print ISBN: 978-3-658-40006-4

  • Online ISBN: 978-3-658-40007-1

  • eBook Packages: Social Science and Law (German Language)

Publish with us

Policies and ethics

Navigation