Autor*innen

Prof. Dr. Thorsten Quandt ist Sprecher des Zentrums zur Erforschung digitalisierter Öffentlichkeiten am Institut für Kommunikationswissenschaft der Westfälischen-Wilhelms Universität Münster.

Tim Schatto-Eckrodt ist wissenschaftliche Mitarbeiter im BMBF-Projekt „Erkennung, Nachweis und Bekämpfung verdeckter Propaganda-­Angriffe über Online-Medien“.

Svenja Boberg ist wissenschaftliche Mitarbeiterin im BMBF-Projekt „Erkennung, Nachweis und Bekämpfung verdeckter Propaganda-­Angriffe über Online-Medien“.

Dr. Lena Frischlich ist dort Nachwuchsforschungsgruppenleiterin „DemoRESILdigital – Demokratische Resilienz in Zeiten von Online-Propaganda, Fake news, Fear- und Hate speech“.

Gefälschte Nachrichten, gefälschte Nutzer

Brexit, Trump und AfD: Populisten feiern weltweit Erfolge und verschiedene Akteure suchen händeringend nach Gründen und Schuldigen. Nicht selten wird die Schuld dabei sogenannten Fake News und böswilligen Social Bots zugeschrieben. Aber sind sie wirklich so weit verbreitet und mächtig?

Mit dem Aufkommen des Internets wurden viele Hoffnungen um das demokratisierende Potenzial dieser neuen Technologie wach. Das Ideal einer diskursiven Öffentlichkeit im Sinne des Philosophen Jürgen Habermas, in der Bürger*innen und politische Elite gemeinsam und auf Augenhöhe die beste Lösung für gesellschaftliche Probleme finden, schien plötzlich in greifbare Nähe gerückt. Durch die geringen Einstiegshürden, so die Idee, würden auch Akteure aus der Zivilgesellschaft Zugang zum öffentlichen Diskurs erhalten und ein Massenpublikum erreichen können. Dadurch könnten in dieser neuen Öffentlichkeit — neben den etablierten Stimmen in den Massenmedien — auch alternative Meinungen Gehör finden und einen vielfältigeren Austausch ermöglichen. 

Diese hehren Hoffnungen konnte das Internet nur teilweise erfüllen. Zwar gibt es heute für Bürger*innen mehr Partizipationsmöglichkeiten als je zuvor – jeder Facebook-Post hat die Möglichkeit, hunderttausende Menschen zu erreichen –, doch gleichzeitig können diese erleichterten Zugänge zu digitalen Öffentlichkeiten auch für antidemokratische Zwecke missbraucht werden. Die Sorge um gefälschte Nachrichten, sogenannte Fake News, Wellen von Hasskommentaren in sozialen Netzwerken oder Berichte über orchestrierte Meinungsmache durch automatisierte digitale Agenten, sogenannte Social Bots, sind aktuelle Beispiele für die Schattenseiten digitaler Teilhabe. 

Die Phase der Interneteuphorie scheint weitestgehend vorüber zu sein und schlägt zunehmend in ebenso extreme Sorge im Kontext des Internets um, die sich nicht zuletzt in politischen Aktionen wie dem Netzwerkdurchsetzungsgesetz (NetzDG) zeigt. Man könnte fast meinen, die Demokratie müsse nun vor dem Netz geschützt werden. Der aktuelle Forschungsstand zu Fake News und Social Bots ruft jedoch zu einem ausgewogeneren Meinungsbild auf.

Was sind Fake News?
Der Begriff Fake News wird seit 2016 nahezu inflationär und für verschiedene Phänomene verwendet. Scheinbare Nachrichtenseiten berichten, Merkel fliege Geflüchtete heimlich nach Deutschland ein und Hillary Clinton betreibe einen Pädophilen-Ring von einer Pizzeria aus, während Trump dem CNN einen Fake News Award verleiht. 

Einerseits werden mit dem Begriff Fake News also (teilweise) verzerrte, fingierte oder manipulierte Inhalte bezeichnet, die ihr Publikum täuschen sollen, andererseits verwenden politische Akteure ihn, um etablierte Medienhäuser der fehlerhaften Berichterstattung zu bezichtigen. Fake News (= gefälschte Nachrichten) bezeichnet ungenaue (oft absichtlich lancierte) Nachrichten. Seine inflationäre Verwendung seit 2016 – vor allem durch US-Präsident Trump – hat die Bedeutung des Begriffs jedoch verändert, der heute für eine Reihe unterschiedlicher Phänomene genutzt wird. Fake News stehen unter dem Verdacht, den öffentlichen Diskurs zu verzerren und zum Wahlerfolg populistischer Politiker beizutragen. Von diesen „gefälschten Nachrichten“ ist die Verwendung des Begriffs als Vorwurf und zur Diskreditierung traditioneller journalistischer Medien abzugrenzen. Damit weist der Begriff Überschneidungen zum Begriff der Lügenpresse auf, der Medien systematische Manipulation unterstellt. Wissenschaftler*innen verwenden den Begriff Fake News aber vor allem, um systematische Täuschungsversuche und fingierte Meldungen jenseits journalistischen Fehlverhaltens zu beschreiben. In diesem Sinne wird der Begriff auch im Folgenden verstanden (Quandt u. a., im Ersch.). 

Oft lässt sich nicht eindeutig zwischen „richtigen“ und „gefälschten“ Nachrichten unterscheiden. Fake News beschreiben eher ein Kontinuum zwischen komplett fingierten Falschmeldungen (etwa, dass Hillary Clinton einen Pädophilen-Ring betreibe) und einer verzerrten Einrahmung von Ereignissen, bei der zum Beispiel einzelne Aspekte hervorgehoben und andere verschwiegen oder irreführenden Überschriften verwendet werden. Dadurch ist es für Mediennutzer*innen oft schwer, Fake News zu erkennen, besonders wenn auch traditionelle Medien unsauber arbeiten und z. B. mit irreführenden Überschriften oder schlecht recherchierten Inhalte arbeiten (Sängerlaub/Meier/Rühl 2018, 12). 

Auch wenn verzerrte und gefälschte Nachrichten keine Eigenart des Internets sind, werden Fake News vor allem als Problem auf Sozialen-Netzwerk-Seiten wie Facebook diskutiert. Durch die einfachen Möglichkeiten dort, Inhalte mit anderen zu teilen, können sich Fake News schnell von Account zu Account verbreiten und dadurch besonders viele Menschen erreichen. Gleichzeitig zeigen aktuelle Studien aus Deutschland, dass die meisten Fake News nur eine geringe Reichweite haben und etablierte Medien, zumindest hier, deutlich mehr Personen erreichen (ebd., 75). 

Fake News werden derzeit vornehmlich in sozialen Netzwerken gestreut, da sich Inhalte, die eine starke emotionale Reaktion bei den Nutzer*innen hervorrufen, besonders gut in den Sozialen Medien verteilen lassen. Doch tragen nicht nur Mediennutzer*innen zu ihrer Verbreitung bei. Auch (teil-)automatisierte Fake Accounts, also Profile, die zu Tarnungs- oder Täuschungszwecken angelegt werden, auch Social Bots genannt, verbreiten Fake News im Netz (Howard/Wolley 2017, 3). 

Was sind Social Bots? 
„Social Bots“ (= soziale Roboter) ist ein Dachbegriff, der verschiedene Formen (teil-)automatisierter Accounts in Online-Medien beschreibt, die mit unterschiedlichen Zielsetzungen betrieben werden (Grimme u. a. 2017b, 280). Das besondere an Social Bots ist, dass sie versuchen, menschliches (Kommunikations-)Verhalten im Netz zu imitieren. Social Bots können auch für hilfreiche Zwecke eingesetzt werden. Etwa wenn Nachrichten-Bots auf Twitter die Schlagzeilen verschiedener Medien sammeln, Kundenservice-Bots automatisiert die häufigsten Fragen der Kunden beantworten oder Übersetzungs-Bots die Inhalte eines anderen Accounts automatisch in eine andere Sprache übersetzen, um sie anderen Nutzern zugänglich zu machen. All diese Bots haben einen klaren Nutzen und werden meist transparent eingesetzt. Zum Problem werden Social Bots erst, wenn sie nicht als solche erkennbar sind und benutzt werden, um Schaden anzurichten: Spam Bots, die massenhaft Werbung per E-Mail versenden, oder Propaganda Bots, die dazu eingesetzt werden, um Mediennutzer*innen im Sinne einer Ideologie zu manipulieren. 

Allen Bots liegt ein mehr oder weniger komplexer Algorithmus zu Grunde, eine Reihe logisch formalisierter Handlungsanweisungen, die auf Basis eines Ereignisses ein bestimmtes Ergebnis produzieren (wenn a, dann b). Ein Social Bot könnte beispielsweise jede*n Nutzer*in, der oder die sich bei Twitter über ein bestimmtes Thema äußert, automatisch abonnieren („ihm/ihr folgen“) oder jeden Inhalt einer bestimmten Person automatisiert positiv bewerten („liken“).

Um diese Automatisierung möglich zu machen, werden meist die sogenannten Programmierschnittstellen (Application Programming Interface, kurz APIs) der Sozialen Netzwerke benutzt. Unternehmen stellen diese APIs Programmierern zur Verfügung, damit sie Programme und Apps für ihre Dienste entwickeln können. Ohne diese offenen Schnittstellen wäre es beispielsweise nicht möglich, sich mit einem Facebook-Account bei Spotify anzumelden. 

Der Grad der Automatisierung von Social Bots kann sehr unterschiedlich sein. Von einem hauptsächlich von menschlichen Nutzer*innen genutzten Account, der lediglich zu bestimmten Zeiten automatisch Abwesenheitsnachrichten verschickt, über Zwischenstadien, bei denen Mensch und Algorithmus Hand in Hand arbeiten, bis hin zu nahezu autonom agierenden Bots. Die meisten Social Bots sind eher simpel gestrickt und dienen dazu, einfache Aufgaben im Netz auszuführen, wie etwa alle Inhalte einer bestimmten Webseite zu verbreiten, Nachrichten anderer Nutzer zu wiederholen („retweeten“) oder alle Nachrichten zu einem bestimmten Thema zu „liken“. Diese einfachen Bots sind auch für Laien relativ leicht zu programmieren oder können für wenig Geld online erworben werden. Praktisch jede technisch versierte Person ist dazu in der Lage, solche einfachen Social Bots einzusetzen. Komplexe Accounts, die tatsächliche Konversationen führen können, sind hingegen enorm aufwendig und teuer und finden eher durch große Software-Firmen als Demonstration statt, marktreif sind diese Social Bots eher nicht (Grimme u. a. 2017b, 281). 

Ein besonderer Subtyp der Social Bots sind politische Bots. Diese Bots können als eine besondere Art von sozialen Bots angesehen werden, die das Ziel haben, politische Inhalte zu verbreiten oder sich an politischen Diskussionen auf Online-Plattformen zu beteiligen. Sie werden von politisch motivierten Gruppen eingesetzt. Ein typisches Ziel von politischen Bots ist es beispielsweise, die Popularität einer bestimmten Idee oder eines bestimmten Posts auf einer Social-Media-Plattform zu steigern, indem man „likes“ generiert. Außerdem können politische Bots die Eigenschaften von Chat Bots oder Spam Bots nutzen, indem sie öffentlich stattfindende Gespräche, Beiträge und Kommentare suchen und mit vorbereiteten, propagandistischen Inhalten eingreifen (Howard/Wooley 2017, 3). 

Was können Fake News und Social Bots bewirken? 
In Anbetracht der oben dargestellten Situation scheint die Sorge, dass das Internet mehr Schaden als Nutzen für die Demokratie bringt, berechtigt zu sein. Allerdings wird die Wirkung von Fake News und Social Bots derzeit noch erforscht und viele Fragen sind noch offen. Erste Studien aus der Kommunikationswissenschaft, der Medienpsychologie und der Politikwissenschaft zeigen aber, dass Fake News zwar prinzipiell das Potenzial haben, auf verschiedenen Ebenen zu wirken, die tatsächliche Wirkung jedoch nicht besonders stark zu sein scheint. 

Auf der Ebene einzelner Mediennutzer*innen könnte die Glaubwürdigkeit von Fake News durch Social Bots manipuliert werden: Falschmeldungen über Geflüchtete wurden als glaubwürdiger erlebt, wenn besonders viele Accounts einen entsprechenden Tweet geteilt hatten (Aigner u. a. 2017). Besonders glaubwürdig sind Fake News aber dann, wenn sie in das eigene Weltbild und zu den eigenen Überzeugungen passen (Sängerlaub/Meier/Rühl 2018, 89). „Wer ein sehr geringes Medienvertrauen (vor allem in klassische Medien) hat und sich daher alternativen Medienangeboten zuwendet, bzw. sich ganz über Social-Media-Kanäle informiert, wird unter Garantie auch mit einer höheren Dichte von Fake News konfrontiert, bzw. der ist Desinformation und Propaganda ausgesetzt, wenn er sich aktiv dazu entscheidet diesen vermeintlichen Nachrichtenangeboten in seinem Newsfeed zu folgen“ (ebd. 89, Hervorhebung im Original). 

Diese Zuwendung zu alternativen Quellen, die das eigene Weltbild stützen, wird auch im Zusammenhang mit der Befürchtung von digitalen Echokammern diskutiert, virtuellen Räumen, in denen Mediennutzer*innen sich nur noch mit Inhalten und Personen umgeben, die ihre eigene Meinung bestätigen. Hier könnten dann auch Social Bots eine Rolle spielen, indem sie breite Unterstützung für bestimmte Ideen simulieren. Menschen suchen solche Echokammern durchaus freiwillig auf: Eine großangelegte Untersuchung von Nutzer*innen, die bei Facebook verschwörungstheoretische Fake News konsumierten, zeigte, dass diese Nutzer*innen fast keinen Austausch mit seriösen wissenschaftlichen Seiten hatten und vor allem weitere verschwörungstheoretische Inhalte kommentierten und teilten (Del Vicario u. a. 2016). 

Auf gesellschaftlicher Ebene schließlich haben Fake News zwar keinen direkten Einfluss auf die Themen der etablierten Medien, bestimmten aber – zumindest in den USA – die Themen in den parteinahen Medien, ungeachtet dessen, ob es sich eher um konservative oder liberale Medien handelte (Vargo/Guo/Amazeen 2017). Damit könnte die Flut an rechtspopulistischen Fake News auch in Deutschland zu den anhaltenden Debatten über Zuwanderung beigetragen haben. 

Eine direkte Beeinflussung von Wahlentscheidungen ist allerdings eher unwahrscheinlich. In ihrer Untersuchung von Fake News im Rahmen der US-Wahl konnten Allcott und Gentzow (2017) zeigen, dass der durchschnittliche Amerikaner, beziehungsweise die durchschnittliche Amerikanerin nur wenig Fake News während des Wahlkampfs wahrgenommen und noch weniger geglaubt hat. Um tatsächlich Wahlverhalten zu beeinflussen, müsste eine gefälschte Nachricht daher um ein Vielfaches wirksamer sein als alle anderen politischen Kampagnen, etwa Plakate oder Wahlwerbespots. 

Zusammenfassend könnten Fake News also das Potenzial haben, auch in Deutschland die Gesellschaft auf verschiedenen Ebenen zu beeinflussen: sei es die politische Einstellung einzelner Bürger*innen, die Erosion des Zusammenhalts in der Gesellschaft durch die Bildung von Echokammern oder das Lancieren von bestimmten Themen. 

Um zu klären, ob Fake News ihr Potenzial auch ausnutzen konnten, muss die Frage geklärt werden, wie viele Fake News tatsächlich während und vor der Bundestagswahl 2017 in Umlauf waren. Fact-Checking-Institutionen wie Correctiv und die Fact-Checker der Öffentlich-rechtlichen berichten, dass es keinen Strom von Fake News gegeben habe (Gensing 2017). Die Gründe hierfür seien u. a. das hohe Medienvertrauen der Deutschen, eine geringere Nutzung von Social Media als Informationsquelle und ein damit geringerer Nährboden für mögliche Desinformation (Sängerlaub/Meier/Rühl 2018). Trotz dieser Tatsache finden rund 60 % der Deutschen, dass um die Bundestagswahl „viele Fake News im Wahlkampf in der Öffentlichkeit zirkulierten“ (ebd., 89). Thematisch befassen sich die wenigen Fake News, die während der Bundestagswahl festgestellt werden konnten, vor allem mit dem Thema „Geflüchtete“; ein Thema, das die mediale Öffentlichkeit noch heute dominiert. Dieser thematische Bias entsteht dadurch, dass Fake News in Deutschland vor allem von rechtspopulistischen Akteuren verbreitet werden (Sängerlaub/Meier/Rühl 2018). 

Auch der Einsatz von Social Bots scheint (bisher) kein prominentes Merkmal deutscher Politik zu sein. Der Datenjournalist Michael Kreil zeigt in seiner Analyse, dass Bots in Deutschland nur in wenigen Fällen für die Verbreitung von Fake News verantwortlich sind (Kreil 2017). 

Was kann getan werden? 
Obwohl das Phänomen Fake News in Deutschland in seiner Wirkung bisher hinter den großen negativen Erwartungen zurückgeblieben ist, steht der Kampf dagegen weit oben auf der politischen und journalistischen Tagesordnung. Mehr und mehr Angebote wollen sich Fake News entgegenstellen und Falschmeldungen widerlegen. Die Praxis des sogenannten Debunkings (= enthüllen, widerlegen) wird in Deutschland sowohl institutionalisiert von öffentlich-rechtlichen, privaten und zivilgesellschaftlichen Akteur*innen (Faktenfinder der ARD, Correctiv etc.) betrieben als auch als journalistische Leistung von den Redaktionen der etablierten Medien. 

Studien zeigen, dass das Debunking keine leichte Aufgabe ist. Versucht man Fake News mit einer detaillierten Gegendarstellung zu kontern, läuft man Gefahr, den Inhalt der ursprünglichen Falschmeldung zu wiederholen. Wiederholung macht Inhalte aber leichter erinnerbar und das kann dazu führen, dass die Falschmeldung als „wahrer“ eingeschätzt wird – die Personen „erinnern“ sich, dass das ja so war. Der Versuch, eine Falschmeldung zu widerlegen, kann sie also stärken statt sie zu schwächen (Vargo/Guo/Amazeen 2017). 

Hinzu kommt, dass die Widerlegung selten spannender ist als die ursprüngliche Sensationsmeldung und zwangsläufig später erscheint. Oft erzielen Debunking-Inhalte auch deutlich weniger Reichweite als die ursprünglichen Fake News (Sängerlaub/Meier/Rühl 2018, 79). 

Geeigneter scheint laut Frischlich und Grimme (2018) die Förderung von Medienkompetenz im Sinne eines TARE-Modells (to tare = abwägen) zu sein. Dabei sollten Nutzer*innen nicht nur lernen, welchen Quellen sie (nicht) vertrauen können („Trust“), auch das Bewusstsein um manipulative Inhalte im Netz („Awareness“) und das eigene Mediennutzungsverhalten sollten reflektiert werden („Reflection“) und Mediennutzer*innen brauchen Werkzeuge, die sie befähigen („Empowerment“), Inhalte im Netz selbstständig zu überprüfen. 

Ausblick
Trotz der oben beschriebenen Hinweise auf die Wirkung von Fake News auf die politische Meinungsbildung sollte ihr Effekt nicht überschätzt werden. Auf Grundlage bisheriger Studien lässt sich der Schluss ziehen, dass Fake News ein nicht zu leugnendes, aber doch eher eingeschränktes Wirkpotenzial haben (Allcott/Gentzkow 2017). Ob die Inhalte der gefälschten Meldungen von den Nutzer*innen übernommen und geglaubt werden, scheint eher davon abhängig zu sein, ob diese Inhalte bestehende Überzeugungen festigen können. Fake News haben also wahrscheinlich eher weniger die Kraft, (politische) Meinungen direkt zu ändern. Allerdings könnten Desinformationskampagnen dazu beitragen, gewissen Themen Aufmerksamkeit zu verleihen – und damit in bestimmten Fällen zu Verunsicherung und Misstrauen. 

Versuche der staatlichen Regulierung sind dennoch schwierig und potenziell kontraproduktiv. Sie könnten das verschwörungstheoretische Weltbild bestärken, dass bestimmte politische Meinungen in der Öffentlichkeit zensiert werden, und somit den Austausch zwischen unterschiedlichen politischen Gruppen erschweren (Müller/Denner 2017). 

Auch Social Bots scheinen bisher eine geringe Rolle in der deutschen Politik zu spielen. Das rechtspopulistische Netzwerk „Reconquista Germanica“ beispielsweise nutzte für seinen Versuch, den Hashtag #Verräterduell während der Bundestagswahl auf Twitter zu etablieren, vermutlich mehrheitlich menschliche Verbreiter*innen (Grimme u. a. 2017b). Was noch wichtiger ist: Der Versuch, mit Hilfe von Fake Accounts Stimmung gegen die Etablierten Parteien zu machen, verebbte nach kurzer Zeit aus Mangel an Erfolg. 

Gefährden nun Fake News und Social Bots unsere Demokratie? Die dargestellten Forschungsergebnisse zeigen, dass beide Phänomene eher eine moderne Ausprägung der Hürden und Tücken des demokratischen Prozesses sind. Gewappnet mit durch Forschung gestützten Erkenntnissen, rationalen Diskursen und einer starken, freien Presse wird die Gesellschaft und unsere Demokratie auch in Zukunft mit diesen Problemen umgehen können.



Literatur
Aigner, J. u. a. 2017: Manipulating the perception of credibility in refugee related social media posts. In: Proceedings of the 2017 Conference on Human Information Interaction and Retrieval – CHIIR ’17 , S. 297 – 300. 
Allcott, Hunt/Gentzkow, Matthew 2017: Social Media and Fake News in the 2016 Election. In: Journal of Economic Perspectives 31 (2), S. 211 – 36; https://doi.org/10.1257/jep.31.2.211
Del Vicario, M. u. a. 2016: The spreading of misinformation online. Proceedings of the National Academy of Sciences, 113, S. 554 – 559. 
Frischlich, L./Grimme, C. 2018: Manipulation im Netz: (Medien-) Pädagogik zwischen Fake Accounts, Social Bots und Propaganda. Handreichung für Pädagog*innen erstellt im Rahmen eines Workshops beim Medienkompass NRW 2018. 
Gensing, P. 2017: Bundestagswahl 2017: Die große Fake News gab es nicht. Tagesschau; http://faktenfinder.tagesschau.de/inland/bilanz-wahlkampf-btw-101.html 
Grimme, C. u. a. 2017: Social bots: Human-like by means of human control; https://arxiv.org/pdf/1706.07624.pdf 
Grimme, Christian u. a. 2017b: Bundestagswahl 2017: Social-Media-Angriff Auf Das #kanzlerduell? PropStop Technischer Bericht 1, S. 1 – 9; http://www.propstop.de/wp-content/uploads/2017/09/bundestagswahl-2017-social-media.pdf 
Gu, L./Kropotov, V./Yarochkin, F. 2017: The fake news machine: How propagandists abuse the Internet and manipulate the public. Trend Micro; https://documents.trendmicro.com/assets/white_papers/wp-fake-news-machine-how-propagandists-abuse-the-internet.pdf 
Kreil, M. 2017, Dezember 28: Social Bots, Fake News und Filterblasen. Therapiestunde mit einem Datenjournalisten und vielen bunten Visualisierungen. Vortrag auf dem 34c3; https://media.ccc.de/v/34c3-9268-social_bots_fake_news_und_filterblasen 
Müller, P./Denner, N. 2017: Was tun gegen „Fake News “? Eine Analyse anhand der Entstehungsbedingungen und Wirkweisen gezielter Falschmeldungen im Internet. Friedrich Naumann Stiftung für die Freiheit, S. 1 – 28. 
Quandt, T. u. a. (i. Ersch.): Fake News. The International Encyclopedia of Journalism Studies. Wiley, USA. 
Sängerlaub, A./Meier, M./Rühl, W. 2018: Fakten statt Fakes. Berlin, Germany; https://www.stiftung-nv.de/de/publikation/fakten-statt-fakes-verursacher-verbreitungswege-und-wirkungen-von-fake-news-im 
Vargo, C. J./Guo, L./Amazeen, M. A. 2017: The agenda-setting power of fake news: A big data analysis of the online media landscape from 2014 to 2016. New Media & Society, S. 1-22; https://doi.org/10.1177/1461444817712086 
Woolley, S. C./Howard, P. N. 2017: Computational Propaganda Worldwide: Executive Summary. Oxford, UK. 
Alle Links zuletzt abgerufen am 21.8.2018.


Zitation
Quandt, Thorsten; Schatto-Eckrodt, Tim; Boberg, Svenja & Frischlich, Lena (2018). Gefälschte Nachrichten, gefälschte Nutzer. Wie gefährlich sind Fake News und Social Bots? In: POLITIKUM 3/2018, S. 43-48.


Ein Beitrag aus

Im Abonnement kein Heft verpassen