zum Inhalt
Header Image

“Fake News” bekämpfen auf die amerikanische Art

Von Anya Schiffrin, Direktorin für den Bereich Technologie und Kommunikation an der School of International and Public Affairs der Columbia University. Anya Schiffrin hält am 16. August 2018 eine Special Lecture zum Thema „Invesigativer Journalismus“.
Erschienen am 23. Juni 2018 im Spectrum der Tageszeitung Die Presse.

In den Vereinigten Staaten markierte das Jahr 2016 die Trennlinie zwischen News und Fake News. Der Präsidentschaftswahlkampf trat gut durchgeplante Desinformationskampagnen los, die das Ziel hatten, Hillary Clinton zu diskreditieren und Donald Trump zu stärken. Trump gewann die Wahl und machte aus Falschmeldungen – also Artikeln, die nicht der Wahrheit entsprachen – „Fake News“, eine eingängige Chiffre für alle Medienunternehmen und Nachrichtenstorys, die ihm nicht gefallen. Mithilfe der sozialen Netzwerke verbreitete sich das Schlagwort rasch unter Trumps Unterstützern, und heute befinden sich Nachrichtenagenturen und Social-Media-Plattformen im Mittelpunkt einer landesweiten Auseinandersetzung um Glaubwürdigkeit und um die Rolle der Medien im amerikanischen Leben. Weltweit fragen sich Menschen, welche Rolle von Facebook verbreitete Falschmeldungen für das Pro-Brexit-Votum 2016 spielten, für die Zugewinne von Rechtsaußen in Österreich 2017 und für den Wahlsieg der italienischen Fünf-Sterne-Bewegung 2018. Der geschickte und beharrliche Einsatz von Desinformation und Social Media nährte die Unzufriedenheit der Wählerschaft und half wohl, die Wahlen nach rechts zu steuern. Noch schlimmer geht es in Ländern wie Myanmar, den Philippinen und Sri Lanka zu, wo die sozialen Netzwerke dazu verwendet werden, extreme Gewalttaten und Hass anzustacheln.

Journalisten, Forscher, Social-Media-Unternehmen und Politiker diskutieren mit großer Dringlichkeit, wie man die Verbreitung von Desinformation unter Kontrolle bringen und das öffentliche Vertrauen in die Medien wiederaufbauen kann. Deutschland hat bereits gehandelt: Im Vorjahr wurde ein Gesetz beschlossen, das Hassrede im Internet verbietet und Social-Media-Seiten wie Facebook und Twitter für alle Verstöße, die nicht rasch gelöscht werden, zur Rechenschaft zieht. Dieses Jahr hat der französische Staatspräsident Emmanuel Macron seine Pläne für ein Gesetz bekanntgegeben, das Fake News während Wahlperioden verbietet. Die Europäische Kommission hat über eine entsprechende Gesetzgebung beraten, wird aber wahrscheinlich nicht handeln, sondern hofft darauf, dass allein die Androhung neuer Regulierungsmaßnahmen Facebook und Twitter zum Handeln zwingen wird. Zivilgesellschaftliche Organisationen, die für mehr Redefreiheit kämpfen, fürchten, dass diese Art der Selbsteinschränkung durch die Medienkonzerne eine Übererfüllung und damit eine Zensur legitimer Inhalte zur Folge haben wird. Noch besorgter sind sie angesichts von Gesetzen wie jenem, das Malaysia kürzlich gegen die Verbreitung von Hassrede im Internet erlassen hat und das Straffälligen bis zu sechs Jahre Haft und Geldstrafen androht.

Die Vereinigten Staaten, wo der 1. Zusatzartikel zur Verfassung den Handlungsspielraum einengt, nähern sich der Bekämpfung von Desinformation aus einem anderen Winkel an: über den Konsumenten. Journalisten und mediennahe Stiftungen konzentrieren sich darauf, journalistische Praktiken zu verbessern und transparenter zu machen, in der Hoffnung, so das Vertrauen gegenüber klassischen Medien zu stärken. Der Fake-News-Experte Craig Silverman wirbt für Software-Programme, die verdächtige Quellen identifizieren und Reportern so Hilfestellungen bieten können. Statt ihre Geschäftsmodelle zu ändern, versuchen Social-Media-Konzerne wie Facebook, ihr Publikum darüber aufzuklären, wie man Fake News von Real News unterscheiden kann. Die Medienmogule Steve Brill und Gordon Crovitz haben mit Newsguard einen Dienst ins Leben gerufen, der mittels eines Ampelsystems tausende von Nachrichtenseiten im Internet rot, gelb oder grün einstuft – die Kosten dafür tragen die Social-Media-Unternehmen. Trotz den jüngsten Enthüllungen über den Missbrauch persönlicher Nutzerdaten durch Cambridge Analytica und der Anhörung von Facebook-Gründer Mark Zuckerberg im US-Kongress ist es unwahrscheinlich, dass die USA sich tatsächlich dazu durchringen werden, Hassrede oder Social-Media-Plattformen gesetzlich zu regulieren.

Stattdessen hofft man, dass der Einsatz für Faktenchecks, Medienkompetenz und mehr Auseinandersetzung mit den Zielgruppen die Verbreitung von Desinformationen bremsen und gleichzeitig die Mainstream-Medien wieder in ihrer entscheidenden Rolle als Wächter der Demokratie verankern wird. Die Argumentation lautet: Wenn lokale Berichterstattung wieder gestärkt und mit höherer Beteiligung des Publikums gestaltet wird, dann sinkt die Wahrscheinlichkeit, dass dieses im Internet Falschmeldungen konsumiert. Wenn man die Öffentlichkeit dazu erziehen kann, Lügen und Propaganda zu erkennen, dann wird sie weniger anfällig für jene Desinformationen, mit denen sie konfrontiert ist.

Wie die jahrzehntelange Forschungsarbeit zum Thema jedoch zeigt, ist leider keineswegs erwiesen, dass diese Ansätze funktionieren. Es ist nicht wahrscheinlich, dass Menschen wieder Vertrauen in die Medien fassen, wenn sie es einmal verloren haben, egal, welche Bemühungen die Medienbranche anstellt. Auch gibt es keine Beweise dafür, dass Menschen, die ihrer Lokalzeitung oder einem bestimmten Journalisten vertrauen, dieses Zutrauen auf die gesamte Medienlandschaft ausdehnen. Außerdem haben Forscher herausgefunden, dass es eine Kerngruppe von Menschen gibt, die für Beweise und logische Schlussfolgerungen einfach nicht zugänglich sind, egal wie diese präsentiert werden oder wie stichhaltig sie sind. Für sie ist die Frage nach Medienvertrauen und falschen Nachrichten irrelevant, weil sie nicht bereit sind davon abzurücken, wovon sie bereits überzeugt sind.

Journalisten müssen sich eine Strategie zurechtlegen, denn die Lage ist bedenklich. Laut dem Edelmann Trust Barometer 2018 ist dies das erste Jahr, in dem die Medien weltweit als die am wenigsten vertrauenswürdige Institution angesehen werden, hauptsächlich weil Menschen den Suchmaschinen und den sozialen Netzwerken misstrauen. Dennoch sind das die am meisten genutzten Informationskanäle.

Die Lehren aus den 1990ern

Die heutigen Bestrebungen, das Publikum mehr zu involvieren und eine Berichterstattung zu fördern, die auch die Demokratie stärkt, erinnern an die USA in den 1990er-Jahren. Zu jener Zeit verbreiteten sich Kabelfernsehen und Computer und veränderten die Art und Weise, wie die Amerikaner sich informierten. Die Mitglieder der Öffentlichkeit nahmen nicht mehr auf einheitliche Nachrichtenquellen Bezug. Außerdem fühlten sich die Menschen zunehmend vom politischen Entscheidungsfindungsprozess entfremdet und von der Demokratie losgelöst. Sie glaubten einfach nicht daran, dass sie die Macht hätten, irgendetwas zu verändern, und die Wahlbeteiligung sank sowohl bei den Kongress- als auch bei den Präsidentschaftswahlen. 1995 gaben nur 21 Prozent der befragten Bürger an, Zeitungen „sehr viel Vertrauen“ entgegenzubringen, während Fernsehnachrichten mit 23 Prozent marginal besser abschnitten. 1988 waren es laut dem Yankelovich Monitor noch 51 beziehungsweise 55 Prozent gewesen.

Die Medien sehen sich als essentiellen Teil einer funktionierenden Demokratie, als eine Einrichtung, die Regierungen zur Rechenschaft zieht und als Plattform für den freien Austausch von Gedanken und Informationen fungiert. Nun jedoch schienen die Amerikaner ihren Glauben an die Wichtigkeit gesellschaftlichen Engagements zu verlieren, und der journalistische Mainstream – mit seiner objektiven Grundhaltung, gepaart mit reißerischen Meldungen für höhere Quoten – verstärkte ihre Ohnmachtsgefühle. Wenn das stimmte, dann war die Demokratie in den USA in echten Schwierigkeiten. Besonders, weil sich die Konsumenten immer mehr Radiokommentatoren, TV-Experten und Fernsehpredigern zuwandten, um sich die Nachrichten und die Probleme des Tages erklären zu lassen. Nicht selten taten diese Medienpersönlichkeiten das unter Einsatz lückenhafter Schlussfolgerungen und spärlicher Fakten.

Die Angriffe, denen die Medien in den 1980ern von Rechts wie von Links ausgesetzt waren, taten ein Übriges. Bezahlte Strohmänner beschuldigten die Medien im Auftrag der republikanischen Präsidenten Nixon, Reagan, George Bush und George W. Bush einer linksliberalen Tendenz, um die Glaubwürdigkeit der Presse zu beschädigen. Die Linke, unter anderem Noam Chomsky, beschuldigte wiederum die Mainstream-Presse, von ihren Unternehmenssponsoren ferngesteuert zu werden. Die Anforderungen an die Berichterstattung – Deadlines, knappe Sendezeiten und Ressourcen – führten überdies zu Fehlern, die ebenfalls zum Misstrauen der Öffentlichkeit beitrugen.

Stiftungen, Forscher und Journalisten bildeten die Speerspitze einer Bewegung, die die Rolle von Journalisten im öffentlichen Leben ganz neu denken wollte: Der sogenannte „Public Journalism“ setzte sich das Ziel, Bürgerbeteiligung, öffentlichen Diskurs und die demokratiepolitische Rolle der Medien mit neuem Leben zu erfüllen. Zu diesem Zweck traten seine Verfechter aus ihrem Dasein als „objektive Beobachter“ heraus und wurden zu Teilhabern, die sich dennoch an professionelle journalistische Standards hielten. Reporter gingen direkt zu Einwohnern der Gemeinden, über die sie berichteten, und fragten, welche Themen sie am meisten beschäftigten und wie man diese thematisieren könne. Regionale Nachrichtenmedien bildeten gemeinsam Fokusgruppen und führten Umfragen durch, um örtliche Interessen und Prioritäten zu verstehen. Zeitungen und Magazine halfen Mitgliedern der Allgemeinheit dabei, ihre eigenen Kommentare zu schreiben, ließen Leser entscheiden, worüber die Lokalzeitung berichten sollte, und veröffentlichte Listen von Anliegen der Gemeinde. Eine der damit verbundenen Hoffnungen war, die Meinung der Menschen zu ändern, die klassischen Medien wären Eliten mit einem heißen Draht zu Politikern und Beamten. Genau wie heute.

Kritiker des Public Journalism hatten unter anderem Sorge, dass der Abschied von der Objektivität die Glaubwürdigkeit der Medien beschädigen und vor allem Journalisten die Macht in die Hand geben würde, über öffentliche Anliegen zu entscheiden statt nur darüber zu berichten. Die Public-Journalism-Bewegung war umstritten und wurde oft verspottet. Sie ist umfassend erforscht worden, und doch ist man sich über die Effektivität ihrer Maßnahmen nicht einig. Manche fanden Belege dafür, dass die Bewegung tatsächlich mehr gesellschaftliches Engagement unter den Bürgern bewirkte. Andere sahen es als erwiesen an, dass sie rein gar nichts auszurichten vermochte. Damals berichteten Journalisten, dass der Public Journalism, mochte er auch die Leser- und Zuseherzahlen nicht steigern, immerhin eine größere Loyalität und Einbindung des Publikums zur Folge hatte.

Und hier stehen wir heute und ringen mit denselben Fragen in Hinblick auf das Internet.

Doch selbst nach 70 Jahren Forschung sind die Ergebnisse nicht eindeutig. Außerdem sind zahlreiche Studien aufgrund fehlender Metastudien und uneinheitlicher Forschungsmethoden nur schwer vergleichbar. Es gibt nicht einmal eine klare Definition oder einen übereinstimmenden Maßstab für Medienvertrauen und dafür, was den Begriff des Medienvertrauens von jenem der Glaubwürdigkeit unterscheidet.

Frustrierend viele Fragen bleiben unbeantwortet: Unter welchen Bedingungen können Zuhörer, Seher und Leser den Medien vertrauen? Kann man diese Bedingungen herstellen? Welche Kausalbeziehungen bestehen, wenn überhaupt, zwischen dem Vertrauen in die Regierung und andere Institutionen einerseits und dem Medienvertrauen andererseits? Bedingen journalistische Arbeitsweisen das Ausmaß an öffentlichem Vertrauen, oder sind sie angesichts der vorgefertigten Meinungen von Einzelpersonen bedeutungslos? Kann man das Vertrauen wiederherstellen, wenn es einmal verschwunden ist? Wir wissen es nicht.

Stärken redaktionelle Richtigstellungen wirklich, wie lange angenommen, das Vertrauen der Leser? Die Forschungsergebnisse sind widersprüchlich. Manche Studien kamen zum Ergebnis, dass detaillierte Richtigstellungen, die sowohl den ursprünglichen Fehler als auch die neuen Informationen enthalten, bei den Lesern hängenbleiben. Andere zogen den Schluss, dass jede Richtigstellung die Glaubwürdigkeit untergraben kann, womit sich die Frage aufdrängt: Schadet es dem Medienvertrauen mehr, eine Richtigstellung zu drucken, als den fehlerhaften Artikel einfach zurückzuziehen? Eine dritte Studiengruppe fand heraus, dass sich Leser nur dann von Richtigstellungen überzeugen lassen, wenn sie ohnehin schon dafür empfänglich waren.

Vertrauen gebildete Amerikaner der Regierung mehr, weil sie Zeitung lesen und verstehen, wie Regierungen funktionieren, oder liegt es daran, dass sie mehr Bildung genossen und vom System profitiert haben? Das ist unklar. Geht das Vertrauen in Institutionen dem Vertrauen in die Medien voraus, oder ist das Gegenteil der Fall? Auch unklar; genauso wie die Frage, ob es möglich ist, dass Menschen der Regierung vertrauen, nicht aber den Medien, und umgekehrt.

Ein global gültiges Konzept von Medienvertrauen zu formulieren wird durch den Umstand erschwert, dass jedes Land eine einzigartige Medienlandschaft hat. Es ist fast unmöglich zu verallgemeinern. Zum Beispiel vertrauen in den USA Liberale den Medien mehr als Konservative, während es sich in Großbritannien genau umgekehrt verhält – teilweise, weil viele liberale Leser den Eindruck hatten, dass die rechte Presse für den Brexit Stimmung mache.

Während die zunehmende Dominanz von Kommentatoren und Fernsehsprechern in den 1980ern und 1990ern die absolute Deutungshoheit der Mainstream-Medien aus der Spur brachte, hat das Internet diese Autorität völlig auf den Kopf gestellt. Zu den Grundprinzipien des Journalismus gehören Recherche, Überprüfung, Redaktion und Expertise. In stiller Übereinkunft mit der Öffentlichkeit haben diese und andere Grundsätze dem Journalismus traditionellerweise die Autorität verliehen, der Allgemeinheit Nachrichten zu präsentieren. Aber, darauf weisen Forscher hin, diese Praktiken widersprechen der ureigensten Struktur des Internets; denn diese beruht auf der Teilnahme der Massen sowie auf Einzelmeinungen und macht es möglich, dass sich Falschinformationen in Sekundenschnelle rund um den Erdball verbreiten.

Katherine Engelke, Forscherin an der Universität Münster, ist der Ansicht, dass neue Faktoren in der Entstehung von Online-Nachrichten wie etwa User-Generated Content, Kommentarfunktionen, der ständige Aktualisierungsdruck, Likes und Sharen ebenfalls den Glauben der Leser an Nachrichtenbeiträge im Internet schwächen. Und: Leser vertrauen Seiten weniger, hinter denen keine große Offline-Marke steht.

Angesichts der aktuellen Online-Nachrichtenlandschaft, angesichts der Fragmentierung der Medien, der Trolle, der Desinformationskampagnen und der „Fake News“-Anschuldigungen: Wie entscheidet das Publikum, welchen Nachrichten es Glauben schenkt?

Im Mittelalter vertrauten Leser Informationen, die sie von Freunden erhielten oder die ihnen geläufig waren. Das hat sich nicht verändert. Eine Studie aus dem Jahr 2014 zeigt, dass Menschen Nachrichten mehr Glauben schenken, wenn diese von einem Facebook-Freund geliket wurden, den sie für einen Opinion-Leader hielten. Andere Forschungsprojekte kamen zum Schluss, dass Likes oder Shares in Sozialen Medien User dazu bewegten, Geschichten selbst dann zu lesen, wenn die Quellen ihnen ideologisch widerstrebten. Eine Studie aus dem Vorjahr stellte fest, dass Fake-News-Überschriften, die Lesern bekannt vorkamen, eher als korrekt wahrgenommen wurden, selbst dann wenn sie augenscheinlich unplausibel waren, den Überzeugungen der Befragten zuwiderliefen oder sogar mit dem Warnhinweis versehen waren, dass die Schlagzeilen nicht korrekt seien. Es scheint, dass jener Bevölkerungsanteil, der Verifikation, das Konzept der objektiven Wahrheit und wissenschaftliche Methoden ablehnt, davon nicht abzubringen ist.

Lösungen – Die Notwendigkeit der Regulierung

In Ermangelung echter Daten dazu, ob man jenen harten Kern umstimmen kann, der eine vom Gedanken der Aufklärung getragene Einstellung zu Wissen und Information rundheraus ablehnt, nehmen amerikanischen Stiftungen und Social-Media-Plattformen jene Probleme in Angriff, die sich in ihrer Reichweite befinden. Sie finanzieren Medienkompetenz-Kurse, Projekte, die den Austausch mit den Sehern, Hörern und Lesern fördern, Faktencheck-Websites und Software-Programme, die bei verdächtigen Websites Alarm schlagen. Facebook hofft, dass es seine Probleme mithilfe Künstlicher Intelligenz lösen kann, und indem es ein bisschen an seinem Algorithmus herumdoktert. Dass Facebook sein Geschäftsmodell ändert – ein Modell, das auf der Verbreitung von Skandalen und Aufregung fußt – ist unwahrscheinlich.

Die USA sind nicht im Begriff, Gesetze zu beschließen, wie sie nun in Deutschland existieren, oder das Feld überhaupt irgendwie zu regulieren. Dennoch existieren einige vernünftige Ideen, die dazu beitragen könnten, einige der Probleme zu lösen, falls sich dafür die Unterstützung der Demokraten und der Republikaner findet. Zum Beispiel hat man erst jüngst in Irland und in Frankreich ausprobiert, die Veröffentlichung politischer Nachrichten kurz vor Wahlen aufzuschieben. Auch könnte es hilfreich sein, einige der Regelungen hinsichtlich gleicher Sprechzeiten für verschiedene politische Kandidaten wiedereinzuführen.

Aufgrund des 1. Zusatzartikels zur Verfassung der Vereinigten Staaten ist das Verbot von irreführenden Aussagen in der Werbung nicht auf politische Werbung im Internet anwendbar; aber wir haben Gesetze, die die Offenlegung der Quellen politischer Werbung vorschreiben. Die frühere Vorsitzende der Bundeswahlkampkommission Ann M. Ravel ist unter jenen, die verlangen, dass diese Regeln auch auf Online-Wahlwerbung angewendet werden sollen. Ravel schlägt außerdem vor, Social-Media-Unternehmen dazu zu verpflichten, Informationen über ihre Werbekunden zu sammeln und auf einem Regierungsserver zu speichern, genau wie es die US-Banken gemäß den Know-your-customer-Regeln tun müssen. Es gibt einen von beiden Parteien getragenen „Honest Ads Act“, also ein „Ehrliche-Werbung-Gesetz“, das im Oktober 2017 von den Senatoren Mark Warner, Ann Klobuchar und John McCain vorgeschlagen wurde und das zur Offenlegung der Auftraggeber und der Zielgruppen von Social-Media-Werbung verpflichten würde. Das Gesetz wird aktuell im Repräsentantenhaus vom zuständigen Ausschuss behandelt. Es ist unwahrscheinlich, dass es verabschiedet wird, aber Twitter und Facebook haben sich zu seinen Inhalten bekannt. 1997 beschloss Seattle ein Gesetz, das Organisationen, die Geld für politische Werbung entgegennahmen, dazu verpflichtete, Informationen über die Geldgeber preiszugeben, und die Stadt zwang Facebook kürzlich dazu, Informationen über Werbung, die während der Bürgermeisterwahl 2017 verkauft wurde, offenzulegen.

Ravel weist darauf hin, dass ein Grund dafür, dass wir statt freiwilligen unternehmerischen Wohlverhaltens Regeln brauchen, „ist, dass jede Plattform unterschiedliche Arten von Informationen zu liefern beabsichtigt. (…) Das stiftet große Verwirrung, nicht nur wenn es darum geht, die Informationen abzurufen, sondern auch weil die Ergebnisse unterschiedlich beschaffen sein werden. Einheitliche Informationen über die Hintermänner politischer Kommunikation sind wichtiges Wissen, das in Wahlentscheidungen einfließt“, so Ravel.

Diese Art von Regulierung würde nicht all die Desinformationen beseitigen, die online abrufbar sind, oder die weitreichenderen Probleme hinsichtlich dem Medienvertrauen und der post-aufklärerischen Welt lösen, in der wir leben. Aber wir können uns nicht zurücklehnen und zulassen, dass die Social-Media-Plattformen statt uns alle Entscheidungen über die Zukunft unseres Informationskonsums, unserer Politik und unserer Demokratie treffen.

Anya Schiffrin ist Direktorin für den Bereich Technologie und Kommunikation an der School of International and Public Affairs der Columbia University. Außerdem ist sie Mitglied des Global Board der Open Society Foundations. Zuletzt hat sie den Band „African Muckraking: 100 years of African investigative journalism“ (Jacana 2017) herausgegeben.

——————————————————————————

Hintergrund: Medienvertrauen wird seit Jahrhunderten diskutiert

Die Fragen, was vertrauenswürdige Informationen ausmacht, geht auf das Mittelalter zurück und wurde auch im 15. und 16. Jahrhundert diskutiert, als sich der Buchdruck und damit Druckwerke ausbreiteten. Aber erst rund um den Zweiten Weltkrieg konstituierte sich ein wissenschaftlicher Forschungszweig zum Thema Medienvertrauen. Soziologen und Politologen wollten verstehen, wie man Propagandawerkzeuge so meisterhaft dazu einsetzen konnte, öffentliche Zustimmung zu erzeugen, wie vor allem in Deutschland, wo sie verwendet wurden, um Desinformation zu verbreiten und das Land für den Krieg zu präparieren.

 

Die Forscher empfahlen als einen Weg zur Bekämpfung von Propaganda eine Medienkompetenzkampagne, die die Menschen darüber aufzuklären sollte, wie man falsche Informationen erkennt. Das „Institute for Propaganda Analysis“ veröffentlichte Artikel darüber, wie man Falschmeldungen identifiziert, und auch eine Liste von sieben Propagandawerkzeugen, auf die die Bürger achten sollten: unter anderem Beschimpfungen, die gezielte Auslassung von Fakten und die Behauptung, eine Ansicht würde von der breiten Allgemeinheit geteilt. Diese Kampagnen fanden jedoch ihr Ende, als sich die US-Regierung selbst der zuvor angeprangerten Propagandainstrumente bedienen musste, um das Volk von der Notwendigkeit des Kriegseintritts zu überzeugen.

 

In den 1950er-Jahren etablierten sich Medienvertrauen und die Auswirkungen der Massenmedien als wichtige Forschungsgebiete, an denen einige Disziplinen teilhatten, unter anderem Politikwissenschaft, Psychologie und Publizistik. Im Lauf der Jahrzehnte gab die Einführung neuer Technologien immer wieder Anlass zu erneuter Sorge und zu zusätzlicher Forschungsarbeit. In den 1960ern waren Forscher wegen der „Video-Misere“ in großer Besorgnis. Sie waren davon überzeugt, dass die zunehmende Abhängigkeit der Amerikaner von Fernsehnachrichten mit ihrer zynischen und negativen Grundhaltung das Vertrauen in die Regierung und in deren Durchsetzungskraft schwächen würden.

——————————————————————————