Digitaler Strukturwandel der Öffentlichkeit – Alles Habermas!?

In einem wissenschaftlichen Aufsatz – gerade ist der Band erschienen – habe ich über die Bedeutung der Philosophie von Jürgen Habermas reflektiert. Eignet sich seine Aufklärungsphilosophie für eine Ethik öffentlicher Kommunikation in Zeiten der Digitalität? – Anlass war nicht Habermas’ 90. Geburtstag, passt aber jetzt natürlich gut…

Der Text zeigt die medienethische Relevanz einer theoretischen Analyse und Klärung der medialen Infrastruktur der politischen Gegenwartsöffentlichkeit in der Epoche der Digitalität. Er geht von der These aus, dass ein zu selbstverständlicher Rekurs der Medienethik auf Konzepte von Jürgen Habermas aktuelle Änderungsdynamiken im Kontext der Digitalisierung nicht gut genug in den Blick bekommt.

Zwar scheint auch im Zuge der Umstellung der Kommunikation auf digitale Technik, dem Aufkommen der Social Media und der datengetriebenen Personalisierung von Inhalten öffentlicher Kommunikation das diskursethisch grundierte und gesellschaftstheoretisch entfaltete deliberative Demokratiemodell Halt und Sicherheit für das ethische Argumentieren zu geben. Aber: Allgemeine Erreichbarkeit der öffentlichen Sphäre, sachliche Argumentation, Vernunftorientierung, Konsensfindung – diese Elemente des habermasschen Universums scheinen gerade nicht durch den digitalen Strukturwandel der Öffentlichkeit befördert zu werden. Der Modus ist also eher „Gereiztheit“ (Pörksen 2018) statt „Diskurs“. Statt vernünftiger Argumentation aller Betroffener sind die Existenz mehrere Realitäten, Segmentierung, Hate Speech, Ausschlusserfahrungen („political correctness”…), Populismus und Konfrontation Kennzeichen unserer Zeit.

Davon ausgehend sucht der Text in den Themenkreisen „Strukturwandel der Öffentlichkeit“ und „Diskurs und Deliberation“ nach medienethisch geeigneten alternativen politisch-ethischen Demokratietheorien und kommunikationswissenschaftlichen Theorien, die empirisch aktuell und (medien-) technisch sensibel sind, um letztlich praktisch relevante Antworten auf Probleme öffentlicher Kommunikation in der Welt von heute zu finden.

Beleg und Link (Paywall, über Bibliotheken aber meist abrufbar):
Filipović, Alexander (2019): Alles Habermas!? Alternative Theorien für eine Ethik öffentlicher Kommunikation in Zeiten der Digitalität. In: Jonas Bedford-Strohm, Florian Höhne und Julian Zeyher-Quattlender (Hg.): Digitaler Strukturwandel der Öffentlichkeit. Ethik und politische Partizipation in interdisziplinärer Perspektive. Baden-Baden: Nomos (Kommunikations- und Medienethik, 10), S. 219–232. DOI: 10.5771/9783845291802-219.

Meinungsfreiheit – aus aktuellem Anlass… (#akk, #annegate, #rezo)

Der Fall ist bekannt: Annegret Kramp-Karrenbauer hat vorgeschlagen darüber nachzudenken, ob für “Meinungsmache” im Internet vor Wahlen nicht Regeln aufgestellt werden müssten. In Folge der ganzen Vorgeschichte startete sofort der Empörungszug. Es ging um nichts weniger als um “AKK vs. GG” (Annegret gegen das Grundgesetz). Es melden sich auch die Stimmen, die für weniger Aufregung und mehr sachorientierte Debatte argumentieren (Anja Maier in der TAZ, Stephan Detjen im Deutschlandfunk).

Ich habe am Dienstag dem Deutschlandfunk (@mediasres, Bettina Köster) und der KNA (Leticia Witte) Interviews gegeben (zitiert etwa beim MDR oder bei BR24). Darin verfolge ich die Linie, dass Meinungsfreiheit nie absolut gilt, sondern als Grundrecht immer von anderen Grundrechten eingeschränkt werden kann. Vor allem im politischen, öffentlichen Diskurs aber ist Meinung, auch wenn sie geplant, organisiert, abgestimmt und mit Macht und Autorität daherkommt, ein wichtiger demokratischer Faktor und darf nicht eingeschränkt werden. Die Freiheit der “Presse” (also der “Medien”) ist in Deutschland nach den Erfahrungen der sogenannten Gleichschaltung von Presse und Rundfunk in der Zeit des Nationalsozialismus ein hohes Gut. Das Zensurverbot im Grundgesetz bleibt die oberste Norm für jede öffentliche Kommunikation. – Das ist gerade wo es heute staatlicherseits Bestrebungen gibt, das Redaktionsgeheimnis aufzuweichen, immer wieder zu betonen.

Worüber es sich lohnt zu reden

Worüber es sich lohnt zu reden ist: Was bedeutet der digitale Strukturwandel der Öffentlichkeit für unser politisches System? Dürfen wir uns überhaupt noch der Hoffnungen hingeben, durch eine öffentliche Debatte könnten wir der gesellschaftlichen Selbstbestimmung noch eine gute Gestalt geben? Es sieht ja oft nicht so aus: Hate Speech, Desinformation etc.). Wobei Schwarzmalen und die unreflektierte Wiedergabe von Untergangsnarrationen unserer digitalen Welt ebenso gefährlich sind (siehe Bernhard Pörksens Vortrag bei der #rp19)…

Im Interview beim @dlf habe ich betont, wie wichtig eine politisch aktive junge Generation ist (siehe dazu auch Spreeblick). Und dass sie das Internet dazu nutzt, und zwar ganz in eigenem Sinne, mit eigenen Mitteln und Ansprüchen, im eigenen Modus und Stil – na klar! Dass “die Politik” damit nicht gut umgehen kann ist ein Offenbarungseid. Aber auch dies steht in einem größeren Zusammenhang (siehe die Analyse von Thomas Klüwer).

Allgemeine Erreichbarkeit der öffentlichen Sphäre, sachliche Argumentation, Vernunftorientierung, Konsensfindung – diese Elemente unserer politischen Kultur scheinen gerade nicht durch den digitalen Strukturwandel der Öffentlichkeit befördert zu werden. Der Modus ist eher „Gereiztheit“ (Pörksen 2018) statt „Diskurs“. Statt vernünftiger Argumentation aller Betroffener sind die Existenz mehrere Realitäten, Segmentierung, Hate Speech, Ausschlusserfahrungen („political correctness”…), Populismus und Konfrontation Kennzeichen unserer Zeit.

Ich meine daher, dass es sich natürlich lohnt, über das Phänomen #rezo nachzudenken, gerne auch mit dem Terminus “politische Kultur”. Es geht um die Frage, wie wir miteinander streiten, wie wir unsere Überzeugungen bilden, äußern und auf die Überzeugungen von anderen reagieren. Und auch darum, wie aus diesen Überzeugungen Gesetze werden. Neue kommunikative Möglichkeiten (Internet…) stellen uns hier vor neue Herausforderungen. Das ist schon lange ein Thema in Publizistik, Politikwissenschaft, Medienethik usw. Und sollte auch ein Thema in den Parteien sein, auch in der CDU – aber nicht direkt nach einer eher ungünstigen Wahl.


Literatur (Belege und ausgewählte Hinweise zum Weiterlesen)

  • Altmeppen, Klaus-Dieter; Bieber, Christoph; Filipović, Alexander; Heesen, Jessica; Neuberger, Christoph; Röttger, Ulrike et al. (2018): Öffentlichkeit, Verantwortung und Gemeinwohl im digitalen Zeitalter. In: Publizistik 48 (3), S. 1–19. DOI: 10.1007/s11616-018-00463-1 .
  • Bedford-Strohm, Jonas; Filipović, Alexander (2019): Mediengesellschaft im Wandel – Theorien, Themen, ethische Herausforderungen. In: Gotlind Ulshöfer und Monika Wilhelm (Hg.): Theologische Medienethik im digitalen Zeitalter. Stuttgart: Kohlhammer (Ethik, 14).
  • Filipović, Alexander (2019): Alles Habermas!? Alternative Theorien für eine Ethik öffentlicher Kommunikation in Zeiten der Digitalität. In: Jonas Bedford-Strohm, Florian Höhne und Julian Zeyher-Quattlender (Hg.): Digitaler Strukturwandel der Öffentlichkeit. Ethik und politische Partizipation in interdisziplinärer Perspektive. Baden-Baden: Nomos (Kommunikations- und Medienethik, 10), S. 219–232. DOI: 10.5771/9783845291802-219.
  • Pörksen, Bernhard (2018): Die große Gereiztheit. Wege aus der kollektiven Erregung. München: Carl Hanser Verlag.
  • Stapf, Ingrid; Prinzing, Marlis; Filipović, Alexander (Hg.) (2017): Gesellschaft ohne Diskurs? Digitaler Wandel und Journalismus aus medienethischer Perspektive. Baden-Baden: Nomos (Kommunikations- und Medienethik, 5), DOI: 10.5771/9783845279824 .

Disclosure

Ich bin nicht Mitglied irgendeiner Partei. Ich bin als Sachverständiger in der Enquete-Kommission zu KI – benannt durch die Unionsfraktion des Dt. Bundestages. Ich bin auch in anderen Zusammenhängen bei der CDU (auch in direktem Kontakt mit AKK) als Experte tätig.

Ethics, Digitisation and Machine Intelligence

The wheel of technological innovation keeps spinning – and picking up speed. Recently, the digitization discourse has been negotiated under a new old term: Artificial intelligence. The discourse is often marked by fears: AI seems to cause ethical problems, to be a high-risk technology. The starting point for these concerns is always the autonomous weapons, the morally unsolvable dilemmas of autonomous driving or the (in the opinion of very few) imminent AI systems with consciousness and the apparently logically unavoidable urge to take control of the world. On the other hand, there is a very optimistic discourse that emphasizes the chances: prosperity can only be secured in the economic connection to technology, so one argument. Another insight is that we Europeans can only transfer our values into the age of artificial intelligence if we produce this technology ourselves and do not leave it to actors in the USA or China.

The current successes of AI research and implementation are certainly remarkable: In early November 2018, for example, the state-owned Chinese news agency Xinhua introduced a newsreader that is generated entirely by computer. According to media reports, the Xinhua agency stressed that the advantages of an AI newscaster are that it can work 24 hours a day without a break. A strange reason – such a system can work through a whole year and longer without a break.




Screenshot, Quelle: https://youtu.be/5iZuffHPDAw

Like digitalization, “artificial intelligence” is now also an indeterminate term that is used in popular discourse to describe anything that frightens or inspires us when it comes to smart technology – depending on the perspective. In order to get to the bottom of this ethical matter, one has to take a closer look.

Often enough it has been stressed that the term artificial intelligence does not fit at all. Intelligence cannot be artificial because consciousness is necessary for this, so the argument goes. An alternative term is machine intelligence, which indicates that with this intelligence we are dealing with something that is categorically different from what we assign to man. However, machine intelligence is a category that is defined in comparison to human abilities. We have certain difficulties in determining exactly what human intelligence is, but we know roughly what constitutes intelligent human behavior. In our everyday life, we infer the intelligence of human beings by judging their behaviour. In this sense, we can judge the behaviour of a machine as intelligent if the machine can successfully simulate some or even many important elements of human intelligence.

Systems controlled by algorithms are now regarded as intelligent if they can interpret data correctly, learn from data and use this learning success to accomplish specific goals and tasks. One speaks of “weak AI” when an AI system is oriented towards concretely determinable abilities and depicts these, such as learning to play Go and beating Grandmasters. On the other hand, one would speak of “strong AI” if the intelligent system, in addition to individual abilities, also possesses (self-)awareness, for example, and can define and pursue completely independently new goals for itself, i.e. it can also decide to learn and practice composing in addition to Go games. It is highly controversial whether and when it will be possible to develop systems with “strong AIs”. – So, we are currently dealing with simulations of intelligent behavior by machines. Machines independently recognize patterns, adapt their “behavior” and can make “decisions” based on self-controlled analysis of data. The quotation marks are important: For example, we should not assume decision-making ability for machines, because responsibility and evaluation of the consequences of a decision according to social norms and moral values is something we should reserve for people.

From here, the ethical problems of AI can already be encircled as a further stage of digitisation. On a first level, the big questions about awareness in the context of the “strong AI” are particularly interesting. Is a computer consciousness conceivable and what consequences does this have for the concept of human consciousness? What is thinking and can other beings than humans do the same? And if so: Can or must specific rights be granted to such systems? Isn’t a comprehensive superintelligence basically godlike? – Many of these questions have their roots in the philosophy of the mind, in neuroscience, in theology, or in all three. Anyone who assumes that thinking has purely material foundations (our biological brain functions) tends to assume that consciousness can also be realized in machines. At this point, current technological developments are forcing us to rethink what man is, what constitutes him, whether he has a soul and what it should be.

A second level deals with questions of human self-understanding. This raises the question of how an AI environment (with AI newscasters, computer assistants that react to speech, and completely autonomous vehicles) influences people’s thinking about themselves. What applies to “human rationality” when machines can make better decisions than humans, for example in skin cancer diagnoses? What is guilt and responsibility when autonomous systems cause accidents? What does a human action count when robots can act more precisely and tirelessly? What is lost when robots care for our elderly? We become new people in a way through the technology we have at our disposal. Digital technologies, including AI systems, enable us to acquire new knowledge, to live different lives (mobility) or to live longer. We do not become completely different people through new technology, but we can and will perceive ourselves anew. This can change a lot.

Finally, the third level deals with concrete questions of the use and regulation of corresponding products, but also informational self-determination, data protection and the promotion of research and business are relevant topics here. These questions of applied ethics are as diverse as the fields of application of AI. The three outlined levels must be considered together. Anthropological questions are related to deeper considerations on the status of consciousness and thinking, practical questions to anthropological considerations. The moral aspects in all these areas, especially in the applied dimension, are extremely diverse. And they are important because today we need answers to the question of what to do. Because the fact that we are “only” dealing with weak AI does not mean that we do not have strong ethical questions to deal with. But these are very concrete and already a topic today. All of this is about redefining or redefining what is specifically human. We will not only be able to answer these questions with technical cutlery, but also and above all based on our experiences through community, music, dance, religion, love, art and human encounters.


First published in Opus Kulturmagazin 2019, https://www.opus-kulturmagazin.de/

Citing this article: Filipović, A. (2019, May 3). Ethics, Digitisation and Machine Intelligence. Unbeliebigkeitsraum. Retrieved from https://www.unbeliebigkeitsraum.de/2019/05/03/ethics,-digitisation-and-machine-intelligence/

Algorithmen und Künstliche Intelligenz in ethischer Perspektive

Spätestens seit meinem 2013er Aufsatz “Die Enge der weiten Medienwelt. Bedrohen Algorithmen die Freiheit öffentlicher Kommunikation?” gehören die Themen Algorithmen und Künstliche Intelligenz (KI) mit zu meinen Forschungsinteressen. Die Relevanz von “künstlicher Intelligenz” für die Medien- und Kommunikationsethik liegt auf der Hand: Wenn Algorithmen und selbstlernende Systeme in der öffentlichen Kommunikation und im Bereich der Medien eine immer bedeutendere Rolle spielen (etwa Personalisierungsalgorithmen), dann sollten sie auch ethisch reflektiert werden.

Die Erweiterung der klassischen Kommunikations- und Medienethik hin zu informationsethischen Fragen zeigt bspw. das “Handbuch Medien- und Informationsethik” (Hg. Jessica Heesen). In der Tat müssen informationsethische und medienethische Themen heute integriert, also zusammen behandelt werden. Dies wird auch deutlich im Namen unseres “Zentrums für Ethik der Medien und der digitalen Gesellschaft (zem::dg)“, das ich zusammen mit Klaus-Dieter Altmeppen leite. Einige meiner Doktorandinnen und Doktoranden arbeiten auch an Fragestellungen, die mit KI zu tun haben

In diesem Kontext der ethischen Beschäftigung mit Algorithmen und Künstlicher Intelligenz sind jüngst auch ein paar Publikationen und Forschungsprojekte entstanden, auf die ich hier kurz hinweisen möchte:

Zusammen mit  Christopher Koska und Claudia Paganini habe ich vor einigen Wochen (2018) für die Bertelsmann-Stiftung die Expertise “Ethik für Algorithmiker – Was wir von erfolgreichen Professionsethiken lernen können” erstellt. Es geht darum herauszufinden, unter welchen Voraussetzungen Professionsethiken funktionieren und ob dies für das Feld der Algorithmengestaltung angewendet werden kann.

Mit Christopher Koska habe ich 2017 den Aufsatz “Gestaltungsfragen der Digitalität. Zu den sozialethischen Herausforderungen von künstlicher Intelligenz, Big Data und Virtualität.” publiziert. Darin ist ein kleines Credo meiner ethischen Perspektive versteckt:

“Die Ethik kann nicht schlechthin gegen die technologische Entwicklung in Stellung gebracht werden. […] Es ist mit diesem Vorschlag keinesfalls gemeint, dass wir gegenüber technischen Entwicklungen unkritisch sein sollen, im Gegenteil. Es geht eher darum, sich die Möglichkeit zu geben, einen kritischen Gesichtspunkt überhaupt erst zu gewinnen, der dann auch eine verändernde Kraft entfalten kann. Eine Ethik, die Lust auf Innovation hat, nimmt sich selbst davon nicht aus – und kann gerade deswegen auch kritisch bleiben. Eine solche Ethik lässt sich nicht abhängen von den dramatischen technischen Entwicklungen, sondern versucht Anschluss zu halten, um den Verlauf des Rennens weiter mitgestalten zu können.” (Koska, Filipović 2017: 189)

Zusammen und im Auftrag von Microsoft Deutschland haben wir im zem::dg eine Expertise erstellt zu “Social responsibility of curated aggregation portals using the example of MSN“. Die Angebote von Nachrichten und Medieninhalten werden vermehrt algorithmisch betrieben, was die Frage nach gesellschaftlicher Verantwortung für die Qualität der öffentlichen Kommunikation aufwirft (Filterblasen, Echokammern, Vereinzelung durch Personalisierung usw.). Das Ziel des Forschungsprojektes war es, die Problematik am Beispiel der Plattform MSN (Microsoft) zu zeigen und praktische Hinweise zu geben, wie das Unternehmen seiner gesellschaftlichen Verantwortung gerecht werden kann.

In der Begutachtung ist ein Projekt-Antrag (2018), den wir an der Hochschule für Philosophie zusammen mit Prof. Dr. Oliver Alexy (Professorship “Strategic Entrepreneurship” in the Entrepreneurship Research Institute at TUM School of Management) und Prof. Gordon Cheng (Chair of Cognitive Systems & Founding Director of the Institute for Cognitive System at TU Munich) erarbeitet haben. Thema: “The Public Value of Artificial Intelligence Shaping an Ethical Future for AI in Digital Societies”.

Die Themen “Algorithmen” und “Künstliche Intelligenz” werden in Zukunft eine noch größere Rolle in meiner Arbeit spielen. Ich hoffe hier im Blog ab und an etwas dazu schreiben zu können.

Literatur

  • Filipović, Alexander (2013): Die Enge der weiten Medienwelt. Bedrohen Algorithmen die Freiheit öffentlicher Kommunikation? In: Communicatio Socialis 46 (2), S. 192–208. DOI: 10.5771/0010-3497-2013-2-192.
  • Filipović, Alexander; Koska, Christopher; Paganini, Claudia (2018): Ethik für Algorithmiker – Was wir von erfolgreichen Professionsethiken lernen können. Hg. v. Bertelsmann-Stiftung. Gütersloh (Impuls Algorithmenethik, 9). DOI: 10.11586/2018033.
  • Koska, Christopher; Filipović, Alexander (2017): Gestaltungsfragen der Digitalität. Zu den sozialethischen Herausforderungen von künstlicher Intelligenz, Big Data und Virtualität. In: Ralph Bergold, Jochen Sautermeister und André Schröder (Hg.): Dem Wandel eine menschliche Gestalt geben. Sozialethische Perspektiven für die Gesellschaft von morgen. Freiburg: Herder, S. 173–191.

Acht Tipps, wie man Medien richtig nutzt. Ein medienethischer Impuls am Ende von 2017

Vorspann: Seit 2015 schreibe ich auf Anregung des Journalisten Daniel Wirsching in der Augsburger Allgemeinen jeweils zum Jahresende einen medienethischen Jahresrückblick. In 2015 ging es um Misstrauen in den Journalismus (pdf), 2016 um Wahrheit, Glaubwürdigkeit und Hass (pdf). Für das Jahr 2017 habe ich mangels Skandale keinen medienethischen Jahresrückblick geschrieben. Statt dessen habe ich Tipps gegeben, worauf jede und jeder bei seinem persönlichen Mediengebrauch achten sollte (Titel: Lassen wir die Filterblasen platzen! (pdf)). Mit freundlicher Genehmigung der Zeitung kann ich die Zeitungsseite (pdf) zur Verfügung stellen und publiziere hier die unredigierte Version.

Das Medienjahr 2017 war ziemlich öde, keine Aufreger wie Böhmermanns Satire, keine spektakulären Fälle von Medienversagen bei Katastrophen, kein wirklicher Medienskandal. Zwei wichtige, eher grundlegende Themen sind in 2017 allerdings an die Oberfläche gespült worden und verdienen eine kurze Betrachtung. Es geht erstens um unser öffentlich-rechtliches Mediensystem und zweitens um das Phänomen der Filterblasen.

Kritik am öffentlich-rechtlichen Mediensystem

Seit jeher stehen die öffentlich-rechtlichen Medien in der Kritik. Kritiker sind Politiker, die politisch tendenziöse Berichterstattung wittern. Kritiker sind Zuschauer und Zuhörer, die unzufrieden sind mit dem Programmangebot, mit Moderatoren und Journalisten, oder die gar verschwörungstheoretisch ARD, ZDF und Co. als von bestimmten Kreisen gelenkte Manipulationsmaschine ansehen. Ethisch gesehen ist wichtig, dass wir insgesamt eine vielfältige, unabhängige und alle Strömungen des demokratischen Spektrums berücksichtigende Medienwelt haben. Ein wichtiges Kriterium dafür ist die Staats- und Politikferne. Das was gedruckt und gesendet wird, darauf dürfen Politiker und Regierungen keinen inhaltlichen Einfluss haben. Die Regulierung von Presse und Rundfunk ist daher wichtig, aber auch schwierig, weil die Regulierung besonders des öffentlich-rechtlichen Rundfunks ja staatliche organisiert wird und politische Interessen dabei eine Rolle spielen.

Diese Staatsferne des öffentlich-rechtlichen Rundfunks ist zentral und darf nicht durch unbedacht benutzte Begriffe wie „Staatsfunk“ für unmöglich gehalten werden. Wir haben keinen Staatsfunk – dafür sind mir zu viele Erfahrungen und Geschichten der unabhängigen journalistischen Tätigkeit in den Sendern bekannt. Aber wir müssen den Kriterien der Staatsferne und der politischen Unabhängigkeit noch besser zur Durchsetzung verhelfen. Das bedeutet auch, dass privatwirtschaftlich arbeitende Medien eine Chance haben müssen auf dem Markt.

Phänomen der Filterblasen

Die Vielfältigkeit der Medien hat aber keinen Effekt, wenn uns im Internet immer nur ein paar, für uns besonders passende Inhalte ausgewählt und dargeboten werden. Diesen Effekt, der manchmal durch Social Media-Plattformen wie Facebook beobachtet werden kann, nennt man Filterblase. Durch eine personalisierte Auswahl von Medieninhalten, die letztlich dabei helfen sollen, dass wir immer mehr Zeit auf den Plattformen verbringen, leben wir in Sachen Information dann in einer angenehmen, individualisierten Informations- und Meinungsblase.

Einen genauen, einen wahren, einen vielfältig-umfassenden Eindruck von der Welt werden wir so aber nicht bekommen. Als Bürgerinnen und Bürger, die wählen und abstimmen, ist es aber unsere Verantwortung, uns möglichst umfassend zu informieren. Lassen wir also die medialen Filterblasen platzen, in denen wir uns vielleicht befinden.

Wie nutze ich Medien richtig?

Bloß: Wie kann das gehen? Wie nutze ich Medien richtig, ist das nicht viel zu schwierig und sinnlos, angesichts der Macht der Medien? So schwierig ist das nicht. Ein paar Hinweise habe ich zusammengestellt. Vielleicht helfen Sie ihnen. Denn für mich steht fest: Um die Medienwelt kommt es auch auf unser Verhalten an.

  1. Halten Sie Ihrer gewählten Tageszeitung die Treue: Jeder braucht einen Grundstock an Nachrichten aus der Welt und dem Lokalen. Dafür eignet sich ein festes Abonnement einer Tageszeitung. Aber seien Sie ein neugieriger und kritischer Leser: Lassen Sie sich erklären, wie die Nachrichtenauswahl zu Stande kommt, beschweren Sie sich, wenn eine Nachricht kommentierende Elemente hat, wünschen Sie sich Themen, Debatten und Formate, die sie vermissen. Auch hier gilt: Wenn Sie selbst sicher versorgt sind, helfen Sie anderen: Gewöhnen sie Kinder und Jugendliche an das Zeitungslesen, fragen Sie Freunde, warum sie keine Tageszeitung lesen.
  2. Ab und zu eine andere Zeitung lesen: Lesen Sie von Zeit zu Zeit zusätzlich eine andere Zeitung oder ein Nachrichtenmagazin. Orientieren Sie sich dabei nicht unbedingt an ihrer politischen Ausrichtung, sondern lesen Sie quer durch den Blätterwald. Und ärgern Sie sich nicht über Meinungen, Kommentare und Ausrichtungen. Versuchen Sie eher, die Argumente und Perspektiven anderer zu verstehen.
  3. Schauen Sie nur ausgewählte politische TV-Sendungen: Gehen Ihnen bestimmte Talkshows und Nachrichtenmoderatoren auf den Geist? Dann schauen Sie diese Sendungen weniger. Schalten Sie bewusst aus, statt sich aufzuregen, ersparen Sie sich den Frust. Suchen Sie sich stattdessen gezielt Sendungen aus, von deren Qualität Sie überzeugt sind. Denn es gibt solche Sendungen.
  4. Boulevard-Zeitungen sind höchstens für Unterhaltung gut: Gegen gelegentliche Lektüre von Boulevard-Zeitungen und Zeitschriften ist zu Unterhaltungszecken nichts einzuwenden. Manchmal ist eine Zuspitzung in großen Buchstaben auch gut und hilfreich. Aber oft steht hinter einer Skandalmeldung nur heiße Luft und die Zeitungen versuchen, mit Skandalisierung ihr Blatt zu verkaufen. Seien Sie bei Zeitungen lieber qualitätsbewusst.
  5. Hören Sie mehr Radio: Als Nebenbeimedium ist das Radio etabliert. Aber es gibt auch tolle Sendungen mit guten politischen und gesellschaftlichen Informationen, für die man sich hinsetzen und die Ohren spitzen muss. RadioApps und Digitalradio geben einem viele Möglichkeiten. Probieren Sie neben lokalen Sendern ruhig mal NDRinfo am Abend aus. Hören Sie auch Privatradio. Und in der App vom Deutschlandfunk können Sie sich ganz bequem ihr eigenes Radioprogramm zusammenstellen.
  6. Misstrauen Sie der Nachrichtenauswahl auf Facebook und anderen Internet-Plattformen: Personalisierte Nachrichtenauswahl kann dazu führen, dass Sie nur das präsentiert bekommen, was Ihrem Profil entspricht. Das verstärkt den Filterblasen-Effekt. Teilen und Kommentieren Sie Nachrichten nur nach reiflicher Überlegung.
  7. Wiederstehen Sie Einladungen zum Klicken: Beim Surfen im Netz tauchen Meldungen und Überschriften auf, die Sie sehr geschickt zum Anklicken verführen wollen. Je aufregender und interessanter eine Überschrift ist und je mehr sie darum bettelt, geklickt zu werden – desto mehr ist Vorsicht geboten. Lesen Sie lieber an anderer Stelle weiter.
  8. Alternative Nachrichtenplattformen: Wenn Sie auf einer Nachrichtenseite eine Meldung sehen, die sie sonst noch nirgendwo gelesen haben: Ziehen Sie in Betracht, dass hier nicht die „Mainstream-Medien“ einen Fehler gemacht haben, sondern dass diese andere Nachrichten-Plattform politische oder ideologische Interessen verfolgt, für die diese Nachrichten nur Mittel zum Zweck sind. Bevor sie eine Verschwörung der etablierten Medien wittern, bestimmte Nachrichten zu unterdrücken: Fragen Sie lieber bei Ihrer Tageszeitung mal nach, warum die sich entschieden hat, eine bestimmte Meldung nicht zu bringen.

Bilder – Ethik im visuellen Zeitalter

Am Mittwoch (4.10.2017) bin ich auf Einladung der Styria Media Group AG und der FH JOANNEUM in Graz und präsentiere dort den Vortrag “Die neue Macht der Bilder – Ethik im visuellen Zeitalter”. Informationen zum Vortrag gibt es hier und hier; das Event wird auf diepresse.com und kleinezeitung.at live gestreamt.

Im Vorfeld ist dazu mit mir ein Interview in der österreichischen Wochenzeitung “Die Furche” erschienen, das ich mit Genehmigung hier (*.pdf) zur Verfügung stellen darf.

Wer sich selber damit wissenschaftlich beschäftigen will, hier eine kleine Auswahl an Texten:

  • Isermann, Holger; Knieper, Thomas (2010): Bildethik. In: Christian Schicha und Carsten Brosda (Hg.): Handbuch Medienethik. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 304–317.
  • Isermann, Holger (2015): Digitale Augenzeugen. Entgrenzung, Funktionswandel und Glaubwürdigkeit im Bildjournalismus. Wiesbaden: Springer VS. DOI: 10.1007/978-3-658-08219-2.
  • Kapust, Antje (2013): Bildethik. In: Rolf Gröschner, Antje Kapust und Oliver W. Lembcke (Hg.): Wörterbuch der Würde. München: Wilhelm Fink, S. 275–276.
  • Leifert, Stefan (2007): Bildethik. Theorie und Moral im Bildjournalismus der Massenmedien. München: Wilhelm Fink.
  • Tappe, Inga (2016): Bildethik. In: Jessica Heesen (Hg.): Handbuch Medien- und Informationsethik. Stuttgart: Metzler, S. 306–312. DOI: 10.1007/978-3-476-05394-7_41.

 

Kirchen-Journalismus oder Kirchen-PR? Zu einem wichtigen Unterschied

Am Mittwoch (25.1.17) habe ich bei der Festveranstaltung zum 100jährigen Bestehen des “Konradsblatts” (Wochenzeitung für das Erzbistum Freiburg) über den wichtigen Unterschied zwischen Journalismus und PR im Raum von Kirche gesprochen. Titel des kleinen Vortrages: “Kritik und Loyalität – Zur Unterscheidung von Journalismus und PR in der Kirche”.

Meine These: Der kirchliche Journalismus verschwindet und droht ersetzt zu werden durch eine in Kommunikationsabteilungen geplante kirchliche Öffentlichkeitsarbeit.

Da meine zum Teil “spitz” formulierten Meinungen vermutlich gleich über den KNA-Ticker gehen, veröffentliche ich hier meinen Redetext, damit man sich ein vollständiges Bild des Vortrages machen kann. Ausführlicher zum Thema habe ich mich schon einmal in einem Interview mit der HerderKorrespondenz geäußert.

Medienkatastrophen und Katastrophenmedien

rotteDie Medien wurden beim Absturz der Germanwings-Maschine stark kritisiert. Ich hatte mich mit einem Posting “Kritik der Medienkritik” beim Netzwerk Medienethik und mit einem Interview (Berliner Zeitung, Frankfurter Rundschau) an der Debatte beteiligt. Das philosophische Symposion “Katastrophen – Perspektiven” gibt mir am 13. Juni 2015 (München) die Gelegenheit, das Thema Medien und Katastrophen etwas gründlicher anzugehen. – Wer dazu Hinweise und Kommentare hat – ich freue mich über Eure Anregungen.

Zu dem Symposion des Rottendorf-Projekts an der Hochschule für Philosophie München kann man sich noch bis 4. Juni anmelden. Um was geht es? Dazu ein Auszug aus dem Flyer:

“Interessanterweise wird das Thema oder auch nur der Begriff der ‚Katastrophe‘, trotz oder vielleicht auch wegen seiner augenfälligen Ubiquität in der Alltagssprache, in der Philosophie kaum explizit behandelt. Anders als zur ‚Krise‘ gibt es keine einschlägigen Theorien oder Denker. Allein die Behauptung einer „permanenten Katastrophe“ (Benjamin) im Zusammengriff mit der Fortschrittsidee bleibt sichtlich unbefriedigend. Dieses Neuland gilt es zu erschließen.”

Eingeladen zu einem hoch spannenden Programm sind ausdrücklich auch Medienethiker_innen. Weitere Informationen hier oder via Twitter @hfph_Rottendorf.

Interview zu Kirche und Medien in der Herder Korrespondenz

Im Februarheft der Zeitschrift Herder Korrespondenz ist ein Interview mit mir zum Verhältnis von Kirche und Medien erschienen. Die Deutsche Bischofskonferenz beschäftigt sich am 25.2.2015 im Rahmen ihrer Frühjahrsvollversammlung mit dem Thema Kirche und Medien/Social Media.

Wichtig im Interview ist mir unter anderem die Bedeutung eines unabhängigen Kirchenjournalismus, der aus verschiedenen Gründen gerade bedroht ist. Aber auch zur Frage, ob die Kirche Opfer von Medienkampagnen sei, wie vielfach behauptet wird, ist Gegenstand des Gesprächs.

Das Interview ist jetzt frei im Netz verfügbar.

Native Advertising als medienethisches Problem

Native Advertising bei der dt. Huffington Post

Native Advertising bei der dt. Huffington Post (Screenshot vom 2.5.14)

Seit Stefan Niggemeier am 21. April 2014 bei Spiegel Online die Native Advertising-Praxis kritisiert hat (siehe hier, hier und hier), wird eine in den USA recht rege geführte Debatte nun auch in Deutschland intensiver ausgetragen. Es geht im Prinzip um als redaktionelle Beiträge getarnte Werbetexte, die anstelle von Bannerwerbung online publiziert werden und dem “Journalismus” (hier zunächst im breitest denkbaren Sinne verwendet) aus der Finanzierungsklemme helfen sollen. Native Advertising ist in den Worten von Dan Greenberg

“defined as ad strategies that allow brands to promote their content into the endemic experience of a site in a non-interruptive, integrated way.”

Klar: Bannerwerbung klickt keiner und sieht kaum ein Mensch. Ein nett geschriebener Text im gleichen Layout interessiert eher. Wo ist das ethische Problem?

Zunächst fand Stefan Niggemeiers Posting deshalb Resonanz, weil er dem Spiegel Doppelmoral vorwerfen konnte: In der Ausgabe 17/2014 (19.4.2014, S. 134f.) findet sich unter der Überschrift “Seelen-Verkäufer” ein Artikel, der diese Werbepraxis ausdrücklich ablehnt. Auch im Spiegel, so zitiert Niggemeier das Magazin, solle es solche Werbeformen nicht geben. Allerdings konnte er auch zeigen, dass in Spiegel Online schon seit längerem West Lotto im Gewand der redaktionellen Beiträge z.B. den Eurojackpot bewirbt (gekennzeichnet mit “Ein Service von West Lotto”). Die Kolumne ist mittlerweile vom Netz, Spiegel hat sich entschuldigt.

Ein Thema ist das Native Advertising aber auch, weil jetzt “sogar” die New York Times diese Werbeform anwendet (Native-Advertising-Beispiel der NYT). Das war auch der Aufhänger des Spiegel-Artikels. In den USA wird die Debatte aber schon eine ganze Weile geführt. Deutlich wird dabei bei allen Diskussionen im journalistischen Kontext die schwierige Suche nach neuen und besseren Finanzierungsmodellen für Online-Journalismus. Wo der Finanzierungsdruck steigt, da wächst die Bereitschaft, Schleichwerbung zu erlauben. Damit wird auch das meines Erachtens größte ethische Problem in dieser Sache deutlich: Es ist die radikale Abhängigkeit des Journalismus von der Wirtschaft, die durch ihre Werbung die ganze Veranstaltung überhaupt erst finanziert. Es handelt sich hier um ein entscheidendes gesellschaftliches Problem: Wenn wir noch der Meinung sind, dass Journalismus und die öffentliche Kommunikation entscheidend für das Funktionieren von demokratischen Gesellschaften sind und gleichzeitig sehen, dass Redakteure Werbeanzeigen für die eigene Seite schreiben, sich dafür teuer bezahlen lassen und diese Anzeigen dann als solche verschleiern… Ist dann nicht der ganze privatwirtschaftlich betriebene und zumal in digitalen Zeiten von Anzeigen abhängige Journalismus überhaupt ein großes “Native Advertising”?

Der Gesetzgeber und die entsprechenden Selbstkontrolleinrichtungen (vgl. dazu den medienethischen Aufsatz zu Advertorials von Nina Köberer) haben den Trennungsgrundsatz kodifiziert, nach dem Werbung als “Anzeige” zu kennzeichnen ist. Nina Köberer weist im Zusammenhang mit einer Untersuchung zu Jugendmedien nach, dass dies erstens nur sehr unvollständig tatsächlich auch geschieht und zweitens auch bei Kennzeichnung der Advertorials die Jugendlichen zu einem großen Teil gar nicht bemerken, dass es sich um Werbung, also um wirtschaftliche partikulare Interessen, handelt. Ziemlich desaströs…

Es geht also um “the Ethics of Using Paid Content in Journalism“. Online wird das Problem stärker werden und medienethisch vermutlich daher noch drängender. Neben den angedeuteten sozialethischen Problemen liegt das medienethische Problem natürlich vor allem darin, dass die Menschen getäuscht werden sollen. Wer getäuscht wird, kann nicht vernünftig und nicht moralisch handeln, seine Autonomie ist bedroht. Sich bei den Menschen einen Zugang zu erschleichen mit einer Werbebotschaft ist unmoralisch und verkauft die Menschen für dumm. Ob Native Advertising negativ auf die Unternehme zurückfällt – das bleibt zu hoffen.