Ich habe schon eine Reihe von kurzen einführenden Texten zur Medienethik geschrieben (siehe unten). Jetzt ist gerade ein besonders kompakter und lesbarer Text erschienen, der in das Thema der Medienethik einführt und wichtige ethische Probleme anspricht. Der Text ist frei, also im Open Access erhältlich: 10.17879/55069620159.
Der Text antwortet auf folgende Leitfragen:
Was versteht man unter Medien und worin liegt deren ethische und soziale Relevanz?
Welche Bereiche gibt es im Feld der Medien?
Welche sozialethische Bedeutung haben der Journalismus, die Öffentlichkeitsarbeit und die Unterhaltung?
Welche Akteure im Feld der Medien sind auf welche Art verantwortlich?
Wie sichern Medien gesellschaftliche Beteiligung?
Literaturangaben
Dieser Text zur Medienethik:
Filipović, Alexander (2022): Medien. In: Marianne Heimbach-Steins, Michelle Becka, Johannes Frühbauer und Gerhard Kruip (Hg.): Christliche Sozialethik. Grundlagen – Kontexte – Themen. Ein Lehr- und Studienbuch. Regensburg: Pustet, S. 400–414. DOI: 10.17879/55069620159.
Andere Texte von mir zur Einführung in die Medienethik:
Endres, Susanna; Filipović, Alexander (2021): Medienethik. In: Konstantin Lindner und Mirjam Zimmermann (Hg.): Handbuch ethische Bildung. Religionspädagogische Fokussierungen. Tübingen: UTB; Mohr Siebeck, S. 166–173.
Filipović, Alexander (2021): Medienethik und Digitalität. Öffentlichkeit und Meinungsfreiheit im technischen Kontext. In: Wolfgang Beck, Ilona Nord und Joachim Valentin (Hg.): Theologie und Digitalität. Ein Kompendium. Freiburg: Herder, S. 447–463.
Filipović, Alexander (2019): Art. Medienethik. In: Görres-Gesellschaft und Verlag Herder (Hg.): Staatslexikon. Recht, Wirtschaft Gesellschaft. Band 3. Herrschaft-Migration. 8., völlig neu bearbeitete Auflage. Freiburg i. Br.: Herder, Sp. 1495–1498. Online verfügbar unter https://www.staatslexikon-online.de/Lexikon/Medienethik.
In Krisenzeiten haben Verschwörungserzählungen Konjunktur. Die jüngsten Demonstrationen gegen die Corona-Maßnahmen, auf denen Verschwörungsmythen auch eine Rolle spielen, haben das Thema auf die mediale Agenda gehoben. Am Wochenende 16./17. Mai 2020 ist auf vielen Medien-Titeln das Verschwörungsthema prominent.
Es ist vor allem die (politische) Angst vor einer neuen Bewegung à la „Pegida“, die gegen ein mehrheitlich akzeptiertes politisches Handeln mobil macht. Soll man die Leute ernst nehmen und die Alu-Hut-Fraktion links liegen lassen? Wie unterscheidet man berechtigte Anliegen von überzogener Angst, im Weltgeschehen keine Rolle zu spielen? Oder sollen Politik und Medien den „Spinnern“ zuhören, von Ihren „Theorien“ berichten und mit ihnen reden – und ihnen gerade dadurch mehr Relevanz zuschreiben, als sie bevölkerungsweit haben?
Thema und Debatte ist komplex, Medienlogiken, politische Logiken, Ethik, Erkenntnis- und Wissenschaftstheorie überschneiden sich an vielen Punkten. In einem Gespräch bei ARDalpha habe ich mit dem Kollegen Nikil Mukerji (LMU München) unter der Moderation von Brigit Kappel ein paar dieser Fragen besprochen.
Das Gespräch lohnt sich m.E. anzuschauen – und hier oder an anderer Stelle weiterzuführen. Man findet die halbe Stunde Talk in der Mediathek des BR.
Wie sich Facebook & Co an unser Innenleben herantasten
Dieser Text ist gekürzt und überarbeitet erschienen als Filipović, Alexander (2019): Und zum Schluss die Gehirne. Wie sich Datenysteme an unser Inneres herantasten. In: Süddeutsche Zeitung, 20.08.2019, S. 11. Online verfügbar unter https://www.sueddeutsche.de/kultur/gedankenlesen-privatsphaere-ki-1.4568220.
In dem großartigen Science-Fiction
Roman „Die drei Sonnen“ von Cixin Liu bedroht die hochentwickelte
außerirdische Zivilisation der „Trisolarier“ die Erde. Sie kennen
alle unsere Aufzeichnungen und unsere Kommunikationen – und sind damit immer
einen Schritt voraus. Hier unten, heute und in der Wirklichkeit unserer Erde,
sind wir selbst diese Bedrohung. Das Logo unserer Trisolarier ist blau mit
einem weißen f darauf. Die Frage lautet: Werden wir mit dieser Entwicklung
zurechtkommen?
Die Trisolarier im Roman
sind technisch in der Lage, jedwede Kommunikation und alle Information der
Menschheit abzuhören und in Echtzeit in ihre Welt zu übertragen. Alles, was je
aufgezeichnet wurde und was gesprochen wird, ist in dem gleichen Moment für die
Feinde offenbar. Zusätzlich stören sie naturwissenschaftliche
Grundlagenforschung, damit die Menschheit technisch nicht zu den Trisolariern
aufschließt. Durch die technische Überlegenheit sind die Menschen den
Außerirdischen hilflos ausgeliefert.
Trisolarier und Menschen
Allerdings gibt es einen
fundamentalen Unterschied zwischen Trisolariern und Menschen: Trisolarier sind
füreinander immer vollständig transparent, reine Subjektivität ist ihnen
unbekannt. Dies macht grenzenlose Kooperation möglich – der Schlüssel für die
technische Überlegenheit der Aliens. Privatheit ist als Konzept gar nicht
bekannt, ein Gedanke ist sofort für alle anderen öffentlich. Wahrhaftigkeit ist
gar keine Kategorie, weil es das Gegenteil, Manipulation, Lüge und
Halbwahrheit, gar nicht geben kann.
Seit einiger Zeit beschäftige ich mich mit Corporate Digitale Responsibility (CDR), also der unternehmerischen (und institutionellen) Verantwortung im Kontext digitaler Technologien. Die Frage ist, ob über die Einhaltung von Rechtsnormen hinaus Unternehmen und Institutionen eine spezielle gesellschaftliche Verantwortung in digitalen Zeiten haben. Gemeint ist etwa der Umgang mit Personendaten oder der Einsatz von KI-Systemen.
Auch für den Medienbereich spielt das Konzept CDR eine Rolle: Das Konzept einer Corporate Digital Responsibility für den Medienbereich orientiert sich an einer Ethik der Digitalität (Algorithmen, Daten, ,,Künstliche Intelligenz“), einer Ethik medial vermittelter öffentlicher Kommunikation (Journalismus, PR/Werbung, Unterhaltung) und an einer unternehmens- und wirtschaftsethisch ausgerichteten Medienethik (vgl. Altmeppen, Filipović 2019 – Corporate Digital Responsibility).
Mit meinen (sehr begeisterten) Studierenden habe ich im Wintersemester 19/20 bei der Digital Future Challenge mit, einem gemeinsamen Projekt der Deloitte-Stiftung und der Initiative D21. In ganz Deutschland bearbeiten Studierende konkrete Use-Cases von realen Unternehmen und überlegen, wie CDR dort umgesetzt werden kann. Mit dieser Frage beschäftigt sich auch das CDR-Lab der dimension2 economics & philosophy consult GmbH, an der ich beteiligt bin (bei Interesse dort anfragen).
Publikationen zu Corporate Digital Responsibility (CDR)
Mittlerweile sind einige Publikationen von mir und uns zusammen gekommen, weitere folgen:
Filipović, Alexander (2024): Corporate Digital Responsibility. In: Maximilian Kiener (Hg.): The Routledge Handbook of Philosophy of Responsibility. New York, London: Routledge, S. 419–430. https://doi.org/10.4324/9781003282242-45.
Filipović, Alexander; Altmeppen, Klaus-Dieter (2020): Digitale Verantwortung von Medienunternehmen. In: Bertelsmann Stiftung und Wittenberg-Zentrum für Globale Ethik (Hg.): Unternehmensverantwortung im digitalen Wandel. Ein Debattenbeitrag zu Corporate Digital Responsibility: Verlag Bertelsmann Stiftung, S. 200–205. https://doi.org/10.11586/2020063.
Altmeppen, Klaus-Dieter; Filipović, Alexander (2019): Corporate Digital Responsibility. Zur Verantwortung von Medienunternehmen in digitalen Zeiten. In: Communicatio Socialis 52 (2), 202-214. DOI: 10.5771/0010-3497-2019-2-202. (PayWall – PrePrint-Anfragen via ResearchGate)
Koska, Christopher; Filipović, Alexander (2019): Blackbox AI – State Regulation or Corporate Responsibility? In: Digitale Welt 3 (4), S. 28–31. DOI: 10.1007/s42354-019-0208-5.
In einem wissenschaftlichen Aufsatz – gerade ist der Band erschienen – habe ich über die Bedeutung der Philosophie von Jürgen Habermas reflektiert. Eignet sich seine Aufklärungsphilosophie für eine Ethik öffentlicher Kommunikation in Zeiten der Digitalität? – Anlass war nicht Habermas‘ 90. Geburtstag, passt aber jetzt natürlich gut…
Der Text zeigt die medienethische Relevanz einer theoretischen Analyse und Klärung der medialen Infrastruktur der politischen Gegenwartsöffentlichkeit in der Epoche der Digitalität. Er geht von der These aus, dass ein zu selbstverständlicher Rekurs der Medienethik auf Konzepte von Jürgen Habermas aktuelle Änderungsdynamiken im Kontext der Digitalisierung nicht gut genug in den Blick bekommt.
Zwar scheint auch im Zuge der Umstellung der Kommunikation auf digitale Technik, dem Aufkommen der Social Media und der datengetriebenen Personalisierung von Inhalten öffentlicher Kommunikation das diskursethisch grundierte und gesellschaftstheoretisch entfaltete deliberative Demokratiemodell Halt und Sicherheit für das ethische Argumentieren zu geben. Aber: Allgemeine Erreichbarkeit der öffentlichen Sphäre, sachliche Argumentation, Vernunftorientierung, Konsensfindung – diese Elemente des habermasschen Universums scheinen gerade nicht durch den digitalen Strukturwandel der Öffentlichkeit befördert zu werden. Der Modus ist also eher „Gereiztheit“ (Pörksen 2018) statt „Diskurs“. Statt vernünftiger Argumentation aller Betroffener sind die Existenz mehrere Realitäten, Segmentierung, Hate Speech, Ausschlusserfahrungen („political correctness”…), Populismus und Konfrontation Kennzeichen unserer Zeit.
Davon ausgehend sucht der Text in den Themenkreisen „Strukturwandel der Öffentlichkeit“ und „Diskurs und Deliberation“ nach medienethisch geeigneten alternativen politisch-ethischen Demokratietheorien und kommunikationswissenschaftlichen Theorien, die empirisch aktuell und (medien-) technisch sensibel sind, um letztlich praktisch relevante Antworten auf Probleme öffentlicher Kommunikation in der Welt von heute zu finden.
Beleg und Link (Paywall, über Bibliotheken aber meist abrufbar): Filipović, Alexander (2019): Alles Habermas!? Alternative Theorien für eine Ethik öffentlicher Kommunikation in Zeiten der Digitalität. In: Jonas Bedford-Strohm, Florian Höhne und Julian Zeyher-Quattlender (Hg.): Digitaler Strukturwandel der Öffentlichkeit. Ethik und politische Partizipation in interdisziplinärer Perspektive. Baden-Baden: Nomos (Kommunikations- und Medienethik, 10), S. 219–232. DOI: 10.5771/9783845291802-219.
Der Fall ist bekannt: Annegret Kramp-Karrenbauer hat vorgeschlagen darüber nachzudenken, ob für „Meinungsmache“ im Internet vor Wahlen nicht Regeln aufgestellt werden müssten. In Folge der ganzen Vorgeschichte startete sofort der Empörungszug. Es ging um nichts weniger als um „AKK vs. GG“ (Annegret gegen das Grundgesetz). Es melden sich auch die Stimmen, die für weniger Aufregung und mehr sachorientierte Debatte argumentieren (Anja Maier in der TAZ, Stephan Detjen im Deutschlandfunk).
Ich habe am Dienstag dem Deutschlandfunk (@mediasres, Bettina Köster) und der KNA (Leticia Witte) Interviews gegeben (zitiert etwa beim MDR oder bei BR24). Darin verfolge ich die Linie, dass Meinungsfreiheit nie absolut gilt, sondern als Grundrecht immer von anderen Grundrechten eingeschränkt werden kann. Vor allem im politischen, öffentlichen Diskurs aber ist Meinung, auch wenn sie geplant, organisiert, abgestimmt und mit Macht und Autorität daherkommt, ein wichtiger demokratischer Faktor und darf nicht eingeschränkt werden. Die Freiheit der „Presse“ (also der „Medien“) ist in Deutschland nach den Erfahrungen der sogenannten Gleichschaltung von Presse und Rundfunk in der Zeit des Nationalsozialismus ein hohes Gut. Das Zensurverbot im Grundgesetz bleibt die oberste Norm für jede öffentliche Kommunikation. – Das ist gerade wo es heute staatlicherseits Bestrebungen gibt, das Redaktionsgeheimnis aufzuweichen, immer wieder zu betonen.
Worüber es sich lohnt zu reden
Worüber es sich lohnt zu reden ist: Was bedeutet der digitale Strukturwandel der Öffentlichkeit für unser politisches System? Dürfen wir uns überhaupt noch der Hoffnungen hingeben, durch eine öffentliche Debatte könnten wir der gesellschaftlichen Selbstbestimmung noch eine gute Gestalt geben? Es sieht ja oft nicht so aus: Hate Speech, Desinformation etc.). Wobei Schwarzmalen und die unreflektierte Wiedergabe von Untergangsnarrationen unserer digitalen Welt ebenso gefährlich sind (siehe Bernhard Pörksens Vortrag bei der #rp19)…
Im Interview beim @dlf habe ich betont, wie wichtig eine politisch aktive junge Generation ist (siehe dazu auch Spreeblick). Und dass sie das Internet dazu nutzt, und zwar ganz in eigenem Sinne, mit eigenen Mitteln und Ansprüchen, im eigenen Modus und Stil – na klar! Dass „die Politik“ damit nicht gut umgehen kann ist ein Offenbarungseid. Aber auch dies steht in einem größeren Zusammenhang (siehe die Analyse von Thomas Klüwer).
Allgemeine Erreichbarkeit der öffentlichen Sphäre, sachliche Argumentation, Vernunftorientierung, Konsensfindung – diese Elemente unserer politischen Kultur scheinen gerade nicht durch den digitalen Strukturwandel der Öffentlichkeit befördert zu werden. Der Modus ist eher „Gereiztheit“ (Pörksen 2018) statt „Diskurs“. Statt vernünftiger Argumentation aller Betroffener sind die Existenz mehrere Realitäten, Segmentierung, Hate Speech, Ausschlusserfahrungen („political correctness”…), Populismus und Konfrontation Kennzeichen unserer Zeit.
Ich meine daher, dass es sich natürlich lohnt, über das Phänomen #rezo nachzudenken, gerne auch mit dem Terminus „politische Kultur“. Es geht um die Frage, wie wir miteinander streiten, wie wir unsere Überzeugungen bilden, äußern und auf die Überzeugungen von anderen reagieren. Und auch darum, wie aus diesen Überzeugungen Gesetze werden. Neue kommunikative Möglichkeiten (Internet…) stellen uns hier vor neue Herausforderungen. Das ist schon lange ein Thema in Publizistik, Politikwissenschaft, Medienethik usw. Und sollte auch ein Thema in den Parteien sein, auch in der CDU – aber nicht direkt nach einer eher ungünstigen Wahl.
Literatur (Belege und ausgewählte Hinweise zum Weiterlesen)
Altmeppen, Klaus-Dieter; Bieber, Christoph; Filipović, Alexander; Heesen, Jessica; Neuberger, Christoph; Röttger, Ulrike et al. (2018): Öffentlichkeit, Verantwortung und Gemeinwohl im digitalen Zeitalter. In: Publizistik 48 (3), S. 1–19. DOI: 10.1007/s11616-018-00463-1 .
Bedford-Strohm, Jonas; Filipović, Alexander (2019): Mediengesellschaft im Wandel – Theorien, Themen, ethische Herausforderungen. In: Gotlind Ulshöfer und Monika Wilhelm (Hg.): Theologische Medienethik im digitalen Zeitalter. Stuttgart: Kohlhammer (Ethik, 14).
Filipović, Alexander (2019): Alles Habermas!? Alternative Theorien für eine Ethik öffentlicher Kommunikation in Zeiten der Digitalität. In: Jonas Bedford-Strohm, Florian Höhne und Julian Zeyher-Quattlender (Hg.): Digitaler Strukturwandel der Öffentlichkeit. Ethik und politische Partizipation in interdisziplinärer Perspektive. Baden-Baden: Nomos (Kommunikations- und Medienethik, 10), S. 219–232. DOI: 10.5771/9783845291802-219.
Pörksen, Bernhard (2018): Die große Gereiztheit. Wege aus der kollektiven Erregung. München: Carl Hanser Verlag.
Stapf, Ingrid; Prinzing, Marlis; Filipović, Alexander (Hg.) (2017): Gesellschaft ohne Diskurs? Digitaler Wandel und Journalismus aus medienethischer Perspektive. Baden-Baden: Nomos (Kommunikations- und Medienethik, 5), DOI: 10.5771/9783845279824 .
Disclosure
Ich bin nicht Mitglied irgendeiner Partei. Ich bin als Sachverständiger in der Enquete-Kommission zu KI – benannt durch die Unionsfraktion des Dt. Bundestages. Ich bin auch in anderen Zusammenhängen bei der CDU (auch in direktem Kontakt mit AKK) als Experte tätig.
The wheel of
technological innovation keeps spinning – and picking up speed. Recently, the digitization
discourse has been negotiated under a new old term: Artificial intelligence.
The discourse is often marked by fears: AI seems to cause ethical problems, to
be a high-risk technology. The starting point for these concerns is always the
autonomous weapons, the morally unsolvable dilemmas of autonomous driving or
the (in the opinion of very few) imminent AI systems with consciousness and the
apparently logically unavoidable urge to take control of the world. On the
other hand, there is a very optimistic discourse that emphasizes the chances:
prosperity can only be secured in the economic connection to technology, so one
argument. Another insight is that we Europeans can only transfer our values
into the age of artificial intelligence if we produce this technology ourselves
and do not leave it to actors in the USA or China.
The
current successes of AI research and implementation are certainly remarkable:
In early November 2018, for example, the state-owned Chinese news agency Xinhua
introduced a newsreader that is generated entirely by computer. According to
media reports, the Xinhua agency stressed that the advantages of an AI
newscaster are that it can work 24 hours a day without a break. A strange
reason – such a system can work through a whole year and longer without a
break.
Like
digitalization, „artificial intelligence“ is now also an
indeterminate term that is used in popular discourse to describe anything that
frightens or inspires us when it comes to smart technology – depending on the
perspective. In order to get to the bottom of this ethical matter, one has to
take a closer look.
Often
enough it has been stressed that the term artificial intelligence does not fit
at all. Intelligence cannot be artificial because consciousness is necessary for
this, so the argument goes. An alternative term is machine intelligence, which
indicates that with this intelligence we are dealing with something that is
categorically different from what we assign to man. However, machine
intelligence is a category that is defined in comparison to human abilities. We
have certain difficulties in determining exactly what human intelligence is,
but we know roughly what constitutes intelligent human behavior. In our
everyday life, we infer the intelligence of human beings by judging their
behaviour. In this sense, we can judge the behaviour of a machine as
intelligent if the machine can successfully simulate some or even many
important elements of human intelligence.
Systems
controlled by algorithms are now regarded as intelligent if they can interpret
data correctly, learn from data and use this learning success to accomplish
specific goals and tasks. One speaks of „weak AI“ when an AI system
is oriented towards concretely determinable abilities and depicts these, such
as learning to play Go and beating Grandmasters. On the other hand, one would
speak of „strong AI“ if the intelligent system, in addition to
individual abilities, also possesses (self-)awareness, for example, and can
define and pursue completely independently new goals for itself, i.e. it can
also decide to learn and practice composing in addition to Go games. It is
highly controversial whether and when it will be possible to develop systems
with „strong AIs“. – So, we are currently dealing with simulations of
intelligent behavior by machines. Machines independently recognize patterns,
adapt their „behavior“ and can make „decisions“ based on
self-controlled analysis of data. The quotation marks are important: For
example, we should not assume decision-making ability for machines, because
responsibility and evaluation of the consequences of a decision according to
social norms and moral values is something we should reserve for people.
From here, the ethical problems of AI can already be encircled as a further stage of digitisation. On a first level, the big questions about awareness in the context of the „strong AI“ are particularly interesting. Is a computer consciousness conceivable and what consequences does this have for the concept of human consciousness? What is thinking and can other beings than humans do the same? And if so: Can or must specific rights be granted to such systems? Isn’t a comprehensive superintelligence basically godlike? – Many of these questions have their roots in the philosophy of the mind, in neuroscience, in theology, or in all three. Anyone who assumes that thinking has purely material foundations (our biological brain functions) tends to assume that consciousness can also be realized in machines. At this point, current technological developments are forcing us to rethink what man is, what constitutes him, whether he has a soul and what it should be.
A second level deals with questions of human self-understanding. This raises the question of how an AI environment (with AI newscasters, computer assistants that react to speech, and completely autonomous vehicles) influences people’s thinking about themselves. What applies to „human rationality“ when machines can make better decisions than humans, for example in skin cancer diagnoses? What is guilt and responsibility when autonomous systems cause accidents? What does a human action count when robots can act more precisely and tirelessly? What is lost when robots care for our elderly? We become new people in a way through the technology we have at our disposal. Digital technologies, including AI systems, enable us to acquire new knowledge, to live different lives (mobility) or to live longer. We do not become completely different people through new technology, but we can and will perceive ourselves anew. This can change a lot.
Finally, the third level deals with concrete questions of the use and regulation of corresponding products, but also informational self-determination, data protection and the promotion of research and business are relevant topics here. These questions of applied ethics are as diverse as the fields of application of AI. The three outlined levels must be considered together. Anthropological questions are related to deeper considerations on the status of consciousness and thinking, practical questions to anthropological considerations. The moral aspects in all these areas, especially in the applied dimension, are extremely diverse. And they are important because today we need answers to the question of what to do. Because the fact that we are „only“ dealing with weak AI does not mean that we do not have strong ethical questions to deal with. But these are very concrete and already a topic today. All of this is about redefining or redefining what is specifically human. We will not only be able to answer these questions with technical cutlery, but also and above all based on our experiences through community, music, dance, religion, love, art and human encounters.
First published in Opus Kulturmagazin 2019, https://www.opus-kulturmagazin.de/
Citing this article: Filipović, A. (2019, May 3). Ethics, Digitisation and Machine Intelligence. Unbeliebigkeitsraum. Retrieved from https://www.unbeliebigkeitsraum.de/2019/05/03/ethics,-digitisation-and-machine-intelligence/
Spätestens seit meinem 2013er Aufsatz „Die Enge der weiten Medienwelt. Bedrohen Algorithmen die Freiheit öffentlicher Kommunikation?“ gehören die Themen Algorithmen und Künstliche Intelligenz (KI) mit zu meinen Forschungsinteressen. Die Relevanz von „künstlicher Intelligenz“ für die Medien- und Kommunikationsethik liegt auf der Hand: Wenn Algorithmen und selbstlernende Systeme in der öffentlichen Kommunikation und im Bereich der Medien eine immer bedeutendere Rolle spielen (etwa Personalisierungsalgorithmen), dann sollten sie auch ethisch reflektiert werden.
Die Erweiterung der klassischen Kommunikations- und Medienethik hin zu informationsethischen Fragen zeigt bspw. das „Handbuch Medien- und Informationsethik“ (Hg. Jessica Heesen). In der Tat müssen informationsethische und medienethische Themen heute integriert, also zusammen behandelt werden. Dies wird auch deutlich im Namen unseres „Zentrums für Ethik der Medien und der digitalen Gesellschaft (zem::dg)„, das ich zusammen mit Klaus-Dieter Altmeppen leite. Einige meiner Doktorandinnen und Doktoranden arbeiten auch an Fragestellungen, die mit KI zu tun haben
In diesem Kontext der ethischen Beschäftigung mit Algorithmen und Künstlicher Intelligenz sind jüngst auch ein paar Publikationen und Forschungsprojekte entstanden, auf die ich hier kurz hinweisen möchte:
Zusammen mit Christopher Koska und Claudia Paganini habe ich vor einigen Wochen (2018) für die Bertelsmann-Stiftung die Expertise „Ethik für Algorithmiker – Was wir von erfolgreichen Professionsethiken lernen können“ erstellt. Es geht darum herauszufinden, unter welchen Voraussetzungen Professionsethiken funktionieren und ob dies für das Feld der Algorithmengestaltung angewendet werden kann.
„Die Ethik kann nicht schlechthin gegen die technologische Entwicklung in Stellung gebracht werden. […] Es ist mit diesem Vorschlag keinesfalls gemeint, dass wir gegenüber technischen Entwicklungen unkritisch sein sollen, im Gegenteil. Es geht eher darum, sich die Möglichkeit zu geben, einen kritischen Gesichtspunkt überhaupt erst zu gewinnen, der dann auch eine verändernde Kraft entfalten kann. Eine Ethik, die Lust auf Innovation hat, nimmt sich selbst davon nicht aus – und kann gerade deswegen auch kritisch bleiben. Eine solche Ethik lässt sich nicht abhängen von den dramatischen technischen Entwicklungen, sondern versucht Anschluss zu halten, um den Verlauf des Rennens weiter mitgestalten zu können.“ (Koska, Filipović 2017: 189)
Zusammen und im Auftrag von Microsoft Deutschland haben wir im zem::dg eine Expertise erstellt zu „Social responsibility of curated aggregation portals using the example of MSN„. Die Angebote von Nachrichten und Medieninhalten werden vermehrt algorithmisch betrieben, was die Frage nach gesellschaftlicher Verantwortung für die Qualität der öffentlichen Kommunikation aufwirft (Filterblasen, Echokammern, Vereinzelung durch Personalisierung usw.). Das Ziel des Forschungsprojektes war es, die Problematik am Beispiel der Plattform MSN (Microsoft) zu zeigen und praktische Hinweise zu geben, wie das Unternehmen seiner gesellschaftlichen Verantwortung gerecht werden kann.
In der Begutachtung ist ein Projekt-Antrag (2018), den wir an der Hochschule für Philosophie zusammen mit Prof. Dr. Oliver Alexy (Professorship „Strategic Entrepreneurship“ in the Entrepreneurship Research Institute at TUM School of Management) und Prof. Gordon Cheng (Chair of Cognitive Systems & Founding Director of the Institute for Cognitive System at TU Munich) erarbeitet haben. Thema: „The Public Value of Artificial Intelligence Shaping an Ethical Future for AI in Digital Societies“.
Die Themen „Algorithmen“ und „Künstliche Intelligenz“ werden in Zukunft eine noch größere Rolle in meiner Arbeit spielen. Ich hoffe hier im Blog ab und an etwas dazu schreiben zu können.
Literatur
Filipović, Alexander (2013): Die Enge der weiten Medienwelt. Bedrohen Algorithmen die Freiheit öffentlicher Kommunikation? In: Communicatio Socialis 46 (2), S. 192–208. DOI: 10.5771/0010-3497-2013-2-192.
Filipović, Alexander; Koska, Christopher; Paganini, Claudia (2018): Ethik für Algorithmiker – Was wir von erfolgreichen Professionsethiken lernen können. Hg. v. Bertelsmann-Stiftung. Gütersloh (Impuls Algorithmenethik, 9). DOI: 10.11586/2018033.
Koska, Christopher; Filipović, Alexander (2017): Gestaltungsfragen der Digitalität. Zu den sozialethischen Herausforderungen von künstlicher Intelligenz, Big Data und Virtualität. In: Ralph Bergold, Jochen Sautermeister und André Schröder (Hg.): Dem Wandel eine menschliche Gestalt geben. Sozialethische Perspektiven für die Gesellschaft von morgen. Freiburg: Herder, S. 173–191.
Vorspann: Seit 2015 schreibe ich auf Anregung des Journalisten Daniel Wirsching in der Augsburger Allgemeinen jeweils zum Jahresende einen medienethischen Jahresrückblick. In 2015 ging es um Misstrauen in den Journalismus (pdf), 2016 um Wahrheit, Glaubwürdigkeit und Hass (pdf). Für das Jahr 2017 habe ich mangels Skandale keinen medienethischen Jahresrückblick geschrieben. Statt dessen habe ich Tipps gegeben, worauf jede und jeder bei seinem persönlichen Mediengebrauch achten sollte (Titel: Lassen wir die Filterblasen platzen! (pdf)). Mit freundlicher Genehmigung der Zeitung kann ich die Zeitungsseite (pdf) zur Verfügung stellen und publiziere hier die unredigierte Version.
Das Medienjahr 2017 war ziemlich öde, keine Aufreger wie Böhmermanns Satire, keine spektakulären Fälle von Medienversagen bei Katastrophen, kein wirklicher Medienskandal. Zwei wichtige, eher grundlegende Themen sind in 2017 allerdings an die Oberfläche gespült worden und verdienen eine kurze Betrachtung. Es geht erstens um unser öffentlich-rechtliches Mediensystem und zweitens um das Phänomen der Filterblasen.
Kritik am öffentlich-rechtlichen Mediensystem
Seit jeher stehen die öffentlich-rechtlichen Medien in der Kritik. Kritiker sind Politiker, die politisch tendenziöse Berichterstattung wittern. Kritiker sind Zuschauer und Zuhörer, die unzufrieden sind mit dem Programmangebot, mit Moderatoren und Journalisten, oder die gar verschwörungstheoretisch ARD, ZDF und Co. als von bestimmten Kreisen gelenkte Manipulationsmaschine ansehen. Ethisch gesehen ist wichtig, dass wir insgesamt eine vielfältige, unabhängige und alle Strömungen des demokratischen Spektrums berücksichtigende Medienwelt haben. Ein wichtiges Kriterium dafür ist die Staats- und Politikferne. Das was gedruckt und gesendet wird, darauf dürfen Politiker und Regierungen keinen inhaltlichen Einfluss haben. Die Regulierung von Presse und Rundfunk ist daher wichtig, aber auch schwierig, weil die Regulierung besonders des öffentlich-rechtlichen Rundfunks ja staatliche organisiert wird und politische Interessen dabei eine Rolle spielen.
Diese Staatsferne des öffentlich-rechtlichen Rundfunks ist zentral und darf nicht durch unbedacht benutzte Begriffe wie „Staatsfunk“ für unmöglich gehalten werden. Wir haben keinen Staatsfunk – dafür sind mir zu viele Erfahrungen und Geschichten der unabhängigen journalistischen Tätigkeit in den Sendern bekannt. Aber wir müssen den Kriterien der Staatsferne und der politischen Unabhängigkeit noch besser zur Durchsetzung verhelfen. Das bedeutet auch, dass privatwirtschaftlich arbeitende Medien eine Chance haben müssen auf dem Markt.
Phänomen der Filterblasen
Die Vielfältigkeit der Medien hat aber keinen Effekt, wenn uns im Internet immer nur ein paar, für uns besonders passende Inhalte ausgewählt und dargeboten werden. Diesen Effekt, der manchmal durch Social Media-Plattformen wie Facebook beobachtet werden kann, nennt man Filterblase. Durch eine personalisierte Auswahl von Medieninhalten, die letztlich dabei helfen sollen, dass wir immer mehr Zeit auf den Plattformen verbringen, leben wir in Sachen Information dann in einer angenehmen, individualisierten Informations- und Meinungsblase.
Einen genauen, einen wahren, einen vielfältig-umfassenden Eindruck von der Welt werden wir so aber nicht bekommen. Als Bürgerinnen und Bürger, die wählen und abstimmen, ist es aber unsere Verantwortung, uns möglichst umfassend zu informieren. Lassen wir also die medialen Filterblasen platzen, in denen wir uns vielleicht befinden.
Wie nutze ich Medien richtig?
Bloß: Wie kann das gehen? Wie nutze ich Medien richtig, ist das nicht viel zu schwierig und sinnlos, angesichts der Macht der Medien? So schwierig ist das nicht. Ein paar Hinweise habe ich zusammengestellt. Vielleicht helfen Sie ihnen. Denn für mich steht fest: Um die Medienwelt kommt es auch auf unser Verhalten an.
Halten Sie Ihrer gewählten Tageszeitung die Treue: Jeder braucht einen Grundstock an Nachrichten aus der Welt und dem Lokalen. Dafür eignet sich ein festes Abonnement einer Tageszeitung. Aber seien Sie ein neugieriger und kritischer Leser: Lassen Sie sich erklären, wie die Nachrichtenauswahl zu Stande kommt, beschweren Sie sich, wenn eine Nachricht kommentierende Elemente hat, wünschen Sie sich Themen, Debatten und Formate, die sie vermissen. Auch hier gilt: Wenn Sie selbst sicher versorgt sind, helfen Sie anderen: Gewöhnen sie Kinder und Jugendliche an das Zeitungslesen, fragen Sie Freunde, warum sie keine Tageszeitung lesen.
Ab und zu eine andere Zeitung lesen: Lesen Sie von Zeit zu Zeit zusätzlich eine andere Zeitung oder ein Nachrichtenmagazin. Orientieren Sie sich dabei nicht unbedingt an ihrer politischen Ausrichtung, sondern lesen Sie quer durch den Blätterwald. Und ärgern Sie sich nicht über Meinungen, Kommentare und Ausrichtungen. Versuchen Sie eher, die Argumente und Perspektiven anderer zu verstehen.
Schauen Sie nur ausgewählte politische TV-Sendungen: Gehen Ihnen bestimmte Talkshows und Nachrichtenmoderatoren auf den Geist? Dann schauen Sie diese Sendungen weniger. Schalten Sie bewusst aus, statt sich aufzuregen, ersparen Sie sich den Frust. Suchen Sie sich stattdessen gezielt Sendungen aus, von deren Qualität Sie überzeugt sind. Denn es gibt solche Sendungen.
Boulevard-Zeitungen sind höchstens für Unterhaltung gut: Gegen gelegentliche Lektüre von Boulevard-Zeitungen und Zeitschriften ist zu Unterhaltungszecken nichts einzuwenden. Manchmal ist eine Zuspitzung in großen Buchstaben auch gut und hilfreich. Aber oft steht hinter einer Skandalmeldung nur heiße Luft und die Zeitungen versuchen, mit Skandalisierung ihr Blatt zu verkaufen. Seien Sie bei Zeitungen lieber qualitätsbewusst.
Hören Sie mehr Radio: Als Nebenbeimedium ist das Radio etabliert. Aber es gibt auch tolle Sendungen mit guten politischen und gesellschaftlichen Informationen, für die man sich hinsetzen und die Ohren spitzen muss. RadioApps und Digitalradio geben einem viele Möglichkeiten. Probieren Sie neben lokalen Sendern ruhig mal NDRinfo am Abend aus. Hören Sie auch Privatradio. Und in der App vom Deutschlandfunk können Sie sich ganz bequem ihr eigenes Radioprogramm zusammenstellen.
Misstrauen Sie der Nachrichtenauswahl auf Facebook und anderen Internet-Plattformen: Personalisierte Nachrichtenauswahl kann dazu führen, dass Sie nur das präsentiert bekommen, was Ihrem Profil entspricht. Das verstärkt den Filterblasen-Effekt. Teilen und Kommentieren Sie Nachrichten nur nach reiflicher Überlegung.
Wiederstehen Sie Einladungen zum Klicken: Beim Surfen im Netz tauchen Meldungen und Überschriften auf, die Sie sehr geschickt zum Anklicken verführen wollen. Je aufregender und interessanter eine Überschrift ist und je mehr sie darum bettelt, geklickt zu werden – desto mehr ist Vorsicht geboten. Lesen Sie lieber an anderer Stelle weiter.
Alternative Nachrichtenplattformen: Wenn Sie auf einer Nachrichtenseite eine Meldung sehen, die sie sonst noch nirgendwo gelesen haben: Ziehen Sie in Betracht, dass hier nicht die „Mainstream-Medien“ einen Fehler gemacht haben, sondern dass diese andere Nachrichten-Plattform politische oder ideologische Interessen verfolgt, für die diese Nachrichten nur Mittel zum Zweck sind. Bevor sie eine Verschwörung der etablierten Medien wittern, bestimmte Nachrichten zu unterdrücken: Fragen Sie lieber bei Ihrer Tageszeitung mal nach, warum die sich entschieden hat, eine bestimmte Meldung nicht zu bringen.
Am Mittwoch (4.10.2017) bin ich auf Einladung der Styria Media Group AG und der FH JOANNEUM in Graz und präsentiere dort den Vortrag „Die neue Macht der Bilder – Ethik im visuellen Zeitalter“. Informationen zum Vortrag gibt es hier und hier; das Event wird auf diepresse.com und kleinezeitung.at live gestreamt.
Im Vorfeld ist dazu mit mir ein Interview in der österreichischen Wochenzeitung „Die Furche“ erschienen, das ich mit Genehmigung hier (*.pdf) zur Verfügung stellen darf.
Wer sich selber damit wissenschaftlich beschäftigen will, hier eine kleine Auswahl an Texten:
Isermann, Holger; Knieper, Thomas (2010): Bildethik. In: Christian Schicha und Carsten Brosda (Hg.): Handbuch Medienethik. Wiesbaden: VS Verlag für Sozialwissenschaften, S. 304–317.
Isermann, Holger (2015): Digitale Augenzeugen. Entgrenzung, Funktionswandel und Glaubwürdigkeit im Bildjournalismus. Wiesbaden: Springer VS. DOI: 10.1007/978-3-658-08219-2.
Kapust, Antje (2013): Bildethik. In: Rolf Gröschner, Antje Kapust und Oliver W. Lembcke (Hg.): Wörterbuch der Würde. München: Wilhelm Fink, S. 275–276.
Leifert, Stefan (2007): Bildethik. Theorie und Moral im Bildjournalismus der Massenmedien. München: Wilhelm Fink.
Tappe, Inga (2016): Bildethik. In: Jessica Heesen (Hg.): Handbuch Medien- und Informationsethik. Stuttgart: Metzler, S. 306–312. DOI: 10.1007/978-3-476-05394-7_41.