Algorithmen und Künstliche Intelligenz in ethischer Perspektive

Spätestens seit meinem 2013er Aufsatz „Die Enge der weiten Medienwelt. Bedrohen Algorithmen die Freiheit öffentlicher Kommunikation?“ gehören die Themen Algorithmen und Künstliche Intelligenz (KI) mit zu meinen Forschungsinteressen. Die Relevanz von „künstlicher Intelligenz“ für die Medien- und Kommunikationsethik liegt auf der Hand: Wenn Algorithmen und selbstlernende Systeme in der öffentlichen Kommunikation und im Bereich der Medien eine immer bedeutendere Rolle spielen (etwa Personalisierungsalgorithmen), dann sollten sie auch ethisch reflektiert werden.

Die Erweiterung der klassischen Kommunikations- und Medienethik hin zu informationsethischen Fragen zeigt bspw. das „Handbuch Medien- und Informationsethik“ (Hg. Jessica Heesen). In der Tat müssen informationsethische und medienethische Themen heute integriert, also zusammen behandelt werden. Dies wird auch deutlich im Namen unseres „Zentrums für Ethik der Medien und der digitalen Gesellschaft (zem::dg)„, das ich zusammen mit Klaus-Dieter Altmeppen leite. Einige meiner Doktorandinnen und Doktoranden arbeiten auch an Fragestellungen, die mit KI zu tun haben

In diesem Kontext der ethischen Beschäftigung mit Algorithmen und Künstlicher Intelligenz sind jüngst auch ein paar Publikationen und Forschungsprojekte entstanden, auf die ich hier kurz hinweisen möchte:

Zusammen mit  Christopher Koska und Claudia Paganini habe ich vor einigen Wochen (2018) für die Bertelsmann-Stiftung die Expertise „Ethik für Algorithmiker – Was wir von erfolgreichen Professionsethiken lernen können“ erstellt. Es geht darum herauszufinden, unter welchen Voraussetzungen Professionsethiken funktionieren und ob dies für das Feld der Algorithmengestaltung angewendet werden kann.

Mit Christopher Koska habe ich 2017 den Aufsatz „Gestaltungsfragen der Digitalität. Zu den sozialethischen Herausforderungen von künstlicher Intelligenz, Big Data und Virtualität.“ publiziert. Darin ist ein kleines Credo meiner ethischen Perspektive versteckt:

„Die Ethik kann nicht schlechthin gegen die technologische Entwicklung in Stellung gebracht werden. […] Es ist mit diesem Vorschlag keinesfalls gemeint, dass wir gegenüber technischen Entwicklungen unkritisch sein sollen, im Gegenteil. Es geht eher darum, sich die Möglichkeit zu geben, einen kritischen Gesichtspunkt überhaupt erst zu gewinnen, der dann auch eine verändernde Kraft entfalten kann. Eine Ethik, die Lust auf Innovation hat, nimmt sich selbst davon nicht aus – und kann gerade deswegen auch kritisch bleiben. Eine solche Ethik lässt sich nicht abhängen von den dramatischen technischen Entwicklungen, sondern versucht Anschluss zu halten, um den Verlauf des Rennens weiter mitgestalten zu können.“ (Koska, Filipović 2017: 189)

Zusammen und im Auftrag von Microsoft Deutschland haben wir im zem::dg eine Expertise erstellt zu „Social responsibility of curated aggregation portals using the example of MSN„. Die Angebote von Nachrichten und Medieninhalten werden vermehrt algorithmisch betrieben, was die Frage nach gesellschaftlicher Verantwortung für die Qualität der öffentlichen Kommunikation aufwirft (Filterblasen, Echokammern, Vereinzelung durch Personalisierung usw.). Das Ziel des Forschungsprojektes war es, die Problematik am Beispiel der Plattform MSN (Microsoft) zu zeigen und praktische Hinweise zu geben, wie das Unternehmen seiner gesellschaftlichen Verantwortung gerecht werden kann.

In der Begutachtung ist ein Projekt-Antrag (2018), den wir an der Hochschule für Philosophie zusammen mit Prof. Dr. Oliver Alexy (Professorship „Strategic Entrepreneurship“ in the Entrepreneurship Research Institute at TUM School of Management) und Prof. Gordon Cheng (Chair of Cognitive Systems & Founding Director of the Institute for Cognitive System at TU Munich) erarbeitet haben. Thema: „The Public Value of Artificial Intelligence Shaping an Ethical Future for AI in Digital Societies“.

Die Themen „Algorithmen“ und „Künstliche Intelligenz“ werden in Zukunft eine noch größere Rolle in meiner Arbeit spielen. Ich hoffe hier im Blog ab und an etwas dazu schreiben zu können.

Literatur

  • Filipović, Alexander (2013): Die Enge der weiten Medienwelt. Bedrohen Algorithmen die Freiheit öffentlicher Kommunikation? In: Communicatio Socialis 46 (2), S. 192–208. DOI: 10.5771/0010-3497-2013-2-192.
  • Filipović, Alexander; Koska, Christopher; Paganini, Claudia (2018): Ethik für Algorithmiker – Was wir von erfolgreichen Professionsethiken lernen können. Hg. v. Bertelsmann-Stiftung. Gütersloh (Impuls Algorithmenethik, 9). DOI: 10.11586/2018033.
  • Koska, Christopher; Filipović, Alexander (2017): Gestaltungsfragen der Digitalität. Zu den sozialethischen Herausforderungen von künstlicher Intelligenz, Big Data und Virtualität. In: Ralph Bergold, Jochen Sautermeister und André Schröder (Hg.): Dem Wandel eine menschliche Gestalt geben. Sozialethische Perspektiven für die Gesellschaft von morgen. Freiburg: Herder, S. 173–191.

Algorithmen-Ethik und ein ahnungsloses Huhn

Johannes Boie schreibt heute (7.3.3014) auf der Seite 3 der Süddeutschen Zeitung über die Gefahren von Algorithmen, Big Data und über ein Huhn. Titel: „Die Seele gibt’s gratis“ (offenbar noch nicht online). Zum Huhn später mehr. Zunächst zur Algorithmen-Ethik: Es ist gut, dass mit Yvonne Hofstetter eine Person über die Gefahren einer algorithmisierten Welt aufklärt, die vermutlich wirklich weiß, was mit Big Data, schlauer Auswertung und riesiger Rechenkapazität alles möglich ist. Sie ist Chefin der Firma Teramark Technologies, eine Firma, die sich auf die Auswertung großer Datenmengen spezialisiert hat. Und als eine solche Expertin kommt sie oft zu Wort, in der FAZ, der TAZ, in 3SAT und bei Beckmann in der ARD.

In dem Artikel sind drei Gründe für die aktuellen Gefahren festgehalten:

  1. Immer mehr Daten durch Online-Kommunikation und datenliefernde vernetzte Dinge.
  2. Die explodierende Leistungsfähigkeit „künstlicher Intelligenz“.
  3. Verknüpfung von ursprünglich an verschiedenen Stellen angefallenen Daten, etwa durch die Geheimdienste (sofern sie nicht zugänglich vorliegen), aber auch durch Versicherungen, Steuerbehörden, Google, Facebook, die Post, etc.

Der Artikel kommt aber in der Frage, wo jetzt eigentlich genau das Problem liegt, nicht so recht auf den Punkt. Drei richtige Gedanken werden angedeutet:

  1. Die Algorithmen filtern unseren Weltzugang, wenn sie nach Hofstetter „einzig berechnen“, „für welche Informationen ein Mensch bezahlen wird. Folglich wird der Algorithmus entscheiden, ihm andere Informationen vorzuenthalten“. Hier geht es also um die versteckte und nach ökonomischen Regeln ablaufende Übernahme der Gatekeeper-Funktion, die wir bisher und auch in Zukunft doch lieber gerne einem professionellen Journalismus, einer Lexikonredaktion oder der Wissenschaft, also jedenfalls Menschen statt Maschinen, vorbehalten wollen.
  2. Den zweiten Gedanken steuert Evgeny Morozov bei: Die Frage der Algorithmen betrifft eine menschenrechtliche Dimension („Privatsphäre, Datensicherheit, Meinungsfreiheit“), für deren Schutz die Staaten die Verantwortung tragen. Das „autoritäre System“ der Algorithmen aber verletze diese individuellen Rechte.
  3. Der dritte Gedanke schließlich kommt von Frank Schirrmacher: Die Journalisten hätten längst gar keine Gelegenheit mehr für eine kritische Distanz zur Digitalisierung bzw. Algorithmisierung, weil ihr Berufs-Alltag selbst schon von den Algorithmen abhängt.

Der Artikel steht natürlich in aktuellem Zusammenhang mit Enzensbergers Regeln gegen für die digitale Welt (vgl. auch dazu diesen lesenswerten Text) und Martin Schulz‘ Warnung vor dem „technologischen Totalitarismus“ (vgl. auch Christian Lindners Text dazu).

In der Medienethik, meinem Fach, wird über das Thema auch nachgedacht. Ich halte den Freiheitsaspekt für entscheidend und habe in einem Aufsatz zum Thema Algorithmen Ethik ausgeführt, dass die Folgen der Digitalisierung oder Algorithmisierung der öffentlichen Kommunikation Auswirkungen haben auf die Freiheit öffentlicher Kommunikation. Ich plädiere statt der Enge des individuellen, durch Algorithmen geführten Mediengebrauchs für die Weite einer offenen und gemeinschaftlichen Kommunikationswelt. In einem Satz: Die Problematik der Algorithmen liegt darin, dass sie unsere Freiheit einschränken können. Ob sie unsere Handlungsspielräume vergrößern, oder aber (um das böse Wort zu benutzen) uns alle informationell gleichschalten, hängt von uns und unserer Politik ab.

Und wer in München ansässig ist: Im kommenden Sommersemester (2014) veranstalte ich zusammen mit meinem Mitarbeiter Christopher Koska ein Seminar dazu mit dem Titel: „Big Data: Medienethische Fragen zur digitalen Vermessung der Welt“ (Mittwochs 15-17 Uhr).

Jetzt aber noch zum Huhn: Der Artikel gefällt mir dort nicht, wo er ein wenig zu weltverschwörerisch rüberkommt und andeutet, dass die Algorithmen die Macht schon übernommen haben. Es ist ja durchaus schlimm, aber es sind immer noch Menschen, die die Dinger programmieren, laufen lassen und für ihre Zwecke benutzen. Und augenscheinlich ist diese Seite 3 ein ziemlich bemühter Versuch, die intellektuelle Diskussion über die Folgen der Digitalisierung, die im wesentlichen in der FAZ läuft, in die SZ zu transportieren. Und jetzt aber endlich wirklich zum Huhn… Schon klar: das Huhn im ländlichen Idyll des Gartens von Frau Hofstetter ist als radikal analoges, kaum intelligentes Geschöpf ein tolles Gegenbild zu den superschlauen digitalen Algorithmen in den kalten Kellern der Rechenzentren. Aber hätten diese Sätze sein müssen: „Ein Huhn stakt über die Terrasse.“ – „Aus dem Augenwinkel kann man dabei das Huhn beobachten.“ – Draußen plustert sich das Huhn auf.“ – „Man denkt an Yvonne Hofstetter und das Huhn in Zolling…“ – „Im Garten das ahnungslose Huhn.“? – Nein. Ich denke nicht.

Literaturliste zum Thema (Auswahl):

  • Bunz, Mercedes (2012): Die stille Revolution. Wie Algorithmen Wissen, Arbeit, Öffentlichkeit und Politik verändern, ohne dabei viel Lärm zu machen. Berlin: Suhrkamp (edition unseld, 43).
  • Dang-Anh, Mark; Einspänner, Jessica; Thimm, Caja (2013): Die Macht der Algorithmen – Selektive Distribution in Twitter. In: Martin Emmer, Alexander Filipović, Jan-Hinrik Schmidt und Ingrid Stapf (Hg.): Echtheit, Wahrheit, Ehrlichkeit. Authentizität in der Online-Kommunikation. Weinheim, Basel: Beltz Juventa (Kommunikations- und Medienethik, 2), S. 74–87.
  • Dreyer, Stephan; Heise, Nele; Johnsen, Katharina (2014): „Code as code can“. Warum die Online-Gesellschaft einer digitalen Staatsbürgerkunde bedarf. In: Communicatio Socialis 46 (3-4). Online verfügbar unter http://ejournal.communicatio-socialis.de/index.php/cc/article/view/71/67.
  • Filipović, Alexander (2013): Die Enge der weiten Medienwelt. Bedrohen Algorithmen die Freiheit öffentlicher Kommunikation? In: Communicatio Socialis 46 (2), S. 192–208. Online verfügbar unter http://ejournal.communicatio-socialis.de/index.php/cc/article/view/93/89.