Was ist Digitalethik – und wozu das Ganze?

(c) Austin Chan

20.12.2022, Dr. Christian Dries

Wir leben im Zeitalter der Digitalisierung. Aber was bedeutet das eigentlich – für uns und unsere Gesellschaft?! Antworten auf diese und ähnliche Fragen sucht die Digitalethik. Was ist darunter zu verstehen? Ein Annäherungsversuch mit Seitenblick auf Künstliche Intelligenz und menschliche Urteilskraft.

Geht es um ›große‹ Fragen, schlägt die Stunde der Philosophie, im Bereich der Digitalisierung genauer die der Digitalethik. Dabei handelt es sich um eine vergleichsweise junge Subdisziplin der Ethik, jenem Teilbereich der Philosophie, der sich mit den Voraussetzungen, den Gründen und der moralischen Bewertung menschlichen Handelns befasst. Und da menschliches Handeln heute mehr denn je heißt, sich komplexer Technologien zu bedienen (oder von ihnen bedient zu werden…), schließt Digitalethik auch nicht-menschliche ›Akteure‹ – Computer, Netzwerke, Algorithmen – mit in ihre Überlegungen ein. Denn gerade die moderne Digitaltechnik ist nicht mehr mit dem klassischen Hammer vergleichbar, den wir nach eigenem Willen zum Nägel (oder auch Köpfe) einschlagen verwenden und anschließend einfach aus der Hand legen können. Digitalisierung ist eher einer Art ›Umwelt‹ zu vergleichen, aus der es kaum noch ein Entkommen gibt.

Grundprobleme der Digitalethik

(c) Emily Morter

Deshalb werden digitalethische Fragen immer drängender: angefangen beim Datenschutz und den fragwürdigen Geschäftsmodellen großer Plattformunternehmen wie Meta oder Apple, denen wir – als kostenlose Angestellte – bereitwillig unsere privaten Daten ausliefern, bis hin zur Frage digitaler Mündigkeit und der Bedrohung unseres Gemeinwesens durch Fake News und Filterblasen. Dementsprechend breit ist das Spektrum an Problemen, das die Digitalethik adressiert: Was bedeutet der sanfte Zwang des ›always on‹ für unsere Selbstbestimmung?

Ist es angesichts des großen Personalmangels in der Altenpflege legitim, Pflegeroboter einzusetzen? Sind Algorithmen wertneutrale ›Tools‹ (wie der Hammer) – und wenn nein: welche Werte wollen wir ihnen, wenn überhaupt möglich, einprogrammieren? Müssen wir große Digitalkonzerne zerschlagen? Wie können wir Digitalisierung angesichts ihres enormen Ressourcenverbrauchs nachhaltiger machen? Welche Gestalt hätte eine funktionierende digitale Demokratie? Wo ist Digitalisierung wirklich sinnvoll, etwa bei der Entlastung von stupiden, repetitiven Tätigkeiten, und wo bedrohen solche Entlastungen womöglich gar den Kern unseres Menschseins?

KI und Urteilskraft

Zur letzten Frage ein konkretes Beispiel: Besonders heiß diskutiert werden in der Digitalethik seit jeher Probleme der Künstlichen Intelligenz. Gerne wird dabei auf das sogenannte autonome Fahren und die damit verbundenen Dilemmata verwiesen. Soll ein autonomes Fahrzeug, um einen drohenden Unfall mit Todesfolge für die Fahrerin abzuwenden, in eine Gruppe Schulkinder am Straßenrand ausweichen oder doch eher in Richtung des hochbetagten Rentners (in der verschärften Fassung: des Drogensüchtigen) – oder verbietet der Grundsatz der Menschenwürde eine solche utilitaristische Abwägung grundsätzlich? So anschaulich solche Beispiele sind, so konstruiert sind sie auch. Zudem ist das autonome Fahren – von einigen nützlichen Assistenzsystemen abgesehen – bis heute mehr Projekt denn Wirklichkeit. Deutlich fortgeschrittener und gerade in aller Munde sind demgegenüber sogenannte Large Language Models wie das von OpenAI [Link] entwickelte ChatGPT [Link], das nach Aufforderung (in diversen Sprachen) verblüffend gute Texte fabriziert.

(c) Nick Morrison

Wie oft, wenn von großen technologischen Innovationen oder ›Sprüngen‹ die Rede ist, schwillt rasch ein Chor der Abgesänge auf den Menschen, auf bestimmte Berufe, ja ganze Berufszweige an. Wer braucht künftig noch Lokaljournalisten? Was wird aus der Werbetexterin oder dem Anwaltsgehilfen? Werden bald sogar Programmierer stempeln gehen müssen? In heller Aufregung sind derzeit auch Lehrkräfte an Hochschulen. Erste Testläufe haben ergeben: Mit ChatGPT verfasste Uni-Hausarbeiten sind nicht wesentlich schlechter als das durchschnittliche Eigenprodukt – vor allem aber kaum mehr davon zu unterscheiden. Was also tun?

Den Gebrauch derartiger ›Hilfsmittel‹ verbieten? Möglich, aber übereilt – aus mindestens zwei Gründen. Denn erstens könnte man genauso gut fordern, gewisse Prüfungsformen abzuschaffen, weil sie für bestimmte Betrugsformen besonders anfällig sind, anders gesagt: weil sie (schon bisher) viel zu schlecht gemacht waren, um ihr eigentliches Ziel zu erfüllen: Junge Menschen zu eigenständigem Denken und Schreiben anzuleiten. Das Problem wäre dann nicht der Algorithmus; man müsste Letzterem sogar noch dankbar sein. Würde er uns nicht von vielen öden ›Fingerübungen‹ entlasten – wie eben von Hausarbeiten, die ohnehin kaum gründlich gelesen und deshalb von vielen Studierenden zu Recht als sinnlos empfunden werden – und uns stattdessen Räume für sinnvollere Lernerfahrungen eröffnen? Erfahrungen, die sich dadurch auszeichnen, dass man sie nicht an Algorithmen delegieren kann?

Warum wir uns selbst unter- und Algorithmen überschätzen

Zweitens zeigt auch der Fall ChatGPT, was in puncto KI regelmäßig passiert: Wir neigen dazu, ihr Potenzial zu überschätzen. Denn die KI denkt nicht, sie rechnet bloß. So hat die Art und Weise, wie ChatGPT Textmassen durchsucht und Muster erkennt, nur sehr wenig zu tun mit dem, was Immanuel Kant unter menschlicher Urteilskraft verstand. Denn dazu gehört nicht nur das Vermögen, Rechenaufgaben zu lösen, oder zu erkennen, dass vor meinem Fenster ein Baum (d.h. der besondere Fall eines allgemeinen Typus) steht. Schon damit hat KI so ihre Probleme.

(c) Alex Knight

Dank Urteilskraft sind wir – und nur wir – außerdem in der Lage, das Besondere an einer Sache, ihren ›Witz‹, zu erfassen und in Texten oder Aussagen auch ›zwischen den Zeilen‹ zu lesen; Aufgaben, an denen jede künstliche Intelligenz – und zwar grundsätzlich – scheitert. So kommen in den USA eingesetzte ›judging machines‹, die z.B. bei der Beurteilung des Rückfallrisikos von Straftätern das vermeintlich fehlerhafte menschliche Urteilsvermögen (und seine mögliche rassistische Eintrübung) ausgleichen sollen, zu genauso guten oder eben schlechten Urteilen wie Menschen [Link]. Die vermeintliche Optimierung der fehlerhaften ›Maschine Mensch‹ erzeugt in Wirklichkeit nur eines: die Illusion technischer Perfektibilität, die menschliches Ungenügen größer erscheinen lässt, als es in Wirklichkeit ist.

Für die Digitalethik ist das dennoch kein Grund, die Hände in den Schoß zu legen. Denn eines ist sicher: Jede neue Technologie ist nicht bloß ein ›Werkzeug‹; sie ›macht‹ auch etwas mit uns, hat Einfluss auf unser Verhalten, unsere Fähigkeiten, unser Denken und Fühlen. Kurz: Menschen machen Technik, aber Technik macht auch den Menschen. Das heißt: Wenn Large Language Models sich auf breiter Front durchsetzen, wird das unsere Fähigkeit zu lesen und zu schreiben, unseren Umgang mit Texten und Textproduktion (die sogenannte ›Literalität‹) fundamental verändern. Ob und wenn ja: wie wir das wollen, darüber sollten wir alle gründlich nachdenken. Die KI wird uns dabei auf absehbare Zeit nicht helfen.

Dr. Christian Dries

Christian Dries leitet die Weiterbildung Digitalethik an der Thales-Akademie für angewandte Philosophie in Freiburg und lehrt an der Universität Basel.

Weitere Beiträge

Der digitale Wandel ist eine der größten Chancen für unsere Gesellschaft. Damit alle von den Vorteilen der Digitalisierung profitieren, müssen wir sie aktiv gestalten.