LLM-Ethics: Auch Moral- und Vertrauens-Aspekte?

Präsentation zu LLM-Ethics

Beitrag teilen:

LLM-Ethics: Neben Entertainments- und Produktivitäts- auch Moral- und Vertrauens-Aspekte?

Am 16.05.23 fand im Fraunhofer-Institut für Intelligente Analyse- und Informationssysteme IAIS im Schloss Birlinghoven in Sankt Augustin eine Konferenz über ChatGPT statt.

Dort wurden unter anderem dessen technische Hintergründe sowie der Nutzen der Technologie vorgestellt und diskutiert.

Frau Ulla Coester, Projektleiterin am Institut für Internet-Sicherheit (if(is)), hielt dort einen Vortrag mit dem Titel: “LLM-Ethics: Neben Entertainments- und Produktivitäts- auch Moral- und Vertrauens-Aspekte?”.

In diesem Vortrag stellte sie die folgenden Fragen, welche sich tief mit den ethischen Aspekten künstlicher Intelligenz beschäftigen:

Was macht ein gutes Leben aus?
Dies ist eine der essenziellen Fragen, welche bei der Beurteilung im Hinblick auf den Einsatz von Technologie beantwortet werden muss.
Daraus ergeben sich weitere Fragen: Wer darf diese Frage stellen und wer darf sie beantworten? Was macht uns eigentlich als Menschen aus? Wie werden uns Werte vermittelt und durch wen?

Wer bestimmt über unser Leben?
Lassen wir die richtigen Personen über unser Leben bestimmen? Denn tatsächlich sind nur die Menschen, welche über die notwendigen finanziellen Mittel verfügen in der Lage, die Zukunft nach ihren Vorstellungen zu gestalten.
Durch Technologien wie ChatGPT wird auch das große Versprechen gegeben, dass dadurch alle Menschen gleichgestellt werden. Aber entspricht das der Wahrheit? Die Frage hierbei ist, wer in erster Linie von der Nutzung neuer Technologien profitiert und ob diese Menschen dann auch die möglichen Folgen abschätzen können.

Was kann daraus resultieren?

Menschen und die Gesellschaft als ganzes müssen einen richtigen Umgang mit den neuen Gegebenheiten entwickeln, um mit den sich daraus ergebenden Konsequenzen klarzukommen.
Wie wir diesen Prozess steuern können, gilt es nun zu beantworten.
Aufgrund der Tatsache, dass der Mensch ein soziales Wesen ist, ergibt sich daraus, dass Arbeit durch die Möglichkeiten der Kooperation, Zeitstrukturierung und der Teilhabe an kollektiven, sinnhaften Zielen ein wichtiger Faktor für das Wohlbefinden ist.

Daraus ergibt sich die Fragestellung, ob die Regulierung neuer Technologien der richtige Weg ist. Denn wer trägt die digitale Verantwortung?

Mögliche Konsequenzen
Die weitreichende Nutzung KI-basierter Technologien kann den Verlust wichtiger Kompetenzen und Expertise zur Folge haben, aufgrund von eingeschränkter Weiterbildung. Ein Beispiel hierfür sind Ärzte, welche sich nur noch auf die Prognose der KI verlassen und sich dementsprechend nicht mehr weiterbilden. Diese Konsequenz würde nicht unmittelbar, sondern schleichend auftreten.

Von ChatGPT werden den Benutzern lediglich Bildungsschnipsel geliefert. Sie sind nicht involviert im Prozess des Lernens, können keine eigenen, neuen Erkenntnisse schöpfen. Die Kreativität von Menschen wird eingeschränkt – denn zur Entwicklung eines kreativen Produkts muss ein (Lern-)Prozess vorangegangen sein.

Irgendwann beschränkt der Mensch sich selber.
Durch zunehmendes Verlassen auf ChatGPT und dessen Angaben, verlieren die Menschen an Wissen, um Sachverhalte richtig einschätzen zu können – dadurch werden sie manipulierbarer.
Wird dadurch das Niveau herabgesenkt und alle Menschen sind irgendwann gleichgestellt? Oder wird es eine bestimmte elitäre Gruppe von Leuten geben, welche mehr Wissen und somit mehr “Macht” haben?
KI-Systeme zeigen außerdem, wie bereits täuschend echt aussehende Fake-Bilder erstellt werden können – was zu der bereits bestehenden Gefahr führt, welche von Heesen beschrieben wurde: “Wenn wir nicht mehr wissen: Was ist real und was nicht?”

Irgendwann reproduziert ChatGPT nur noch eigene Inhalte.
Wenn Kreativität nicht mehr wertgeschätzt wird oder zu aufwändig für den Menschen geworden ist, dann werden auch Dall-E und ChatGPT nur noch das Vorhandene referenzieren können.

Wie lässt sich dies verhindern? Und welches Grundwissen bezüglich KI ist für eine Wissensgesellschaft ausreichend oder notwendig?

Ethische Forderung

Der Einsatz von KI muss menschliche Kreativität fördern und darf sie auf keinen Fall einschränken.
Doch wie wollen wir das sicherstellen? Und wer wäre für diese Regulierung verantwortlich?

Die Gesellschaft muss darin geschult werden, KI-erzeugte Ergebnisse kritisch zu hinterfragen. Hierbei muss der momentane Nutzen mit den langfristigen Folgen abgewägt werden.

Daraus lässt sich schlussfolgern, das wir sofort einen strukturierten Diskurs benötigen.
Sowohl Befürworter als auch Gegner von KI und ChatGPT haben starke Argumente – dementsprechend wissen die Menschen nicht mehr, worauf sie vertrauen können.

Ein Lösungsansatz

Im Rahmen eines Forschungsprojektes entwickeln wir – das Institut für Internet-Sicherheit – daher eine Vertrauenswürdigkeits-Plattform, auf der Hersteller von KI-Lösungen allgemein ihre Vertrauenswürdigkeit unter Beweis stellen können.
Wir sind überzeugt, dass Menschen KI-Lösungen nur nutzen, wenn sie eine infomierte Entscheidung treffen können.