- 5. Oktober 2023
- Michelle König
Im Blog erläutern wir die neuen europäische Gesetze für digitale Dienste und Märkte und was sich bei unseren Lieblingsplattformen nun ändert.
Sie steckt in unseren Smartphones, erleichtert uns durch ihren Einsatz komplexe Denkarbeit und verrät uns auf der Basis von Algorithmen, was wir mögen und was nicht: Künstliche Intelligenz.
Mit der Einführung der Software ChatGPT ist die Nutzung von Künstlicher Intelligenz mittlerweile am Arbeitsplatz angekommen – innerhalb eines Klicks erhalten wir in sekundenschnelle Antworten und Ergebnisse, die uns sonst unter Umständen mehrere Stunden Arbeit kosten.
Mittels Künstlicher Intelligenz journalistische Artikel, Pressemitteilungen oder sogar wissenschaftliche Arbeiten schreiben – für ChatGPT ist das längst kein Problem mehr.
Das Besondere: Das Programm erzeugt Texte, die sich kaum von denen menschlicher Autorinnen und Autoren unterscheiden lassen. Die Idee dahinter ist so simpel wie genial: Die Software arbeitet auf der Grundlage von maschinellem Lernen und neuronalen Netzen. Oder einfach ausgedrückt: ChatGPT hat riesige Mengen an Texten aus dem Internet gelesen, dabei Muster und Zusammenhänge erkannt und gefiltert, die anschließend gespeichert wurden. Dadurch lernt ChatGPT genau die Antworten zu generieren, die die Anwenderinnen und Anwender lesen wollen. Bei der Eingabe von Fragen oder Aufgabenstellungen vergleicht die Software die neuen Informationen oder Handlungsanweisungen mit den bereits gelernten – und generiert die passende Antwort.
ChatGPT arbeitet also ohne Erfahrung, das Programm basiert ausschließlich auf den Informationen, die ihm von Menschenhand beigebracht wurden. Klingt super, oder?
Spätestens seit Einführung von Amazons Alexa wissen wir aus eigener Hand, dass KI mehr kann, als große Datenmengen zu verarbeiten. Wir können uns mit Chatbots in natürlicher Sprache unterhalten, ihnen Aufgaben erteilen und sie aktiv in unser Leben einbinden. Die Konrad-Adenauer-Stiftung nennt einige Aspekte, die sich durch den Einsatz künstlicher Intelligenz verändern werden. Demnach führt KI früher oder später zur
Als Sprachmodell ist ChatGPT bereits jetzt in der Lage, Aspekte des individuellen Medienverhaltens zu verändern. Bei der Nachfrage, inwiefern ChatGPT den Medienalltag verändern wird, nennt die Software fünf Aspekte:
Ein Beispiel: Ich habe ChatGPT gefragt, ob es mir ein kurzes Gedicht von fünf Versen über die PR- und Social-Media-Branche formulieren kann. Eine Vorgabe war es, dass Reime vorkommen sollen. ChatGPT’s Antwort nach zwei Sekunden:
In der Welt von PR und Social Media voller Tat,
Da wird kommuniziert, bis der Himmel lacht.
Mit raffinierten Plänen und kreativem Geschick,
Bringen sie Marken zum Strahlen, Stück für Stück.
Die Worte tanzen, wie ein farbenfroher Musik-Quick.
Auch wenn es nicht perfekt formuliert ist und an der einen oder anderen Stelle ziemlich hapert: Innerhalb weniger Sekunden hat mir das Programm ein Gedicht formuliert, das meinen Anforderungen mehr oder minder entspricht. Ob ich damit jetzt einen eigenen Lyrikband veröffentlichen würde? Ich denke nicht.
Auch bei Fragen zu gesellschaftspolitischen Hintergründen oder reinen Wissensfragen kann ChatGPT helfen. Interessanterweise nennt das Programm bei Fragen solcher Art Limitationen, denen es (noch) nicht gerecht werden kann. ChatGPT fordert Nutzerinnen und Nutzer auf, Informationen und Antworten kritisch zu hinterfragen und zusätzliche Recherchen durchzuführen. Das Programm erklärt selber, dass es nicht garantieren kann, mir zu 100 % korrekte Antworten zu liefern.
Neben den vielen verschiedenen Möglichkeiten, die uns Künstliche Intelligenz bieten kann, kommen gleichzeitig Risiken und Herausforderungen auf uns zu. Wie bereits zu Beginn erwähnt, basiert Künstliche Intelligenz auf Daten, die wir ihnen liefern. Werden diese Daten beispielsweise absichtlich manipuliert, können unter dem Deckmantel vermeintlich wertfreier mathematischer Berechnungen Vorurteile, eigene Interessen oder Machtstrukturen sichtbar werden. Datensätze sind wenig divers und spiegeln strukturelle Diskriminierung wider. Allerdings ist nicht die Künstliche Intelligenz daran Schuld, sondern wie so oft diejenigen, die sie programmieren.
Darüber hinaus steigt das Risiko des sogenannten Filterblasen-Effekts, bei dem Filteralgorithmen dafür sorgen, dass Nutzerinnen und Nutzer nur die Inhalte ausgespielt bekommen, die sie schon oft zuvor konsumiert haben. Ferner wird uns der Einsatz von „Deepfakes”, also extrem realistisch gefälschte Video-, Ton- oder Bildaufnahmen dazu zwingen, Medieninhalte noch mehr kritisch zu hinterfragen.
Risiken ähnlicher Art gelten für ChatGPT: Chatbots können Anwenderinnen und Anwender unbewusst politisch manipulieren und die Verbreitung von Desinformationen beschleunigen. Zusätzlich verschwimmen die Grenzen zwischen Technik und Realität und es ist oftmals unklar, ob man mit einem Menschen oder einem Programm kommuniziert. Insbesondere Schülerinnen und Schüler sowie Studierende können der Versuchung oftmals nicht widerstehen und Schulen wie Universitäten bekommen zunehmend Schwierigkeiten, die Nutzung von ChatGPT zu regulieren.
Würde ich ChatGPT nutzen, um mir eine Aufgabe im Bereich der Linearen Algebra errechnen zu lassen? Auf jeden Fall. Würde ich ChatGPT nutzen, um mir eine Pressemitteilung schreiben zu lassen? Niemals.
Unser Medienverhalten ist unterschiedlich und somit auch die Auswirkungen auf unseren Medienalltag. Trotz Dessen lässt sich die Frage, ob eine Künstliche Intelligenz wie ChatGPT unseren Medienalltag verändern wird, mit einem klaren Ja beantworten. Wozu wurde sie sonst erschaffen? Ob wir das wollen, ist weniger eindeutig und kommt auf viele verschiedene Faktoren an.
Unabhängig vom Einsatz künstlicher Intelligenzen verlangen Medienkonsum- und -verhalten nach eigenständigem Denken und einem hohem Grad an Medienkompetenz. Anwenderinnen und Anwender müssen das hinterfragen, was ihnen vorgesetzt wird – ganz gleich, ob die Informationen und Inhalte von einer realen Person oder einer Technologie stammen. Programme wie ChatGPT sind lediglich ein Werkzeug. Und letztendlich liegt es in unserer eigenen Verantwortung, ob wir dieses Werkzeug sinnvoll oder missbräuchlich benutzen.