Netidee Blog Bild
Large Language Models und dynamische Forschungsprojekte
Über die Notwendigkeit, Forschungsprojekte zu adaptieren (06.03.2024)
Förderjahr 2023 / Stipendien Call #18 / ProjektID: 6755 / Projekt: Data-based algorithmic systems and individuals

Künstliche Intelligenz sowie ihre gesellschaftliche Einbettung sind hochaktuelle Themen: Fast täglich gibt es Medienberichte über neue Entwicklungen, sowohl technischer als auch rechtlicher oder politischer Natur.

Die Veröffentlichung von ChatGPT, neue Bildgeneratoren wie etwa Midjourney, die Frage der Content Moderation auf Social-Media-Plattformen, die KI-Verordnung, urheberrechtliche Klagen gegen Big Tech, etc. ... Die Beweglichkeit dieses Bereichs macht die Forschungstätigkeit besonders interessant, bringt aber gewisse Herausforderungen mit sich: Welche Entwicklungen arbeitet man dynamisch in das eigene Forschungsprojekt ein – und wann muss man einen Punkt setzen, damit das Projekt nicht ausufert?

Wenn aktuell von KI-Systemen gesprochen wird, sind zwei verschiedenen Typen gemeint: Zum einen gibt es Prognosen oder Klassifizierungen, also Systeme, die Muster erkennen. Zum anderen gibt es KI-Systeme, die Inhalte erstellen: Text, Bild, Audio oder Video. Diesen Typus nennt man auch Generative KI. In der ursprünglichen Konzeptualisierung des Dissertationsprojekts „Data-based algorithmic systems and individuals“ war es nicht vorgesehen, auch Generative KI zu behandeln. Der Fokus sollte primär auf algorithmischen Entscheidungssystemen und ihrem staatlichen Einsatz liegen. Doch spätestens mit der Veröffentlichung von ChatGPT habe ich begonnen, darüber nachzudenken, den Fokus zu erweitern: Wenn man aktuell über KI und ihre gesellschaftliche Einbettung schreibt, muss man zumindest ein stückweit über Generative KI schreiben. Andererseits: Muss man wirklich jeder Entwicklung hinterherjagen und sie in die eigene Forschung einarbeiten?

Im Rahmen der Beschäftigung mit Large Language Models, natürlich insbesondere mit ChatGPT, habe ich bereits einen Langessay in der Zeitschrift Merkur verfasst (open access verfügbar hier). Mir wurde mit der Zeit klar, dass gerade aus gerechtigkeitstheoretischer Perspektive ähnliche Themen bei Entscheidungssystemen sowie bei Generativer KI aufkommen, vor allem dann, wenn staatliche Institutionen oder Institutionen mit staatlichem Auftrag Generative KI verwenden, um mit Individuen in Beziehung zu treten.

Anfang Jänner präsentierte das AMS (Arbeitsmarktservice) einen Chatbot, der auf ChatGPT basiert – den „Berufsinfomat“. Dieser Chatbot ist öffentlich verfügbar und soll User*innen dabei helfen, den Weg zum passenden Traumberuf zu finden oder, wenn man keinen Traumberuf hat, sich einen auszudenken. Kurz nach der Veröffentlichung posteten User*innen Screenshots von klischeehaften und stereotypen Outputs des Berufsinfomats: Frauen wurde geraten, Psychologie oder Gender Studies zu studieren, und Männern wurde eine Karriere im IT-Bereich vorgeschlagen (siehe hier). Diese stereotypen Antworten sind in der datenbasierten Methode angelegt – hier wurde ich dazu interviewt.

Wie eine staatliche Institution mit Individuen interagiert, liegt im Kern meines Dissertationsprojekts – und mit dem Berufsinfomat war es entschieden: Generative KI wird einen Platz im Dissertationsprojekt finden – nicht als Selbstzweck, sondern nur insoweit, als es dem Erkenntnisgewinn auf gerechtigkeitstheoretischer Ebene zuträglich ist.

 

Tags:

Generative KI Large Language Models Bias
CAPTCHA
Diese Frage dient der Überprüfung, ob Sie ein menschlicher Besucher sind und um automatisierten SPAM zu verhindern.
    Datenschutzinformation
    Der datenschutzrechtliche Verantwortliche (Internet Privatstiftung Austria - Internet Foundation Austria, Österreich würde gerne mit folgenden Diensten Ihre personenbezogenen Daten verarbeiten. Zur Personalisierung können Technologien wie Cookies, LocalStorage usw. verwendet werden. Dies ist für die Nutzung der Website nicht notwendig, ermöglicht aber eine noch engere Interaktion mit Ihnen. Falls gewünscht, treffen Sie bitte eine Auswahl: