Netidee Blog Bild
Projektstart: Worum geht es?
Algorithmen, AI und ihre gesellschaftliche Auswirkungen (05.12.2022)
Förderjahr 2022 / Stipendien Call #17 / ProjektID: 6194 / Projekt: Algorithmen, AI und widerständige Praktiken

Algorithmische Anwendungen sind fester Bestandteil moderner Gesellschaften und üben durch die Beinflussung unseres Alltags Macht über uns aus. Dabei bleiben jedoch Handlungsspielräume, um diese Ansprüche zu unterwandern und umzukehren.

Die gegenwärtige Entwicklung von Computersystemen ist geprägt durch eine fortschreitende Automatisierung von Selektionsprozessen und der dabei zentralen Rolle von Algorithmen und „künstlicher Intelligenz“ („artificial intelligence“, AI). Die Delegierung von vormalig menschlichen Entscheidungen an Computersysteme bescheinigt diesen Technologien transformierende und disruptive soziale Kräfte, die mit der Einführung der Massenproduktion im 19. Jahrhundert verglichen werden können (boyd and Crawford 2012). Obwohl viele algorithmische Anwendungen lediglich Eingaben in spezifizierten Kalkulationsschritten und unter Berücksichtigung von Umweltparametern in Ausgaben transformieren und damit weitgehend als deterministisch begriffen werden können, ist eine Nachvollziehbarkeit der Ergebnisse durch die Vielzahl an komplexen Operationen und die Menge der dabei verarbeiteten Daten oft nicht mehr möglich. Algorithmische Anwendungen treten der menschlichen Erfahrung damit häufig als intransparente „black boxes“ gegenüber. Techniken wie „machine learning“ (ML), die durch die scheinbar selbstständige Erkennung von Muster in Daten den bereits seit den Anfängen der Informationstechnologien verfolgten Ambitionen nach Erreichung einer „generellen künstlichen Intelligenz“ neuen Aufschwung verleihen, tragen weiter zu dieser Undurchsichtigkeit bei.

Als automatisierte, in Software, Infrastrukturen und digitale Geräte eingebettete Abläufe sind algorithmische Anwendung und AI-Systeme heute fixer Bestandteil unseres Alltags (Lupton 2015). An jedem beliebigen Tag interagieren Menschen in modernen Informationsgesellschaften bereits mit hunderten Algorithmen, welche dadurch transformierende, disruptive und rekonfigurierende Einflüsse auf umfassende Lebensbereiche – Konsumption, Arbeit, Freizeit, Kommunikation, Mobilität, Sicherheit – ausüben (Allhutter et al. 2020; Roberge and Seyfert 2017). Ausgestattet mit den Möglichkeiten, unser alltägliches Erleben und Handeln innerhalb dieser algorithmisch transformierten Sphären zu beeinflussen, sind diese Systeme Ausdruck einer „society in which power is increasingly in the algorithm" (Lash 2007, S. 71). Doch Algorithmen werden in der Forschung der letzten Jahre nicht nur unter dem Fokus ihres Anteils an der Reproduktion gesellschaftlicher Ordnung betrachtet, sondern stehen auch in der Kritik, unter dem Begriff des „algorithmic bias“ vorherrschende Vorurteile zu bestätigen (Coeckelbergh 2020) und unter dem Schein einer algorithmischen Objektivität Kontrollregime herzustellen, die bestehende Machtverhältnisse stabilisieren (O'Neil 2016). Als soziotechnische Systeme, denen bestimmte Ansichten und Nutzungsvorstellungen eingeschrieben sind, transportieren sie gesellschaftliche Normen und Ideologien und erhalten damit eine inhärente politische Dimension. Als Ausdruck von Ambitionen der sozialen Steuerung entfaltet sich algorithmische Governance heute als spezifische Kontrollgewalt (König 2020, S. 468), die fernab ihrer scheinbaren Neutralität algorithmische Regime von Wissen und Macht implementiert (Kushner 2013).

Dabei findet die alltägliche Einbettung von algorithmischen Anwendungen aber nicht in einem luftleeren gesellschaftlichen Raum statt, sondern ist neben strukturellen Rahmenbedingungen ebenso geprägt von den Bedeutungen und Vorstellungen all jener, die mit ihnen interagieren. Auch wenn uns algorithmische Entscheidungen unter der Aura der objektiven Entscheidungsfindung und ausgestattet mit einem scheinbar autoritären Geltungsanspruch gegenübertreten, stehen einer technikdeterministischen Auffassung menschliche Akteur:innen gegenüber, welche versuchen können, Funktionsweisen zu verstehen, Ergebnisse zu deuten und schließlich durch die gezielte Beeinflussung weiterer Eingaben die eigentlichen Ziele von Systemen zu umgehen. Algorithmische Entscheidungssystem üben als „algorithmische Regime“ Macht aus, die, wie jeder Machtanspruch, von Nutzer:innen nicht uneingeschränkt akzeptiert werden muss und gegebenenfalls durch Interventionen und „deviante“, den von Algorithmen ausgedrückten Normen widersprechende Handlungen untergraben werden können. Diese Rekursivität der sozialen Beziehung mit Technologien stellt ein zentrales Novum bei der Interaktion mit Algorithmen dar.

Im Rahmen meiner Dissertation möchte ich mich vor dem hier kurz skizzierten Hintergrund mit den Verschränkungen algorithmischer Anwendungen mit gesellschaftlichen Praktiken unter Berücksichtigung des eines jeden Regimes inhärenten Konfliktpotenzials beschäftigen und mich besonders den dabei entstehenden Widerständen und devianten Nutzungsarten von menschlichen Akteur:innen widmen. Mithilfe einer relationalen Perspektive, die Algorithmen und AI als soziotechnische Systeme begreift, deren praktische Einbettung gesellschaftlichen Diskursen aus Macht- und Gegenmacht unterliegen und dabei Benutzer:innen algorithmischer Systeme die Möglichkeit zu deren sinnhafter Beeinflussung zuspricht, soll den Fragen nachgegangen werden, wie und aus welchen Gründen die von algorithmischen Systemen artikulierten Normvorstellungen durch „deviante“ Praktiken dekonstruiert und untergraben werden.

 

Literatur

Allhutter, Doris; Cech, Florian; Fischer, Fabian; Grill, Gabriel; Mager, Astrid (2020): Algorithmic Profiling of Job Seekers in Austria: How Austerity Politics Are Made Effective. In Frontiers in Big Data 3. DOI: 10.3389/fdata.2020.00005.

boyd, danah; Crawford, Kate (2012): Critical questions for big data. In Information, Communication & Society 15 (5), pp. 662–679.

Coeckelbergh, Mark (2020): AI ethics. Cambridge MA: The MIT Press (The MIT press essential knowledge series).

König, Pascal D. (2020): Dissecting the Algorithmic Leviathan: On the Socio-Political Anatomy of Algorithmic Governance. In Philos. Technol. 33 (3), pp. 467–485. DOI: 10.1007/s13347-019-00363-w.

Kushner, Scott (2013): The freelance translation machine: Algorithmic culture and the invisible industry. In New Media & Society 15 (8), pp. 1241–1258. DOI: 10.1177/1461444812469597.

Lash, Scott (2007): Power after Hegemony. In Theory, Culture & Society 24 (3), pp. 55–78. DOI: 10.1177/0263276407075956.

Lupton, Deborah (2015): Digital sociology. Abingdon Oxon: Routledge Taylor & Francis Group.

O'Neil, Cathy (2016): Weapons of math destruction. How big data increases inequality and threatens democracy. First edition. New York: Crown.

Roberge, Jonathan; Seyfert, Robert (2017): Was sind Algorithmuskulturen? In Robert Seyfert (Ed.): Algorithmuskulturen. Über die rechnerische Konstruktion der Wirklichkeit, vol. 26. Bielefeld: Transcript (Kulturen der Gesellschaft, Band 26), pp. 7–40.

 

Tags:

Algorithmen AI Algorithmische Regime KI Künstliche Intelligenz Macht

Thomas Zenkl

Profile picture for user t.zenkl
Thomas Zenkl ist wissenschaftlicher Mitarbeiter am Institut für Soziologie der Universität Graz und interessiert sich für die Wechselwirkungen zwischen Gesellschaft und Technologien. In seinem Promotionsprojekt beschäftigt er sich mit der Frage, wie Algorithmen und KI-Anwendungen soziale Beziehungen über die ihnen innewohnende "algorithmischen Macht" beeinflussen sowie warum und auf welche Weise sich die Nutzer:innen solcher Systeme abweichend von den eigentlichen Intentionen der Systeme verhalten. Im Gegensatz zu einer technodeterministischen Perspektive zielt dieser Ansatz darauf ab, die Transformation menschlicher Handlungsfähigkeit (und nicht ihre Unterdrückung) in den Fokus der Betrachtung zu stellen und somit die konfliktträchtige gesellschaftliche Einbettung "sozialisierter Maschinen" zu beleuchten.
CAPTCHA
Diese Frage dient der Überprüfung, ob Sie ein menschlicher Besucher sind und um automatisierten SPAM zu verhindern.
    Datenschutzinformation
    Der datenschutzrechtliche Verantwortliche (Internet Privatstiftung Austria - Internet Foundation Austria, Österreich würde gerne mit folgenden Diensten Ihre personenbezogenen Daten verarbeiten. Zur Personalisierung können Technologien wie Cookies, LocalStorage usw. verwendet werden. Dies ist für die Nutzung der Website nicht notwendig, ermöglicht aber eine noch engere Interaktion mit Ihnen. Falls gewünscht, treffen Sie bitte eine Auswahl: