Imaginäre Aktanten und das Subjekt (in) der Kulturellen Bildung

Überlegungen zur Bedeutung Künstlicher Intelligenz für ästhetische Bildungsprozesse

Artikel-Metadaten

von Torsten Meyer

Erscheinungsjahr: 2024

Peer Reviewed

Abstract

Die Ende 2022 mit der Veröffentlichung von ChatGPT-3 in die öffentliche Wahrnehmung gekommenen, „Künstliche Intelligenzen“ genannten IT-Systeme, sind wohl derzeitiger Höhepunkt des komplexen technologischen und in der Folge kulturellen Wandlungsprozesses, der mit dem Schlagwort „Digitalisierung“ gefasst wird und zur Formulierung einer durch komplexe Wechselprozesse von Technologienentwicklung und Nutzungskultur entstandenen „Kultur der Digitalität“ (Stalder 2016) geführt hat. Spektakulär – zumindest für den Kontext der visuellen Künste – sind hier unter anderem auch bildgenerierende KIs, die uns im Frühjahr 2023 die Imagination des Papsts in stylischer Daunenjacke, die Imagination der Festnahme des sich mit Händen und Füßen wehrenden Ex-Präsidenten der USA und die Imagination des Kniefalls von Vladimir Putin vor dem Chinesischen Staatschefs Xi Jinping beschert haben. Die Bedeutung dieser KIs für die Kulturelle Bildung leuchtet unmittelbar ein – zumindest für die Sparten Kultureller Bildung, die mit der Produktion und Rezeption von Bildern zu tun haben. Um die grundlegenden Wirkungen auf unser Verständnis von Bild, von Bild-Produktion und -rezeption, um Betrachter*innenstandpunkte und Subjektpositionen geht es im ersten, auf mediologischen und epistemologischen Überlegungen basierenden Teil dieses Beitrags. Der zweite Teil, der einen Ausflug in die Akteur-Netzwerk-Theorie nötig macht, um das Phänomen KI besser verstehen und beschreiben zu können, befasst sich allgemeiner mit dem Verlust von Vertrauen und dem Verlust von Kontrolle in den algorithmischen Medienkulturen, die die Lebenswelten des fortgeschrittenen 21. Jahrhunderts prägen und deshalb von zentraler Bedeutung für die Zukunft auch der Kulturellen Bildung sind.

Vorbemerkung

Zunächst eine Vorbemerkung zum Begrifflichen. Vielleicht haben Sie bemerkt, dass ich oben den Begriff „Künstliche Intelligenz“ in Anführungszeichen gesetzt habe. Der Begriff, den John McCarthy 1956 vorgeschlagen hat, hat sich durchgesetzt und ich will das Thema nicht unnötig verkomplizieren und werde auch im Folgenden durchgehend die Abkürzung „KI“ verwenden, wenn ich entsprechende Softwaresysteme meine. Aber zutreffend ist das eigentlich nicht. Es handelt sich genauer betrachtet nicht um wirklich „künstliche“ Intelligenz, sondern um „erweiterte (menschliche)“ Intelligenz. „Jedes Stück Software ist ein Stück erweiterte menschliche Intelligenz”, schreibt die Digital-Ethikerin Ladan Pooyan-Weihs (2020) und warnt davor, dass der Begriff „Künstliche Intelligenz” zu überhöhten Erwartungen, Fantastereien oder umgekehrt zu beklemmenden Gefühlen, in jedem Fall einfach in die Irre führt.

Imaginationen

Die im Abstract genannten Beispiele für Produkte bildgenerierender KI – der Papst in Daunenjacke, die Festnahme Donald Trumps, der Kniefall Putins – haben, wenn man der öffentlichen Berichterstattung folgt, ein Problem. Sie sind nicht echt. Sie bilden nicht die (oder vorsichtiger: eine) Realität ab. Und richtig, es sind Bilder, aber keine Abbilder. Es sind keine Abbilder von irgendetwas, von tatsächlich existierenden Objekten oder tatsächlich geschehenen Geschehnissen. Es sind Imaginationen, Ein- und nicht Ab-Bildungen, Bilder zwar, Bildungen, Gebilde im weitesten Sinn, aber Produkte der Ein-Bildungskraft, nicht der Ab-Bildungskraft.

Die Imagination, Einbildungs- oder Vorstellungskraft ordnen wir üblicherweise einzelnen menschlichen Individuen zu, nun aber können wir der bildgenerativen KI – im Fall von Midjourney tatsächlich wörtlich – befehlen: /imagine … – mache Dir (und mir) ein Bild von … – the Pope in a stylish puffer jacket walking through the streets of Rome. Der /imagine-Befehl startet den Prozess der maschinellen Imagination des dem Befehl folgenden Prompts und die KI produziert das per Prompt beschriebene Bild in – wenn man das will – fotorealistischer Qualität. Ebenso denk- und machbar wäre, das Bild im typischen Stil van Goghs malen zu lassen oder im Manga-Style zeichnen oder in einer anderen, ganz und gar beliebigen Weise darstellen zu lassen.

Bild- und videogenerierende KIs können Elvis wiederauferstehen und bei America‘s got Talent antreten lassen (Talent Recap 2022) oder die Mona Lisa (und eine Reihe weiterer Protagonist*innen aus der Bilderwelt der europäischen Hochkulturgeschichte) erklären lassen, warum es sinnvoller ist, Urlaub in Dänemark zu machen als im Louvre Schlange zu stehen (Kahil 2023). So etwas konnte man auch schon vor dem Hype bildgenerierender KIs im Frühjahr 2023 „von Hand“, also mit Photoshop und ähnlicher Bildbearbeitungssoftware realisieren, aber es war und ist erheblich arbeitsaufwendiger und erheblich teurer. Nun lässt sich mit Minimalbudget und quasi augenblicklich auf Knopfdruck jedes Bild erzeugen, das die KIs vermittels Prompt imaginieren können.

Selbstverständlich wird diese Technologie nicht nur eingesetzt, um Bilder zur Erheiterung (und zur algorithmisch mess- und verwertbaren Aufmerksamkeit) des Publikums zu produzieren. Sie wird zum Beispiel ebenso im US-amerikanischen Wahlkampf genutzt, um damit Einstellungen und Wahlverhalten der Bevölkerung zu beeinflussen. So hat die Republikanische Partei gleich im Mai 2023 einen Wahlwerbespot erstellen lassen, der als erster KI-generierter Werbespot in der US-Wahlkampfgeschichte eingegangen ist. Der Spot besteht komplett aus KI-generierten Bildern, die den Amtsinhaber Joe Biden als „the weekest President we’ve ever had“ diskreditieren sollen. Dazu wird eine düstere Zukunft nach einem fiktiven Wahlsieg der Demokraten gezeichnet: China greift Taiwan an, die amerikanischen Banken kollabieren, Flüchtlingsströme durchbrechen die Grenzen im Süden der USA, und in den amerikanischen Großstädten eskalieren Kriminalität und Gewalt (vgl. König 2023) – und alles wird fotorealistisch imaginiert von der KI, damit es sich tief ins Unterbewusstsein des Publikums einschleicht.

Es ist vielleicht kein allzu großes Wunder, dass die Republikanische Partei trotz weltweiter Diskussion um die Risiken und Täuschungsmöglichkeiten von Künstlicher Intelligenz diese KI-Technologie nutzt, um ihre Ziele zu erreichen. Die Werbespots der US-Amerikanischen Wahlkämpfe sind dafür bekannt, sehr hart mit dem Gegner umzugehen. Auch die Demokraten schrecken davor nicht grundsätzlich zurück. Darüber hinaus ist das Vertrauen in die Glaubhaftigkeit der Wahlkampfbotschaften durch die Trump-Kampagne bei der Präsidentschaftswahl 2016, in der es mit Hilfe der Auswertung von Social Media Nutzerdaten mutmaßlich gelungen war, durch politisches Targeting via Facebook die eigenen Anhänger:innen zu mobilisieren und zugleich potenzielle Wähler:innen der Gegenkandidatin Hillary Clinton vom Urnengang abzubringen (Zeit online 2018), ohnehin drastisch gesunken und die Hemmschwellen entsprechend herabgesetzt.

Aber nicht nur die amerikanischen Republikaner oder hier die AfD (vgl. Watson 2023), auch die Menschenrechtsorganisation Amnesty International nutzt KI-generierte Bilder für ihre Kampagnen. Zumindest hat sie dies im Frühjahr 2023 das erste und vielleicht auch gleich das letzte Mal getan. Amnesty hatte eine Instagram Story über Menschenrechtsverletzungen der kolumbianischen Polizei bei den massiven Protesten gegen die Steuerreform der Regierung 2021 veröffentlicht. Illustriert war der Beitrag mit KI-generierten Bildern, um – so Amnesty International – andernfalls real abgebildete Personen vor eventueller staatlicher Verfolgung zu schützen. Eigentlich ein passabler Grund. Dennoch hagelte es heftige Kritik, die sich im Wesentlichen darauf bezog, dass Amnesty International nicht auf diese Weise seine Glaubwürdigkeit verspielen dürfe (vgl. Schräer 2023). „Sorry but this is irresponsible beyond words“, schreibt etwa @Stellaratum. „Die Pandora-Büchse ist auf. Amnesty benutzt AI für Advocacy und unterminiert damit die Glaubwürdigkeit der eigenen Arbeit. Um Gottes Willen“, so @David_Schraven vom deutschen Faktencheckportal Correctiv. Und Roland Meyer schreibt als @bildoperationen, dass die Verwendung computergenerierter fotorealistischer Illustrationen nicht nur die Grenzen zwischen Fakt und Fiktion verwische, „sie entwertet auch die Arbeit all jener mutigen Reporter und Fotografen, die jahrzehntelang Menschenrechtsverletzungen dokumentiert haben […] Und da die Bildsynthese fast zwangsläufig visuelle Stereotypen reproduziert und verstärkt, verwandelt ihr sorgloser Gebrauch als Ersatz für die Dokumentarfotografie die Welt in ein Klischee“ (zitiert nach Böhm 2023).

In vielleicht vergleichbarer Weise spielt das englische Königshaus mit dem ihm traditionellerweise entgegengebrachten Vertrauen – wenn auch nicht explizit mithilfe von KI, sondern mit schlecht gemachter Bildmanipulation von Hand. So wurde das im März 2024 veröffentlichte Foto der Princess of Wales, auf dem sie wohlauf lachend zwischen ihren Kindern zu sehen ist, während sie sich von einer Bauch-OP erholt (und die damit zusammenhängende Krebs-Diagnose überspielt), von mehreren Nachrichtenagenturen wegen offensichtlicher Manipulationen wieder zurückgezogen. AFP meldete gar, dass Kensington Palace ab sofort „keine zuverlässige Informationsquelle“ (Ibrahim 2024) mehr sein könne.

Bemerkenswert in diesem Zusammenhang ist auch das Bild, dass den Sony Photography Award 2023 in der Kategorie „Creativ” gewonnen hat. Denn dieses Bild war keine Fotografie, sondern wurde generiert mithilfe einer KI. Der Fotograf Boris Eldagsen hatte das Bild „Pseudomnesia: the Electrician” – wie er selbst schreibt – testweise eingereicht, um herauszufinden, ob Wettbewerbe wie der Sony Photography Award vorbereitet seien auf KI-Bilder. Sie sind es nicht, stellt er in seiner Dankesrede fest, die zugleich Begründung für die Ablehnung des Preises ist:

„Thank you for selecting my image and making this a historic moment, as it is the first AI generated image to win in a prestigous international PHOTOGRAPHY competition. How many of you knew or suspected that it was AI generated? Something about this doesn’t feel right, does it? AI images and photography should not compete with each other in an award like this. They are different entities. AI is not photography. Therefore I will not accept the award.” (Eldagsen 2023)

Eldagsen will damit eine Diskussion anstoßen darüber, was in der professionellen Fotowelt als Fotografie angesehen wird und was nicht. Diese Diskussion sollte nicht nur in der Welt der professionellen Fotografie geführt werden. Denn, worum es dabei geht, ist sehr viel größer als die Welt der professionellen Fotografie.

Perspektiven

Etwa 500 Jahre nach Erfindung der technologischen Grundlagen gelang es dem Kunsthistoriker Erwin Panofsky, die „Perspektive als symbolische Form“ der Neuzeit zu analysieren (Panofsky 1927). Mit dem schon im Titel seines Essays genannten Begriff rekurriert Panofsky auf Ernst Cassirer, dessen „Philosophie der Symbolischen Formen“ (Cassirer 1921) nach dem „symbolischen Ausdruck, d.h. den Ausdruck eines ‚Geistigen‘ durch sinnliche ‚Zeichen‘ und ‚Bilder‘, in seiner weitesten Bedeutung“ sucht. Cassirer fragt, „ob dieser Ausdrucksform bei aller Verschiedenheit ihrer möglichen Anwendungen ein Prinzip zugrunde liegt, das sie als ein in sich geschlossenes und einheitliches Grundverfahren kennzeichnet“ (Cassirer 1921:175).

Ein solches Prinzip, eine solche „einheitliche und allgemeingültige Struktur“ findet Panofsky, indem er von der Darstellungstechnologie der Zentralperspektive im engeren Sinn ausgeht und sie wie folgt verallgemeinert: „Die Zentralperspektive bringt die künstlerische Erscheinung auf feste, ja mathematisch-exakte Regeln, aber sie macht sie auf der anderen Seite vom Menschen, ja vom Individuum abhängig [...] So läßt sich die Geschichte der Perspektive mit gleichem Recht als ein Triumph des distanzierenden und objektivierenden Wirklichkeitssinns und als ein Triumph des distanzverneinenden menschlichen Machtstrebens, ebensowohl als Befestigung und Systematisierung der Außenwelt wie als Erweiterung der Ichsphäre begreifen“ (Panofsky 1927:287).

Als Erfinder der Zentralperspektive gilt der Florentiner Maler und Architekt Filippo Brunelleschi. Seine perspektivische Abbildung des Baptisteriums in Florenz, die als erste, inzwischen leider verschollene zentralperspektivische Darstellung gilt, schien ihm selbst so überwältigend, dass er zwecks intersubjektiver Überprüfung ein Experiment vorschlug, das sich als eines ungeheurer Tragweite herausstellte. Wie von Antonio Manetti überliefert (vgl. Schmeiser 2002: 26ff), sollten sich willkürliche Betrachter*innen in der Mitteltür des dem Baptisterium gegenüberliegenden Doms, dem Projektionspunkt der Abbildung, aufstellen und den Blick, den sie von dort aus haben, mit dem Blick auf die Bildtafel vergleichen. Alle Betrachter*innen würden das Baptisterium von dort aus so sehen, wie es Brunelleschi gesehen hat. Genauer sollten die Betrachter*innen durch ein kleines Loch in der Mitte der Bildtafel, die sie umgedreht zwischen sich selbst und das Baptisterium halten sollten, zunächst das Baptisterium im Original ansehen und dann einen Spiegel zwischen die Abbildung und das Original halten, um so das Gemälde anstelle des Baptisteriums zu sehen. Laut Manetti gelang dieses Experiment. Die Betrachter*innen konnten sich mit dem Maler (im engsten Wortsinn) „austauschen“ und waren überzeugt, dass dies die richtige, überindividuell korrekte, objektive Darstellung des Baptisteriums von Florenz war. Man könnte das visuelle Empathie nennen: Der*Die Betrachter*in versetzt sich in den*die Maler*in hinein: ich an deiner Stelle. Perspektivübernahme im engsten Wortsinn.

Der subjektive Blick wurde damit transportabel und verallgemeinerbar. Alle Menschen, die den Standpunkt des Zeichners vor der Bildtafel einnehmen, unabhängig davon, wo sich diese befindet, konnten das Baptisterium wieder so sehen, wie Brunelleschi es gesehen hat, als er es gemalt hatte. Dies wurde möglich, weil der Standpunkt des perspektivischen Konstrukteurs (das Guckloch in der Bildtafel) von der Abbildung selbst mitkommuniziert wird – dank Konstruktionsregeln, die unabhängig vom konkret Abgebildeten beschreibbar waren.

Mit Brunelleschis Experiment deutet sich eine damals neue Kommunikationstechnologie, zunächst visueller Art, an. Die Zentralperspektive ermöglichte es, Erfahrungen zu wiederholen, die unbekannte Betrachter*innen irgendwann irgendwo gewonnen haben. Sie ermöglicht es, visuelle Informationsverarbeitung zu kopieren und dadurch „Standpunkt und Perspektive von anderen Menschen zu programmieren“ (Giesecke 1998:103). Und die zentralperspektivische Abbildungstechnologie erlaubt es, visuelles Wissen als Ding, als Bildtafel, zu transportieren. Sofern man nur der Vereinbarung zustimmt, dass sich Maler*in und Betrachter*in, wenn auch nacheinander, am gemeinsamen Standpunkt des perspektivischen Fluchtpunkts einfinden, kann die Bildtafel von ihrem Entstehungsort aus irgendwohin transportiert werden, ohne die Eigenschaft der objektiven, weil durch Brunelleschis Experiment verbürgten, Repräsentation einzubüßen.

Unschwer lässt sich hier die Fotografie als in eine technische Apparatur überführtes Prinzip der Zentralperspektive erkennen, dass die Jahrhunderte lange Erfolgsgeschichte der Zentralperspektive als Darstellungstechnologie seit Mitte des 19. Jahrhunderts noch einmal potenziert hat. Das fotografische Bild hat sich als Darstellungsmittel allgemein durchgesetzt und gilt sogar als juristisch wirksames Beweismittel der Wahrheit des Abgebildeten, z.B. im Fall des Blitzerfotos bei Geschwindigkeitsüberschreitungen im Straßenverkehr oder ganz allgemein als korrekte Darstellung der Realität, d.h. – fachsprachlich formuliert – als „objektive[...] Wiedergabe vergangener Begebenheiten bzw. […] Wiedergabe einer Szene, wie sie mit dem menschlichen Auge zum Zeitpunkt der Aufnahme gesehen wurde“ (Rabe 2020, der sich verblüffend eng auf das Experiment Brunelleschis zu beziehen scheint).

Vor allem aber sind wir es seit 500 Jahren gewohnt, zentralperspektivische Darstellungen und seit etwa 150 Jahren gewohnt fotografische Darstellungen als richtig, real, korrekt, wirklich anzusehen und ihnen im Hinblick auf Repräsentation und Wahrhaftigkeit zu vertrauen, weil wir – so könnte man im Rekurs auf Brunellschis Experiment sagen – auf diese visuelle Empathie medial extrem gut trainiert sind. Jedes fotografische Bild, das ich ansehe, erinnert mich unbewusst an die unausgesprochene Vereinbarung (und trainiert diese zugleich), dass Produzent*in und Rezipient*in sich am gemeinsamen Standpunkt des zentralperspektivischen Augpunkts einfinden müssen, um dem der Methode inhärenten Konstruktionsprinzip zu entsprechen und so dem zentralperspektivischen und fotografischen Bild diese umfassende Allgemeingültigkeit zu geben.

Aber eben diese Vereinbarung, dass sich Produzent*in und Rezipient*in am gemeinsamen Standpunkt einfinden sollen, wird nun durch bildgenerative KIs gebrochen. Die KIs produzieren Bilder, die Fotografien zum Verwechseln ähnlich sehen, aber es hat, auch wenn es mir Dank hartem Training so scheint, – um die kriminalistische Formulierung zu nutzen – kein menschliches Auge zum Zeitpunkt der Aufnahme gesehen, was mir nun imaginiert wird. Tatsächlich ist das Auge des*der Produzent*in in diesem Fall das innere Auge der Blackbox KI, die all die menschlich erzeugten Bilder ihres Trainingsmaterials zusammenrechnet zu einer Perspektive, die man mit Jacques Lacan im Hinterkopf als Perspektive des statistischen (großen) Anderen bezeichnen könnte.

Plausibilitäten

Die unausgesprochene Vereinbarung, dass sich Produzent*in und Rezipient*in am gemeinsamen Standpunkt einfinden sollen ist eine Symbolische Form, wie Panofsky mit Verweis auf Cassirer formuliert hatte: Die Zentralperspektive als ritualisierte Form der Wahrnehmung, als Symbolische Form der Neuzeit. Aber diese Symbolische Form funktioniert nicht mehr, wenn generative KIs im Spiel sind. Es wird sich eine neue Symbolische Form für den Umgang mit solchen KI-generierten Bildern entwickeln, vermutlich – das legt Régis Debray in seiner „Geschichte der Bildbetrachtung im Abendland“ (2007) nahe – eine Form, die das KI-generierte Bild nicht – wie das fotografische Bild – als Ikon im Sinne der Semiotik Charles Sanders Peirce‘ begreift, also als Zeichen, das aufgrund formaler Ähnlichkeit zwischen Signifikat und Signifikant funktioniert, sondern als Symbol, also als Zeichen, das Signifikat und Signifikant über einen Code miteinander verbindet und das also nur für Rezipient*innen funktioniert, die diesen Code kennen.

Dabei ist klar, dass Fotografien keine rein ikonischen Zeichen sind. Sie haben häufig, z.B. im Fall der Inszenierung auch symbolische und – physikalisch betrachtet – ebenso indexalische Aspekte. Und die genannten Beispiele KI-generierter Bilder haben ohne Zweifel auch ikonische Anteile. Hier aber ist die Unterscheidung im engeren Sinn gemeint, den Roland Barthes als „Noema“, als Sinngehalt der Fotografie gefasst hatte: „Es-ist-so-gewesen“. Der „Photographische Referent“ ist die „notwendig reale Sache, die vor dem Objektiv platziert war und ohne die es keine Photographie gäbe“, nicht hingegen die „möglicherweise reale Sache, auf die ein Bild oder ein Zeichen verweist“ (Barthes 1985:86f), das z.B. von einer KI imaginiert wurde.

Das erfordert andere, neue Bildkompetenzen. Wenn wir den Prognosen über die Entwicklung der bildgenerativen KI folgen, können wir sicher davon ausgehen, dass es in Kürze nicht mehr – auch nicht bei explizit geschulter Bildkompetenz – durch Betrachter*innen beurteilbar ist, ob ein fotografisch anmutendes Bild tatsächlich fotografisch produziert oder von einer KI errechnet wurde. Fehler in der Logik des Ikonischen, zum Beispiel bzgl. Anzahl der Finger an menschlichen Händen oder Anzahl der Beine an menschlichen Körpern, Formen von Ohren oder Größen von Schuhen (um an die o.g. Beispiele KI-generierter Bilder zu erinnern), werden die Weiterentwicklungen der aktuellen KIs in unmittelbar naher Zukunft nicht mehr machen. Es würde also nachhaltig gar nicht helfen, hier auf weiter ausgefeilte Kompetenzen bzgl. abbildungslogisch formaler Plausibilitäten der Bilder zu setzen. Vielmehr sollte es vor dem Hintergrund symbolischer Verweislogik dieser Bilder vor allem um die kontextuelle Plausibilität gehen. Welche Kontexte ruft etwa die Darstellung von Flüchtlingsströmen an der mexikanischen Grenze auf? In welche übergeordneten Kontexte reiht sich die Strategie ein, diese Flüchtlingsströme foto-realistisch bzw. video-dokumentarisch erscheinen zu lassen? Und in welche weiter übergeordneten Kontexte reiht sich die Anwendung dieser Strategie im Kontext eines Wahlwerbespots ein? Der Beurteilung der Wahrhaftigkeit der Bilder müssten andere als formale Plausibilitäten der Logik des Ikonischen zugrunde gelegt werden. „Plausibilität“ leitet sich von lat. plausibilis, „beifallswürdig“ (vgl. Applaus) ab, es geht hier also nicht darum, ob etwas wahr und in diesem Sinn richtig ist, sondern ob es akzeptabel, annehmbar, begreiflich, einleuchtend, nachvollziehbar, überzeugend, verständlich ist. Eine solche Plausibilität ist gegenüber der formalen Plausibilität des visuell Ähnlichen weitaus komplexer und keinem noch so gut geschulten, (nur) visuell kompetenten menschlichen Subjekt unmittelbar zugänglich.

Eine zeitgemäße Kulturelle (Medien-)Bildung könnte für einen Minimalstandard an Kompetenz auch im rezeptiven Umgang mit visuellen Medien sichern. Dazu gehört eine kognitiv adressierte Medienkunde im Sinne der Aufklärung über Produktionsverfahren und Medienwirkungen, die helfen kann, sich in einer visuell geprägten Kultur zu orientieren und zu reflektieren, welchen Bildern – nicht nur im Hinblick auf die mit dem Begriff „Fake“ aufgerufene Unterscheidung wahr/falsch, sondern vor allem auch im Hinblick auf emotionale und soziale Perspektiven relevante Unterscheidungen gut/schlecht – zu trauen ist. Vielleicht ist das zu einer Zeit, in der unterschiedliche extrem gefährliche terroristische Gruppen sehr erfolgreich die Social Media Kanäle visuell zu bespielen lernen, ein sehr wesentliches Bildungsziel.

Empathie

Rückwärts betrachtet stellt die Zentralperspektive und in der Folge die fotografische Abbildungstechnologie – insbesondere vor dem Hintergrund Brunelleschis Experiment und der inkludierten Verabredung, dass Produzent*in und Rezipient*in mittels visueller Empathie am gemeinsamen Standpunkt des perspektivischen Fluchtpunkts die Plausibilität der Darstellung verbürgen – eine enorme Komplexitätsreduktion dar. – Und dies nicht nur für das gemeinsame Sehen, sondern ebenso für das Denken, für das (okzidentale) Bewusstsein im Allgemeinen. Denn die Reduktion des Menschen auf ein Auge und des Auges auf einen Punkt findet – wie Hubert Damisch (2015:62) mit Bezug auf Jacques Lacan betont – ihr Analogon im Cogito, das Réne Descartes in seinem „Discours de la méthode“ wenig später nach Erfindung der Zentralperspektive 1637 erstmalig in Worte fasst und das als „Geometralpunkt des okzidentalen Subjekts“ (Damisch ebd.) überaus weitreichende Folgen für die okzidentale Wissenschaft und Kultur im Allgemeinen hat. Ganz analog zur visuellen Empathie im Kontext der Zentralperspektive kann hier von gegenseitigem Vertrauen in die Perspektive der Vernunft (dem „gesunden Menschenverstand“) und insofern kognitiver Empathie gesprochen werden, mit der sich Produzent*in und Rezipient*in am Geometralpunkt des okzidentalen Subjekts gegenseitig der Plausibilität des (zunächst rationalistischen) Denkens versichern.

Aus dieser kognitiven Empathie entwickelte sich das Subjekt der Aufklärung, u.a. bei Schiller, Kant und Baumgarten auch als Ästhetisches Subjekt, das – produzierend und rezipierend – den ästhetischen Objekten gegenübersteht und in dieser Dichotomie Ästhetische Erfahrungen macht, die zu einer „Ästhetischen Erziehung des Menschen“ (Schiller) führen. In der Kulturellen Bildung ist dieses Ästhetische Subjekt auch heute noch als „Starkes Subjekt“ (Fuchs 2016, Taube et al. 2017) bekannt, das sich als solches vor der Staffelei oder auf der Bühne behaupten kann.

Eben dieses (starke) Subjekt aber ist in Diskussion geraten. Zum einen steht der Konzeption des Ästhetischen Subjekts generell eine neue Perspektive in Philosophie, Soziologie und Kulturtheorien entgegen, die sich im weiteren Sinn an Akteur-Netzwerk- und andere relationistische Theorieansätze anlehnen und vor allem von Konzeptionen von Ontologie, Erkenntnistheorie und in der Folge eben auch Ästhetik abwenden, die ausgehend vom cartesischen cogito die denkende Sache (res cogitans) von der ausgedehnten Sache (res extensa) trennen und die eine als Subjekt, die andere als Objekt definieren und beide säuberlich voneinander trennen. Diese Kritik wendet sich vor allem gegen die theoretische Unterkomplexität der Subjekt/Objekt-Dichotomie und des daraus folgenden Korrelationismus (Malik 2013). Zum anderen ist angesichts der Komplexität postdigitaler Lebenswelten der Anspruch der Souveränität des Subjekts problematisch geworden (Reißmann/Bettinger 2020). Die menschlichen Individuen in den digital-vernetzten Gesellschaften sind damit konfrontiert, dass sich der größere Teil ihrer Lebenswirklichkeit der Kontrolle und damit Souveränität des Subjekts entzieht. Sie können nicht mehr kontrollieren, wie die Daten und die Dinge miteinander interagieren, weil sie es durch hyperkomplexe Rechenmodelle jenseits der menschlichen Nachvollziehbarkeit tun. Die Komplexität der Interaktion von Informationen übersteigt die Vorstellungsfähigkeiten des Subjekts. Und es gibt keine solide Basis, keine zentrale Perspektive, keinen vernünftigen Standpunkt, keinen Ort der Empathie, von dem aus die Komplexität der Welt auf ein erträgliches Maß reduziert werden könnte.

Es ist kein Wunder, wenn Menschen, insbesondere Kinder und Jugendliche, die in die Komplexität der Gegenwart hineinwachsen, angesichts dieser Rahmenbedingungen am Anspruch des starken Subjekts scheitern und Gefühlslagen der Macht- und Wertlosigkeit entwickeln, an denen sie vermeintlich auch noch selbst schuld sind, wenn ihnen von Schule (und Kunstschule, Kinder-/Jugendtheater usw.) eingeredet wird, nun erst recht stark, kreativ und souverän sein zu müssen. Das sollte bzgl. der Bedeutung Künstlicher Intelligenz für die Kulturelle Bildung sowohl im Hinblick auf die Zunahme von Auffälligkeiten in der emotionalen und sozialen Entwicklung von Kindern und Jugendlichen als auch im Hinblick auf die Gefahr weiterer Vertiefung der digitalen Kluft (Digital Divide) mit bedacht werden.

Sujet

Vor diesem Hintergrund experimentiere ich gedanklich mit anderen Denkmodellen, die dem Denkmodell der Moderne als relativ starre Form, in die der fundamentale Dualismus von Ich und Welt, Subjekt und Objekt eingebrannt ist, etwas entgegensetzen, das im Sinne der o.g. relationalen Theorieansätze von der Figur des Netzes ausgeht (Meyer 2015, 2017, 2021a/b, 2022). Wenn wir zum Beispiel in diesem Sinne versuchen, Bildungstheorie als Actor Network Theory im Sinne Bruno Latours zu denken, können wir Bildungsprozesse weiterhin als „Transformationsprozesse von Selbst- und Weltverhältnissen“ verstehen, wenn wir dabei die umgebende materialisierte, virtualisierte und institutionalisierte Kultur nicht nur als bloße Rahmenbedingung, sondern als komplexes Netzwerk von menschlichen und nicht-menschlichen Akteur*innen und Objekten neben anderen Akteur*innen und Objekten begreifen, die untereinander in ganz unterschiedlichen Verbindungen und Abhängigkeiten stehen.

Bildung könnte in diesem Sinne verstanden werden als Resultat der Verknüpfung heterogener Komponenten zu Netzwerken. Solche Bildungsprozesse wären – abstrakt beschrieben – in dem Maß erfolgreich, in dem die beteiligten Komponenten – z.B. Lerner*innen, Lehrer*innen, Lehrpläne, Gegenstände, Suchmaschinen, Themen, Motive, Betriebssysteme, Begriffe, Räume, Konzepte, Medien, Mitschüler*innen, Möbel, Geräte, Archive usw. und vor allem auch KI-Systeme – sich in aufeinander abgestimmter Weise verhalten. In solchen Netzwerk-Bildungs-Prozessen wird die „Identität der Komponenten“ ebenso wie die Art und Weise ihrer gegenseitigen Verknüpfung zu einem „möglichen Gegenstand der Neubestimmung und Modifikation“ (Schulz-Schaeffer 2000:188). Das wäre eine abstrakte Neufassung der Definition von Bildung als Transformation von Weltverhältnissen.

Das Gesamtarrangement der an solchen Prozessen beteiligten menschlichen und nicht- menschlichen Entitäten, also das, was alles zusammenhält, nenne ich dabei Sujet, um damit etwas zu setzen, das mit dem, was wir gewohnt sind als Subjekt zu denken, wiedererkennbar in Verbindung steht, aber ebenso als „Thema“, „Stoff“, „Motiv“ usw. gelesen und in diesem Sinn kontextuell verstanden werden kann. Bildung würde dabei als performativ begriffen werden, als Netzwerk-Prozess, der sich bildet oder nicht. Als Prozess, der ein Funktions-Netz von menschlichen Individuen und anderen Objekten bildet, das performant – im Sinne: aktuell wirksam – werden kann. Diese Bildung wird nicht in erster Linie auf die Kompetenz des Subjekts (als menschlichen Individuum) zielen, sondern auf die Performanz der Bildung des Sujet (als Funktions-Netz, das alles zusammenhält).

Dieses Sujet ist mit dem, was wir gewohnt waren als Subjekt im Sinne intentional handelnder Akteur*innen zu verstehen und uns als Selbst-bewusstes Individuum vorstellten, nur noch bedingt in Einklang zu bringen. Die Perspektive ist verschoben hin zur Pluralität der am Bildungsprozess beteiligten Komponenten und deren Verbindungen untereinander.

Quasi-Subjekte

Trotz ihres ungefähr zeitgleichen Auftauchens mit zunehmend netzwerkförmiger Medientechnologie meint das Netzwerk im Sinne der Akteur-Netzwerk-Theorie kein epistemisches Ding, sondern eine epistemologische Haltung, kein Untersuchungsobjekt, keine Abbildung von irgendetwas, sondern eine Perspektive (vgl. Hensel/Schröter 2012). Als metaphorische „Knoten“ kann man die Akteure oder Agenten in Handlungszusammenhängen begreifen, als „Schnüre“, die verknotet werden, die Funktionsbeziehungen zwischen den „Knoten“. Dabei kommen – und darin besteht der fundamentale Perspektivenwechsel, den die Akteur-Netzwerk-Theorie in unser Verständnis des Sozialen und unser Verständnis des Subjekts und seiner Handlungsmacht gebracht hat – nicht nur menschliche Subjekte, sondern auch Dinge, Objekte, als nicht-menschlichen Akteure oder – wie Latour vorschlägt – Aktanten in Betracht. Ein einfaches Beispiel dafür ist das Funktions-Netz, das aus den beiden Agenten Revolver und Mensch entsteht und nicht auf einen dieser beiden reduziert werden kann:

 „Wer ist nun also der Akteur in meiner kleinen Geschichte, die Waffe oder der Bürger? Jemand anders (eine Bürger-Waffe, ein Waffen-Bürger). Wie Techniken hergestellt und wie sie eingesetzt werden, werden wir nie verstehen, wenn wir immer noch annehmen, das psychische Vermögen sei ein für alle mal festgelegt. Mit der Waffe in der Hand bist du ein anderer Mensch.“ (Latour 2006:487)

Wesentliche Anregung für die Entwicklung der Akteur-Netzwerk-Theorie war die Idee der Quasi-Objekte, die Michel Serres in seiner Studie über den „Parasiten“ (Serres 1987) am eindrücklichen Beispiel des kindlichen Ballspiels entwickelt:

„Sieh dir die Kinder da draußen an, wie sie Ball spielen. Die Ungeschickten spielen mit dem Ball wie mit einem Objekt, während die Geschickteren ihm dienen, als spielte er mit ihnen; sie passen sich seinen Bewegungen und Sprüngen an. Wir meinen, hier manipulierten Subjekte einen Ball; in Wirklichkeit zeichnet er ihre Bewegungen auf. Folgt man seiner Bahn, so entsteht damit ihre Mannschaft, sie wird erkennbar, stellt sich dar. Ja, hier spielt der Ball: aktiv.“ (Serres 1995:47f)

Für unsere Kontexte ist hier nicht nur interessant, dass der Ball überhaupt eine Art von Akteursstatus hat, sondern dass er insbesondere damit auch das Soziale bzw. Kollektive gestaltet. Die Mannschaft entsteht, wird erkennbar, stellt sich dar. Das gilt ebenso für andere Dinge, die wir – so Serres – „natürlich nicht“ als Subjekte bezeichnen können und deshalb von „technischen Quasisubjekten“ sprechen sollten: „Stichel, Schreibfedern, Tafeln, Bücher, Disketten, Konsolen, Speicher… erzeugen die Gruppe, die denkt, sich erinnert, sich ausdrückt und manchmal auch etwas erfindet“ (ebd.:48). Das schreibt Serres 1995, also noch drei Jahre bevor unter dem Namen „Google“ ein erstes, uns inzwischen allzu vertrautes Beispiel einer neuen Art von technischen Quasi-Subjekten online gegangen ist, die einen deutlich höheren Grad an Agency mit sich bringen und die Mannschaft, die Gruppe, das Kollektiv, die Gesellschaft auf noch ganz andere Art involvieren.

Mit den generativen künstlichen Intelligenzen kommt jetzt noch ein neuer, mit erheblich größerem Eigensinn ausgestatteter Ball ins Spiel, den ich mir – um den Unterschied zum Fußballspiel deutlich zu machen – vorstelle wie den von Joanne K. Rowling im Rahmen der Harry Potter Romanreihe erdachten „Golden Snitch“: Der Goldene Verräter oder Spitzel, Informant (weil durch ihn das Spiel sofort beendet und entschieden wird), ist einer von dreien und zugleich der wichtigste Ball im Quidditch-Spiel. Er ist sehr schnell und wendig, kaum zu sehen und wurde so verzaubert, dass er sich möglichst lange Zeit nicht fangen lässt. Er kann nach Zufallsprinzip Richtung und Geschwindigkeit ändern und herannahende Objekte wie Spieler*innen erkennen und ihnen ausweichen. Eindrucksvoll zu sehen z.B. im Film „Harry Potter und der Stein der Weisen“ (Harry Potter Lexikon 2024).

Ich gehe von der These aus, dass die digital-vernetzte Medientechnologie spätestens in der Form der aktuellen KI-Systeme eine neue Art von Quasi-Subjekten produziert, die man mit Jacques Lacan (und Bruno Latour) im Hinterkopf als imaginäre Aktanten bezeichnen könnte, weil sie Sinn produzieren, indem sie Signifikanten an Signifikate heften, also das Symbolische auf das Reale beziehen, wie menschliche Subjekte dies üblicherweise vermittels des Imaginären, durch ihre Einbildungskraft tun (vgl. Meyer 2017, 2021b). Aber das Imaginäre der Rechenmaschinen funktioniert anders. Die imaginären Aktanten haben zunächst einmal (fast) nichts mit den an menschliche Individuen gebundenen Subjekten zu tun, in die ich mich, wie zuvor beschrieben, visuell oder kognitiv empathisch hineinversetzen kann. Zwar kommt zum Beispiel ChatGPT als textbasiertes Dialogsystem daher, mit dem ich reden und schreiben kann, dem ich Fragen stellen, Antworten erhalten, Nachfragen stellen und differenziertere Antworten erhalten kann, die für mich auch relativ häufig und überraschend viel Sinn machen. Aber dass ich mich z.B. mit ChatGPT „austauschen“ (durchaus zu denken wie beim Austausch von Maler*in und Betrachter*in am zentralperspektivischen Fluchtpunkt) könnte, mich in ChatGPT „hineinversetzen“ könnte, wie man das von einer Kommunikation unter menschlichen Subjekten behaupten kann, das käme mir bei dieser Interaktion nicht in den Sinn. Ich weiß nicht, wie ChatGPT darauf kommt, was es mir vorschlägt, aufgrund welcher „Lebenserfahrung“ oder aufgrund welchen „gesunden Menschenverstands“ (oder dessen maschineller Entsprechung). Ich kann ChatGPT kein Subjekt unterstellen, mit dem ich empathisch umgehen könnte. Aber ChatGPT ist sicher auch kein passives Objekt, das von autonomen und souveränen Subjekten lediglich benutzt wird wie ein Bleistift oder ein Hammer.

Das kann man so ähnlich formulieren für die bildgenerativen KIs wie Midjourney & Co., ein Stückweit auch schon z.B. für die Suchmaschine Google, die freundlich mitdenkt, was ich wohl fragen möchte, während ich die Frage noch ins Eingabefeld tippe, und mir Möglichkeiten auflistet, wie die Frage weiter lauten könnte. Man könnte meinen, Google hört zu, ist aufmerksam, denkt mit, ist empathisch. Oder so ähnlich. Tatsächlich berechnet Google lediglich im Hintergrund auf Basis der von anderen Nutzer*innen gestellten Fragen die Wahrscheinlichkeit für dieses oder jenes weitere Wort in der Suchanfrage.

Nach diesem Prinzip der Wahrscheinlichkeit möglicher nächster Wörter im vortrainierten Vokabular arbeiten auch die auf Künstlicher Intelligenz basierenden Textgeneratoren wie ChatGPT. Wenn die Ergebnisse dieser Technologie auch zeitweise recht überzeugend sind und mir durchaus den Eindruck vermitteln, dass ChatGPT und ich miteinander im Symbolischen interagieren, ist dennoch für mich nicht verständlich, wie ChatGPT zu diesen Ergebnissen kommt. Was im „Kopf“ so eines Generative Pretrained Transformer (GPT) vor sich geht, kann ich nicht nachvollziehen. ChatGPTs Imagination – oder wie immer wir das nennen könnten – funktioniert anders als meine.

Techno-soziokulturelle Empathie

Das Imaginäre der hyperkomplexen Rechnersysteme liegt jenseits der menschlichen Nachvollziehbarkeit – wenn die menschliche Nachvollziehbarkeit sich auf das Selbstverständnis des souveränen (okzidentalen) Subjekts beschränkt. Mit einem veränderten Verständnis von Subjekt und einem entsprechend anderen Verständnis (der Verteilung) von Agency könnte durchaus nachvollzieh- und handelbar werden, wie die KIs auf ihre Ergebnisse kommen, zum Diskurs, zur Meinungsbildung und zur Sinnbildung beitragen und das soziokulturelle Ganze mitgestalten.

Das setzt zum einen ein gewisses Grundverständnis und Knowhow informatischer Datenverarbeitung im Kontext Big Data voraus, zumindest insoweit, dass das Technische und das Rationale der informatischen und statistischen Hintergründe nicht als „Gegenteil“ des Ästhetischen und Kulturellen begriffen werden. Das technische Knowhow ist aber nur das eine, die Effekte der kollektiven menschlichen Intelligenz, die durch diese Technologie performant wird, etwas ganz anderes. Die so bezeichnete Intelligenz der KIs basiert auf menschlicher Intelligenz insofern menschliche Artikulationen in Form von Texten, Bildern und anderen Trainingsmaterialien zugrunde liegen, die im Großmaßstab durch statistische Verfahren strukturiert und systematisiert werden. (Kognitive) Empathie wäre vorstellbar zwischen Rezipient*innen und den individuellen Produzent*innen dieser Trainingsmaterialien. Schwer fällt aber, Empathie zu entwickeln für die Produzent*innen im Plural, vor allem, wenn dieser Plural durch die statistischen Verfahren des maschinellen Lernens entsteht. Hier geht es um eine neue oder erweiterte Art von Empathie, eine kollektive, soziale oder kontextuelle, techno-soziale, techno-soziokulturelle Empathie. Es gilt, das Statistische, Stochastische, die Wahrscheinlichkeiten mit zu denken und zwar im Zusammenhang mit dem Kollektiv, den Menschen, den Subjekten, aber im Plural, im statistisch gemittelten oder überformten Plural und ein Gespür zu entwickeln vor allem für die Synergie-Effekte, die sich aus der Anwendung des einen auf das andere ergeben: Eine Empathie für den oben schon erwähnten statistischen (großen) Anderen im Sinne Jacques Lacans.

Möglicherweise ist hier der Begriff der „sozialen Empathie“, den Elizabeth Segal (2018) geprägt hat, ein vielversprechender Ausgangspunkt. Segal geht es – in Ergänzung zur emotionalen und kognitiven Empathie – um die Fähigkeit, die Belange und Interessen von Gruppen zu verstehen, auch und insbesondere Gruppen von Menschen aus verschiedenen sozialen Schichten und Kulturen. Denn je heterogener die Gruppen, desto mehr müssen die Individuen in der Lage sein, das Verhalten sozialer Systeme wie Mannschaften, Vereine, Firmen, Projektteams, Schulklassen, Familien und Gesellschaften zu verstehen und vorhersagen zu können, wenn sie erfolgreich in und mit diesen Systemen agieren und leben wollen.

Im Sinne relationaler Theorieansätze müsste Segals soziale Empathie aber erweitert werden, insofern es hier nicht nur um ein Gefühl, ein Verständnis für die Gruppe, sondern ein Gefühl für die Gruppe als Gesamtheit der menschlichen und der anderen, nicht-menschlichen sozialen Aktanten und Akteure geht. Eine solche techno-soziale oder techno-soziokulturelle Empathie würde das gesamte Funktions-Netz als Kontext umfassen und ein Bewusstsein schaffen für Synergie-Effekte wie KI-Bias aufgrund menschlicher Vorurteile, die u.a. auch durch mediale Aufmerksamkeitslogiken die ursprünglichen Trainingsdaten oder den KI-Algorithmus verzerren, die allgemeine Tendenz zur Klischeebildung und dem Verschwinden des Besonderen, das bis zum sogenannten KI-Modellcollaps (Valantic 2024) führen kann, wenn KI-generierte Materialien, die nur noch mittelbar menschliche Autorschaft aufweisen, in rekursiven Prozessen wieder zu Trainingsmaterialien für KIs werden.

Konsequenzen

Was tun? Was heißt das für eine zeitgemäße Kulturelle Bildung? Hier muss ich an die Fantasie und die Erfahrung der Praktiker*innen der Kulturellen Bildung appellieren und kann nur relativ abstrakte Leitlinien vorschlagen. Eine zeitgemäße Kulturelle Bildung sollte sich beteiligen an der Förderung von techno-soziokultureller Empathie im skizzierten Sinn. Kinder und Jugendliche sollten lernen können, empathisch mit komplexen medienkulturellen und sozialen Umwelten und Arrangements umzugehen. Neben anderen möglichen Akteuren hat die Kulturelle Bildung dafür mindestens eine hervorragende Voraussetzung, nämlich die Auseinandersetzung mit Kunst. Denn in diesem Kontext sind besondere, komische, merkwürdige Quasi-Subjekte und Quasi-Objekte in Form von Kunstwerken zentraler Gegenstand. Und mit deren sehr besonderen Eigenarten und Wirkmächten kennen wir uns in der Kulturellen Bildung sehr gut aus.

Dabei sollte man – auch wenn das in der Kulturellen Bildung Tradition hat und bei einigen Förderern gut ankommt – sich nicht auf das Modell des „starken Subjekts“ versteifen. Die Wahrscheinlichkeit, dass es gelingt, Subjekte zu bilden, die mit der hyperkomplexen aktuellen Medienkultur wirklich souverän umgehen können, ist verschwindend klein. Dafür ist die Sache einfach zu komplex.

Vielmehr sollte man auf die Bildung des Sujets im oben angedeuteten Sinn setzen: Situationen Kultureller Bildung schaffen, in denen sich Subjekte bilden können, die sich selbst als Teile und Teilhaber*innen künstlerischer, ästhetischer, kultureller Funktions-Netze mit verteilter Handlungsmacht begreifen, sich mit den involvierten Subjekten und Quasi-Subjekten arrangieren und alle beteiligten menschlichen und nicht-menschlichen Akteur*innen und Aktanten in ihren Funktionszusammenhängen verstehen lernen. Das mag für Theater- und Tanzkontexte und musikalische Zusammenhänge prinzipiell vertraut klingen, in eher traditionellen Kontexten visueller Kunst muss das noch eingeübt, vielleicht neu erfunden werden.In jedem Fall sollten wir dabei KI-Technologie benutzen und in die Sujets Kultureller Bildung integrieren. Selbstverständlich und so viel wie möglich – und dabei sollten wir darüber reden, uns gegenseitig bewusst machen, was wir da tun, wie wir Bedeutungen schaffen und wie wir Bedeutung lesen, welche Rolle die anderen Subjekte und Quasi-Subjekte dabei spielen – als Werkzeuge, Medien, Assistent*innen oder statistische große und kleine Andere –, was da neu, anders, seltsam ist und gemeinsam in Kommunikation und Austausch kommen, um zu verstehen, was die KIs mit uns machen (im doppelten Sinn), wie sie uns, unsere Alltagsgewohnheiten, unsere Kommunikation, unser Denken und (auch künstlerischen) Selbstverständnisse verändern und was sie mit uns zusammen tun können. Und wir mit ihnen. – Denn das ist gewissermaßen der Clou der pädagogischen Wendung der Akteur-Netzwerk-Theorie: Auch die KIs sind keine souveränen Subjekte, sie sind Quasi-Subjekte, Agenten in Funktionsnetzen. Sie beherrschen uns nicht, sondern bilden im Kontext der gemeinsamen Funktions-Netze in Auseinandersetzung, Austausch, Kollaboration und Kommunikation mit uns Handlungsmacht aus.

Verwendete Literatur

  • Barthes, Roland (1985): Die helle Kammer. Bemerkungen zur Photographie. Frankfurt/M.: Suhrkamp.
  • Böhm, Markus (2023): Menschenrechtsorganisation in der Kritik: Amnesty illustriert Polizeigewalt mit KI-generierten Bildern. Der Spiegel, 2.5.2023: https://www.spiegel.de/netzwelt/web/amnesty-international-illustriert-polizeigewalt-mit-ki-bildern-a-7d2b061e-73cd-454a-8847-88503f82f63a (letzter Zugriff am 22.8.2024).
  • Cassirer, Ernst (1921): Der Begriff der symbolischen Form im Aufbau der Geisteswissenschaften. In: Ders. (1983): Wesen und Wirkung des Symbolbegriffs (169-200). Darmstadt: Wissenschaftliche Buchgesellschaft.
  • Damisch, Hubert (2010): Der Ursprung der Perspektive. Berlin: Diaphanes.
  • Debray, Régis (2007): Jenseits der Bilder. Eine Geschichte der Bildbetrachtung im Abendland. Hamburg: Avinus.
  • Eldagsen, Boris (2023): Sony World Photography Awards 2023. Boris eldagsen: https://www.eldagsen.com/sony-world-photography-awards-2023/ (letzter Zugriff am 24.8.2024).
  • Fuchs, Max (2016): Das starke Subjekt. Lebensführung, Widerständigkeit und ästhetische Praxis (Schriftenreihe Kulturelle Bildung 49). München: kopaed.
  • Giesecke, Michael (1998): Der Verlust der zentralen Perspektive und die Renaissance der Multimedialität. In: Kemp, Wolfgang et al. (Hrsg.): Vorträge aus dem Warburg-Haus, Band 2 (85-116). Berlin: Akademie.
  • Harry Potter Lexikon (2024): Goldener Schnatz: https://harrypotter.fandom.com/de/wiki/Goldener_Schnatz (letzter Zugriff am 21.8.2024).
  • Hensel, Thomas; Schröter, Jens (2012): Die Akteur-Netzwerk-Theorie als Herausforderung der Kunstwissenschaft. Eine Einleitung. In: Zeitschrift für Ästhetik und Allgemeine Kunstwissenschaft 57(1), 6-19.
  • Ibrahim, Samantha (2024): Kensington Palace can’t be trusted after Kate Middleton fiasco. AFP news agency. 14.3.2024: https://nypost.com/2024/03/14/entertainment/kensington-palace-cant-be-trusted-after-kate-middleton-fiasco-afp-news-agency/ (letzter Zugriff am 22.8.2024).
  • Kahil, Nadine (2023): Denmark hijacks Mona Lisa’s fame with offbeat AI campaign. WIRED Middle East, 15.3.2023: https://wired.me/culture/denmark-hijacks-mona-lisa-with-ai/ (letzter Zugriff am 24.8.2024).
  • König, Maximilian (2023): Enthüllung im US-Wahlkampf: KI-Video gegen Joe Biden sorgt für Aufsehen. RedaktionsNetzwerk Deutschland, 3.5.2023: https://www.rnd.de/politik/enthuellung-im-us-wahlkampf-ki-video-gegen-joe-biden-sorgt-fuer-aufsehen-THTTXEGX75AQZIOEKV6IZBXJNQ.html (letzter Zugriff am 7.4.2024).
  • Latour, Bruno (2006): Über technische Vermittlung: Philosophie, Soziologie und Genealogie. In: Belliger, Andréa/Krieger, David J, (Hrsg.): Anthology. Ein einführendes Handbuch zur Akteur-Netzwerk-Theorie (483-528). Bielefeld: transcript.
  • Malik, Suhail (2013): Warum die zeitgenössische Kunst zerstört werden muss. In: Spike, 37, Herbst 2013 (128-134).
  • Meyer, Torsten (2015): Ein neues Sujet. In: Jörissen, Benjamin/Meyer, Torsten (Hrsg.): Subjekt Medium Bildung (Medienbildung und Gesellschaft 28) (93-116). Wiesbaden: Springer VS.
  • Meyer, Torsten (2017): Das Netzwerk-Sujet. In: Kiefer, Florian/Holze, Jens (Hrsg.): Netzwerk als neues Paradigma? Interdisziplinäre Zugänge zu Netzwerktheorien (Medienbildung und Gesellschaft 39) (39-63). Wiesbaden: Springer VS.
  • Meyer, Torsten (2021a): A New Sujet/Subject for Art Education. In: Tavin, Kevin/Kolb, Gila/Tervo, Juuso (Hrsg.): Post-Digital, Post-Internet Art and Education. The Future is All-Over (Palgrave Studies in Educational Futures) (131-145). London: Palgrave Macmillian.
  • Meyer, Torsten (2021b): Ein neues Sujet für die Ästhetische Bildung. Topologischer Versuch. In: Hartmann, Anne/Kleinschmidt, Katarina/Schüler, Eliana (Hrsg.): Subjekte Kultureller Bildung. Empirische Forschung zu Bildungsprozessen in Tanz, Theater und Performance (85-97). München: kopaed.
  • Meyer, Torsten (2022): Ästhetische Bildung nach dem Internet. Grübeleien über eine „Ästhetik digitaler Medien“ und deren Bildungspotentiale. In: Ide, Martina (Hrsg.): Ästhetik digitaler Medien. Aktuelle Perspektiven (209-231). Bielefeld: transcript.
  • Panofsky, Erwin (1927): Die Perspektive als ‚symbolische Form’. In: Ders.: Aufsätze zu Grundfragen der Kunstwissenschaft. Berlin: Spiess.
  • Pooyan-Weihs, Ladan / Bonin, Gabriela (2020): «Künstliche Intelligenz gibt es eigentlich nicht». Informatik an der Hochschule Luzern: https://hub.hslu.ch/informatik/kunstliche-intelligenz-gibt-es-nicht-wichtig-ist-digitale-ethik/ (letzter Zugriff am 22.8.2024).
  • Rabe, Frank (2020): Polizeiliche Fotografie: Anforderungen an das Beweismittel „digitales Foto“. In: Die Kriminalpolizei. Zeitschrift der Gewerkschaft der Polizei 12/2020: https://www.kriminalpolizei.de/ausgaben/2020/dezember/detailansicht-dezember/artikel/polizeiliche-fotografie-anforderungen-an-das-beweismittel-digitales-foto.html (letzter Zugriff am 22.8.2024)
  • Reißmann, Wolfgang/Bettinger, Patrick (2022): Editorial: Digitale Souveränität und relationale Subjektivität. In: merz 2022/06: Digitalität und Souveränität. Braucht es neue Leitbilder der Medienpädagogik? (3-12). München: kopaed.
  • Schmeiser, Leonhard (2002): Die Erfindung der Zentralperspektive und die Entstehung der neuzeitlichen Wissenschaft. München: Fink.
  • Schräer, Frank (2023): KI-generierte Bilder: Amnesty International in der Kritik. heise online 4.5.2023: https://www.heise.de/news/KI-generierte-Bilder-Amnesty-International-in-der-Kritik-8986433.html (letzter Zugriff am 7.4.2024).
  • Schulz-Schaeffer, Ingo (2000): Akteur-Netzwerk-Theorie. Zur Koevolution von Gesellschaft, Natur und Technik. In: Weyer, Johannes (Hrsg.): Soziale Netzwerke. Konzepte und Methoden der sozialwissenschaftlichen Netzwerkforschung (187-209). München u.a.: Oldenbourg.
  • Serres, Michel (1987): Der Parasit. Frankfurt/M.: Suhrkamp.
  • Serres, Michel (1995): Die Legende der Engel. Frankfurt/M.: Insel.
  • Segal, Elizabeth A. (2018): Social Empathy: The Art of Understanding Others. Columbia University Press.
  • Stalder, Felix (2016): Kultur der Digitalität. Frankfurt/M.: Suhrkamp.
  • Talent Recap (2022): ELVIS Comes Alive To Sing with Simon Cowell, Sofia Vergara and Heidi Klum on America’s Got Talent! 14.9.2022: https://www.youtube.com/watch?v=Jr8yEgu7sHU (letzter Zugriff am 24.8.2024).
  • Taube, Gerd/Fuchs, Max/Braun, Tom (Hrsg.) (2017): Handbuch Das starke Subjekt. Schlüsselbegriffe in Theorie und Praxis (Schriftenreihe Kulturelle Bildung 50). München: kopaed.
  • Valantic (2024): KI in der Krise: Trainingsdaten werden Mangelware: https://www.valantic.com/de/digital-now/ki-in-der-krise-trainingsdaten-werden-mangelware/ (letzter Zugriff am 24.8.2024).
  • Watson (2023): So nutzt die AfD KI-Fotos für Propaganda: https://www.watson.ch/digital/afd/174644994-so-nutzt-die-afd-ki-fotos-fuer-propaganda (letzter Zugriff am 7.4.2024).
  • Zeit online (2018): Cambridge Analytica: Facebook in Erklärungsnot. Die Zeit, 20.3.2018: https://www.zeit.de/digital/datenschutz/2018-03/cambridge-analytica-facebook-affaere-donald-trump-wahlkampf (letzter Zugriff am 7.4.2024).

Zitieren

Gerne dürfen Sie aus diesem Artikel zitieren. Folgende Angaben sind zusammenhängend mit dem Zitat zu nennen:

Torsten Meyer (2024): Imaginäre Aktanten und das Subjekt (in) der Kulturellen Bildung. In: KULTURELLE BILDUNG ONLINE: https://www.kubi-online.de/index.php/artikel/imaginaere-aktanten-subjekt-kulturellen-bildung (letzter Zugriff am 05.09.2024).

Veröffentlichen

Alle Texte dieser Website – also ausgenommen sind Bilder und Grafiken – werden (sofern nicht anders gekennzeichnet) unter Creative Commons Lizenz cc-by-nc-nd (Namensnennung, nicht-kommerziell, keine Bearbeitung) veröffentlicht. CC-Lizenzvertrag

Herunterladen

Dieser Artikel als PDF:

PDF erzeugen

Teilen