„KI als Partner? Neue Wege in der Evaluation von Kultur & Kulturpolitik. Frühjahrstagung des Arbeitskreises Kultur & Kulturpolitik der DeGEval am 12. und 13. März
2026 in München“
Auftakt über den Dächern der Stadt
Den Auftakt der Frühjahrstagung bildete ein lockeres Meet & Greet am Vorabend der Tagung in der Treppenhaus-Bar der Münchner Kammerspiele – hoch über dem nächtlichen Treiben der Stadt. In Kooperation mit der Bayerischen Landesgruppe der Kulturpolitischen Gesellschaft e. V. bot sich Gelegenheit zum Wiedersehen und zum Knüpfen neuer Kontakte. Eva Leipprand, Kulturpolitikerin und langjähriges Vorstandsmitglied der Kulturpolitischen Gesellschaft, sowie der Kulturmanager Borries von Notz begrüßten die Gäste und griffen dabei auch ein aktuelles kulturpolitisches Thema auf. In ihren Beiträgen ging es um die Entscheidung des Beauftragten der Bundesregierung für Kultur und Medien, Wolfram Weimer, drei Preisträger*innen des Deutschen Buchhandelspreises nachträglich und ohne administrative Legitimation den Preis zu entziehen. Diese Entwicklung sorgte auch im weiteren Verlauf des Abends für Gesprächsstoff. Für die musikalische Begleitung sorgte der Violin-Artist Gustavo Strauss, dessen Loop-Session dem informellen Austausch eine atmosphärische Note verlieh.
Ankommen im Goethe-Institut: KI als aktuelles Arbeitsfeld
Am Freitag, den 13. März, trafen sich rund 25 Teilnehmende in der Galerie der Zentrale des Goethe-Instituts in München. Die gastgebende Abteilung Strategie und Evaluation begrüßte die Anwesenden und verwies auf die hohe Aktualität des Tagungsthemas für die eigene Organisation. Zwar gebe es bislang keinen systematischen Einsatz von KI, doch gerade deshalb brauche es Räume zum Ausprobieren, zum Reflektieren und auch zum Verwerfen von Ansätzen. Schon in der Begrüßung wurde deutlich, dass neue Technologien nicht nur technische und rechtliche Fragen aufwerfen, sondern auch moralische und ethische Herausforderungen mit sich bringen.
Das Sprecherteam des Arbeitskreises – Charlotte Burghardt, Thomas Renz und Christian Steinau – dankte für die Gastfreundschaft und führte in das Programm ein. Künstliche Intelligenz prägt derzeit sowohl die praktische Arbeit vieler Evaluierender als auch zahlreiche Diskussionen innerhalb der DeGEval. Entsprechend naheliegend war es, dass sich der Arbeitskreis diesem Thema widmet.
KI in der qualitativen Datenanalyse: Praxis und Potenziale
Stella Eißner, Kulturmanagerin und Beraterin bei Syspons GmbH, zeigte in ihrem Beitrag „KI-gestützte Analysen – Praxisbeispiel, Live-Demo und Reflexion“, wie KI bereits heute in qualitativen Forschungsprojekten eingesetzt werden kann. Für die Analyse stellte sie verschiedene Tools vor, darunter Copilot mit datenschutzkonformen Servern in der EU, ChatGPT mit hoher Flexibilität, Claude für umfangreiche Textmengen sowie den AI-Assist von MAXQDA.
In der quantitativen Forschung spiele KI bislang eine geringere Rolle. Hier seien Forschende selbst Expert*innen für statistische Verfahren. Dennoch könne KI bei der Grobauswertung von Freitexten, bei der Überprüfung von Codierungen oder beim Auffinden von Code-Fehlern unterstützen. Zugleich betonte die Referentin, dass sich diese Einschätzung in den kommenden Jahren deutlich verändern dürfte.
Anhand einer qualitativen Medienanalyse erläuterte sie den praktischen Einsatz von KI. Zunächst werden Datensätze für die maschinelle Lesbarkeit vorbereitet. Darauf folgt das Prompting, also die präzise Beschreibung des Analyseauftrags. Hilfstabellen mit Kategorien strukturieren anschließend die Ergebnisse, bevor der Prompt gegebenenfalls angepasst und die Auswertung finalisiert wird. Empfehlenswert sei es, mit vertrauten Tools zu arbeiten und Prompts nach ihrer Finalisierung nicht mehr zu verändern, um Vergleichbarkeit zu gewährleisten. Als Herausforderungen nannte Stella Eißner Fragen des Datenschutzes, den ökologischen Fußabdruck, mögliche Bias-Verzerrungen, potenzielle Unlearning-Effekte bei Evaluierenden sowie eine zunehmende Komplexität der Arbeitsprozesse.
Bias und kulturelle Sensibilität: Wenn KI Vorannahmen reproduziert
Ein weiterer Schwerpunkt lag auf der Frage nach Verzerrungen in KI-gestützten Analysen. Anke Schad-Spindler, Lilian Häge und Veronika Ehm von EDUCULT aus Wien stellten Beispiele aus der Arbeit mit dem MAXQDA AI Assist vor. Unter Bias wird die mögliche Voreingenommenheit von KI-Systemen verstanden, die zu systematischen Verzerrungen führen kann. Für Evaluationen bedeutet dies eine besondere Herausforderung, da grundlegende Anforderungen an Fairness und Unparteilichkeit berührt werden. Neu beim AI Assist ist der Einsatz eines Large Language Models, das Zusammenfassungen erstellt und Codes generiert. Da Trainingsdaten häufig westliche und formal gebildete Perspektiven abbilden, besteht die Gefahr, dass bestimmte Weltbilder verstärkt werden. Der AI Assist nutzt dabei externe Modelle wie Claude oder Gemini, ohne dass transparent wird, welches System konkret zum Einsatz kommt. Die KI fungiert somit als Schnittstelle, die Daten interpretiert, filtert und in Prompts übersetzt. Konkrete Effekte wurden etwa bei der automatischen Erstellung von Illustrationen sichtbar, in denen ausschließlich weiße Personen dargestellt wurden, obwohl die Ausgangsdaten diese Einschränkung nicht vorsahen. Solche Beispiele verdeutlichen, wie gesellschaftliche Prägungen in KI-Systeme einfließen können. Als Gegenmaßnahmen empfahlen die Referentinnen eine stärkere Einbindung menschlicher Expertise sowie präzisere Prompting-Techniken.
Lokale KI und große Datenmengen in der Kulturförderung
John Ellingsworth zeigte in seinem Vortrag „Scaling Evaluation and the Impact of AI“, wie im Projekt Culture Moves Europe große Datenmengen mithilfe lokaler KI-Lösungen bearbeitet werden. Förderprogramme erzeugen heute umfangreiche Datensätze, die von Anträgen über Reiseinformationen bis zu Abrechnungen reichen. Herkömmliche Auswertungsmethoden stoßen dabei zunehmend an ihre Grenzen. Das Team experimentiert daher mit lokalen KI-Setups, um Daten zu strukturieren und zugänglich zu machen. Ein System mit bis zu zwei Millionen Datenpunkten läuft auf einem handelsüblichen MacBook und verdeutlicht die wachsende Leistungsfähigkeit solcher Lösungen. Schrittweise entstand eine Anwendung, die Anträge integriert, Reisebewegungen nachvollzieht, Belege dokumentiert und unterschiedliche Datentypen miteinander verknüpft. Daraus entwickelte sich ein analytisches System mit visuellen Zugängen. Ein Dashboard macht Mobilitätsdaten sichtbar und ermöglicht neue Fragestellungen, etwa zu Nachhaltigkeit oder Reiseverhalten. Auch die Dokumentenerschließung wurde kontinuierlich weiterentwickelt, wobei verschiedene OCR-Verfahren getestet wurden. Technisch basiert das System vollständig auf einer lokalen Infrastruktur, die Datensensibilität und Leistungsfähigkeit kombiniert. Im Zentrum stand schließlich die Frage der Evaluation selbst. Bei über 20.000 Bewertungen stellt sich zunehmend die Frage, wie Bewertungsprozesse überprüft werden können. KI kann Inkonsistenzen erkennen und Kriterien analysieren, wirft jedoch zugleich Fragen nach Kontrolle, Qualität und dem Verhältnis von maschineller Unterstützung und menschlichem Urteil auf.
Grundsatzfragen in den Diskussionen
Im Verlauf der Tagung verschob sich der Fokus der Diskussionen immer wieder von praktischen Anwendungen zu grundsätzlichen Fragen. Diskutiert wurde, ob Forschung mit KI noch vollständig reproduzierbar ist, wie groß der Interpretationsspielraum bleibt und ob intersubjektive Nachvollziehbarkeit weiterhin gewährleistet werden kann. Ebenso stellte sich die Frage, welche Gütekriterien Auftraggebende künftig definieren sollten und welche Haltung Organisationen gegenüber KI entwickeln müsse. Auch organisatorische Aspekte spielten eine wichtige Rolle. Teilnehmende berichteten von internen Leitlinien, von Ausprobierumgebungen abgekoppelt von der regulären IT-Infrastruktur sowie von Überlegungen zum Einsatz lokaler Small Language Models. Fortbildungsbedarf wurde deutlich, sowohl im technischen Bereich als auch hinsichtlich organisationsinterner Regelungen. Themen wie Datenschutz, Umgang mit hochgeladenen Daten und interne Verhaltenscodizes wurden intensiv diskutiert.
KI als dauerhafte Herausforderung
Am Ende der Tagung zeichnete sich ein gemeinsamer Eindruck ab. Künstliche Intelligenz verändert die Evaluation nachhaltig und fordert Organisationen heraus, eine eigene Haltung zu entwickeln. Diese Transformation ist mit Unsicherheiten verbunden, eröffnet aber zugleich neue Möglichkeiten. Kontinuierliches Lernen wird zur zentralen Voraussetzung, um mit der technologischen Entwicklung Schritt zu halten. Nur wenige Teilnehmende konnten von abschließenden Antworten aus ihren Organisationen berichten. Vielmehr befinden sich viele Einrichtungen noch in einer Phase des Ausprobierens und der Positionsbestimmung.
Ein großer Dank galt allen Referierenden und Organisierenden. Die Frühjahrstagung des Arbeitskreises Kultur & Kulturpolitik bot erneut einen geschützten Raum für offenen Austausch und zeigte, wie wichtig kollegiale Diskussionen sind, um die Chancen und Herausforderungen von KI gemeinsam zu reflektieren.