art, context and the digital realm
2025
Hintergründe zum Aufbau einer prototypischen Veröffentlichungsinfrastruktur an der Universität der Künste Berlin

Dieser Text geht aus der Arbeit der vergangenen vier Jahre an der Universität der Künste Berlin hervor, in der von mir und meinem Team eine prototypische Veröffentlichungsinfrastruktur aufgebaut und erprobt wurde.¹ Diese sollte es Studierenden ermöglichen, physische Arbeiten und Entwürfe einer digitalen Öffentlichkeit zu präsentieren, ohne deren Entstehungszusammenhänge zu verkürzen. Die Rede ist vom Rundgangssystem der UdK Berlin als Teil der digitalen Plattform*udk/spaces*², die von 2021 bis 2024 in iterativen Zyklen entwickelt wurde. Im Folgenden werden grundlegende Konzeptionen, Beobachtungen und Entscheidungen aus diesem Prozess vorgestellt.Im Zentrum der Arbeit standen zwei miteinander verwobene Fragen: Wie lassen sich institutionell verantwortete Öffentlichkeiten jenseits zentralisierter privater Plattformen organisieren? Und wie kann der physische Kontext künstlerischer Arbeit im Digitalen so dargestellt werden, dass er – basierend auf den Stärken des Digitalen – eine Erweiterung und keine Reduktion erfährt?Ausgangspunkt war eine Unzufriedenheit, die sich in vielen Situationen wiederholte: gängige digitale Dienste Dritter setzen Formate, Zeitrhythmen und Verteilungslogiken, die künstlerische Verfahren nur begrenzt abbilden. Sichtbarkeit entsteht dort, wo sich künstlerische Arbeiten an die Vorgaben eines Feeds anpassen – in der Regel Derivate einer Plattform-Ökonomie großer Technologiekonzerne, deren Reichweite und Regelsetzungskraft die Veröffentlichungspraxis bis hinein in Hochschulen festlegen: An ihnen richten sich in der Folge ästhetische und organisatorische Erwartungen aus, wodurch Kontexte oftmals zu einem optionalen Beiwerk reduziert werden. Angesichts dessen lag es nahe, nicht eine weitere Plattform zu entwerfen, sondern ein Verfahren, das Verantwortlichkeiten, Herkunft und Beziehungen nachvollziehbar hält und dabei offen genug bleibt, über verschiedene Interfaces und Applikationen genutzt zu werden. So setzten wir auf ein bestehendes freies und Open Source Protokoll, das Identitäten, digitale Räume und Relationen adressierbar macht. Gewählt wurde [matrix]³.Die Wahl war weniger technisch als institutionell begründet: Identitäten können an die Trägerschaft einer Einrichtung gebunden werden, Föderation ist möglich, ohne ein institutsübergreifendes zentrales Eigentum an Accounts zu erzeugen, Entscheidungen erscheinen als Zustandsänderungen in Räumen und werden dadurch überprüfbar und sind sowohl innerhalb der Institution als auch von außen nachvollziehbar und kritisierbar. Alle Entwicklungen von Applikationen, Oberflächen und Interfaces sind aufbauend auf dem standardisierten*matrix*-Protokoll nach dem Paradigma „public money, public code"⁴ frei und wurden quelloffen veröffentlicht.⁵ Im Weiteren wird die entstandene Architektur rekonstruiert, die spezifisch für den Einsatz in Kultur-, Design- und Kunstinstitutionen entwickelt wurde.
Problemidentifikation
Voran stand eine komplexe Problemstellung, die aus unterschiedlichen Gesprächen quer durch die Institution der UdK Berlin hindurch entlang dreier Beobachtungen identifiziert wurde, um mit Blick etwa auf die Ankündigung von Workshops, Ausstellungszyklen u. ä. ein initiales Konzeptpapier⁶ zu entwickeln, das der „Notfalldigitalisierung"⁷ der UdK Berlin produktiv begegnet.Erstens normieren private zentralisierte Plattformen Formen, in denen Werke sichtbar werden. Das beginnt mit Entscheidungen über Seitenverhältnisse, Dauerbegrenzungen und Textlängen und reicht bis hin zu Fragen nach Attribution, Version und Provenienz. Der Effekt ist eine unterschwellige Didaktik: Wer Sichtbarkeit will, passt sich an diese Plattformen an, und wer sich anpasst, verschiebt Ziel und Zweck der eigenen Arbeit. In der Praxis speist sich diese Normierung aus Ökosystemen privatwirtschaftlicher Anbieter mit globaler Reichweite; sie sind auf Wachstum und Gewinn ausgerichtet und verfügen über erhebliche faktische Steuerungskraft in Feldern, in denen öffentliche Aufgaben verhandelt werden.⁸Zweitens erzwingen diese Plattformen nicht nur formale, sondern auch organisatorische Vereinheitlichungen. Veröffentlichung wird als individuelles Profilieren inszeniert; Kollektive, Seminare, Werkstätten und Institute erscheinen in der Regel nur am Rand und nicht in zusammenhängenden Kontexten der entstandenen Werke.Drittens wird Digitalisierung im öffentlichen Sektor häufig mit Zentralisierung verwechselt. Wissens und Verwaltungsprobleme werden an externe Dienste delegiert oder intern zu Monolithen ausgebaut, die das skalieren, was kurzfristig als ‚effizient' gilt. Auf diese Weise wird die Autonomie der eigenen Praxis gegen Budgetzwänge verrechnet. Die so entstehenden Systeme bilden möglichst allgemeine Nutzungskontexte ab, nicht das Besondere.Diese Diagnose lässt sich historisch und institutionell präzisieren. Mit dem Übergang zum sogenannten Web 2.0⁹ wurde Sichtbarkeit an Interaktion gebunden und Interaktion an Profile und Feeds. Hochschulische Öffentlichkeiten, die zuvor über Zeitschriften, Kataloge, Ausstellungen und Vortragsreihen organisiert waren, wurden in externe digitale Plattformen überführt, die die Einheit der Person und die Logik des ständigen Updates privilegieren. Die Folge ist eine Verkürzung des Zeithorizonts und der Durchsuchbarkeit. Projekte, die im Modus des Semesters, des Studienjahres oder gar mehrjähriger Forschung entstehen, geraten in die Taktung täglicher bzw. stündlicher Veröffentlichung. Die Umstellung auf hybride Lehre während der Pandemie hat diese Tendenz nicht begründet, wohl aber verstärkt und sichtbar gemacht. Wo kurzfristig digitale Lehre möglich sein musste, wurden Lösungen beschafft, die Effektivität und Reichweite versprachen; die Frage nach der Form von Öffentlichkeit über die neuen digitalen Räume hinaus blieb sekundär.Genau an dieser Stelle setzte unsere Arbeit an, die darauf ausgerichtet war, physische Kontexte, aus denen künstlerische Werke entstehen, nicht bloß als Anhängsel zu behandeln, sondern im Digitalen, aufbauend auf dem Konzept des ‚semantischen Webs', so zu modellieren, dass sie für verschiedene digitale Nutzungskontexte operativ verfügbar sind.
Das Werk als digitaler Raum: Logik der Typisierungen
Ausgangspunkt dieser Modellierung war die Abkehr von der Vorstellung, ein Werk sei im Digitalen ein abgeschlossenes Objekt, das Inhalte enthält. Stattdessen folgten wir der Auffassung, dass ein Werk im Digitalen aus Beziehungen besteht, die Datenräume zueinander ins Verhältnis setzen. Drei begriffliche Ebenen strukturierten demnach die Umsetzung und dienten für Implementierungen als Typenbezeichnungen: Context, Item und Content.Ein Context bezeichnet dabei eine semantische oder räumliche Rahmung, in der etwas geschieht. Dies kann eine Fachklasse, ein Veranstaltungsmodul oder auch ein Gebäude, ein Stockwerk, oder ein physischer Raum sein.Ein Item ist eine in dieser Rahmung ausgezeichnete Einheit: das Projekt einer:s Student:in, ein Werk, ein Veranstaltungsformat. Diese können Referenzen zu den Kontexten beinhalten, in denen das Werk entstanden ist oder mit denen es in Beziehung steht.Content sind die konkreten, adressierbaren Medien und Textbausteine, die ein Item in einer bestimmten Darstellungsform ausprägen. Diese Ebenen sind nicht zwangsweise ontologisch hierarchisch, sondern können durch unterschiedliche Blickrichtungen wie etwa Interfaces oder Anwendungszwecke auf einem Graphen erscheinen, dessen Formung durch Relationen gekennzeichnet ist.Die technische Realisierung erfolgte aufbauend auf dem [matrix]-Protokoll. Die [matrix] – also „spaces"¹⁰ – dienen als Basiseinheiten der Datenhaltung. Jeder Raum besitzt eine einzigartige Kennung und damit einen Header als „State Event",¹¹ der Zugang, Rechte und Metadaten beinhaltet. Ein eigenes „State Event" weist dabei die zugrundeliegende Typisierung aus, d.h., ein Raum wird ausdrücklich als Context, Item oder Content ausgewiesen. Relationen entstehen dabei durch adressierte Verweise in den „State Event". Ein Item verweist auf den Content, ein Context auf die Items, die in ihm verhandelt werden, Contents wiederum verweisen auf ihre zugehörigen Items. Zugleich können übergeordnete Beziehungen gepflegt werden, die es erlauben, vom Content aus zur semantischen Rahmung zurückzugehen. Eine solche Konstellation zwischen Item und Content in Verbindung mit Kontexten verstehen wir als Werk. Sie ist nicht durch eine Facette repräsentiert, sondern durch hergestellte Bezüge, die nachvollziehbar sowohl den Kontext als auch das Werk wechselseitig formen.Für eine nichttechnische Leserschaft lässt sich dies wie folgt beschreiben: Matrix verwaltet identifizierbare Räume, in denen Ereignisse stattfinden. Ein Ereignis kann das Anlegen eines Projekts, das Ergänzen eines Absatzes oder das Zuweisen eines Ortes sein. Jeder Raum hat einen Zustand, in dem Rechte und Beziehungen festgehalten sind. Identitäten tragen ihre institutionelle Herkunft in der Adresse, wobei Föderationen besagen, dass verschiedene Einrichtungen eigene Server betreiben und sich dennoch gegenseitig erkennen und zusammenarbeiten können.¹² Änderungen an Inhalten werden als „State Events" in diesen Räumen verbucht, mit Zeitstempel und Signatur der betreffenden Identität; dadurch bleibt die Herkunft zuordenbar. Für die Veröffentlichungspraxis heißt das: Eine Hochschule kann Verantwortlichkeiten vergeben, ohne Accounts an einen fremden Dienst auszulagern, Beziehungen zwischen Einheiten lassen sich offenlegen, ohne sie zu duplizieren.
Anwendung: Rundgang der UdK Berlin
Diese spezifische Architektur, nämlich ein Werk als ein Graph zu verstehen, wurde für die Ausgestaltung des Rundgangssystems zum fundamentalen Tragpfeiler. Der Rundgang ist die öffentliche Jahresausstellung der gesamten UdK Berlin und konfrontierte das Team daher mit hohen Anforderungen für die Implementierung von*udk/spaces*, ihrer Erprobung und jährlichen Iteration. Das Anmeldeverfahren für die Studierenden wurde so umgestellt, dass sie bei der Einreichung ihrer Projekte nicht eine monolithische Seite befüllen, sondern eine Projekteinheit anlegen, die die notwendigen Untereinheiten erzeugt. Praktisch vollzog sich der Anmeldeprozess der Studierenden, indem sie für ein Projekt eine oberste Einheit generieren konnten, die als Item geführt wird. Daraus entstehen je nach Bedarf separate Datenräume, die selbst als Contents erscheinen, da sie konkrete Bausteine transportieren: Titel, Abstract, Beschreibung, Bildsequenzen, Audiostreams, Videoeinbettungen. Die Entscheidung, jede dieser Einheiten per individuellen Datenraum zu adressieren, erlaubt eine Praxis des Zitierens, die über Screenshots hinausgeht. Ein bestimmter Absatz eines Projekttextes ist keine Position auf einer Seite, sondern eine eigenständige, verlinkbare Einheit. Das erleichtert Kuratierung und stützt Attribution. In einer föderierten Umgebung ist eine solche Transparenz kein Nice-to-have, sondern Bedingung für Nachvollziehbarkeit im Digitalen.¹³Projekte waren daher von Beginn an mehrdeutig verortet. Sie gehörten in einen physischen Raum und in eine curricular-institutionelle Verortung, d.h. die Studierenden hatten die Möglichkeit, die eigene Arbeit in anderen Zusammenhängen anzukündigen, ohne sie neu zu formatieren. Vor allem wurde vermieden, eine föderierbare Datenhaltung im letzten Schritt in eine zentrale Plattform zu wandeln. Der universitätsweite Einsatz der von uns entwickelten digitalen Architektur führte dann tatsächlich zu verschiedenartigen Schreib- und Leseszenarien an verschiedenen Hochschulorten. So war es etwa möglich, dieselben Projekte entlang räumlicher Koordinaten zu arrangieren, oder Kurationen entlang thematischer Linien zu gruppieren. Metainhalte der Werke blieben auch nach dem Rundgang adressierbar, auch wenn sie in der öffentlichen Darstellung des jahresübergreifenden Indexes¹⁴ nur partiell in der öffentlichen Weboberfläche einsehbar sind.Dabei war es uns essenziell wichtig, dass Nutzer:innen alle Daten, die sie über die Eingabemasken erzeugen, selbst nachvollziehen können, entsprechend des Prinzips ‚HumanReadable First', d.h., die Datenhaltung bleibt so organisiert, dass sie mit einem generischen Matrix-Client lesbar ist, ohne auf ein proprietäres Frontend angewiesen zu sein. Zugleich reicht die konkrete Weboberfläche die Komplexität nicht nach oben durch. Die Eingabeoberfläche erzeugt die notwendigen Räume, fügt Relationen regelbasiert hinzu, prüft Widersprüche, begrenzt Suchtiefen und stellt Materialien in der Reihenfolge zusammen, in der sie später benötigt werden. Sichtbar wird nur, was in der Darstellung begründet ist. Die Brücke zwischen föderierter Datenhaltung und publikationsfähiger Weboberfläche bildet eine schlanke, rein lesende Caching-API¹⁵. Sie liest die Räume aus, ordnet sie und stellt den Oberflächen die Ausschnitte bereit, die benötigt werden. Drei Ausschnitte strukturieren die Auslieferung – Context, Item, Content. Die Caching-API beschränkt Suchtiefen, kennzeichnet Herkunft und Anwendungszugehörigkeit und sorgt dafür, dass Veröffentlichungen lesbar bleiben, auch jenseits der eigenen Weboberfläche. Dadurch bleibt die Oberflächenentwicklung leichtgewichtig; Autorschaft, Rechte und Föderation müssen nicht nachimplementiert werden. Gerade für kollaborative Werke ist dieses Verfahren von Vorteil. Bei der Einreichung wurde auf stabile Bezeichner Wert gelegt, Zustände werden nicht überschrieben, sondern als Ereignisse fortgeschrieben, man spricht hierbei technisch von Versionskontrolle. Das erleichtert Revision und Rekonstruktion von Abläufen, womit die Authentizität digitaler Werke gewährleistet ist, da Werke als Konstellationen adressierbarer Einheiten verstanden werden. All dies ebnet den Möglichkeitsraum für eine digitale Provenienz von Werken als eine Ableitung von Graphen der Relationen, anstelle von Wasserzeichen. Dies ermöglichte, sowohl digitale Darstellungen derselben Projekte entlang räumlicher Koordinaten zu arrangieren als auch in einer kuratorischen Fakultätsdarstellung entlang thematischer Linien zu gruppieren, ohne die Metainhalte der Werke nach dem Rundgang zu verlieren.
Legitimation und Kuration
In einer großen Bildungsinstitution wie der UdK Berlin entstehen Situationen, in denen unterschiedliche berechtigte Interessen aufeinandertreffen. Das betrifft vor allem die Aspekte der Legitimation (wer darf unter welchen Bedingungen veröffentlichen) und der Kuration (was erscheint wo und wie). Zur Verdeutlichung unserer Arbeit inmitten bestehender Konfliktfelder greife ich eines heraus, das sich im Verlauf der Vorbereitung auf den Rundgang 2024 konkretisierte. Es eignet sich, die Trennungslinie zwischen Veröffentlichung und Ausstellung zu präzisieren und zu zeigen, wie ein föderierter Ansatz Eingriffe begrenzen kann, ohne den Betrieb zu blockieren. Relevant ist, dass die Einreichungs-Interfaces 2024 zeitlich begrenzt geöffnet waren und primär auf die Jahresausstellung zielten.Der Entstehungskontext einer Kunsthochschule bestimmt wesentlich die Lesart des Werkes: Die institutionelle Adresse, die Zugehörigkeit zu Studiengängen und Lehrformaten, der Zeitpunkt der Entstehung und weitere Angaben zu den Beteiligten prägen die Art, ein Werk zu verstehen. Im digitalen Raum kann dieser Kontext nicht nur in Begleittexten, sondern strukturell mitgeführt werden. In unserer geschaffenen Architektur geschieht dies, indem Veröffentlichungen als identifizierbare Einheiten mit Herkunft und jeweiligen Zeitstempel pro Eintragungsänderung repräsentiert werden. Ein Werk, das durch eine berechtigte Person innerhalb der Domainsphäre der Hochschule angelegt wird, erhält eine eigene Adresse, deren Suffix auf die Institution verweist. Inhalte sind versioniert und Änderungen lassen sich nachzeichnen. Auf dieser Ebene entsteht kein Kurat, sondern ein nachweisbarer Datensatz innerhalb eines föderierten Verbunds. In einem zweiten Schritt werden diese Einheiten kuratorisch in Beziehung gesetzt. Für den Rundgang bedeutet das, dass eine eigenständige Ausstellungsansicht als Kontext geführt wird und Werke als untergeordnete Einheiten zugewiesen werden. Die Zuweisung ist keine Kopie, sondern eine Referenz. Zuständigkeiten folgen fachlichen Linien: Lehrstühle verantworten die Ausstellungsansichten ihrer Klassen, Institute und Fakultäten verantworten übergeordnete Darstellungen, die Hochschulleitung den Rahmen. Diese Ordnung spiegelt physische Verfahren und begrenzt, was auf welcher Ebene entschieden werden kann. Eine Leitung kann eine kuratorische Zuweisung in einer übergeordneten Darstellung zurücknehmen; sie hebt damit nicht die Existenz des Werks als Datensatz auf.Aus dieser Trennung folgt ein Unterschied zwischen Löschen und Dereferenzieren. Löschen würde den Datensatz selbst tilgen – einschließlich Herkunft und Versionen. Dereferenzieren löst eine kuratorische Zuweisung. In analogen Situationen ist diese Differenz selbstverständlich: Ein Werk kann aus einem Raum entfernt werden, ohne vernichtet zu werden. Digital fällt diese Analogie häufig weg, weil zentrale Plattformen Veröffentlichung und Ausstellung zusammenfallen lassen. Der föderierte Ansatz erlaubt eine feinere Praxis. Wird ein Werk in einer Ausstellungsansicht als nicht passend eingeschätzt, wird die Referenz gelöst. Der Datensatz bleibt bestehen; Adresse, Autor:innenschaft und Kontext bleiben nachvollziehbar. Die Universität wirbt nicht länger kuratorisch für das Werk, hostet aber weiterhin den Datensatz, dessen Herkunft überprüfbar ist. Für Beteiligte außerhalb bleibt der Verweisweg geschlossen, solange keine legitimierte Gegenreferenz angelegt wird. In anderen Kontexten – etwa bei einer externen Galerie – kann eine solche Referenz entstehen, ohne Kopien anzufertigen.Dieses Verfahren adressiert eine Sorge, die im Zuge der Vorbereitung des Rundgangs 2024 auftauchte. Es wurde diskutiert, ob Werke, die seitens der Hochschulleitung als politisch problematisch eingeschätzt werden, ‚gelöscht' werden müssten, um sie von der öffentlichen Website zu entfernen. Eine Löschung entzieht nicht nur eine Darstellung, sie hebt die Existenz des Datensatzes auf. Damit gingen Nachvollziehbarkeit und Provenienz verloren, einschließlich der Einsicht, wer wann welche Entscheidung getroffen hat. Die vorgeschlagene Lösung unterscheidet deshalb zwischen Datensatz und kuratorischer Darstellung. Sie erlaubt es, Werke auf Ebene der Ausstellungsansicht zu entfernen, ohne den Datensatz zu vernichten und weiterhin föderierter erreichbar zu machen. Spuren der Entscheidung bleiben prüfbar. In föderierten Umgebungen ist diese Differenz von Gewicht, weil Eingriffe andernfalls großflächig und spurlos blieben. Die Konsequenz ist eine verschachtelte Verantwortlichkeitsordnung. Student:innen legen Datensätze in der Domainsphäre der Institution an. Lehrende verantworten Zuweisungen in ihren Fachklassenkontexten; Institute, Fakultäten und Leitung verantworten übergeordnete Darstellungen. Jede Ebene kann Zuweisungen im eigenen Bereich zurücknehmen. Keine Ebene kann ohne rechtliche Gründe die Existenz eines Datensatzes aufheben. Unter diesen Bedingungen bleiben Konflikte bearbeitbar, ohne dass Werke verschwinden. Da Werk-Adressen, Zuweisungen und Zeitpunkte adressierbar sind, lassen sich spätere Lesarten rekonstruieren. Wenn ein Werk erneut gezeigt oder diskutiert wird, ist erkennbar, in welchem institutionellen Kontext es erstmals veröffentlicht wurde und welche Wege es genommen hat.¹⁶Für Lehre und Forschung ist das ein praktischer Vorteil, weil Entscheidungen nachlesbar bleiben. Das Verfahren ersetzt nicht die Notwendigkeit kuratorischer Auseinandersetzung, es schafft eine Form, in der sie ohne irreversible Eingriffe geführt werden kann. Im Ergebnis hält die Architektur den Unterschied zwischen Werk-Datensatz und kuratorischer Darstellung technisch fest und macht Entscheidungen nachvollziehbar, ohne Veröffentlichungen zu vernichten. Das hier geschilderte Beispiel bezieht sich auf den Rundgang 2024, in welchem im Endeffekt kein Eingriff vorgenommen wurde und jedoch durch die Auseinandersetzung mit diesem Zustand die Architektur des Systems schärfte und daher nur einen theoretischen Beitrag liefert.
Zentralisierungsprävention
Zuletzt stellte sich die pragmatische Frage, wie sich digitale Veröffentlichungsinfrastrukturen so gestalten lassen, dass Entscheidungen und Verantwortlichkeiten auch langfristig nicht unnötig gebündelt werden. Öffentliche Einrichtungen – Kunsthochschulen eingeschlossen – haben Digitalisierungsprozesse häufig nachrangig behandelt, solange Lehre und Produktion im physischen Raum stattfanden. Mit der Pandemie veränderte sich diese Lage spürbar. Digitalisierungsbestrebungen waren hiernach oft mit der Erwartung verknüpft, über Zentralisierung Effizienz zu erzielen, d.h. Redundanzen zu vermeiden, einheitliche Lösungen zu schaffen und dies idealerweise auf Landes oder Verbundebene.Zwischen dem berechtigten Wunsch nach Standardisierung und der Errichtung monolithischer Infrastrukturen liegt ein wesentlicher Bereich, der leicht übersehen wird. Die von uns geschaffene Systemarchitektur mit einem föderierten dezentralen Verständnis versucht diesen zu füllen, ohne gegen Standardisierung zu arbeiten, wohl aber gegen eine monolithische Datenbündelung, die Eigenheiten und Individualisierungen institutionell-künstlerischer Arbeiten einebnet. Diese wichtige und oftmals übersehene Problemlage trägt gesellschaftliche und historische Spuren basierend auf der föderalen Struktur der Bundesrepublik einschließlich der abgeleiteten Freiheit von Kunst und Wissenschaft. Gerade Hochschulen genießen dabei institutionelle Autonomie: Verantwortlichkeiten sind delegiert, Verfahren entschleunigt, weil sie abgestuft verlaufen. Diese Langsamkeit hat eine Schutzfunktion. Wird ‚Digitalisierung' jedoch als Zentralisierung verstanden, kann diese Schutzarchitektur mit wenigen technischen Entscheidungen außer Kraft geraten: Eine zentrale Datenbank, eine zentral administrierte Veröffentlichungsumgebung, ein konsolidiertes Rechte und Identitätsmanagement machen skalierbare Eingriffe möglich, ohne dass die Öffentlichkeit sie bemerkt. Der Unterschied zur physischen Welt liegt in der Geschwindigkeit und in der Asymmetrie der Mittel: Was physisch Zeit braucht und Spuren hinterlässt, lässt sich digital in Sekunden vollziehen und retrospektiv schwerer nachzeichnen, wenn Versionierung und Provenienz nicht durch die Systemarchitektur gesichert sind.Ein hypothetisches Szenario – herausgegriffen aus meinem Vortrag im Rahmen der netzpolitischen Community – verdeutlicht die Dimension:¹⁷ Eine institutionelle, landes- oder sogar bundesweit betriebene Veröffentlichungsinstanz („Platform-as-a-Service") für künstlerische Werke in Kunsthochschulen bündelt Inhalte in einer zentralen Datenhaltung ohne Föderationsfunktionalität. Institutionen erhalten Mandantenbereiche, bleiben aber abhängig vom Betrieb und der Administration an zentraler Stelle. Kommt es zu einem politischen Wechsel, der unliebsame Inhalte tilgen will, könnte eine administrative Weisung genügen, um übergreifend zu löschen oder Sichtbarkeit zu entziehen. Selbst ein fein abgestuftes Mandanten-Rechtemodell hilft hier nur begrenzt, wenn der letztgültige Zugriff zentral zusammenläuft. Ohne föderierte, öffentlich nachvollziehbare Versionierung und ohne adressierbare Provenienzkanten entstünde eine schwer nachvollziehbare Infrastruktur: Eingriffe ließen sich schwer nachzeichnen, Nachweise im Nachhinein würden erschwert, institutioneller Widerspruch bliebe häufig formal, da operative Verantwortung gebündelt wäre. Die Schutzlogik – Delegation, Entzerrung, Verfahren – wäre unterlaufen.Unser Arbeitsansatz setzte daher bei Begriffen, Adressen und Orten der Entscheidung an. Digitale Rechte werden dort verankert, wo sie fachlich im Physischen verantwortet werden: in Lehrstühlen, Werkstätten, Instituten und kuratorischen Redaktionen. Anstelle einer Super-Admin-Ebene werden Befugnisse entlang der tatsächlich gepflegten Räume delegiert: Identitäten tragen ihre institutionelle Herkunft in der Adresse und sind dadurch erkennbar; Relationen zwischen Einheiten werden als Ereignisse geführt und sind nachlesbar. Diese Entscheidungen folgen einem Protokoll und nicht einer Plattformlogik. Föderation bedeutet hier nicht ‚ein Server mit vielen Mandant:innen', sondern viele sich nicht zwangsläufig vertrauende dezentrale Server mit überprüfbaren Beziehungen. Sinnvoll erscheint es, dort zu standardisieren, wo Interoperabilität entsteht – Adressen, Ereignistypen, Nachweispfade – sprich digitale Protokolle – und nicht Darstellungsmodi oder kuratorische Darstellungen zu vereinheitlichen. Dies hat methodische Konsequenzen: Föderation produziert Reibung – unterschiedliche Darstellungen kollidieren, Rechtevergaben weichen ab, Verfahren werden verhandelt. Diese Reibung lässt sich produktiv nutzen. Sie zeigt, wo Verantwortlichkeiten fehlen, wo Interfaces und Weboberflächen semantische Entscheidungen kaschieren, wo ‚Effizienz' auf Kosten der Pluralität geht. Ein möglicher Effizienzgewinn liegt daher weniger in einer eingesparten Koordination als in der vermiedenen Irreversibilität.Der Griff zu komplett eigenen Lösungen ist nachvollziehbar, aber selten nachhaltig; die Nutzung von großen Plattformen führt leicht in Abhängigkeiten. Ein mittlerer Weg erfordert die Anbindung an gepflegte, gemeinwohlorientierte Open-Source-Projekte und die Bereitschaft, in deren Pflege zu investieren. Aus unserer Erfahrung zeigt sich, dass öffentlich finanzierte Entwicklungen dann Wirkung entfalten, wenn sie nicht als Code-Ablage enden, sondern als Beitrag zu bestehenden F/LOSS-Projekten¹⁸ mit Wartung, Review und Dokumentation organisiert sind. Das verhindert sowohl Insellösungen als auch Lock-in: Verbesserungen kommen in die Commons zurück, Institutionen bleiben anschlussfähig, operative Verantwortung verteilt sich.¹⁹ Sprich: Potenzielle Architekturentscheidungen, die in föderierten Protokollen getroffen werden, sind öffentlich nachlesbar; Referenz-Implementierungen bleiben konfigurierbar; Oberflächen und Interface sind austauschbar; Datenpfade adressierbar. So bleibt die technische Sphäre durch Kritik erreichbar sowie ein Mindestmaß an überprüfbarer Öffentlichkeit ohne zentrale Instanz.
Konzeption vs. Adaption
Diese Ausrichtung unserer Arbeit, eine digitale Systemarchitektur für die UdK Berlin unter Einbeziehung netzpolitischer Bedenken zu erstellen, forderte die zur Verfügung stehenden Ressourcen heraus. Der folgende Arbeitsprozess, der sich von einer entworfenen Konzeption hin zu einer fortlaufenden Adaption entwickelte, ermöglichte die Identifikation von Problemfeldern und deren Behebung unter den gesetzten Prämissen. Zugleich trug dieser Prozess dazu bei, dass das Publikationssystem – zunächst als Provisorium gedacht – über die Jahre an Komplexität gewann. Das Hauptaugenmerk der Arbeit lag auf dem größeren Vorhaben eines föderierbaren Lehr und Lernsystems (*udk/spaces*), in das die Publikationsfunktionalität als Werkzeug und Interface zu einem institutionellen föderierten Datennetzwerk eingebettet sein sollte. Diese Entwicklung erstreckte sich über mehrere Jahre und das Provisorium wuchs heran, ohne grundlegende Rewrites zu erfahren. Stattdessen wurden zusätzliche Funktionen an ein Interface und eine Codebasis angefügt, die in Teilen nicht zu Ende entworfen waren. Es war zwar geboten, die zuvor skizzierten Problemfelder im laufenden Betrieb zu adressieren und das Provisorium an den praktischen Bedarf heranzuführen, jedoch ging dies teilweise zulasten der Nutzbarkeit und der technischen Disziplin. Die Komplexität konzeptioneller Entscheidungen – Identitäten als Adressen, Zustände als Rechte, Provenienz als Relation zu manifestieren – verschwand auf der Oberfläche der Eingabemaske, was für Nutzer:innen, die an Plattformökonomien gewöhnt sind und die Eingabe zwangsläufig mit den ihnen bekannten verglichen, häufig als Nachteil wirkte. Vielen Nutzer:innen ist durch die gelebte Praxis gleichgültig, was mit ihren Daten jenseits der Oberfläche geschieht und die hier verhandelten Fragen wurden somit als rein fachlicher Natur begriffen. Die technische Adaption war zu herausfordernd und durch die wachsende Komplexität des Systems und der Arbeitsabläufe entstanden Reibungen in der Anwendung. Der Vergleichsmaßstab der Nutzer:innen war unausweichlich die Einfachheit von Instagram und Co., getragen von erheblichen Ressourcen für Gestaltung, Entwicklung und Betrieb, welche nicht nachgebildet werden konnten. Der Unterschied des zugrundeliegenden Systems wurde nicht durchgängig als bewusste Setzung wahrgenommen, sondern mitunter als Mangel, was die Bereitschaft zur Adaption minderte.Dem Projekt unterlag zudem stark eine technologische Lesart von Kunst und Kontext und folgte damit der Frage nach der Übersetzung physischer Verfahren in eine digitale Welt. Im angewandten Kontext war diese Perspektive nicht hinreichend vermittelbar, irritierte sie zudem gewohnte Routinen und die Vorteile wurden erst eine Zeit später potenziell erkennbar. Hieraus ergibt sich ein ambivalentes Fazit: Aus Sicht der Nutzung wäre es plausibler gewesen, ein fertiges Produkt vorzulegen und erst danach in die institutionsweite Anwendung zu gehen, um in der Folge auf neue Anforderungen zu reagieren. Dafür hätten jedoch Ressourcen, Zeit und eine klare Produktführung zur Verfügung stehen müssen, die in dieser Form nicht gegeben waren. Umgekehrt hat gerade der iterative Charakter die konzeptionelle Qualität geschärft: Annahmen wurden stets überprüft, Begriffe präzisiert und Verfahren in den realen Ablauf übersetzt. In diesem Sinne leistete das Vorhaben eher eine theoretisch-analytische Auseinandersetzung mit Veröffentlichungsformen und war weniger in einer produktorientierten Informatik angesiedelt.
Addendum
Das hier beschriebene System wurde 2025, nach dem selbstgewählten Ausscheiden des Autors aus der Institution UdK Berlin, nicht weitergeführt. Durchgesetzt hat sich die konzipierte und erprobte Infrastruktur somit nicht. Im Rückblick waren die Ambitionen groß, die Anforderungen aus Förderzusammenhängen und Verwaltung breit gefächert und teils gegensätzlich, die Zahl der gleichzeitig adressierten Probleme hoch, und das Team zu klein. Es war in seiner Genese auch eine Antwort auf die Herausforderungen der Pandemie; mit dem Abklingen dieser akuten Lage verschob sich die Aufmerksamkeit. Faktisch ist*udk/spaces* nach einer ersten Fertigstellung im Frühjahr 2024, nach mehrjähriger Entwicklungsarbeit, als neues Gesamtsystem nicht mehr online geschaltet worden. Ein anstehender Wechsel des Präsidiums, erhebliche Budgetkürzungen und veränderte politische Rahmenbedingungen haben das Projekt in der Folge beendet. Was bleibt, sind die Ausarbeitungen etlicher F/LOSS Quelltexte und Dokumentationen sowie einige aufgezeichnete Vorträge,²⁰ die zentrale Einsichten zusammenfassen. Daraus folgt nicht, dass die Arbeit gegenstandslos war. Sie stellt nun einen Debattenbeitrag dar, wie über digitale Veröffentlichung in institutioneller Verantwortung gesprochen werden kann: als Pflege von Adressen, Provenienzen und Relationen, als Trennung von Werk-Datensatz und kuratorischer Darstellung, als Versuch, Zentralisierung nicht zum impliziten Preis von Effizienz zu machen. Sollte sich ein Kontext wie der unsere an anderer Stelle erneut ergeben, ließe sich auf unserer Erfahrung aufbauen – nicht als Blaupause, sondern als Erfahrungsschatz auf dem Weg zu einem attributierbaren Web.²¹
Fußnoten
1. udk-berlin.de/universitaet/digitalisierung/labor-fuer-digitale-infrastruktur/medienhaus/2. udk-berlin.de/universitaet/digitalisierung/labor-fuer-digitale-infrastruktur/medienhaus/udk-spaces.3. matrix.org4. publiccode.eu/en/.5. github.com/medienhaus6. medienhaus, Konzeptpapier, 2020. https://www.udk-berlin.de/fileadmin/2_dezentral/Digitalisierung/Dateien/20210122-medienhaus-konzeptpapier-de.pdf.7. https://www.udk-berlin.de/universitaet/digitalisierung/labor-fuer-digitale-infrastruktur/notfalldigitalisierung/.8. Im Bereich Kunst und Gestaltung ist Instagram vom Meta Konzern zur prominentesten Referenzumgebung geworden, an der Sichtbarkeitskriterien, Taktungen und Darstellungsformen ausgerichtet werden, obwohl die dort wirksamen Regeln keiner institutionellen, geschweige denn demokratischen, Aushandlung unterliegen. Vgl. Bestandsaufnahme Digitalisierung im Kunstmarkt, hrsg. v. Senatsverwaltung für Wirtschaft, Energie und Betriebe, Referat Unternehmensservice, Dienstleitungen, Handel, Handwerk, Tourismus, Kreativ- und Medienwirtschaft, Landesinitiative Projekt Zukunft, Berlin 2022, u. a., S. 31. https://www.berlin.de/sen/web/presse/pressemitteilungen/assets/digitalisierung-im-kunstmarkt.pdf (Zugriff am 24.09.2025).9. https://de.wikipedia.org/wiki/Web_2.0.10. https://spec.matrix.org/v1.15/client-server-api/#spaces.11. https://spec.matrix.org/v1.15/client-server-api/#types-of-room-events.12. Konkret sieht eine Raumkennung typischerweise so aus: !abcdef:udk-berlin.de; eine Autor:innenkennung so: @r.schnuell:udk-berlin.de.13. Ein gerechtfertigter Einwand wäre, eine solche Modellierung konfrontiere Nutzer:innen mit zu viel Struktur. Dem wurde durch eine stärkere Trennung von Eingabe und Darstellung begegnet: verschiedene Eingabemasken und Darstellungen lassen sich ohne Zustimmung einer Plattform zu erzeugen. Vgl. Marcel Haupt / Robert Schnüll, Separating Data and Design, UdK, Berlin 2023. doi.org/10.25624/kuenste-2098.14. index.rundgang.udk-berlin.de15. Caching-API: github.com/medienhaus/medienhaus-api16. Auf der Universitätswebseite bleibt die Depublizierung erkennbar; für die Forschung und interessierte Öffentlichkeit innerhalb eines föderierten Systems bleibt als eine digitale Provenienz erkennbar, welche Konstellationen des Werkkontexts bestanden.17. netzpolitik.org Konferenz: Bildet Netze!, Alte Münze Berlin, 13.09.2024. www.youtube.com/live/bOmuCthlwrI?t=13450s.18. www.gnu.org/philosophy/floss-and-foss.html.19. Robert Schnüll, Don't Reinvent the Wheel — Build New Features and Push Them Upstream, UdK Berlin 22.04.2024. policyreview.info/articles/news/dont-reinvent-wheel-build-new-features-and-push-them-upstream/1760.20. Vortrag: udk/spaces, Konzertsaal UdK Berlin, 31.10.2021. https://stream.udk-berlin.de/w/2nAGEqYvPMfSWmrJMefCbr; Vortrag Attributable Web: der Entwurf eines dezentralen, kontextualisierten Webs, Bits und Bäume Konferenz Berlin, 02.10.2022. https://media.ccc.de/v/bitsundbaeume-20053-attributable-web-der-entwurf-eines-dezentralen-kontextualisierten-webs; Vortrag Notfalldigitalisierung – open-source·ing a university, netzpolitik.org Konferenz Bildet Netze! Berlin, 13.09.2024. www.youtube.com/live/bOmuCthlwrI?si=wceOs8_AxKhCsOBg&t=1345021. attributable.org/