Medien – Krieg – Raum
Tagung, Friedrich-Alexander-Universität Erlangen-Nürnberg, 11.–13. Juli 2014. Konzeption und Organisation: Prof. Dr. Lars Nowak.
Es gibt kaum ein Feld im Bereich von Wissenschaft und Gesellschaft, das in den vergangenen drei Jahrzehnten nicht auch unter dem Blickwinkel «seiner» Medien betrachtet worden wäre. Beliebt war seit Friedrich Kittler und Paul Virilio außerdem die Verknüpfung von Medien- und Kriegsgeschichte. Der anfängliche Flirt der deutschen Medientheorie mit dem Krieg schien in den letzten Jahren jedoch abgeklungen. Das eröffnet die Möglichkeit, das Verhältnis von Medien und Krieg jenseits der Kittler / Virilio‘schen Pauschalthese vom Krieg als Vater aller technischen Dinge neu zu durchdenken. Die Erlanger Tagung «Medien – Krieg – Raum» nahm in diesem Sinne die Frage nach den Räumen des Krieges aus medientheoretischer Sicht auf. Auf Grund einiger Ausfälle ergab sich dabei jedoch die etwas unglückliche Situation, dass die Expertise der anwesenden Tagungsteilnehmer_innen sich im Bereich der Medien- und Kriegstheorie bzw. -geschichte versammelte, während die Raumtheorie – ob vor oder nach dem spatial turn – leicht vernachlässigt wurde. Stephan Günzel (Berlin), Frank Haase (Basel), Boris Michel (Erlangen / Nürnberg), Sebastian Vehlken (Lüneburg) und Niels Werber (Siegen) konnten leider nicht an der Tagung teilnehmen.
Lars Nowak (Erlangen / Nürnberg) stellte in seiner Einführung Programm und Programmatik der Tagung vor. Ziel sei es, Medien im Krieg nicht aus einer inhaltszentrierten Perspektive zu betrachten, wie sie in der Kritik der Kriegsberichterstattung – erst recht seit der Virulenz von embedded journalism im zweiten Irakkrieg – üblich sei, sondern die strukturellen Effekte von Medientechniken auf den Krieg und seinen spezifischen Raum zu untersuchen. Nowak, der an der Friedrich-Alexander-Universität Erlangen-Nürnberg das DFG-Projekt «Die Wissensräume der ballistischen Photo- und Kinematographie, 1860-1960» leitet, orientierte sich dabei zunächst an der Differenz von «gekerbtem» und «glattem» Raum und beschrieb, wie im israelisch-palästinensischen Stadtkrieg Häuserwände durchlöchert werden, um einen gekerbten Raum wieder zu glätten. Unterstützt durch Technologien zum Durchleuchten von Mauern werde so der Raum der Stadt durch Kriegsmedien grundsätzlich verändert.
Raum sei mithin erstens ein Objekt von Kriegen (Raumgewinn), werde in Kriegen zweitens aber auch gestaltet, z. B. durch die Schaffung von lebensfeindlichem Terrain. Drittens sei Raum als Bedingung von Krieg zu untersuchen. Dabei könnten Differenzierungen auf zwei Achsen vorgenommen werden, hinsichtlich der Raum-Arten See / Luft / Land sowie hinsichtlich der Orte des Krieges: Front, Etappe, Waffenlabor, Kaserne u. a. Bestimmte Medien favorisierten bestimmte Räume und Orte; sie seien gekennzeichnet durch eine unterschiedliche Beweglichkeit in bestimmten Räumen sowie durch eine spezifische Reichweite im Raum. Medientechniken böten aber auch je eigene Raumrepräsentationen, so z. B. die zweidimensionale Fotografie. In den letzten Jahrzehnten habe man gar die Emergenz eines gänzlich neuen Raumes beobachten können, des Cyberspace.
Frank Haase (Basel), der leider nicht anwesend sein konnte, ließ sein vorbereitetes Vortragsskript mit dem Titel «So weit das bewaffnete Auge reicht – Über die medientheoretischen Grundlagen antiker Nachrichtentechnik» von der Panel-Moderation verlesen. Es behandelte die Frage nach der Möglichkeit von Telekommunikation in der Antike. Eine solche Möglichkeit verneinte Haase, da griechische Distanzmitteilungen (z. B. der legendäre «Fackeltelegraf») eine Bindung an menschliche Sinne aufwiesen, deren Überwindung gerade das Spezifikum von Telekommunikation sei. Für die Antike sei es deshalb präziser, auf den Begriff der «Postalität» zurückzugreifen. Telekommunikation sei in der Antike «nicht denkbar» gewesen, so Haase in einem erstaunlich technik-undeterministischen Fazit. Hier hätten interessante Diskussionen über den Kriegs-Raum der Antike anknüpfen können sowie zur Frage, ob nicht auch das Prinzip der Postalität immer schon eine Distanzierung von «primären» Sinnlichkeiten impliziert. Diese mussten leider aufgrund der Abwesenheit des Referenten ausfallen.
Florian Sprenger (Lüneburg) analysierte in seinem Vortrag «Der Raum des standard – Taktische Körper auf dem mittelalterlichen Schlachtfeld» den «battle of the standard» (1138) aus zeichen- und medientheoretischer Sicht mit Hilfe der Akteur-Netzwerk-Theorie. Zunächst grenzte sich Sprenger gegen heroische und personenzentrierte Kriegsgeschichtsschreibung ab; ein Anliegen fast aller Tagungsteilnehmer_innen, wie sich im weiteren Verlauf herausstellen sollte. Der standard war, so Sprenger, ein «Kriegsaltar», bestehend aus einem Schiffsmast auf einem Ochsenkarren, der von englischer Seite in dieser Schlacht eingesetzt wurde. Zwei grundlegende Funktionen machte Sprenger für den standard aus: Erstens die Vertretung des abwesenden Königs und Erzbischofs; zweitens seine Rolle für die taktisch-räumliche Schlachtordnung. So diene er gleichzeitig der Asymmetrisierung der Schlacht (die Gegenseite hatte keinen standard) und der Schaffung einer symbolischen Ordnung. Sprenger formulierte dies so: «Mit seiner Hilfe gewinnt das Symbolische operative Kraft und das Operative eine symbolische Dimension.»
Die Diskussion des Vortrags konzentrierte sich auf die Frage nach Differenzen antiker und mittelalterlicher Schlachten im Hinblick auf ihre Ordnung durch Symbole (z. B. die Legionsadler). Sprenger wies darauf hin, dass der Legionsadler die Legion selbst, mithin etwas Anwesendes, der standard hingegen den abwesenden König symbolisiere. Ein Teilnehmer wies darauf hin, dass die Funktion des standard nicht zuletzt in einer magischen Einschüchterung des Kriegsgegners liegen könne. Diese Frage sei jedoch, so Sprenger, letztlich unentscheidbar, da nur Zeugnisse von der siegreichen englischen Seite vorlägen. Obwohl sich die meisten Teilnehmer_innen in der Ablehnung heroisierender Geschichtsschreibung einig waren, wurde doch in Zweifel gezogen, ob es diese überhaupt noch gebe; jedoch sei an ihre Stelle teilweise eine heroisierende Technikgeschichtsschreibung getreten.
Nadine Taha (Siegen) befasste sich mit «Wolkenphotographie im cloud seeding – Zu Räumen militärisch-industrieller Unsicherheit». Die Experimente zur künstlichen Transformation von Wolken, zunächst von General Electric betrieben, wurden auf Grund von Haftungsproblemen 1947 in eine Kooperation mit dem Militär überführt, in deren großangelegten Rahmen auch die Fotografie von Wolken eine wichtige Rolle spielte. Taha beschrieb die Wolkenfotografie des cloud seeding als «pathological science» (Irving Langmuir), in der die Bilder zwar als genaue Abbildung von Eigenschaften behandelt wurden, das Freiluftexperiment selbst jedoch unter kaum kontrollierbaren Bedingungen stattfinden musste, nachdem sich der Innenraum des Labors als zu klein herausgestellt hatte. In Anlehnung an Lévi-Strauss betonte Taha den unausweichlichen bricolage-Charakter des Labors; gerade dies bringe Unkontrollierbarkeiten mit sich, die selbst wieder nur durch bricolage zu behandeln seien. An den Fotografien des cloud seeding zeige sich exemplarisch der Doppelstatus von Medien als Lösung und Problem der Evidenzerzeugung.
Die Diskussion fokussierte sich u. a. auf die biopolitische Dimension des cloud seeding. Dabei entspann sich zumindest implizit eine methodische Debatte. Taha bestand auf dem Latour-Leitspruch «follow the actors» und wollte dementsprechend das akteursfremde Konzept der Biopolitik von den Akteuren fernhalten, an deren Kategorien man sich zu halten habe. Den Einwand von Florian Sprenger, dass hier im Sinne einer Kontrolle von environments gewissermaßen «objektiv» Biopolitik getrieben werde, unabhängig vom Wissen und den Kategorien der Akteure, ließ Taha nicht gelten. «Sie wissen das nicht, aber sie tun es», dieser Satz zählte seit Marx zum Grundbestand der Sozialwissenschaften. Die wichtige Debatte, ob mit der Methodologie der ANT nicht ein wesentliches Auflösevermögen der Sozialforschung aufgegeben wird, wurde damit zumindest berührt.
Lars Nowak (Erlangen / Nürnberg) untersuchte die Manipulation von Räumlichkeit bei Atomwaffenforschung und -tests unter dem Titel «Atomkrieg im Reagenzglas – Räumliche Größenordnungen in der ballistischen Photographie». Mit der Erfindung der Wasserstoffbombe seien der Explosionskraft keine Grenzen mehr gesetzt, außer den Bedingungen ihrer Testbarkeit, was durch das Verbot oberirdischer Atomtests noch verschärft wurde. Nowak beschrieb die Vergrößerungen und Verlagerungen der test sites bis zu einem Punkt, ab dem weitere Ausbreitung nicht mehr möglich war. Zudem habe sich immer mehr gezeigt, dass die Abgrenzung der Testgelände rein fiktiv war, da sich der Fallout kaum begrenzen ließ; die Abgelegenheit bezog sich zudem nur auf die weiße amerikanische Bevölkerung. Als Alternative zu Freiluftexperimenten hatte schon Ernst Mach Maßstabsmodelle genutzt. Dabei träten zwar mathematische Probleme auf, jedoch verspreche Verkleinerung Beherrschbarkeit. Fotografien dienten dabei als «immutable mobiles» (Bruno Latour) durch die verschiedenen Maßstabsveränderungen hindurch.
Mit seiner Betonung von Beherrsch- und Berechenbarkeit befand sich Nowak trotz dieser Anleihe an Latour in einiger Distanz zum ANT-Ansatz seiner Vorrednerin, was in der Diskussion auch thematisiert wurde. So wurde eine stärkere Fokussierung auf die «Reinigungsarbeiten» des Labors vorgeschlagen. Auch über die fotografische Dokumentation der Test-Explosionen wurde die Brücke zum vorherigen Vortrag geschlagen. Nowak diagnostizierte ein «erschreckend reduziertes» Interesse des Militärs an den Fotografien. Lediglich Geschwindigkeit und Stärke der Detonationen seien fotografisch bestimmt worden, obwohl weit mehr Informationen zu extrahieren gewesen wären.
Um «Camouflage und Luftphotographie des Ersten Weltkrieges bei Solomon J. Solomon» ging es in Hannah Wiemers (Berlin) Beitrag. Sie beleuchtete anhand des Buches «Strategic Camouflage» von Solomon J. Solomon (1920) die Frühgeschichte von Tarnung und Enttarnung. Solomon war ursprünglich Porträtmaler und betrachtete auch Camouflage als Kunst. Es ging ihm dabei vor allem um die Täuschung der neu aufgekommenen Luftfotografien und deren Enttarnung. Die Kamera werde bei Solomon, so Wiemer, zu einem «bedrohlich-allwissenden Wesen», das allein durch Kunst getäuscht werden könne. Um diese Täuschungen zu entlarven, entwarf Solomon ein System von Zeichen, nach dem Luftfotografien dechiffriert werden konnten. Dieses Zeichensystem bringe zwar eine Übersichtlichkeit in das Chaos des Krieges, könne aber letztlich auch keine Garantie für die richtige Deutung der Zeichen bieten. Camouflage bleibe so ein nur teilweise kontrollierbares Sprachspiel, das sich in das Zeichensystem der Landschaft «einschleiche». Gemeinsam mit der Tatsache, dass es eine Camouflage zweiter Ordnung in Form von Attrappen gebe, habe sich daraus bei Solomon ein «paranoider Zweifel an der eigenen Wahrnehmungsfähigkeit» ergeben.
Neben Zweifeln an der Selbstinszenierung Solomons als Visionär wurde im Anschluss vor allem über die Vereinbarkeit eines traditionellen Kunstverständnisses mit Techniken der Camouflage debattiert; sei Camouflage nicht durch und durch kubistisch? Wiemer merkte an, dass beim Militär zwar hauptsächlich traditionelle Künstler angestellt worden seien, dass sich aber im Angesicht der Camouflage das traditionelle Kunstverständnis gerade als unhaltbar erwiesen habe, da es in der Camouflage immer um falsche Repräsentationalität gehe.
Oliver Kann (Erfurt) beleuchtete die neuen Anforderungen an das Kartenmaterial im Stellungskrieg des Ersten Weltkriegs. («Der Stellungskrieg im Kartenbild – Deutsche Kartographie und die Westfront 1914-1918».) Gerade zu dessen Anfang seien kaum geeignete Karten vorhanden gewesen. Der Umgang mit Karten war von Improvisation geprägt; die Heterogenität des Kartenmaterials zwang zu zeitraubenden Transformationsarbeiten. Der ständige Bedarf an Aktualisierungen (die zum Druckzeitpunkt meist schon wieder obsolet waren) produzierte zudem einen unerwartet großen Papier- und Farbbedarf. In der Militärausbildung sei das Kartenlesen zunächst weitgehend vernachlässigt worden.
Hannah Borisch (Weimar) behandelte eine kurze Episode der Postgeschichte während der Belagerung von Paris im deutsch-französischen Krieg, in der Freiballons postalisch eingesetzt wurden. Dabei folgte sie in ihrem Beitrag der Leitfrage, welche Raumordnung Kommunikation mit unlenkbaren Ballons hervorbringe. Borisch konzipierte das Pariser Ballonpostsystem als sukzessive Kreuzung der Medien Ballon, Post, Tauben und Fotografie. Postalisch sei zunächst bemerkenswert, dass Ballons nur Ausgang, aber keinen Eingang zuließen. Die Unlenkbarkeit stelle eine Raumordnung her, die streng aufs Binäre reduziert sei: es zähle allein, ob der Ballon in besetztem oder unbesetztem Gebiet lande. Dadurch bleibe im Glücksfall der Raum der französischen Nation adressierbar. Für den Rückkanal wurden Brieftauben verwendet, die jedoch eine sehr eingeschränkte Transportkapazität hatten. Zur Lösung dieses Problems wurden die Briefe nicht direkt verschickt, sondern fotografiert (bis zu 3.500 Depeschen pro Foto) und dann bei Ankunft wieder vergrößert. So sei es Paris gelungen, eine geschlossene Zirkulation von Nachrichten herzustellen und sich so auch in Zeiten der Belagerung als symbolisches und reales Zentrum der Nation zu behaupten.
Mit Network Centric Warfare (NCW) behandelte Stefan Kaufmann (Freiburg) ein zeitgenössischeres Thema. In einem diskursanalytischen Zugang stellte er zunächst fest, dass die Prognose einer zukünftigen Dominanz der Technologie deren Entwicklung selbst stimuliert habe. Kaufmann betonte, dass NCW mehr als ein Rüstungsprogramm sei, vielmehr eine Wende zum komplexitätstheoretischen Denken darstelle, verbunden mit einer biologistischen «Metaphernpolitik». Dabei seien bisherige Randgebiete zur Kernzone der Sicherheitspolitik geworden. Der «Kriminelle» wurde dabei in ein Kontinuum zum «Feind» gebracht. Die Integration aller Systeme produziere eine neue, enthierarchisierte Struktur, bei der sich Kommandoketten ergäben, die zuvor undenkbar waren. Das bedeute eine «Rekonfiguration des Kriegsraums», insofern Bodentruppen nur noch als Sensoren fungierten. Das Konzept sei zudem beliebig skalierbar und somit in beliebige Kriegsräume transferierbar.
In der Diskussion wurde die Neuheit biologischer Metaphern und Modelle zunächst angezweifelt; Kaufmann betonte jedoch, es gehe hier nicht lediglich um eine Anleihe an die Schwarmforschung, sondern um den neuartigen Anspruch, Schwärme kontrollierbar zu machen. Ein weiterer Einwand merkte an, dass gerade in der Integration von Systemen ein großes Maß an Zentralisierung stecke; dieses werde, so Kaufmann, in den Programmatiken jedoch ausgeblendet.
Tobias Nanz’ (Dresden) Vortrag «Raumverteidigung – Die Hotline des Kalten Krieges» untersuchte ein Objekt des Kalten Kriegs zwischen Fakt und Fiktion: das Rote Telefon. Obwohl es dieses nie gegeben habe, habe es Spuren in der Lebenswirklichkeit hinterlassen. Anhand eines Ausschnitts aus dem Film Fail-Safe (USA 1964) von Sidney Lumet demonstrierte Nanz, wie die Fiktion einer direkten Sprechverbindung zwischen den Staatschefs diese als souveräne Entscheidungsträger inszeniert, als Zentren von Handlungsmacht. In dem Tom Clancy-Film Der Anschlag (The Sum of All Fears, USA 2002) wird diese Ordnung der Handlungsmacht hingegen sabotiert: Jack Ryan schaltet sich in eine Fernschreiber-Verbindung zwischen den beiden Präsidenten und nimmt so den Körper des US-Präsidenten an, der somit dezentralisiert wird. Die Semantik zentrierter Handlungsmacht wird noch weiter dekonstruiert in einem Wahlwerbespot von Hillary Clinton aus dem Jahr 2008. Auch hier kommt zwar ein schrillendes Telefon vor – aber es ist nicht mehr rot und es soll nicht dazu dienen, Handlungsmacht zu produzieren, sondern lediglich Informationen mitzuteilen. Im Krieg gegen den Terror geht es nicht mehr darum, einer fremden Macht möglichst gebündelte eigene Handlungsmacht gegenüberzustellen, denn es fehlen die entsprechenden Ansprechpartner.
Die Frage, ob es auch in der UdSSR einen ähnlichen Mythos gegeben habe, wurde von Nanz vorsichtig verneint. Die Tatsache, dass die Verbindung als Fernschreiber und nicht als Sprechverbindung ausgeführt wurde, diente laut Nanz auch dem Zeitgewinn in kritischen Situationen.
Stefan Höltgen (Berlin) schilderte den Bedeutungswandel des Hacker-Begriffs im Kalten Krieg in seinem Beitrag unter dem Titel «Phantome im Netz – Militär und Hacker im Kalten Krieg der Protokolle». Die negative Konnotation des Begriffs sei erst mit dem Aufkommen von Mikroprozessoren entstanden; während er vorher einen Wissenden gemeint habe, habe die Mikroprozessoren-Architektur dazu verführt, Hacker nun als Eindringlinge in opake Systeme zu begreifen. Das Grundmerkmal der Hacker-Kultur bleibe jedoch, so Höltgen, ein «dranghafter Wille zum Wissen». Parallelen ließen sich auch zum Begriff des Partisanen bei Carl Schmitt ziehen. Der Feind dieser Partisanen sei zunächst immer die Technik selbst, denn Hacker greifen Computersysteme an; diese jedoch betrachteten die Technik als ihre Verbündete und gingen ihr so in die Falle.
Wolfgang Hagen (Lüneburg) untersuchte die unterschiedliche Verwendung von Radartechnik auf deutscher und britischer Seite in der Luftschlacht um England (Battle of Britain). Durch den Einsatz des britischen Radars sei es zu einer Transformation des mechanischen Raums in einen Raum von Messung und Kontrolle gekommen; dieser Transformation war das deutsche Militär nicht zu folgen in der Lage. Dabei sei Deutschland technologisch gesehen nicht schlechter ausgestattet gewesen; es handele sich hier um einen genuin epistemologischen Bruch, eine Veränderung des militärischen Raumes selbst. Das deutsche Militär habe nicht begreifen können, so Hagen weiter in der Diskussion, dass die Zerstörung des Radars die Zerstörung des Raumes des Feindes gewesen sei.
Sebastian Vehlken (Lüneburg), der sein Manuskript verlesen ließ, verfolgte die Entwicklung des amerikanischen Sonars im sogenannten SOFAR Channel und beleuchtete so «Operationale Ozeane». Er beschrieb die Nutzung dieses Kanals als ein Transparent-Werden des opaken Raums der Ozeane und deren «Operationalisierung». Zunächst habe die UdSSR kaum versucht, ihre U-Boote vor diesem Sonar zu schützen; erst in den 80er Jahren wurden Boote entwickelt, die auf diesem Wege unentdeckbar waren. Diese Geschichte sei auch zu beschreiben als eine wiederholte Bewegung von Kerbung und Glättung des Ozeans.
Wolfgang Hagen selbst stellte eine Verbindung zu seinem eigenen Vortrag her: in beiden Fällen ergebe sich das Problem, wie mit einem Raum umzugehen sei, der vollkommen selbst konstruiert sei.
Zum Abschluss präsentierte Christoph Engemann (Lüneburg) seine Überlegungen zur Erforschung von Human Terrain mittels der mathematischen Graphentheorie. Dabei werden durch Fragebögen Social Network-Analysen erstellt und genutzt, um zentrale Knoten in den sozialen Netzwerken von Widerstandsgruppen zu bestimmen und sie so effektiv und gezielt treffen zu können. Der militärische Raum werde, so Engemann, in einen Sozialraum transformiert.
Der Erlanger Tagung gelang es mithin trotz der erwähnten Ausfälle, interessante und aufschlussreiche Fallstudien zur Raumkonstruktion durch Medien in Kriegen zu versammeln: Kriege werden nicht nur mit technischen (Kampf-)Mitteln geführt, sie erschaffen mittels ihrer Medien auch einen ihnen eigenen Raum, und die Beherrschung dieser selbstkonstruierten Räume kann selbst kriegsentscheidend sein.
Bevorzugte Zitationsweise
Die Open-Access-Veröffentlichung erfolgt unter der Creative Commons-Lizenz CC BY-SA 4.0 DE.