KULTURATIONOnline Journal für Kultur, Wissenschaft und Politik
Nr. 24 • 2021 • Jg. 44 [19] • ISSN 1610-8329
Herausgeberin: Kulturinitiative 89
 Start  Reports  Themen  Texte  Zeitdokumente  Kritik  Veranstaltungen 
 Editorial  Impressum  Redaktion  Forum  Suche 
TextKulturation 2013
Peter Kaiser
Von Wittgenstein zur NSA.
Vom Positivismus ĂŒber den Anti-Terrorismus bis zur AbhöraffĂ€re
Eine kurze Geschichte vom Positivismus ĂŒber den Anti-Terrorismus nach 9/11 bis zur neuesten AbhöraffĂ€re
Inhalt

Vorbemerkung
Wittgenstein und der Wiener Kreis
Logik gegen Metaphysik
Das Ende des Wiener Kreises
Von positivistischer Logik zur Kriegsforschung
9/11 oder Orwell lĂ€ĂŸt grĂŒĂŸen
Matrix ist keine Science Fiction
Nachbemerkung
Vorbemerkung, aus gegebenem Anlaß


Als dieser Artikel vor einigen Jahren geschrieben wurde, hatten die meisten hierzulande keinen Begriff davon, was die National Security Agency ist und was die AbkĂŒrzung NSA bedeutet. Wer allerdings jemals mit Security und Secrecy im Internet zu tun hatte, der hatte auch mit Kryptofizierung zu tun und wußte, dass die VerschlĂŒsselungstechniken vom zweitgrĂ¶ĂŸten Geheimdienst der USA fĂŒr private und geschĂ€ftliche Zwecke in der Weise beschrĂ€nkt sind, dass sie immer nur unterhalb der höchstmöglichen Kryptofizierung angewendet werden „durften“. Der militĂ€rische Geheimdienst NSA mit Sitz in Fort Meade (offizieller Spitzname: „Cryptocity“), hat sich immer vorbehalten, jedwede VerschlĂŒsselung dekryptofizieren zu können, wenn es angebracht schien. Einen betrĂ€chtlichen Aufwand hĂ€tte es allerdings gebraucht. Trotzdem: die Schlußfolgerung ist offenbar, dass ein US-amerikanischer, militĂ€rischer Geheimdienst bestimmt, mit welchem Kryptofizierungsgrad in der ganzen Welt gearbeitet werden darf. Erreicht wird dies durch ganz einfache technische Mittel: entsprechende Software, die Dokumente, Nachrichten etc. fĂŒr Dritte unlesbar machen wĂŒrde, gibt es nicht zu kaufen; die NSA hĂ€lt die Hand darĂŒber. Man kann sogar davon ausgehen, dass nicht einmal QuantenverschlĂŒsselung, obwohl es noch keine echten Quantencomputer gibt, vor der NSA bestehen könnte.i Zurzeit gibt es Quasi-Quantencomputer, z.B. solche, die mit Licht arbeiten, das in verschiedenen Richtungen polarisiert ist, so dass damit verschlĂŒsselte Nachrichten gesendet werden können; diese können jedoch trickreich abgefangen werden. Ein echter Quantencomputer wĂŒrde mit verschrĂ€nkten Teilchen arbeiten, bei denen eine Abhöraktion unmittelbar diesen VerschrĂ€nkungszustand aufheben wĂŒrde, so dass der Eingriff erkannt wird. Allerdings können verschrĂ€nkte Teilchen nur im Hochvakuum und bei Temperaturen nahe dem absoluten Nullpunkt „hergestellt“ werden; da die VerschrĂ€nkung im Nano- bis Millisekunden-Bereich wieder zerfĂ€llt, mĂŒssen die Rechen- oder Nachrichtenoperationen in dieser extrem kurzen Zeit durchgefĂŒhrt werden. So ist der Quantencomputer im Moment eher ein langjĂ€hriges Forschungsprojekt als eine anwendbare Methode, geschweige denn ein kommerzielles Objekt. Aber er wĂ€re „abhörsicher“.


Bei den Arbeiten zum philosophischen Problem der richtigen Definition von Begriffen und Kategorien wie „KausalitĂ€t“ und „Zufall“ fiel mir auf, dass es anscheinend einen großen Bogen vom Positivismus, von dem noch heute viele Naturwissenschaftler durchaus angetan sind, ĂŒber den Neopositivismus, etwa des Wiener Kreises, zur Entstehung von Computersprachen gibt. Anscheinend hatte alles mit kĂŒnstlichen Sprachen zu tun sowie mit formaler und inhaltlicher bzw. dialektischer Logik. Alle Programmiersprachen beruhen auf formaler Logik, eine inhaltliche Logik ist ausgeschlossen; dies kann Software nicht. Deren Sprachbefehle beruhen auf der Boolschen Algebra (Funktionen wie: und/oder/wenn - dann/nicht etc.) und sind abstrakt formalisierbar. Als Beispiel mag eine beliebige Suchma-schine fĂŒr das Internet dienen: man möchte einen bestimmten Begriff suchen, der einen ganz bestimmten Inhalt hat, dem also eine Semantik zugrunde liegt; Suchmaschinen können aber nicht nach Inhalten unterscheiden, sie kennen nur identische oder nicht-identische Zeichenketten, im Programmier-Slang „strings“. Daher kommt es, dass noch der kleinste Schreibfehler in einem Suchbegriff dazu fĂŒhrt, dass er scheinbar nicht vorhanden ist.


FĂŒr eine Suchmaschine ist der Begriff "Mercedes" stets einfach nur "Mercedes". Dabei kann es sich um diverse Autotypen handeln, einen alten Firmennamen mit all den dabei noch möglichen Verwendungen (z.B. Wertpapiere) oder um Personennamen. Und wahrscheinlich gibt es noch weitere Bedeutungen. Indem der Suchbegriff um weitere Begriffe, verknĂŒpft mit Boolschen Operatoren, ergĂ€nzt wird, kann der Suchende eine inhaltliche Eingrenzung vornehmen - doch das kann nur er, die Suchmaschine selbst bleibt weiter "dumm".ii Es entsteht die sogenannte „semantische LĂŒcke“.iii Diese beschreibt den semantischen, also bedeutungsbezogenen Unterschied zwischen zwei Beschreibungen eines Objekts, der dadurch entsteht, dass verschiedene ReprĂ€sentationsformen (Sprachen) dafĂŒr gewĂ€hlt werden. Dieser in der Informatik verwendete Begriff wird im Allgemeinen dort deutlich, wo ein Abbild des realen Lebens in eine formale, maschinell verarbeitbare ReprĂ€sentation ĂŒbertragen werden muss. Um nun das Suchen im Internet verbessern zu können, haben sich einige Wissenschaftler daran gemacht, das sogenannte „Semantic Web“ zu entwickeln, den nĂ€chsten logischen Schritt nach dem World Wide Web.iv Allerdings ist man von einer Abbildung der natĂŒrlichen Sprachen im binĂ€ren System noch weit entfernt. Immer ist an einer kritischen Schnittstelle ein Mensch vonnöten, der den semantischen Inhalt eines Begriffes zu deuten weiß, also weiß, in welcher Richtung ein Computerprogramm weiterlaufen soll und das auch „eingeben“ muss.


So waren es die Wissenschaftler des Wiener Kreises – abgesehen von Leibniz, auf den die binĂ€re Codierung (0-1) zurĂŒckgeht – die die Voraussetzungen dafĂŒr schufen, dass Menschen ĂŒberhaupt mit Maschinen kommunizieren konnten. Dies waren wiederum die Voraussetzungen dafĂŒr, dass „man“ in den 1960er Jahren Software entwickeln konnte, die im Laufe der darauffolgenden Jahre und Jahrzehnte zu Programmen der 2-dimensionalen Rastererkennung (Auswertung von Röntgenbildern, Magnetresonanz-Imaging und Steuerung von Cruise Missiles), Übersetzung in und aus fremde(n) Sprachen (nicht nur Bedienungsanleitungen, sondern auch Abhöraktionen der Geheimdienste und der Polizei), Gesichtsfelderkennung (Einreise in die USA) und schließlich „Gait-Recognition“ (Erkennung der Gangart eines Menschen) weiter entwickelt wurden. Mit letzterem Programm, bilden sich die Geheimdienste ein, könnte man Terroristen aus sicherer Entfernung an ihrer Gangart erkennen. Diese ist – wie ein Fingerabdruck – einzigartig, allerdings muß sie vorher ermittelt und als Vergleich in einer Datenbank gespeichert worden sein – ebenfalls wie beim Fingerabdruck oder einer DNA-Probe.


Die wissenschaftliche Entwicklung der entsprechenden, eben genannten Programme vollzog und vollzieht sich innerhalb des enormen Forschungsetats des nach 9/11 gegrĂŒndeten Ministeriums „Homeland Security“ (genauer: United States Department of Homeland Security, DHSv), wie wir im folgenden Artikel sehen werden. Daher ist von einer engen Zusammenarbeit dieser Behörden auszugehen.


Wenn man daher wirklich verstehen will, wie es zu dem NSA-Debakel kam, muß man den philosophischen Hintergrund berĂŒcksichtigen, der zur Entstehung von Computer-programmen gefĂŒhrt hat. So stringent man Positivismus wie Neopositivismus auch kritisieren kann, so stringent sind diese Denkweisen, die hochgradig ideologieanfĂ€llig sind, wie gesagt, die Voraussetzung fĂŒr jedwede Art von Software gewesen. Allerdings zeigt die Kritik, in welcher Begrenztheit jedwede Art von Software eingeschlossen ist; da inhaltliche Logik nicht programmierbar ist, allen Verfechtern der „KĂŒnstlichen Intelligenz“ zum Trotz, kann Software auch keine „intelligenten“ Ergebnisse bzw. Lösungen von Problemen produzieren. Das stört jedoch Geheimdienste wie die NSA wenig; in schönstem und reinsten Reduktionismus glauben sie an die Allmacht der technischen Mittel eher, als an die kreative Intelligenz von Menschen.vi


Dabei ist die NSA nur einer der insgesamt 16 Geheimdienste der USA, wie anlĂ€ĂŸlich der Umstrukturierung aller Geheimdienste mit einer „Oberaufsicht“, dem Director of National Intelligence (DNI), James R. Clapper (*1941), im Jahre 2010 auch in Deutschland bekannt wurde.vii Obama selbst hatte den MilitĂ€rstrategen und VietnamkĂ€mpfer Clapper im Juni 2010 vorgeschlagen und er wurde Anfang August 2010 vom amerikanischen Senat bestĂ€tigt. WĂ€hrend der NSA-AffĂ€re sagte er im Mai vor dem Kongressausschuss fĂŒr Nachrichten-dienste auf die Frage, ob die NSA rechtswidrig Telefondaten US-amerikanischer BĂŒrger sammle, das stimme nicht.viii Jedoch veröffentlichte er dann weniger als einen Monat spĂ€ter ein Dokument, welches das Gegenteil zugab – Metadaten von Telefonanrufen und -gerĂ€ten wĂŒrden gespeichert und ausgewertet.ix Obwohl in den Medien international der RĂŒcktritt Clappers gefordert wurdex und zu erwartende strafrechtliche Sanktionen diskutiert wurdenxi, ist er nach wie vor im Amt.xii


„Halten sich die Geheimdienste fĂŒr Gott?“, schrieb dann die FAZ am 09. September 2013, und wĂ€hnte eine „Elite von digitalen Allsehern“, die im Vorborgenen walte. Zu Recht macht der Autor, Frank Rieger, darauf aufmerksam, dass der Kanzleramtschef Roland Pofalla in einem kleinen Halbsatz zur ErklĂ€rung, der NSA-Skandal sei nun zu Ende, erkennen ließ, dass es keinerlei politische Kontrolle ĂŒber die Geheimdienste gebe. Er zitierte aus einem NSA-Papier, das der deutschen Regierung helfen sollte: „Die NSA hĂ€lt sich an alle Abkommen, die mit der deutschen Bundesregierung, vertreten durch ·die deutschen Nachrichten-dienste, geschlossen wurden, und hat sich auch in der Vergangenheit stets daran gehalten." Es wird deutlich, dass nicht etwa die Regierung hier verhandelt, nein, die Dienste machen alles unter sich aus. Was genau vereinbart wurde, welchen technischen Zugriff die NSA auf die Systeme unserer Dienste sowie deutsche und europĂ€ische Datenströme erhalten hat – das geht offenbar niemanden außerhalb des kleinen Zirkels der Eingeweihten etwas an. Schon gar nicht die Politiker, die von den Geheimdiensten immer als unzuverlĂ€ssige Kantonisten angesehen werden. Die Politik ist stets nur Zaungast der internationalen GeheimdienstgeschĂ€fte, dem Austausch von Abhörresultaten, Daten, Zugangsmöglichkeiten oder SchnĂŒffeltechnologien.xiii


Aber Abkommen hin, Abkommen her: ist nicht das Datenschutzgesetz gerade deshalb entstanden, weil die PrivatsphĂ€re der BĂŒrger geschĂŒtzt werden sollte? Erinnern wir uns an den Anlaß: die VolkszĂ€hlung von 1983/87 und das Grundsatzurteil des Bundesverfassungs-gerichts (BVerfG) vom Dezember 1983! An dieser Stelle ist ein Blick ins Gesetz hilfreich: im § 1 Zweck und Anwendungsbereich des Gesetzes (Bundesdatenschutzgesetz, BDSG) steht Folgendes:


(1) Zweck dieses Gesetzes ist es, den Einzelnen davor zu schĂŒtzen, dass er durch den Umgang mit seinen personenbezogenen Daten in seinem Persönlichkeitsrecht beeintrĂ€chtigt wird. (2) Dieses Gesetz gilt fĂŒr die Erhebung, Verarbeitung und Nutzung personenbezogener Daten durch 1. öffentliche Stellen des Bundes, 2. öffentliche Stellen der LĂ€nder, soweit der Datenschutz nicht durch Landesgesetz geregelt ist und soweit sie a) Bundesrecht ausfĂŒhren oder b) als Organe der Rechtspflege tĂ€tig werden und es sich nicht um Verwaltungsangelegenheiten handelt, 3. nicht-öffentliche Stellen, soweit sie die Daten unter Einsatz von Datenverarbeitungs-anlagen verarbeiten, nutzen oder dafĂŒr erheben oder die Daten in oder aus nicht automa-tisierten Dateien verarbeiten, nutzen oder dafĂŒr erheben, es sei denn, die Erhebung, Verarbeitung oder Nutzung der Daten erfolgt ausschließlich fĂŒr persönliche oder familiĂ€re TĂ€tigkeiten.


Allein danach sind sĂ€mtliche Abhöraktionen auf deutschem Boden nicht nur illegal nach dem BDSG, sondern sogar verfassungswidrig. Nur wenn jeder BĂŒrger, der abgehört werden will, sein EinverstĂ€ndnis erklĂ€ren wĂŒrde, könnte er von deutschen Behörden abgehört werden. Aber auch die amerikanischen Spionageaktionen sind illegal; in einem bis heute gĂŒltigen Abkommen mit der UNO hat die USA sich verpflichtet, keine verdeckten Aktionen zu unternehmen. In einem Fall habe die NSA zudem den chinesischen Geheimdienst dabei ertappt, ebenfalls zu spionieren. Daraufhin haben die NSA abgefangen, was zuvor die Chinesen abgehört hatten.xiv Illegal sind auch Abhöraktionen mithilfe von technischem Equipment, das auf den DĂ€chern der BotschaftsgebĂ€ude, z.B. in Berlin, installiert ist. Formal legal sind dagegen Abhöraktionen von den USA oder England aus, wenn von dort der internationale Funkverkehr abgehört wird. Der Chefredakteur des „Guardian“, Alan Rusbridger, berichtete am 19. August 2013 von einem „eher bizarren“ Vorfall, der sich einen Monat zuvor im Keller des RedaktionsgebĂ€udes zugetragen haben soll: der britische Geheimdienst GCHQxv hatte zwei Mitarbeiter der Zeitung gezwungen, DatensĂ€tze zu vernichten, die Edward Snowden ihnen kurz zuvor zugespielt hatte. Die angebliche BegrĂŒndung war, die Informationen sollten nicht bei chinesischen Agenten landen. Als Rusbridger im Vorfeld angerufen wurde, mußte er sich Folgendes anhören: „Ihr habt Euren Spaß gehabt, jetzt wollen wir das Zeug zurĂŒck.“ Im Verlauf dieser Aktion wurden dann ganze Notebooks geschreddert. Ein weiterer Vorfall ereignete sich, als der Brasilianer David Miranda, aus Berlin kommend, auf dem Flughafen Heathrow neun Stunden festgehalten und dabei von sieben Sicherheits-beamten eingeschĂŒchtert und bedroht wurde; er konnte seinen Flug nach Rio de Janeiro erst einen Tag spĂ€ter fortsetzen. Die Metropolitan Police berief sich auf den „Terror Act 2000“; sein Partner Glenn Greenwald war nĂ€mlich der erste, der ĂŒber den Fall Snowden berichtet hatte und so stand Miranda offenbar sogleich unter „Terrorismus-Verdacht“. Sein Handy und sein Laptop wurden beschlagnahmt. Greenwald sagte in Rio, er wolle „jetzt erst recht auspacken.“ Die britische Journalisten-Union bezeichnete die Festnahme als „Mißbrauch des Gesetzes“.xvi Ein ganz anderer Vorfall soll hier nicht unerwĂ€hnt bleiben, der zeigt, wie anfĂ€llig derartige Überwachungssysteme schlicht und allein aufgrund ihrer monströsen GrĂ¶ĂŸe fĂŒr die Hardware-Ausstattung in Zukunft werden könnenxvii: weil sie den weltweiten Internetverkehr noch effektiver ĂŒberwachen will, baut die NSA in Utah jetzt eine gigantische Anlage. Der Start verzögert sich jedoch und die Eröffnung könnte sich um ein Jahr verschieben. Dem Wall Street Journal liegen Dokumente vor, aus denen hervorgeht, dass die Anlage in Utah von Stromschwankungen geplagt sei. Die AusfĂ€lle hĂ€tten Maschinen in Wert von mehreren Hunderttausend US-Dollar vernichtet. Die Schwankungen bringen Metall zum Schmelzen und sorgen fĂŒr Explosionen, so das Wall Street Journal weiter. Ein Mitarbeiter habe die StromstĂ¶ĂŸe als Blitze bemerkt. Innerhalb von 13 Monaten habe es zehn FĂ€lle gegeben. Eine NSA-Sprecherin sagte der Zeitung, dass es in der Testphase technische Probleme gab, die aber inzwischen eingedĂ€mmt seien. An den Ursachen werde weiterhin geforscht, da Uneinigkeit darĂŒber herrsche, ob die LösungsvorschlĂ€ge funktionieren. Der Speicherplatz reicht dem Bericht nach bis in den Bereich von Zettabytes. Wer sich das vorstellen will: 36.000 Jahre lang HD-TV zu schauen, entspricht einem Exabyte. Das Ganze multipliziert mit 1000, ergibt ein Zettabyte (1021 Byte). Nur die Stromkosten eines so gigantischen Datenzentrums liegen angeblich bei einer Million US-Dollar - pro Monat!


Doch nun zunĂ€chst zum ursprĂŒnglichen Teil dieser Arbeit.xviii


Ein kleiner, aber notwendiger Umweg – der Beginn mit reiner Philosophie


Wittgenstein und der Wiener Kreis


Zu Beginn des 20. Jahrhunderts war Wien, nach Karl Kraus eine „Versuchsstation fĂŒr WeltuntergĂ€nge“, mit seinem anregenden geistigen Klima in Philosophie, Mathematik, Physik, Psychoanalyse und den KĂŒnsten eines der kulturellen Zentren der europĂ€ischen Moderne. Das Mathematische Institut der UniversitĂ€t Wien war neben denen in Göttingen und Warschau in den Disziplinen Mathematik und Logik fĂŒhrend; hier lehrten u.a. als ordentliche Professoren Philipp FurtwĂ€ngler (1869-1940), der von Göttingen (Fritz Klein) kam, und der Österreicher Hans Hahn (1879-1934). Hahn leistete wichtige BeitrĂ€ge zur Variationsrechnung, Mengentheorie, Topologie und der Theorie der reellen Funktionen; sein Arbeitsgebiet war die Funktionenanalyse. 1922 wird Moritz Schlick (1882-1936) auf den Lehrstuhl fĂŒr Philosophie der induktiven Wissenschaften berufen, den zuvor Hahns Lehrer Ernst Mach innehatte. Der Physiker, Professor fĂŒr Mechanik, und Hobby-Philosoph Ernst Mach (1838-1916) vertrat einen dezidierten Positivismus, der sich insbesondere durch seine Auffassung ausdrĂŒckte, dass Ursache und Wirkung nur im menschlichen Bewußtsein existierten: „In der Natur gibt es keine Ursache und keine Wirkung.“xix Damit wird auf eine ErklĂ€rung der Naturerscheinungen vollkommen verzichtet und das von einem Physiker! Die Aufgabe der Wissenschaft sei es lediglich, diese zu beschreiben. HierfĂŒr brauche man nicht den Begriff der Ursache. Außerdem existiere die Welt nur in Form von „Empfindungen“ und nur von diesen wĂŒsste man.xx Da nimmt es nicht wunder, dass Mach auch die bedeutendsten Theorien der Neuzeit ablehnte: „Ich kann die RelativitĂ€tstheorie ebensowenig akzeptieren, wie ich die Existenz von Atomen und anderen solchen Dogmen akzeptieren kann.“xxi Hans Hahn gehörte zu einer kleinen Gruppe von Gelehrten, die von Machs Positivismus beeinflußt waren und sich einmal wöchentlich in einem Wiener Kaffeehaus trafen. Obwohl Schlick als FĂŒhrer der Gruppe galt, war es Hahn, der das Interesse der Mitglieder auf die Logik richtete. 1924 installierte Schlick ein formelles Kolloquium, das sich jeden Donnerstagabend im Hinterhaus des Instituts fĂŒr Mathematik in der Boltzmanngasse traf. Das waren die AnfĂ€nge des Wiener Kreises, benannt nach einem Manifest, das 1929 von Rudolf Carnap, Otto Neurath, einem utopischen Sozialreformer, und Hans Hahn veröffentlicht wurde. Zugang zu den Sitzungen erhielt man nur durch Einladung. Zur engeren Gruppe gehörten auch der Physiker Philipp Frankxxii oder der Mathematiker Karl Mengerxxiii; zum erweiterten Kreis u.a. Egon und Else Frenkel-Brunswick, die spĂ€ter in den USA mit drei anderen Autoren, darunter Adorno, die Studie „The Authoritarian Personality“ verfasste.xxiv 1926 besuchte der Physik- und spĂ€tere Mathematikstudent Kurt Gödel (1906-1978) die Sitzung zum ersten Mal, als sich der Wiener Kreis mit einer zweiten Lesung des Tractatus von Wittgenstein beschĂ€ftigte. Hans Hahns SchĂŒler Kurt Gödel nahm bis 1928 regelmĂ€ĂŸig teil, einige Male auch der Student Heinz von Foerster (1911-2002), der spĂ€ter in den USA als SekretĂ€r der Macy Konferenzen bekannt wurde. Schon wenig spĂ€ter, nĂ€mlich 1930, wird Gödel seine UnvollstĂ€ndigkeitssĂ€tze vorlegen, die 1931 publiziert werden. Damit werden nicht nur heftige Diskussionen im Wiener Kreis hervorgerufen, sondern es wird auch das mathematische Weltbild der Mechanisten, als deren Vertreter Hilbert gelten kann, in Frage gestellt.xxv Rudolf Carnap (1891-1970) kam auf das Betreiben Hahns 1926 als Privatdozent fĂŒr Philosophie nach Wien, und wurde sofort zu den Sitzungen des Wiener Kreises eingeladen. Carnap hielt Vorlesungen ĂŒber die philosophischen Grundlagen der Arithmetik, die auch Gödel besuchte.xxvi Carnap erarbeitete bis zu Beginn der 1930er Jahre die Ideen des logischen Empirismus und wendete den Apparat der mathematischen Logik auf die Analyse der Begriffe und die Axiomatisierung einzelner Theorien an. In einer zweiten Etappe bis 1936 – der syntaktischen – konstruierte Carnap die logische Sprache eines erweiterten PrĂ€dikatenkalkĂŒls.xxvii Er stellte die These auf, dass die Logik der Wissenschaft die Syntax der Sprache der Wissenschaft sei. In seiner dritten Periode, die zwei bis drei Jahre spĂ€ter begann, befaßte sich Carnap mit Problemen, die mit der Konstruktion einer Universalsprache der Wissenschaft zusammenhĂ€ngen. Er untersuchte die Semantik, d.h. die Beziehung zwischen einer Sprache und dem von ihr beschriebenen Bereich von GegenstĂ€nden, und beschĂ€ftigte sich mit der Konstruktion kĂŒnstlich interpretierter Sprachen.xxviii FĂŒr Martin Heidegger (1889-1976) waren Carnap und die Mitglieder des positivistischen Wiener Kreises, in dem die Fundamente fĂŒr die an formaler Logik und Wissenschaftstheorie interessierte analytische Tradition gelegt wurden, dagegen Leute, die angeblich die Strenge der Forschung mit Exaktheit, Wahrheit mit Wissenschaft und Denken mit Rechnen verwechselten. „Hier“, nĂ€mlich in Carnaps Aufsatz von 1929 in der Zeitschrift Erkenntnisxxix, „vollzieht sich die Ă€ußerste Verflachung und Entwurzelung der ĂŒberlieferten Urteilslehre unter dem Schein mathematischer Wissenschaftlichkeit“, so Heidegger.xxx Carnap dagegen hielt – wie der Wiener Kreis – am besonderen Status der Wissenschaft fĂŒr die Wahrheitssuche fest.xxxi
Vor allem Otto Neurath war es, der die programmatische Schrift „Wissenschaftliche Weltauffassung: Der Wiener Kreis“ verfasste, die den Charakter eines politischen Manifestes hatte und damit Kontroversen ĂŒber den Inhalt bei den ĂŒbrigen Mitgliedern des Wiener Kreises provozierte, denen die Schrift zu sehr politisches Manifest war. Einig aber war man sich bei den Mitgliedern des Wiener Kreises im Unbehagen darĂŒber, dass „die Philosophie“ im Gegensatz zu den Naturwissenschaften wenig Erfolg in der Lösung von Problemen im Bereich der Metaphysik hatte.xxxii Man war der Überzeugung, dass im Rahmen eines klar formulierten Empirismus solche Probleme mittels an neuer mathematischer Logik orientierten, analytischen Methoden gelöst werden könnten. Zu dieser Überzeugung gehörte die Auffassung, dass alle Aussagen ĂŒber die Welt durch BeobachtungssĂ€tze ĂŒberprĂŒfbar sind – alle empirischen Begriffe seien auf elementare Beobachtungsbegriffe rĂŒckfĂŒhrbar. Eine „Meta-Mathematik“ fĂŒr die AufklĂ€rung des Wesens des Unendlichen schien notwendig. Behauptet wurde ein „zusammenhĂ€ngender Mechanismus“, der sowohl in der Natur als auch im Denken zu finden sei. Durch das Aufstellen logischer Systeme hoffte man auf Sicherheit und geordnete VerhĂ€ltnisse in Mathematik, Physik und Philosophie, aber auch auf die Möglichkeit, „Weltgesetze“ aufzustellen. Das bedeutete die Anwendung von Logik fĂŒr alle Wissenschaften, aber auch fĂŒr die KĂŒnste, z.B. die Musik. Man wollte in einer sogenannten „Einheitswissenschaft“ „Systeme“ entwickeln, auf deren Grundlage man kommunizieren und die Welt beschreiben konnte. Alle AnhĂ€nger einer solchen „wissenschaftlichen Weltauffassung“ waren sich einig in der Ablehnung der offenen Metaphysik und der versteckten des Apriorismus. Der Wiener Kreis aber vertrat darĂŒber hinaus die Auffassung, dass auch die Aussagen des (kritischen) Realismus und Idealismus ĂŒber RealitĂ€t oder NichtrealitĂ€t der Außenwelt und des Fremdpsychischen metaphysischen Charakters sind, da sie denselben EinwĂ€nden unterlĂ€gen wie die Aussagen der alten Metaphysik; sie seien sinnlos, weil nicht verifizierbar. Etwas ist „wirklich“ dadurch, dass es dem GesamtgebĂ€ude der Erfahrung eingeordnet wird. Es gibt kein Reich der Ideen, das ĂŒber oder jenseits der Erfahrung stĂŒnde.xxxiii Im Wiener Kreis ging es um die Vision einer “universalen Weltsprache“, die LeibnizÂŽ Traum von einer Kunstsprache sowie eines rationalen KalkĂŒls (lingua characteria und calculus ratiocina) weiterfĂŒhrte: logisch, mathematisch, prĂ€zise, mit der man sich sowohl transnational verstĂ€ndigen konnte, als auch mit Maschinen, und in der auch Maschinen mit Maschinen ‚sprechen‘ konnten. Das sollte eine Zeichen- und Bildsprache sein, deren Vorbild „Basic English“ war und deren abstrakte Zeichen- und Symbolketten mit mechanisierten Ableitungen Jahrzehnte spĂ€ter mit den Computersprachen Wirklichkeit wurde. Nicht von ungefĂ€hr heißt eine modernere, noch gebrĂ€uchliche Programmier-sprache „Basic“.

Logik gegen Metaphysik und „Deutsche Physik“


Die neuen Arbeitsmethoden sollten auf neuer Logik, Mathematik, Physik und InterdisziplinaritĂ€t basieren. Der Einzelne arbeitet an seiner bestimmten Stelle innerhalb der einen Gesamtwissenschaft. Einig war man sich in der Ablehnung von Religion und Metaphysik (etwa der des deutschnationalen Dichters Othmar Spann oder des bereits erwĂ€hnten Martin Heidegger). Im NS-Deutschland hinwiederum wollte man von diesen Auffassungen, der „analytischen, hermeneutischen und positivistischen Philosophie“, offiziell nichts wissen. Diese wurden als „Vorstellungen von einer Meß- und ZĂ€hlbarkeit der Welt“ und als „rein formalistisch-rechnerisches Denken, das KalkĂŒl nicht als Hilfsmittel, sondern als die Sache selbst, als ein Absolutum nimmt“, abgelehnt - im Gegensatz etwa zum „deutschen schöpferischen Denken“. Der Wiener Kreis bedeutete fĂŒr die Vertreter der „deutschen Wissenschaft“ jĂŒdische Philosophie, Physik und Mathematik: „Der Jude ist ein A-metaphysiker, und liebt in der Philosophie den Logizismus, den Mathematismus, den Formalismus und Positivismus“. Ein Vertreter der „deutschen Wissenschaft“ ist der Physiker Phillip Lenard (1862-1947), Professor in Heidelberg. Schon 1922 fordert er in einem Manifest „mehr arische Wissenschaft“ und polemisiert speziell gegen Albert Einstein. 1936 erschien sein vierbĂ€ndiges Werk „Deutsche Physik“, in dem er zum Kampf fĂŒr eine deutsche Physik aufforderte – gegen jĂŒdische Tendenzen in der deutschen Wissenschaft, gegen das „Dogmatische, die mathematische Abstraktion, den Mangel an Nutzen und Geistesakrobatik“.xxxiv Nach der MachtĂŒbernahme der Nationalsozialisten in Österreich emigrierten viele Wissenschaftler, darunter auch Mitglieder des Wiener Kreises wie Carnap, Neurath, Frank und Morris. Gödel emigrierte 1940 nach Princeton, an das neugegrĂŒndete Institute for Advanced Study, das 1930 von Caroline Bamberger Fuld, Louis Bamberger und Abraham Flexner gegrĂŒndet wurde. Hier traf Gödel u.a. auf den ungarischen Mathematiker John von Neumann (1903-1957)xxxv und Albert Einstein. Carnap emigrierte 1935 ebenfalls in die USA, zunĂ€chst nach Chicago und spĂ€ter nach Kalifornien an die UCLA (University of California Los Angeles). Die Idee der „Einheitswissenschaft“ und einer „Einheitssprache“ wird nach der Emigration aber durch Einbeziehung in die Kriegsforschung wĂ€hrend des Zweiten Weltkriegs verĂ€ndert. Sie erhĂ€lt einen neuen „Kick“, vor allem durch den amerikanischen Pragmatismus und dessen praktische Anwendung im Krieg, aber auch durch das System der Kommerzialisierung im amerikanischen Wissenschaftsbusiness.

Das Ende des Wiener Kreises, Kritik des Neopositivismus und die Entwicklung der Computersprachen Das, was man sich damals in den 1930er Jahren in Wien zurechtgelegt hatte, wie man Wissenschaft organisieren soll, ist in den 1950er und 1960er Jahren zu Ende. In den USA beginnt man, mit ganz starker europĂ€ischer Beteiligung in den spĂ€ten 1940er und dann 1950er Jahren, InterdisziplinaritĂ€t anders zu sehen und zu organisieren. Die Idee einer interdisziplinĂ€ren „Systemtheorie“ kommt auch sehr intensiv ĂŒber eine Ă€ltere Wien-Verbindung, nĂ€mlich durch Ludwig von Bertalanffy, der spĂ€ter in den 1950er Jahren zusammen mit anderen in den USA die Gesellschaft fĂŒr „General Systems Theory“ grĂŒndete. Er war der erste, der die Idee von Fließgleichgewichten in natĂŒrlichen, also biologischen Systemen entwickelte und so zur thermodynamischen „steady-state-theory“ wesentlich beitrug, lange vor Ilya Prigogine. Eine weitere Plattform fĂŒr diese Entwicklung sind die Macy-Konferenzen zu verschiedenen wissenschaftlichen Themen, z.B. zu Kybernetik.xxxvi Es werden aber nicht nur diese Systemsprachen entwickelt, sondern beispielsweise auch zirkulĂ€re „Feedback-Modelle“, die nicht nur in der Technik und in der neuen Kommunikationstechnologie relevant sind, sondern die auch in die Naturwissenschaften, die Sozialwissenschaften, ja, eigentlich in alle Einzelwissenschaften Eingang finden sollten, wie ihre Vertreter meinten. Neben Norbert Wiener ist der Neurophysiologe und Kybernetiker Warren McCulloch (1898-1969) die große Figur der 1940er-60er Jahre fĂŒr diese Themen. Beide sind die Organisatoren und Koordinatoren der Macy-Konferenzen ĂŒber Kybernetik. Über eine allgemeine und einheitliche Sprache von Systemdarstellungen sollte nun auch der Soziologe, der Mediziner oder der Techniker seinen Gegenstandsbereich als „systemisch“ beschreiben können. Die Macy-Konferenzen ĂŒber Systemtheorie versuchten zu klĂ€ren, was ein System ist, dass ein System aus einer bestimmten Anzahl von Komponenten besteht und dass diese Begrifflichkeit und der formale Ansatz sich fast zwanglos in allen Disziplinen anwenden lassen wĂŒrden: in einem „sozialen System“, „ökonomischen System“ oder „psychischen System“ usw. Dazu kam ein dritter Punkt: zur Bewegung mit „Systemsprachen“, kybernetischen „Modelleinheiten“ und der Kybernetik als der neuen Leitwissenschaft von Kontroll- und Kommunikationsprozessen kamen eine neue Architektur von Rechnern sowie vielfĂ€ltige neue Möglichkeiten des „Berechnens“ und der mathematischen Darstellung dieser Modellwelten. Dieser dritte Bereich wurde fĂŒr verschiedenste Richtungen wichtig, z.B. fĂŒr die kĂŒnstliche Intelligenz (KI oder Artificial Intelligence = AI), die Mitte der 1950er Jahre aus der Taufe gehoben wurde und sich mit entsprechenden Tagungen, Gesellschaften, Programmen und Förderungen, z.B. am M.I.T. (Massachusetts Institute of Technology, Marvin Lee Minsky, *1924, ĂŒbrigens ein SchĂŒler Alan Turings) organisiert.xxxvii Damit befand man sich schon mitten im Neopositivismus. Dessen Grenzen sollen im Folgenden zunĂ€chst aufgezeigt werden; obwohl philosophisch grundlegend kritisierbar, muss man dennoch festhalten, dass diese Ideologie auf der hier geschilderten Entwicklungsstufe fĂŒr die Konstruktion von Computersystemen unerlĂ€ĂŸlich gewesen ist. Ohne die schon genannten Mathematiker und jemanden wie John von Neumann, der spĂ€ter maßgeblich an der Konstruktion der Wasserstoffbombe beteiligt war, wĂ€re es nicht möglich gewesen, Programmiersprachen ĂŒberhaupt zu entwickeln. Gleichzeitig zeigen die folgenden AusfĂŒhrungen, wie begrenzt die positivistische Auffassung geistiger Prozesse ist. Aber wir wollen der Kritik der neueren, vergeblichen Bestrebungen, an den hartnĂ€ckig widerkehrenden Behauptungen, man könne ein Gehirn mit Hilfe oder in Form eines Computersystems „nachkonstruieren“, nicht vorgreifen. Dabei werden wir auch sehen, dass die „Macher“ von computergestĂŒtzten Systemen zur Überwachung von menschlichen Bestrebungen unter dem Deckmantel „TerrorismusbekĂ€mpfung“ sich keinen Deut darum scheren, ob dem Positivismus, falls sie von diesem ĂŒberhaupt etwas gehört haben sollten, irgendein Wahrheitsgehalt zukommt oder nicht, solange er sich instrumentalisieren lĂ€ĂŸt. Auf diesem Hintergrund bekommt der Positivismusstreit Ă  la Habermas, Hans Albert u.a. eine ganz andere Bedeutung. Die verschiedenen Ausgestaltungen bzw. Varianten des Neopositivismus sind im Grunde genommen in Wittgensteins Tractatus logico-philosophicus von 1918/21 vorweggenom-men und in ihrem Kern in wenigen seiner SĂ€tze zusammengefaßt: „Die Gesamtheit der wahren SĂ€tze ist 
 die Gesamtheit der Naturwissenschaften. Die Philosophie ist keine der Naturwissenschaften. Der Zweck der Philosophie ist die logische KlĂ€rung der Gedanken. Die Philosophie ist keine Lehre, sondern eine TĂ€tigkeit. Das Resultat der Philosophie sind nicht ‚philosophische SĂ€tze’, sondern das Klarwerden von SĂ€tzen“.xxxviii SpĂ€ter wird Schlick formulieren: „Es ist das eigentliche GeschĂ€ft der Philosophie, den Sinn von Behauptungen und Fragen zu suchen, und klarzumachen. 
 Der Sinn jedes Satzes wird in letzter Linie ganz allein durch Gegebenes bestimmt und schlechterdings durch nichts anderes.“xxxix Genauer betrachtet, werden im Neopositivismus in eklektischer Weise verschiedene Philosophierichtungen aufgenommen. Mal ging es darum, wie immer in der professoralen Auseinandersetzung an den Hochschulen, möglichst originell zu sein, oder es ging darum, die dialektische Denkweise zu vermeiden – seltener aus völliger Unkenntnis der Hegelschen Philosophie, die ja auch nicht zu den leichtesten gehört –, hĂ€ufiger aber aus Angst, unmittelbar, meist sogar, ohne es zu wissen, in die Auseinandersetzungen des Kalten Krieges an den UniversitĂ€ten zu geraten und möglicherweise dabei seine Stellung zu verlieren oder sie gar nicht erst antreten zu können. FĂŒr den Wiener Kreis kann man sagen, dass er einen radikalen Physikalismus vertritt, der – obwohl grundlegend kritisiert – bis in die heutige Zeit hinein wirkt. Zudem kann man zwei weitere Feststellungen machen, die diese EinschĂ€tzung zusĂ€tzlich unterstĂŒtzen: 1. die Ansichten bei einigen Vertretern Ă€ndern sich mit der Zeit, und 2. gehen hĂ€ufig die Institute der jeweiligen prominenteren Vertretern, wie bei von Foerster, mit der Pensionierung oder dem Ableben ihrer Direktoren zugrunde oder werden nicht mehr weitergefĂŒhrt. Im Falle von Heinz von Foerster wurde sogar das InstitutsgebĂ€ude an der University of Illinois abgerissen.xl Und schließlich: der ganze Wiener Kreis ist im Grunde am Ende, als Friedrich Albert Moritz Schlick von einem ehemaligen Studenten, Dr. Hans Nelböck, am 22. Juni 1936 kurz vor Beginn seiner Vorlesung erschossen wird. Nelböck war ein rechtsextremer Psychopath, der wegen Morddrohungen gegen Prof. Schlick schon zweimal in eine Psychiatrische Anstalt eingewiesen worden war. Er wurde wegen des Mordes zwar verurteilt und zu 10 Jahren „Kerkerhaft“ inhaftiert, aber nach dem „Anschluß“ Österreichs 1938 schnell wieder auf freien Fuß gesetzt. Die Vertreter des Neopositivismus behaupten, dass ihnen allen nur eins gemeinsam ist: eine „streng wissenschaftliche“ Haltung in der Philosophie, die durch systematische Anwendung der modernen mathematischen Logik erreicht werden soll. So wird der gesamte Erkenntnisprozess auf die Logik reduziert. Das positive Element aber ist die dezidiert intendierte Überwindung der Metaphysik. Paradoxerweise hĂ€lt der Neopositivismus gerade und angeblich die Überwindung des Empirismus fĂŒr seine eigene, bedeutendste Leistung. Neopositivisten erklĂ€ren nĂ€mlich selbst, dass Mathematik und Logik ĂŒberhaupt nichts ĂŒber die Wirklichkeit aussagen, dass sie wesentlich inhaltsleer seien, lediglich Methoden zur Umformung von SĂ€tzen darstellen und daher a priori gelten. Die Proklamation dieser absoluten Beziehungslosigkeit von Logik und Mathematik auf eine Serie apriorischer Symbolreihen und deren Umformung in sich selbst fĂŒhrt nicht ĂŒber den primitiven Erfahrungsbegriff des traditionellen subjektiv-idealistischen Empirismus hinaus; auch wird das eigentliche Wesen von Mathematik und Logik gerade nicht erfaßt. Denn Mathematik und Logik spiegeln in abstrakter, Ă€ußerst kompliziert und vielseitig bedingter Form allgemeinste Beziehungen zwischen wirklichen Dingen und Klassen wirklicher Dinge wider. Der Neopositivismus leugnet jedoch die Existenz des Allgemeinen und damit auch die Klassen der Dinge und kann so den Abstraktionsprozess, in dem die mathematischen und logischen Begriffe generiert werden, nicht erklĂ€ren. Damit kann auch der Erkenntnisprozess nicht erklĂ€rt werden. Die gewaltigen Erfolge der Anwendung von Mathematik und Logik in der menschlichen Praxis, in der zweckbestimmten VerĂ€nderung und Nutzbarmachung der Wirklichkeit, werden unverstĂ€ndlich, unerklĂ€rbar und letzten Endes mystifiziert. Die Anerkennung dieser Erfolge, die auch der Neopositivismus nicht leugnen kann, bedeutet die Verlegung der Wirklichkeit in die Logik, in das Denken, in das Bewußtsein. (Und dort soll es auch bleiben!) Der Ansatz des Neopositivismus, der angeblich der Überwindung des Empirismus dient und eine wissenschaftliche ErklĂ€rung der Welt anbietet, wird nicht konsequent zu Ende gefĂŒhrt, denn das wĂŒrde den Zweck des Unternehmens, den Schein der Wissenschaftlichkeit seiner Position zerstören sowie die anti-dialektische Stoßrichtung offen hervortreten lassen. Diese ideologische Funktion des Neopositivismus tritt unmittelbar in der ErklĂ€rung zutage, dass alle Probleme in sĂ€mtlichen Wissenschaften, die nicht lediglich mit den analytischen Mitteln der modernen mathematischen Logik geklĂ€rt werden können, nur „Scheinprobleme“ seien; wirklich ist laut dieser Auffassung nur das, was sich im Bereich mathematischer Logik abspiele. NatĂŒrlich wird dann auch eine von unserem subjektiven Bewußtsein unabhĂ€ngige RealitĂ€t geleugnet. Das ist bei Foerster eindrucksvoll zu beobachten, wenn er in Interviews bei der ErwĂ€hnung des Wortes „RealitĂ€t“ sĂŒffisant fragt: „Wo ist die RealitĂ€t?! Wo ham Sie die?“xli Also werden Fragen, die diese RealitĂ€t betreffen und nicht in das neopositivistisch-formallogische Schema passen, als „sinnlos“ bezeichnet.xlii Eigentlich ist damit gemeint, Neopositivisten wollen solche Fragen nicht beantworten, weil sie nicht in ihr Schema passen; die Antworten, die sie geben wĂŒrden oder mĂŒĂŸten, sind zu offensichtlich falsch. Nach Auffassung des Neopositivismus besteht die Aufgabe der Philosophie nicht mehr in der Aufdeckung der allgemein objektiven GesetzmĂ€ĂŸigkeiten der Wirklichkeit und des wirklichen VerhĂ€ltnisses von Materie und Bewußtsein, sondern lediglich in der logischen Analyse der Begriffsbildung der einzelnen Wissenschaften. Die weltanschauliche Funktion der Philosophie wird so auf Sprachphilosophie reduziert; damit werden dann auch die Einzelwissenschaften von ihrer weltanschaulichen Grundlage getrennt. Nachdem der Neopositivismus alle wesentlichen Probleme, die in der Geschichte der Philosophie jemals ein Rolle gespielt haben, als „Scheinprobleme“ auf diese Weise hinweg eskamotiert hat, bleibt als Gegenstand der Philosophie nur noch die logische Analyse der Sprache ĂŒbrig. Aber nicht etwa der konkreten, wirklichen Sprachen, sondern „Strukturen möglicher Reihenordnungen beliebiger Zeichenelemente“. Damit wird – ganz „logisch“ – schließlich auch noch die Sprache aus ihren objektiven Bedingungen herausgelöst und im letzten Grund irrationalistisch verabsolutiert. Die Herausarbeitung der Syntax solcher „Reihenordnungen“ wird als die philosophische Hauptaufgabe angesehen. Die Syntax einer solchen „Sprache“ sei die Struktur des jeweiligen Darstellungssystems. Es wird behauptet, dass der Sinn eines Satzes nicht durch die wirklichen ZusammenhĂ€nge, die er widerspiegelt, festgelegt sei, sondern durch die Klasse der aus ihr ableitbaren, nichtanalytischen SĂ€tze. Da alle SĂ€tze der Mathematik und der Logik analytisch sind und sich aus ihnen daher auch nur weitere analytische SĂ€tze ableiten lassen, ergibt sich von neuem im Konkreten der Schluß, dass Mathematik und Logik objektiv leer seien, d.h. nichts ĂŒber die Wirklichkeit aussagten. Q.e.d. Die Sprache der Wissenschaften zerfalle – so die Neopositivisten – in zwei Klassen von SĂ€tzen, syntaktische und empirische. Syntaktische SĂ€tze sind SĂ€tze ĂŒber Zeichen, Zeichenreihen und deren VerknĂŒpfung. Es wird behauptet, man habe eine besondere Entdeckung mit der Feststellung der Existenz von „quasi-syntaktischen“ SĂ€tzen gemacht. Diese Begriffsbildung geht vom Unterschied zwischen der Objektsprache und der syntaktischen Sprache eines Gebietes aus. Die Objektsprache handelt von Dingen, Eigenschaften und Beziehungen der Begriffe, SĂ€tze und Theorien ĂŒber dieses Gebiet; die syntaktische Sprache handelt von den logischen Beziehungen der Begriffe, SĂ€tze und Theorien ĂŒber dieses Gebiet. Als „quasi-syntaktische“ SĂ€tze bezeichnet der Neopositivismus solche SĂ€tze, die scheinbar der Objektsprache angehören, sich aber tatsĂ€chlich in die syntaktische Sprache ĂŒbersetzen ließen. So ließe sich z.B. der Satz „FĂŒnf ist eine Zahl“ in den syntaktischen Satz „FĂŒnf ist ein Zahlwort“ ĂŒbersetzen. Damit sei der erste Satz als „quasi-syntaktisch“ bewiesen. Seine Besonderheit bestehe darin, dass er in „inhaltlicher“ Redeweise das ausdrĂŒcke, was der zweite in „formaler“ Redeweise sage. Die „quasi-syntaktischen“ SĂ€tze handelten also nur scheinbar von außerhalb der Sprache gelegenen GegenstĂ€nden. SpĂ€ter mußten die Neopositivisten jedoch zugeben, dass die oben genannte Art und Weise der Satztransformation den Sinn, den Inhalt und den Charakter des Satzes Ă€ndert. Es traten daher neben die syntaktischen Probleme auch semantische Probleme, bei denen das Hauptgewicht auf der Bedeutung der Wörter und SĂ€tze lag. Daraus wurde aber nicht der Schluß gezogen, die Wörter, Begriffe und SĂ€tze auf die Wirklichkeit zurĂŒckzufĂŒhren, obwohl man nur so die oben erwĂ€hnten Antinomien, semantische und logische, hĂ€tte lösen können; der Neopositivismus grĂŒndete die logische „Wahrheit“ keineswegs auf die Beziehungen zwischen Aussage und Wirklichkeit, sondern wieder nur auf Regeln, nĂ€mlich semantische Regeln. Mit dieser Wendung und um die Wissenschaftlichkeit aufrecht zu erhalten, wurde die semiotische Analyse der Sprache der Wissenschaften zum Inhalt der Philosophie erklĂ€rt. Einer solchen Analyse wurden nur drei Aspekte zugeschrieben: der syntaktische Aspekt – die Syntax der Sprache –, der semantische Aspekt (die „Bedeutung“ der Sprache) und der pragmatische Aspekt der Sprache, also ihr Gebrauch. Vor allem wurde diese Wendung von der Seite der Mathematik erzwungen, also gerade auf dem Gebiet, von dem die Neopositivisten glaubten, es fĂŒr sich monopolisieren zu können. Eine Ironie der Wissenschaftsgeschichte ist es, dass Gödel durch seine Forschungsarbeit unwiderlegbar nachwies, dass ein rein syntaktischer mathematischer Wahrheitsbegriff unbrauchbar ist, womit eine der ursprĂŒnglichen Grundthesen der Neopositivisten widerlegt wurde. Der wirkliche Gehalt des Übergangs von der Syntax zur Bedeutung der Begriffe und Wörter wird dadurch bestimmt, wie diese „Bedeutung“ gewonnen wird. Solange die Bedeutung eines Wortes nur definitorisch auf andere Wörter zurĂŒckgefĂŒhrt wird, deren Bedeutung als feststehend angesehen wird, wird das Problem nur von einem Wort oder Satz auf einen anderen verschoben, und jede ErklĂ€rung wird tautologisch. In letzter Instanz mĂŒssen aber die den Wörtern entsprechende Begriffe mit etwas konfrontiert werden, das selbst nicht Begriff ist und sein kann. Dies ist beim Neopositivismus eben nicht die objektive RealitĂ€t, sondern das unmittelbare Erlebnis, getreu dem Machschen Ansatz. Der erwĂ€hnte Rudolf Carnap hat in diesem Sinne versucht, ein Konstitutionssystem der Begriffe auf der Grundlage des „Erlebnisgegebenem“ zu entwickeln.xliii Dabei behauptet er, dass sich alle Beziehungen auf Ähnlichkeiten zwischen „Elementarerlebnissen“ zurĂŒckfĂŒhren ließen; die „Ähnlichkeitserinnerung“ sei die Grundrelation. In diesem System ließe sich keine bewußtseinsunabhĂ€ngige RealitĂ€t konstituieren und es sei daher „sinnlos“, von einer solchen zu reden. Den Elementarerlebnissen entsprĂ€chen nun ElementarsĂ€tze von der Gestalt: „Jetzt ist es hier so und so.“ Die Wörter seien wesentlich nur hinweisend. Die „Wahrheit“ eines solchen Elementarsatzes sei zugleich mit seinem Verstehen gegeben; die „Wahrheit“ allgemeiner SĂ€tze sei eine Funktion der „Wahrheit“ der ElementarsĂ€tze, die unter diesen Satz fielen. Da dies wegen des „Erlebnis“charakters aber nur fĂŒr den Augenblick gilt, in dem etwas wahrgenommen wird, haben die Aussagen solcher SĂ€tze keinen bleibenden Wert, und sie sind – logisch – dann auch nicht beweisbar, wenn die Situation sich geĂ€ndert hat bzw. einfach nur die Zeit fortgeschritten und das Erleben nicht reproduzierbar ist. Also ist der „Elementarsatz“ nicht in der Lage, die Bedeutung von SĂ€tzen und Wörtern wirklich zu begrĂŒnden. Die Neopositivisten versuchten daher, an Stelle des „Elementarsatzes“ den „Protokollsatz“ zu setzen, der eben die zuletzt angegebene Form haben sollte. Jede allgemeine Aussage einer Wissenschaft sollte dann dadurch verifiziert werden, dass aus ihr „ProtokollsĂ€tze“ abgeleitet wĂŒrden, die dann ihrerseits mit unmittelbaren Erlebnissen verglichen wĂŒrden. Die „ProtokollsĂ€tze“ sollen unmittelbare Erlebnisse bezeichnen, aber in ihnen sollen keine erst durch theoretische Verarbeitung der Wahrnehmungen gewonnene SĂ€tze enthalten sein. Wie solche SĂ€tze jedoch aussehen sollten, darĂŒber gingen die Auffassungen weit auseinander. Alle Versuche, solche „ProtokollsĂ€tze“ fĂŒr ein Fundament der Wissenschaft aufzustellen, scheiterten denn auch. Die Neopositivisten mußten den „ProtokollsĂ€tzen“ die ihnen zugewiesene QualitĂ€t der absolut gĂŒltigen, letzten Grundlage der Wissenschaft wieder entziehen. Weitere Versuche, sich aus den WidersprĂŒchen des subjektiven Idealismus gegenĂŒber der Wirklichkeit herauszuwinden, fĂŒhrten daher noch tiefer in den Subjektivismus hinein, womit dann weitere WidersprĂŒche auftraten. Es entstand nĂ€mlich sogleich die Frage: wie muß man sich verhalten, wenn ein solcher, subjektiv festgesetzter „Protokollsatz“ einer bereits erarbeiteten und durch die Praxis als richtig bestĂ€tigten wissenschaftlichen Theorie widerspricht? Gibt man die Theorie auf, so gesteht man ein, dass die „ProtokollsĂ€tze“ nicht die Grundlage der Wissenschaft sind, sondern die auf die Wirklichkeit bezogene Wissenschaft die Grundlage der „ProtokollsĂ€tze“ ist. Dann wĂŒrde man den Weg zum Materialismus einschlagen. Das durfte jedoch nicht sein; also beließ man es bei den WidersprĂŒchen. Durch den zweiten Weltkrieg wurde die TĂ€tigkeit des Wiener Kreises unterbrochen; danach gelangte der Neopositivismus als Analytische Philosophie in den USA, England, den skandinavischen LĂ€ndern und in Lateinamerika zu einigem Einfluß. Deren sprachanalytische Richtung stĂŒtzte und stĂŒtzt sich vorwiegend auf Ludwig Wittgenstein. Eine dritte, von der Analytischen Philosophie nicht scharf zu trennende Strömung des Neopositivismus, die sich als Neo-Empirismus bezeichnet, ist vor allem um die Neubelebung des erkenntnistheoretischen PhĂ€nomenalismus sowie um die Verfeinerung des positivistischen Verifikationsprinzips und dessen Anwendung in den Sozialwissenschaften bemĂŒht. Offen apologetischen und ausgeprĂ€gt antikommunistischen Charakter nimmt der Neo-Emipirismus in Form des sogenannten kritischen Rationalismus an (K.R. Popper, Hans Albert u.a.).xliv Der extrem antidialektische und wissenschaftsfeindliche Charakter des Positivismus, wie er sich im Wiener Kreis herausgebildet hat, Ă€ußert sich u.a. im Verharren auf der Ebene der Empirie und in der Scheu vor theoretischen Verallgemeinerungen oder konsistenten weltanschaulichen Interpretationen der einzelwissenschaftlichen Resultate. In der Tendenz, bestimmte einzelne Objekteigenschaften, Denkabstraktionen oder auch einzelwissenschaftliche Methoden zu verabsolutieren und schematisch, gleichsam willkĂŒrlich, auf andere Gegenstands- bzw. Erkenntnisbereiche zu ĂŒbertragen, sind sich Positivisten wie Neopositivisten und letztlich auch kritische Rationalisten einig. Zum Problem der Sprache in der Quantenmechanik z.B. kann folgende, anekdotenhafte Bemerkung Heisenbergs angefĂŒhrt werden: in einem GesprĂ€ch mit Niels Bohr ist die Rede von Begriffen, die bei der Beschreibung von Experimenten vorkommen und „deren Anwendungsbereich wir nicht genau angeben können.“xlv In diesem Zusammenhang kam Heisenberg auf die Positivisten zu sprechen, ĂŒber die er sich dezidiert Ă€ußerte: „
 ich habe einmal in einem Briefwechsel mit einem allzu eifrigen Positivisten der Wiener Schule etwas anderes behauptet. Ich hatte mich darĂŒber geĂ€rgert, dass die Positivisten so tun, als habe jedes Wort eine ganz bestimmte Bedeutung und als sei es unerlaubt, das Wort in einem anderen Sinne zu verwenden. Ich habe ihm dann als Beispiel geschrieben, dass es doch ohne weiteres verstĂ€ndlich sei, wenn jemand ĂŒber einen verehrten Menschen sagt, dass das Zimmer heller werde, wenn dieser Mensch das Zimmer betrete. NatĂŒrlich sei mir klar, dass das Photometer dabei keinen Helligkeitsunterschied registrieren wĂŒrde. Aber ich wehrte mich dagegen, die physikalische Bedeutung des Wortes >hell< als die eigentliche zu nehmen und die andere nur als die ĂŒbertragene gelten zu lassen.“xlvi

Von positivistischer Logik zur Kriegsforschung – ARPANet als VorlĂ€ufer des Internet und DARPA als militĂ€rische Operationalisierung von Grundlagen-forschung


Historisch war es also die Kombination von Logik – Denken – Kognitionsprozessen, allerdings undialektisch, d.h. ohne WidersprĂŒche, aus der schließlich eine neue Generation von Computern hervorging. DafĂŒr waren Systemtheorie und abstrakte Sprachen nötig, mit denen an der Schnittstelle Mensch – Maschine kommuniziert werden konnte und Prozesse oder Dinge dargestellt werden konnten, die sich sprachlich oder ĂŒber Tabellen nur schwer vermitteln lassen. Der Mensch mußte sich den Erfordernissen der abstrakten, formalen Logik der Rechenmaschinen unterordnen. Am 9.1.1958 fordert US-PrĂ€sident Dwight D. Eisenhower (1890-1969) in seiner Rede „Zur Lage der Nation“xlvii eine Konzentration der Anti-Missile und Satellitentechnologie innerhalb des Department of Defense unter dem Aspekt beschleunigter Verteidigungsanstrengungen. Die Bedrohung der Welt ging fĂŒr Eisenhower ganz simpel von der Sowjetunion aus: „The threat to our safety, and to the hope of a peaceful world, can be simply stated. It is communist imperialism.”xlviii Schließlich grĂŒndete Eisenhower am 7. Februar 1958 die „Advanced Research Projects Agency“ (ARPA), eine Forschungsabteilung des Pentagon, die eindeutig als Reaktion auf den sowjetischen Sputnik 1 zu verstehen ist. Die ARPA besaß jedoch keine eigenen Forschungseinrichtungen. Die von ihr initiierten Projekte wurden an UniversitĂ€ten oder zivilen Forschungsinstituten durch ausgewĂ€hlte Vertragspartner durchgefĂŒhrt. Unter dem Direktor der ARPA (1961) Jack P. Ruina wird das „Command and Control Project“ zur Sammlung, Auswertung und Beurteilung strategischer Daten mit Hilfe von Computern gestartet. 1962-1964 wird Joseph C.R. Licklider auf Wunsch der ARPA dessen Direktor. Licklider kam vom Lincoln Lab des MIT, wo er im „Psychoacoustic Laboratory“ tĂ€tig war, einer speziellen Forschungsrichtung der Informationswissenschaften. Licklider verfasst 1963 das „Memorandum to Members and Affiliates of the Intergalactic Network“, wo er den Mitgliedern des Intergalaktischen Netzwerkes, dem Vertragspartner der ARPA, seine Visionen fĂŒr ein kĂŒnftiges Computernetzwerk mitteilt. 1964-1965 wird Ivan Sutherland, der ebenfalls vom MIT kam, Direktor der ARPA. 1966-1969 wird sein Assistent bei der ARPA, Robert Taylor, neuer Direktor des Information Processing Techniques Office (IPTO), das zur ARPA gehört.xlix Das IPTO steckte Forschungsgelder in fortgeschrittene Computer- und Netzwerktechnologien und beauftragte dreizehn Forschergruppen mit technologischen Projekten, die mit Mensch-Computer-Interaction und verteilten Systemen zu tun hatten. Jeder Gruppe wurde ein Budget zur VerfĂŒgung gestellt, das dreißig- bis vierzigmal grĂ¶ĂŸer war als eine normale Forschungsförderung fĂŒr ein Projekt. Es wurde komplette Geheimhaltung ĂŒber ihre Verwendung verlangt und der Zugang zur state-of-the-art Technologie wurde ĂŒber folgende Institutionen organisiert: Carnegie-Mellon University MIT RAND Corporation Stanford Research Institute System Development Corporation University of California in Berkeley, Santa Barbara, und Los Angeles University of South Carolina University of Utah. 1966 wird Charlie Hertzfeld neuer ARPA-Direktor. Robert Taylor benötigt fĂŒr sein 1966 begonnenes Netzwerk einen Leiter und holt Lawrence (Larry) G. Roberts vom Lincoln Laboratory des MIT. DafĂŒr hatte ihm Hertzfeld eine Million Dollar Budget versprochen, wenn er den Aufbau eines verteilten Kommunikationsnetzwerks organisieren könne. Roberts wollte erst nicht, aber schließlich kam er als ARPA IPTO Chef-Wissenschaftler im Dezember 1966, nachdem ein wenig Druck ausgeĂŒbt worden war. Roberts begann sofort mit der Arbeit an einem Systemdesign fĂŒr ein “wide area digital communications network”, sozusagen das erste WAN, das schließlich zum ARPANet fĂŒhrte. 1967 stellt Roberts den ersten Netzwerkplan eines „circuit-switching“ Netzwerks. 1968 erfolgt die erste Ausschreibung fĂŒr das ARPANet. 1969 werden Rechner an der UCLA, am Stanford Research Institute u.a. implementiert und miteinander vernetzt; im selben Jahr noch zieht ARPA nach Arlington, Virginia um. Die erste öffentliche VorfĂŒhrung in Washington DC war dann 1972 – es gelang den Entwicklern, aus der Rechenmaschine Computer das Kommunikationsmedium Computer zu entwickeln: ein Netzwerk vorwiegend an mit MilitĂ€r verbundenen UniversitĂ€ten sowie Firmen wie MITRE und Rand Corporation, „der einflußreichsten ‚Denkfabrik‘ des Kalten Krieges“.l Von dieser erhielt z.B. der Hegel-Philosoph Gotthard GĂŒnther (1900-1984) jahrelang Forschungsgelder.li Ebenfalls 1972 wird ARPA umbenannt in DARPA, wobei das D fĂŒr „Defense“ steht. 1974 entwickeln Bob Kahn und Vint Cerf das Internet-Netzwerk-Verfahren TCP, eine Art standardisierte Vorschrift, die fĂŒr die Kommunikation zwischen den Netzwerken unerlĂ€ĂŸlich ist und noch heute so genannt wird.lii 1975 geht die Netzwerkverwaltung des ARPANet von der DARPA an die DCA („Defense Communication Agency“ des Verteidigungsministeriums) ĂŒber, die Bedarf angemeldet hat; man will ein von den ĂŒblichen KanĂ€len unabhĂ€ngiges Netz, um im Falle eines Atomkrieges weiter kommunizieren zu können. Die weiteren Stationen sind: 1983 Splitting von ARPANet und MILNET, das in das DEFENSE DATA NETWORK integriert wird. 1989 werden die Reste des ARPANet abgebaut und demontiert, 1993 wird DARPA unter der Clinton-Administration wieder umbenannt in ARPA, 1996 erneut umbenannt in DARPA.liii


9/11 oder: Orwell lĂ€ĂŸt grĂŒĂŸen


Um die Geschichte des DARPA vollends wĂŒrdigen zu können und um zu sehen, wie schmal der Grat zwischen „reiner“ Wissenschaft und ihrer (in diesem Fall mißbrĂ€uchlichen) Anwendung ist, muß man sich ansehen, was heute daraus geworden ist. Es steht nĂ€mlich in unmittelbarem Zusammenhang mit 9/11 und ist bereits vor einigen Jahren in einem islĂ€ndischen Kriminalroman verarbeitet worden.liv Auch in den amerikanischen Romanen von David Baldaccilv bilden die jetzt zu erwĂ€hnenden Szenarien den politischen Hintergrund, auf dessen Boden dubiose Gestalten mehrerer der insgesamt 16 staatlichen Geheimdienste der USA auftreten. Nach den terroristischen AnschlĂ€gen auf das World Trade Center in New York setzte in den USA eine rasante, antidemokratische Entwicklung ein, die mit der hastigen Verabschiedung des Patriot Act begann. Dies geschah in so großer Eile, dass einige Abgeordnete spĂ€ter zugaben, den Gesetzestext erst hinterher gelesen zu haben, als es zu spĂ€t war, noch etwas zu Ă€ndern.lvi Dieses als Anti-Terror-Maßnahme gemeinte Gesetz bedeutet verschiedene EinschrĂ€nkungen der bĂŒrgerlichen Rechte; u.a. ermöglicht es, eine Person allein aufgrund des Verdachtes einer möglichen Bedrohung öffentlicher Interessen festzunehmen und fĂŒr unbegrenzte Zeit einzusperren, ohne Anklage zu erheben, ohne den Angehörigen mitzuteilen, wo und aus welchen GrĂŒnden der Betreffende gefangen gehalten wird, und ohne dass der VerdĂ€chtigte einen Anwalt bekommt.lvii Viele amerikanische Rechtsphilosophen sehen dies als einen eindeutigen Verstoß gegen die verfassungsmĂ€ĂŸigen Rechte der BĂŒrger an. Der oberste Gerichtshof der USA bestĂ€tigte jedoch dieses Gesetz und die Verfahrensweise. Besonders schlimm wird es, wenn MilitĂ€rbehörden erklĂ€ren, dass eine Person ein feindlicher Soldat oder eine Person außerhalb von Recht und Ordnung (unlawful combatant) ist, wie z.B. die Gefangenen in GuantĂĄnamo auf Kuba, denn dann werden dieser Person augenblicklich sĂ€mtliche Rechte genommen, egal welcher Nation er angehört.lviii Ein Projekt, das von der DARPA gegrĂŒndet wurde, war das Information Awareness Office (IAO). Aufgabe des IAO war es, innerhalb einer Datenbank alle verfĂŒgbaren Merkmale der BĂŒrger der USA zu erfassen, zu durchsuchen und diese spĂ€ter auf verdĂ€chtige Muster hin auszuwerten. Dass eine solche Datenbank immens groß sein wĂŒrde, konnte man voraussehen. Das Unternehmen sollte vor allem dem Schutz vor Terrorismus dienen. Die Behörde selbst gab ihre Aufgabe wie folgt an: „The DARPA Information Awareness Office (IAO) will imagine, develop, apply, integrate, demonstrate and transition information technologies, components and prototype, closed-loop, information systems that will counter asymmetric threats by achieving total information awareness useful for preemption; national security warning; and national security decision making.“ Anfangs wurde das IAO von PrĂ€sident Bush unter dem Namen Total Information Awareness zu Beginn 2002 ins Leben gerufen. Zum Leiter der Behörde wurde John Poindexter bestellt, der unter anderem durch die Iran-Contra-AffĂ€re bekannt ist.lix Die erste öffentliche Information war am 13. Februar 2002 in der New York Times zu lesen.lx Zu diesem Zeitpunkt war noch sehr wenig ĂŒber die Ziele der neu geschaffenen Behörde bekannt. Allein die Tatsache aber, dass man Festplatten in Petabyte-GrĂ¶ĂŸe benötigen wĂŒrde, sorgte fĂŒr starke Verwunderung und ÜberwachungsĂ€ngste.lxi BĂŒrgerrechtsorganisationen, wie die Electronic Frontier Foundation in San Francisco (EFF), protestierten wegen der ‚Orwellschen‘ Absichten und wegen der Vergangenheit von Poindexter gegen diese Behörde. Die Mission des IAO war es, soviel Informationen wie möglich an einer zentralen Stelle ĂŒber jede Person zusammenzutragen. Dadurch sollte es der US-Regierung ermöglicht werden, auf folgende AktivitĂ€ten jederzeit Zugriff zu haben: InternetaktivitĂ€ten, die Historie von KreditkarteneinkĂ€ufen, KĂ€ufe von Flugtickets, Mietwagen, Medizinische Aufzeichnungen (Krankenberichte), StudienbĂŒcher, FĂŒhrerscheinlizenzen, Gas-, Wasser- und Stromrechnungen, Steuererstattungen und andere Daten. Im Wesentlichen war es das Ziel des IAO, in der Lage zu sein, die gesamte Lebensgeschichte von Gedanken und Bewegungen irgendeines Individuums auf diesem Planeten auf Verlangen rekonstruieren zu können, ein Unterfangen, das damals der Bush-Administration notwendig erschien, um der Bedrohung des Terrorismus adĂ€quat begegnen zu können.lxii Des weiteren war das Logo des IAO (siehe Abbildung), welches von der RĂŒckseite des Siegels der USA inspiriert wurde, ZĂŒndstoff fĂŒr Illuminaten-GlĂ€ubige und Verschwörungstheoretiker, vor allem angesichts des allsehenden Auges, das auf die Weltkugel blickt und außerdem schon auf den Ein-Dollarnoten abgebildet ist. Die Pyramide mit dem allsehenden Auge ist ein altes Freimaurerzeichen und seine Verwendung auf dem Siegel der USA geht vermutlich auf George Washington zurĂŒck, der Freimaurer war. Nach den Kritiken am Logo wurde dieses am 19. Dezember 2002 von der Seite entfernt. Inzwischen sind alle links auf die ursprĂŒngliche Seite, wo es noch zu sehen war, auch blockiert. Am 16. Januar 2003 wurde von Senator Russ Feingold ein Gesetz eingebracht, das den Kongress zu einer PrĂŒfung der AktivitĂ€ten der IAO veranlassen sollte. Nach einer Ă€hnlichen Eingabe eines anderen Senators sollte die IAO nicht mehr in den USA operieren dĂŒrfen. Ende Februar desselben Jahres wurde dann eine Anordnung erlassen, nach der die IAO alle AktivitĂ€ten beenden solle. Die DARPA Ă€nderte am 20. Mai 2003 den Namen von Total in Terrorist Information Awareness (TIA), um damit deutlich zu machen, dass man nicht Dossiers von US-BĂŒrgern anfertigen wolle. Stattdessen solle die Behörde nur zur TerrorismusbekĂ€mpfung dienen. Trotz alledem wurde zwei Monate spĂ€ter beschlossen, keine Gelder mehr fĂŒr die Behörde bereitzustellen. Die DARPA selbst hatte 2004 ein Budget von vier Milliarden $ zur VerfĂŒgung.


Abb. Logo des IAO Dept. der DARPA. Es wurde schon im Dezember 2002, nach Etablierung des IAO anfangs desselben Jahres, wieder entfernt.


Das "Limitation on Deployment of Terrorism Information Awareness Program" wurde in den Defense Appropriations Act 2004 aufgenommen, welcher vom ReprĂ€sentantenhaus am 8. Juli 2003 verabschiedet wurde.lxiii Man konnte denken, dass dies das Ende fĂŒr das IAO bedeutete, vor allem aus finanziellen GrĂŒnden. Am 14. Juli 2003 berichtete Wired News, dass "The Senate's $368 billion version of the 2004 defense appropriations bill, released from committee to the full Senate on Wednesday, contains a provision that would deny all funds to, and thus would effectively kill, the Terrorism Information Awareness program, formerly known as Total Information Awareness. TIA's projected budget for 2004 is $169 million."lxiv
Im Conference Report H.R. 2658, Department of Defense Appropriations Act, 2004 (24. September 2003, House Report 108-283) konnte man dann lesen: Sec. 8131. (a) Notwithstanding any other provision of law, none of the funds appropriated or otherwise made available in this or any other Act may be obligated for the Terrorism Information Awareness Program ... the term "Terrorism Information Awareness Program" means the program known either as Terrorism Information Awareness or Total Information Awareness, or any successor program, funded by the DARPA, or any other Department or element of the Federal Government, including the individual components of such Program developed by the DARPA. In einem folgenden Review des ReprĂ€sentantenhauseslxv wurden allerdings die Restriktionen lediglich fĂŒr den „Einsatz“ und die „Implementation" angesehen, nicht fĂŒr Forschung.lxvi Reuters erhielt einen Kongressbericht, der neun Monate, nachdem der Kongress das kontroverse ComputerĂŒberwachungs-Programm des Pentagon abgeschossen hatte, zeigte, dass die US-Verwaltung fortfĂ€hrt, private Aufzeichnungen und Datenbanken durchzukĂ€mmen, um verdĂ€chtige AktivitĂ€ten auszuschnĂŒffeln. Peter Swire, oberster Beamter der Clinton-Administration, sagte: "I believe that Total Information Awareness is continuing under other names."lxvii Forschung fĂŒr die Totale Überwachung Als Teil des "Total Information Awareness" Programms werden verschiedene neue Technologien erforscht:lxviii Effective Affordable Reusable Speech-to-text, oder EARS, hat das ausgesprochene Ziel, "developing speech-to-text (automatic transcription) technology whose output is substantially richer and much more accurate than currently possible." Dieses Programm ist auf menschliche Radio- und Telephon-Konversation in einer Vielzahl von Sprachen fokussiert; es ist notwendig fĂŒr die computerunterstĂŒtzte Analyse der massiven Anzahl an TelefonĂŒberwachungen, zu der das IAO ohne richterliche Anordnung das Recht hat. Futures Markets Applied to Prediction, oder FutureMAP, ist dazu gedacht, sich "auf Markt-basierte Techniken zu konzentrieren, um Überraschungen zu vermeiden und zukĂŒnftige Ereignisse vorherzusagen." Es analysiert Daten der Weltökonomie, um politische InstabilitĂ€t, Bedrohungen der nationalen Sicherheit und ganz allgemein jedes grĂ¶ĂŸere Ereignis in der nĂ€chsten Zukunft bereits im Ansatz vorauszusagen. Die dezidierte Strategie des IAO fĂŒr diese Abteilung umfaßt auch: "the markets must also be sufficiently robust to withstand manipulation", was auf die Absicht schließen lĂ€ĂŸt, zukĂŒnftige Ereignisse zu beeinflussen, um die Ziele der USA zu unterstĂŒtzen. Genisys ist der Name eines Datenbanksystems, das als die zentrale Informationseinheit fĂŒr das IAO implementiert werden sollte. Die bis dahin verwendeten Datenbanksysteme, die in der 1980er Jahren entworfen worden waren, erwiesen sich fĂŒr die enormen Mengen an Daten, die es zu sammeln galt, als vollkommen unzureichend. Genoa stellt "structured argumentation, decision-making and corporate memory to rapidly deal with and adjust to dynamic crisis management" zur VerfĂŒgung. Im wesentlichen ist dieses Programm dazu entworfen, Schlußfolgerungen zu ziehen und Entscheidungen auf der Basis von Informationen zu treffen, die menschliche Analyse („human analysis“), Firmengeschichte („corporate history“) und strukturiertes Denken miteinander vereinigen. Dieses Forschungsprojekt wurde im Fiskaljahr 2002 beendet; ihm folgte das Genoa II Projekt, das in effektiver Weise die Zusammenarbeit zwischen den Regierungsabteilungen automatisch regeln soll. Human Identification at a Distance, oder HumanID, "ist ein Programm, um automatisierte, biometrische Identifikationstechnologien zu entwickeln, um Menschen ĂŒber große Distanzen aufspĂŒren, erkennen und identifizieren zu können." Dieses Programm war dazu gedacht, ein Gesichts- und Gangart-Identifikationssystem ĂŒber eine Distanz von 150 m fĂŒr das Fiskaljahr 2004 zu implementieren.lxix Damit im Zusammenhang steht die entsprechende Hardware, ein „All-seeing-Eye“, um aus der Höhe Menschen an ihrer Gangart erkennen zu können („Gait Recognition“; siehe nĂ€chsten Punkt). Autonomous Real-time Ground Ubiquitous Surveillance-Imaging System (ARGUS-IS): Im Programm fĂŒr dieses autonome System wird ein Echtzeit, hochauflösendes, wide-area VideoĂŒberwachungssystem entwickelt, das dem Krieger im Minimum 65 VGA Videofenster ĂŒber sein Gesichtsfeld zur VerfĂŒgung stellt. Jedes Videofenster kann elektronisch gesteuert werden, unabhĂ€ngig von den anderen, und kann entweder kontinuierlich ein Bild eines bestimmten Areals am Boden erfassen oder es ist so gestaltet, dass ein spezifisches Zielobjekt (dismount oder Fahrzeug) im Fenster automatisch erfaßt wird. Translingual Information Detection, Extraction and Summarization, oder TIDES, wird entwickelt, um Informationen in der Sprache oder im Text verschiedener Sprachen zu entdecken, zu ĂŒbersetzen und zu extrahieren. Eine Demonstration der maschinellen FĂ€higkeiten und Integration in die TIA Systeme der DARPA wurde 2003 erwartet, die Realisierung war fĂŒr 2005 angestrebt.lxx Aufschlußreich sind die Sprachen, die im Moment vorrangig getestet werden: Arabisch in English (A2E) und Chinesisch in English (C2E).lxxi Es dient zum Beispiel dem FBI fĂŒr dessen beide Systeme: Federal Bureau of Investigation (FBI) Integrated Data Warehouse (IDW) und Security Concept of Operations (S-CONOPS), Investigative Data Warehouse (IDW) Program. Wargaming the Asymmetric Environment, oder WAE, ist dazu gedacht, automatische Technologien zu entwickeln, die in der Lage sind, terroristische Attacken vorherzusagen und prĂ€diktive Indikatoren durch die ÜberprĂŒfung individuellen und Gruppenverhaltens in einem breiten Umfeld zu identifizieren. Das WAE wird auch Interventionsstrategien auf der Basis der Motivation spezifischer Terroristen entwickeln. Wie schon gesagt, ist das TIA keineswegs „gestorben“, sondern es werden ganze Teile des TIA offenbar weiterhin von der National Security Agency (NSA) genutzt, die u.a. die Oberhoheit in Fragen der Kryptologie innehat. Keine VerschlĂŒsselung darf so hoch sein, dass die NSA sie nicht mehr dekryptofizieren kann. Wie das US-Magazin "The National Journal" kĂŒrzlich berichtete, ist die Arbeit an zwei Data-Mining-Systemen im TIA-Projekt nicht eingestellt, sondern an eine Abteilung der NSA weitergegeben worden. Es handelt sich dabei um das "Information Awareness Prototype System" und "Genoa II", deren Entwicklung unter den Bezeichnungen "Basketball" und "Topsail" von der US-Regierung weiterfinanziert wird. Grundlage ist offenbar ein als geheim eingestufter Zusatz zu dem Gesetz, mit dem die Finanzierung von TIA 2003 vom US-Kongress eingestellt worden war. Danach werden Teile des Projekts weiter gefördert, wenn sie von anderen amerikanischen Regierungsbehörden ĂŒbernommen werden. Die NSA hat Zugriff auf die Kommunikationsdatenaufzeichnungen der meisten US-Telekommunikationsunternehmen und wertet diese unter Umgehung des so genannten FISA-Gesetzes aus, um Hinweise auf terroristische AktivitĂ€ten herauszufiltern. Das FISA-Gesetz von 1978 (Foreign Intelligence Surveillance Act)lxxii schreibt eigentlich vor, dass Lauschangriffe in den USA nur mit richterlicher Genehmigung erfolgen dĂŒrfen. US-Justizminister Alberto Gonzalez hatte in einer Anhörung im Februar 2006 eingerĂ€umt, dass das FISA-Gesetz nicht in allen FĂ€llen eingehalten worden war. Die New York Times hatte nĂ€mlich Ende 2005 enthĂŒllt, dass die Regierung von George W. Bush trotz der Aufweichung und der erweiterten Befugnisse das Gesetz systematisch gebrochen hatte und die Kommunikation von Amerikanern im Ausland mit den USA tausendfach abhören ließ. Als die Senatoren Gonzalez fragten, warum FISA ĂŒberhaupt umgangen worden sei, antwortete dieser, er könne dazu aus GrĂŒnden der nationalen Sicherheit keine Aussage machen. Inzwischen wurde das FISA-Gesetz 2008 erneuert und soll bis 2012 gelten. Danach kann legal jeder Amerikaner, der sich nachweislich im Ausland aufhĂ€lt und mit den USA kommuniziert, abgehört werden. Und gerade erst unterschrieb PrĂ€sident Obama in letzter Minute mit Hilfe eines Unterschriftsautomaten, da er sich auf Reisen befand, die VerlĂ€ngerung des Patriot Act bis Juni 2015.lxxiii Zwei Hauptkomponenten des TIA-Projekts sind auf diese Weise weitergewandert – zur Advanced Research and Development Activity (ARDA), die im NSA-Hauptquartier in Fort Meade – Spitzname: „Crypto City“ – angesiedelt ist. Dabei handelt es sich zum einen um das Information Awareness Prototype System. Das war als KernstĂŒck der TIA-Architektur gedacht und sollte sĂ€mtliche Werkzeuge zur Gewinnung, Analyse und Weiterleitung von Informationen integrieren. Laut National Journal wurde es in „Basketball“ umbenannt. Die zweite Komponente war Genoa II (siehe oben). Dieses lĂ€uft nun unter dem Name „Topsail“ weiter. Gonzalez’ Zeugenaussage, dass die US-Regierung verstĂ€rkten Gebrauch von FISA macht, und seine Argumentation, warum das Gesetz nur teilweise gelte, zeigt: Das Problem ist nicht nur, dass Regierungsagenten schnell handeln wollen. Die FISA-Regeln verlangen fĂŒr die Genehmigung eines Lauschangriffs die altmodische BegrĂŒndung eines „Verdachtsfalls“ vor dem zustĂ€ndigen Gericht. Diese Regelung kann jedoch nicht greifen, wenn die NSA eine automatisierte Analyse und Auswertung von Telefon- und Email-Daten vornimmt.lxxiv Wie die Klage der BĂŒrgerrechtsorganisation EFF (Electronic Frontier Foundation) in San Francisco gegen die Telekommunikationsfirma AT&T zeigt, hat die NSA Zugang zu den Schaltungen und Aufzeichnungen der meisten, vielleicht sogar aller fĂŒhrenden amerikanischen Telekommunikationsunternehmen. Deren Datenressourcen sind umfangreich: Im AT&T-Rechenzentrum in Kansas etwa sind 1.92 Billionen GesprĂ€chsaufzeichnungen aus mehreren Jahrzehnten gespeichert. Mehr noch, die meisten internationalen Telekommunikationsverbindungen laufen inzwischen nicht mehr ĂŒber Satelliten, sondern ĂŒber unterseeische Glasfaserkabel, so dass viele Carrier internationale Telefonate ĂŒber ihre Schaltrechner in den USA leiten. Dank der WillfĂ€hrigkeit der Telekom-Unternehmen kann die NSA heute deutlich mehr KommunikationsvorgĂ€nge abfangen, und dies fast in Echtzeit. Mit Zugang zum Großteil des weltweiten Telefondatenverkehrs können die Superrechner der NSA jeden Anruf in einem Netzwerk digital absaugen und ein Arsenal an Data-Mining-Werkzeugen darauf loslassen. Eine Datenverkehrsanalyse zusammen mit der Theorie sozialer Netzwerke (sic!) erlaubt, Muster möglicher terroristischer AktivitĂ€ten aufzudecken, die menschlichen Analysten unzugĂ€nglich wĂ€ren. Das Filtern von Inhalten mit Hilfe von ausgeklĂŒgelten Suchalgorithmen und statistischen Verfahren wie der Bayes’schen Analyse sowie Methoden des Maschinenlernens ermöglichen die Suche nach bestimmten Wörtern oder Sprachkombinationen, die auf die Kommunikation von Terroristen hindeuten könnten.lxxv Ob die speziellen TIA-Technologien von der NSA in der InlandsĂŒberwachung der USA tatsĂ€chlich schon genutzt werden, ist noch nicht bewiesen. Die beiden Teilsysteme Topsail und Basketball Ă€hneln aber Beschreibungen von Technologien, die ARDA und NSA einsetzen, um die Datenströme aus Telefon- und Emailkommunikation zu belauschen. Ein ehemaliger TIA-Projektmanager hat ausgesagt, dass die TIA-Forscher sich regelmĂ€ĂŸig mit der ARDA ausgetauscht und eine „gute Koordinierung“ unterhalten hĂ€tten. Diese letzte Tatsache ist besonders bedeutsam. Ganz gleich, ob nun TIA-Technologien in der InlandsaufklĂ€rung eingesetzt wurden oder nicht – vergleichbare Technologien kamen auf jeden Fall zum Einsatz. 2002 vergab die ARDA beispielsweise Fördergelder in Höhe von 64 Millionen Dollar fĂŒr ein neues Programm namens „Novel Intelligence from Massive Data“. Eine Untersuchung des US-Rechnungshofes von 2004 zeigte darĂŒber hinaus, dass amerikanische Regierungsbehörden 199 Data-Mining-Projekte betrieben oder entwickelten. Davon waren 120 darauf ausgelegt, große Mengen persönlicher Daten zu sammeln und auszuwerten, um das Verhalten von Individuen vorhersagen zu können. Da die als geheim eingestufte Projekte in der Untersuchung nicht berĂŒcksichtigt wurden, dĂŒrfte die tatsĂ€chliche Zahl noch weitaus höher ausfallen. ZusĂ€tzlich zu diesen Programmen existieren bereits Data-Mining-Anwendungen in der Industrie, die etwa Kreditkartenbetrug oder Gesundheitsrisiken fĂŒr Versicherungen aufspĂŒren sollen. All diese Informationen gehen in Datenbanken ein, die frĂŒher oder spĂ€ter fĂŒr Behörden zugĂ€nglich werden könnten. Wie also sollte man Data-Mining-Technologien wie TIA regulieren? Kim A. Taipale, leitender Direktor am Center for Advanced Studies in Science and Technology Policy in New York, wies 2006 in einem Artikel ("Whispering Wires and Warrantless Wiretaps: Data Mining and Foreign Intelligence Surveillance")lxxvi darauf hin, dass es 1978, als FISA verfasst wurde, noch sinnvoll war, das Gesetz auf das Abfangen von klar definierten KommunikationsvorgĂ€ngen zu beschrĂ€nken. Denn diese fanden damals in Telefonaten immer zwischen zwei bekannten Endpunkten statt, so dass der Kommunikationskanal abgehört werden konnte. In heutigen Netzwerken wird die Kommunikation hingegen wĂ€hrend des Sendens in einzelne Datenpakete, normalerweise etwa acht, zerlegt und beim EmpfĂ€nger wieder zusammengefĂŒgt. Will man diese abfangen, muss man Filter an diversen Kommunikationsknoten installieren, in der Hoffnung, die richtigen Pakete herauszu-fischen und wieder richtig zusammenzusetzen. Selbst wenn man eine konkrete Kommunikationsverbindung belauschen will, muss man deshalb den gesamten Datenfluss ĂŒberwachen, in den diese eingebettet ist. Angesichts dessen sei das FISA-Gesetz nicht mehr zeitgemĂ€ĂŸ, argumentiert Taipale. Denn wenn man „es in einer strengen Auslegung anwendet – also ohne ‚elektronische Überwachung’ des auslĂ€ndischen Kommunikationsflusses durch die USA oder dort, wo sich mit einer gewissen Wahrscheinlichkeit US-BĂŒrger abhören lassen –, dann könnte es keine automatisierte Überwachung irgendeiner Art geben.“lxxvii Taipale schlĂ€gt vor, das FISA-Gesetz nicht aufzugeben, sondern anzupassen. Elektronische Überwachung wĂŒrde dann den Status einer gewöhnlichen kurzen PersonenĂŒberprĂŒfung nach US-Recht bekommen, falls ein Verdachtsmoment vorliegt. Im Kontext automatisierten Data-Minings wĂŒrde das bedeuten, dass die Überwachung abgebrochen wird, wenn der Verdacht sich als unbegrĂŒndet erwiesen hat. Sollte sich der Verdacht hingegen erhĂ€rten, wĂŒrde der Lauschangriff fortgesetzt, und dann mĂŒsste vom Überwachungspersonal entschieden werden, ob eine richterliche Genehmigung im Sinne des FISA-Gesetzes nötig ist, um die IdentitĂ€t des Belauschten zu ermitteln. FISA und andere Gesetze zum Schutz der PrivatsphĂ€re ungeachtet der heutigen technischen VerĂ€nderungen aufrechterhalten zu wollen, betont Taipale, wĂŒrde zu einem Absolutismus im Kampf um die PrivatsphĂ€re fĂŒhren, der sich am Ende selbst besiegt. Ein Beispiel dafĂŒr könnte das Schicksal des Genisys Privacy Protection Projekts sein. Dieser Teil des TIA-Projekts war dazu gedacht, Sicherheitsbehörden gleichzeitig grĂ¶ĂŸeren Zugang zu Daten zu verschaffen und die individuelle PrivatsphĂ€re zu schĂŒtzen, indem die Daten den Analytikern nur anonymisiert zur VerfĂŒgung gestellt wurden. Die IdentitĂ€t einer Person sollte erst enthĂŒllt werden, wenn Beweise und eine entsprechende Genehmigung vorlagen. Genisys war die einzige TIA-Technologie, die gestoppt wurde, nachdem der öffentliche Aufschrei das TIA-Projekt zu Fall gebracht hatte. Ein neues Ministerium der USA: Heimatschutz Als eine weitere, beachtenswerte Maßnahme als Antwort auf 9/11 wurde im Jahre 2002 ein neues Ministerium der USA geschaffen, das Heimatschutzministerium der Vereinigten Staaten (engl. United States Department of Homeland Security, DHS).lxxviii Es ist mit ĂŒber 200 000 BeschĂ€ftigten nach dem Pentagon und der Rentenorganisation die drittgrĂ¶ĂŸte Bundesbehörde. In ihm wurden einige zuvor unabhĂ€ngige Institutionen zusammengelegt, so zum Beispiel die Sicherheitskontrollen an den FlughĂ€fen, der Zoll, die KĂŒstenwache und die Katastrophenschutzbehörde Federal Emergency Management Agency (FEMA). Entgegen ursprĂŒnglichen PlĂ€nen wurden ihm jedoch nicht das FBI und die CIA unterstellt. Erster Minister des DHS war Tom Ridge. Seit dem 20. Januar 2009 ist Janet Napolitano die Ministerin. Hauptaufgabe des DHS ist der Schutz der amerikanischen Bevölkerung und Staatsgebiete vor terroristischen und anderen Bedrohungen. Diese Aufgabe obliegt in den USA anders als in anderen LĂ€ndern somit nicht dem Innenministerium, denn das Innenministerium der Vereinigten Staaten ist nur fĂŒr die Verwaltung der bundeseigenen LĂ€ndereien wie Nationalparks verantwortlich. Das Ministerium nahm 22 bestehende Bundesbehörden in sich auf, z.B. den Katastrophenschutz (siehe unten). Diesen hatte PrĂ€sident Jimmy Carter bereits 1979 fĂŒr nationale NotfĂ€lle gegrĂŒndet. FEMA wurde damals aus mehreren kleinen Agenturen zu einer Bundesbehörde zusammengefĂŒgt und zĂ€hlt heute innerhalb des Ministeriums 2600 Angestellte. Eine weitere VorlĂ€ufer-Institution war das United States Army Corps of Engineers (USACE). Es ist ein Hauptkommando der US Army fĂŒr das Pionier- und Bauingenieurwesen mit landes- und weltweiten Strukturen. Die Koordinierungsstelle der Homeland Security ist das National Operations Center (NOC). Sitz der Behörde ist der Nebraska Avenue Complex, Washington D.C. Ein weiteres BĂŒro unterhĂ€lt man im Ronald Reagan Building im Federal Triangle. Im Weißen Haus gibt es zur politischen Koordinierung den Heimatschutz-Rat (Homeland Security Council) mit John O. Brennan als PrĂ€sidentenberater fĂŒr den Heimatschutz an der Spitze. Andere bedeutende Vertretungen, die unter den Verantwortungsbereich des Heimatschutzministeriums fallen, umfassen unter anderem die US-Ministerien fĂŒr Gesundheit, Justiz und Energie. Obwohl nach Mitarbeitern drittgrĂ¶ĂŸtes Ministerium, ist das Budget jedoch deutlich kleiner als das der beiden grĂ¶ĂŸten Ministerien und betrĂ€gt etwa die HĂ€lfte des Budgets des Landwirtschaftsministeriums. Im Namen des Heimatschutzministeriums unterzeichnete George W. Bush im Mai 2007 die National Security Presidential Directive 51 (NSPD 51), auch als Homeland Security Presidential Directive 20 (HSPD 20) bekannt, eine prĂ€sidentielle Direktive zur nationalen Sicherheit, die im Falle einer nationalen Katastrophe, eines Notfalls oder Angriffes die Fortdauer der konstitutionellen Regierungsarbeit („Enduring Constitutional Government“) sicherstellen soll, indem der US-PrĂ€sident sich mit der FĂŒhrung der gesamten Bundesregierung betraut, und die Kooperation zwischen der Exekutive, der Legislative, und der Judikative koordiniert. Interessant ist der Aufbau des DHS: unterstellte Behörden United States Citizenship and Immigration Services United States Customs and Border Protection United States Immigration and Customs Enforcement Transportation Security Administration United States Coast Guard (KĂŒstenwache; durch PrĂ€sidialbeschluss oder im Falle einer KriegserklĂ€rung durch den Kongress untersteht sie automatisch der Navy, bis der PrĂ€sident etwas anderes dekretiert) Federal Emergency Management Agency (FEMA) United States Secret Service beratende Organe Homeland Security Advisory Council National Infrastructure Advisory Council Homeland Security Science and Technology Advisory Committee Critical Infrastructure Partnership Advisory Council Interagency Coordinating Council on Emergency Preparedness and Individuals with Disabilities Task Force on New Americans Einrichtungen des Ministeriums Domestic Nuclear Detection Office Federal Law Enforcement Training Center National Protection and Programs Directorate Federal Protective Service National Communications System Directorate for Science and Technology Directorate for Management Office of Policy Office of Immigration Statistics Office of Health Affairs Office of Intelligence and Analysis Office of Operations Coordination Office of the Secretary, umfaßt Privacy Office, Office for Civil Rights and Civil Liberties, Office of Inspector General, Citizenship and Immigration Services Ombudsman, Office of Legislative Affairs, Office of the General Counsel, Office of Public Affairs, Office of Counternarcotics Enforcement (CNE), Office of the Executive Secretariat (ESEC), Military Advisor's Office; National Cyber Security Center. Um seine Aufgabe zu erfĂŒllen, Bedrohungen „vorauszusehen, zuvorzukommen und abzuwenden“, benutzt das Ministerium ein fĂŒnf Stufen umfassendes, auf Farben basierendes Homeland Security Advisory System, um die angenommene Gefahrenlage anzuzeigen: GrĂŒn, Blau, Gelb, Orange, Rot. Eine Ă€hnliche Skala wird schon seit den Zeiten des Kalten Krieges vom US-MilitĂ€r verwendet, um den Verteidigungszustand der StreitkrĂ€fte anzuzeigen. Er wurde als DefCon bekannt. Das Homeland Security Advisory System wurde unter anderem von Michael Moore in seinem Film „Fahrenheit 9/11“ kritisiert, weil es der Regierung durch Anhebung der Gefahrenstufe ermögliche, die Medienaufmerksamkeit auf sich und von gewissen anderen Ereignissen abzulenken. Zum Beispiel wurde beim Parteikongress der Demokraten in Boston 2004 vor den PrĂ€sidentschaftswahlen die Alarmstufe angehoben, weil „Hinweise auf AnschlĂ€ge“ eingetroffen seien. Beim Wahlparteitag der Republikaner im selben Jahr in New York geschah dies aber nicht. Ein weiterer Kritikpunkt besteht darin, dass noch nie objektive Kriterien fĂŒr die Warnstufen veröffentlicht wurden. Dazu wird von Sicherheitsexperten das Warnsystem hinterfragt, weil die Warnhinweise viel zu wenig konkret sind. Die PolizeikrĂ€fte werden zwar bei einer erhöhten Alarmstufe aufgestockt, doch sie erhalten nur vage Hinweise wie: „möglich sind AnschlĂ€ge auf das Eisenbahnnetz“. Dies ist wenig hilfreich, denn logischerweise ist es jederzeit möglich, dass auf Eisenbahnen AnschlĂ€ge verĂŒbt werden.


„MATRIX“ ist keine Science Fiction

Als ob das alles noch nicht unheimlich genug ist, fĂ€llt jetzt noch eine ominöse Datenbank einer dubiosen Firma in Florida auf, die den Namen MATRIX trĂ€gt. Auch in dieser sollen persönliche Informationen von Amerikanern gesammelt werden.lxxix Allein der Name ist nicht glĂŒcklich gewĂ€hlt, Ă€hnlich ungeschickt wie beim FBI, das ein System zur Überwachung von Internetdaten Carnivore (Fleischfresser) nannte. MATRIX steht fĂŒr Multistate Anti-Terrorism Information Exchange. Mit dem System, entwickelt von der Firma Seisint Inc. in Boca Raton, Florida, sollen, wie die Washington Post berichtetlxxx, Muster und Verbindungen zwischen Personen und Ereignissen schneller gefunden werden. In die Datenbank werden Informationen der Strafverfolgungsbehörden sowie persönliche Informationen ĂŒber US-amerikanische StaatsbĂŒrger eingespeist, die in kĂ€uflichen Datensammlungen verfĂŒgbar sind. Alles sei ganz harmlos, wird gesagt, weil das System nur Daten benutze, die sowieso vorhanden und verfĂŒgbar seien. Wie der Name schon sagt, soll das System spĂ€ter nicht nur fĂŒr Florida, sondern erst einmal in insgesamt 13 Bundesstaaten (Alabama, Connecticut, Florida, Georgia, Kentucky, Louisiana, Michigan, New York, Oregon, Pennsylvania, South Carolina, Ohio und Utah) eingesetzt werden und den Datenaustausch zwischen diesen LĂ€ndern verbessern. FĂŒr das Pilotprojekt sind Virginia, Maryland, Pennsylvania und New York vorgesehen. Dabei geht das MATRIX-Projekt gar nicht auf die Initiative von Behörden, sondern auf die eines Unternehmers zurĂŒck, der entweder meinte, sich um den Staat verdient machen zu wollen, oder aber glaubte, dass mit Sicherheitstechnik auch kĂŒnftig gute GeschĂ€fte zu machen sind. Hank Asher, der GrĂŒnder der IT-Firma Seisint, rief anscheinend kurz nach den AnschlĂ€gen vom 11.9.2001 bei der Polizei in Florida an und versprach, er könne die Terroristen und andere finden, die verdĂ€chtig sind. Seisint stellte dann seine Software MATRIX dem Staate Florida erst einmal kostenlos zur VerfĂŒgung. Dann wurde das System in anderen Staaten vorgefĂŒhrt und wohlwollend aufgenommen. Dabei kam die Idee auf, die Datenbank mit einer Suchmaschine namens "Who" auszustatten, die im Zentrum des Projekts stehen sollte. Das Justizministerium von Florida steckte daraufhin weitere vier Millionen Dollar in das von Seisint entwickelte Programm MATRIX, um es landesweit zu erweitern. Auch fĂŒr das angeblich kostenlos fĂŒr Florida entwickelte System hatte Seisint 1.6 Millionen $ bewilligt bekommen. Das uns schon bekannte Heimatschutzministerium wollte dann weitere 8 Millionen investieren. Offenbar wurde das System bereits kurz darauf in Florida benutzt. Bis 2003 sollen sich 135 Polizeibehörden angeschlossen haben. MATRIX soll nach einem Dokument des Justizministeriums "den Austausch von Informationen ĂŒber Terrorismus und andere kriminelle AktivitĂ€ten erweitern und verbessern". Abgesprochen wurde das System offenbar auch mit dem demokratischen Senator Bob Graham, der zu der Zeit Leiter des Geheimdienstausschusses war. Graham und die Demokraten hatten ĂŒbrigens hohe Spenden von Seisint erhalten. Neben Virginia, Maryland, Pennsylvania und New York nimmt auch Washington D.C. an der geplanten MATRIX-Datenbank oder dem weniger monströs klingenden internetbasierten Justice Information System teil. Der demokratische BĂŒrgermeister von Washington D.C., Anthony Williams, wies noch einmal darauf hin, dass es sich dabei nicht nur um Informationen zur Vorbereitung auf NotfĂ€lle handelt, sondern dass die Datenbank auch zur BekĂ€mpfung der allgemeinen KriminalitĂ€t gedacht ist. Man wĂŒrde die Informationen auf die Daten der Strafverfolgungsbehörden beschrĂ€nken und nicht alle verfĂŒgbaren Daten aller Amerikaner in einer zentralen Datenbank speichern. Das kann man glauben oder auch nicht. Das System soll, wie Margret Nedelkoff Kellems, in Washington fĂŒr öffentliche Sicherheit zustĂ€ndig, anmerkte, es beispielsweise ermöglichen, in Kraftfahrzeug-Daten nach Fotografien und Informationen ĂŒber rothaarige Besitzer von roten Hondas im Umkreis von 30 Kilometern um einen bestimmten Ort herum suchen zu können. Das hieße dann aber doch, dass Informationen ĂŒber alle BĂŒrger zumindest der beteiligten Bundesstaaten verfĂŒgbar sein wĂŒrden. Kellems war offenbar bemĂŒht, das mit staatlichen Geldern weiter entwickelte System von der MATRIX-Datenbank in Florida abzugrenzen, die mehr Daten enthalten soll. Und wie schon im Fall von Poindexter bei der TIA ist auch der Experte fĂŒr Computertechnologie Hank Asher eine dubiose Gestalt.lxxxi 1999 beendete die DEA und das FBI einen Vertrag mit einer Asher-Firma, weil bekannt wurde, dass er von einem Zeugen als Pilot und Drogenschmuggler identifiziert worden ist und als Informant fungiert hat. Von der Drogengeschichte wisse man im Justizministerium, aber schließlich sei er weder angeklagt noch verhaftet worden. Seit 1993 arbeitet Asher mit den Strafverfolgern in Florida zusammen, dem Florida Department of Law Enforcement (FDLE) – unbeschadet dessen, dass das FBI und die DEA 1999 die VertrĂ€ge mit seiner alten Firma DBT Online wegen seiner Verbindungen mit dem Drogenschmuggel beendeten, woraufhin Asher die Firma verkauft hatte. Trotzdem erhielt seine neue Firma Seisint in Florida zwei VertrĂ€ge, ohne dass dabei eine Ausschreibung stattfand. Mit dem ehemaligen Direktor des FDLE, der gerade pensioniert wurde, ist Asher eng befreundet. Der neue Direktor hat inzwischen eine HintergrundĂŒberprĂŒfung von Asher angeordnet. Asher hat auch fĂŒr andere Behörden wie FBI oder Secret Service kostenlos gearbeitet. Angeblich habe die Firma tatsĂ€chlich dabei geholfen, Verbindungen zwischen den FlugzeugentfĂŒhrern von 9/11 herzustellen. Bekanntlich haben einige der FlugzeugentfĂŒhrer unter immer noch mysteriösen UmstĂ€nden in Florida Flugunterricht genommen. Auch hier gibt es Verbindungen zum Drogenschmuggel.lxxxii Interessant ist auch, dass Florida 1998 mit der DBTlxxxiii, der damals noch Asher gehörenden Firma, einen Vertrag ĂŒber 4 Millionen Dollar abschloss, um eine WĂ€hlerliste zu erstellen, auf der sich diejenigen befanden, die von der Wahl ausgeschlossen werden können. DBT wurde spĂ€ter zu ChoicePoint.lxxxiv FĂŒr die PrĂ€sidentschaftswahlen im Jahr 2000 wurden aufgrund der Informationen von ChoicePoint von der Innenministerin Katherine Harris einige Zehntausend Menschen – vornehmlich Schwarze, Latinos und arme Weiße, also eher Gore-WĂ€hler – von der Wahl ausgeschlossen, die angeblich in anderen Staaten Vorstrafen hatten. In den meisten US-Bundesstaaten dĂŒrfen StraftĂ€ter aber nach VerbĂŒĂŸung ihrer Strafe wieder wĂ€hlen. Manche der StraftĂ€ter wurden auch erst in der Zukunft verurteilt, wie damals in der amerikanischen Presse berichtet wurde. Die Liste der angeblich Vorbestraften ist angeblich aus Texas gekommen. Zwar wurde die Liste von Harris korrigiert, aber Tausende blieben weiterhin von der Wahl ausgeschlossen. Die Wahl in Florida ging mit gerade einmal 500 Stimmen Mehrheit fĂŒr Bush aus. In Florida wurden zudem ĂŒber 170.000 abgegebene Stimmen fĂŒr ungĂŒltig erklĂ€rt. Eine NachzĂ€hlung wurde vom Obersten Gericht als nicht fĂŒr notwendig befunden, das Bush daher als Sieger der Wahl anerkannte. Eine trotzdem durchgefĂŒhrte NachzĂ€hlung ergab allerdings, dass bei einer rechtzeitigen NachzĂ€hlung Al Gore der Gewinner in Florida und damit auch in den USA gewesen wĂ€re. Wir haben gesehen, dass es nichts hilft, Positivismus und Neo-Positivismus allein zu kritisieren, obwohl das schon notwendig ist. Einrichtungen und Forschungsinstitute des militĂ€risch-industriellen Komplexes (Eisenhower) scheren sich darum wenig bis gar nicht. Man könnte sich angesichts der Kritik ruhig zurĂŒcklehnen und sich sagen: wenn der ideologische Unterbau (eigentlich ist es der Überbau) derart falsch oder wenigstens unzureichend, nĂ€mlich allein mit formaler Logik konstruiert ist und Inhalte keine Rolle zu spielen scheinen, wenn es reduktionistischer gar nicht mehr geht (wie z.B. in dem Vorhaben, ein menschliches Gehirn im Computer nachzubilden), dann kann ja eigentlich nichts Schlimmes passieren. Aber allein, wenn man ĂŒber die Fehler nachdenkt, die bei der Maschinen- und Software-gesteuerten Überwachung der BĂŒrger eines Staates entstehen und die zu falschen Informationen in den Datensammlungen ĂŒber die gleichen Personen fĂŒhren, dann kann einem Angst und Bange werden. Dies gilt umso mehr, als alle diese Datenbanken unter Ă€ußerster Geheimhaltung aufgebaut werden (wahrscheinlich schon sind), nĂ€mlich unter der Obhut unterschiedlichster Geheimdienste und damit der öffentlichen Kontrolle weitgehend, wenn nicht vollstĂ€ndig entzogen sind. Ob damit „der Terrorismus“ wirksam bekĂ€mpft werden kann oder Terroristen an ihrer Gangart oder der Gesichtsstruktur sicher identifiziert werden können, ist ohnehin zu bezweifeln. Orwell lebt und lĂ€ĂŸt grĂŒĂŸen.


Nachbemerkung, aus noch gegebenerem Anlaß


Als ob das hier Geschilderte noch nicht genug wĂ€re, wuchs die Empörung ĂŒber die NSA erst so richtig an, als bekannt wurde, dass das Mobiltelefon der Bundeskanzlerin Dr. Angela Merkel abgehört wurde; sie benutzte selten ihr abhörsicheres Zweit-Mobiltelefon, weil es ihr zu umstĂ€ndlich sei, es zu bedienen.
Kurz zuvor war schon bekannt worden, dass die NSA nicht nur die EuropĂ€ische Union (EU), sondern auch die United Nations (UNO) abhört. Nach Auswertungen von Dokumenten, die dem SPIEGEL spĂ€testens seit dem 25. August 2013 vorliegen, ist es der NSA im Sommer 2012 gelungen, die VerschlĂŒsselung zu knacken und in die interne Videokonferenzanlage der UNO einzudringen. Dies habe fĂŒr "eine dramatische Verbesserung der Daten aus Video-Telekonferenzen und der FĂ€higkeit, diesen Datenverkehr zu entschlĂŒsseln" gesorgt, heißt es in einem geheimen NSA-Dokument. "Der Datenverkehr liefert uns die internen Video-Telekonferenzen der UNO (yay!)". Innerhalb von knapp drei Wochen sei die Zahl der entschlĂŒsselten Kommunikationen von 12 auf 458 angestiegen.lxxxv Die Spionageaktionen sind illegal, in einem bis heute gĂŒltigen Abkommen mit der UNO hat sich die USA verpflichtet, keine verdeckten Aktionen zu unternehmen. Aus den internen Dokumenten geht zudem hervor, dass die NSA die EU auch nach deren Umzug in die neuen BotschaftsrĂ€ume im September 2012 noch ausspioniert hat. Unter den Dokumenten, die der Whistleblower Edward Snowden von Rechnern der NSA kopiert hat, befinden sich LageplĂ€ne der EU-Botschaft an der 3rd Avenue in New York, die die Lage der BĂŒros, aber auch der IT-Infrastruktur und der Server betreffen. Dem neuen EU-GebĂ€ude gab der US-Geheimdienst den Codenamen "Apalachee". Die EU-Botschaft in Washington wurde intern "Magothy" genannt. Auf drei Wegen attackierte die NSA nach eigenen Angaben die europĂ€ischen Dependancen: jeweils per Wanze sowie durch Kopieren der Festplatten in New York und das Infiltrieren des Computernetzwerks in Washington. Dabei machte sich die NSA zunutze, dass die Computer der beiden EU-Botschaften ĂŒber ein sogenanntes Virtuelles Privates Netzwerk (VPN) miteinander verbunden sind. "Wenn wir den Zugang zu einer Seite verlieren, können wir ihn unmittelbar zurĂŒckerhalten, wenn wir ĂŒber das VPN der anderen Seite kommen", konstatieren die NSA-Techniker in einer internen PrĂ€sentation. "Wir haben das mehrere Male genutzt, als wir bei ,Magothy' rausgeschmissen wurden." Das AuswĂ€rtige Amt in Berlin besitzt nach eigenen Angaben keine Informationen ĂŒber eine mögliche AusspĂ€hung der Vereinten Nationen und von Botschaften durch den US-Geheimdienst NSA. "Wir haben keine eigenen Erkenntnisse", sagte ein Sprecher. Laut den internen Dokumenten unterhĂ€lt die NSA zudem in mehr als 80 Botschaften und Konsulaten weltweit ein eigenes Abhörprogramm, das intern "Special Collection Service" genannt wird und oft ohne das Wissen des Gastlands betrieben wird. Einen entsprechenden Lauschposten soll die NSA demnach in Frankfurt, einen weiteren in Wien unterhalten. Die Existenz der Lauscheinheiten in Botschaften und Konsulaten sei unter allen UmstĂ€nden geheim zu halten, heißt es in dem Material. Wenn sie bekannt wĂŒrden, wĂŒrde das "den Beziehungen zum jeweiligen Gastland schweren Schaden zufĂŒgen", so ein NSA-Dokument. Inzwischen ist aber bekannt geworden, dass auf dem Dach der US-Amerikanischen Botschaft in Berlin, direkt neben dem Brandenburger Tor, eine Abhöranlage aufgebaut ist. Weiter wurde im Oktober 2013 bekannt, dass auch die brasilianische PrĂ€sidentin Dilma Rousseff von der NSA abgehört wird/wurde; sie will zusammen mit Deutschland diese AffĂ€re in Form einer Resolution gegen das AusspĂ€hen von elektronischer Kommunikation vor die UNO bringen.lxxxvi Darin werden alle Staaten aufgefordert, Gesetzgebung und Praxis bei Überwachungsaktionen im Ausland auf den PrĂŒfstand zu stellen. Wörtlich heißt es: „Die gleichen Rechte, die Menschen offline haben, mĂŒssen auch online geschĂŒtzt werden - vor allem das Recht auf Privatheit.“ Der Text wurde zusammen mit Brasilien ausgearbeitet, dessen PrĂ€sidentin Dilma Rousseff ebenfalls vom US-Geheimdienst NSA bespitzelt wurde.lxxxvii Der Entwurf geht nun zunĂ€chst an den zustĂ€ndigen Menschenrechtsausschuss, der im November darĂŒber beraten wird. Der in der Vorbemerkung erwĂ€hnte US-Geheimdienstchef James Clapper hat SpĂ€hangriffe auf auslĂ€ndische Spitzenpolitiker verteidigt. „Die Absichten politischer FĂŒhrungen, wie auch immer sie ausgedrĂŒckt werden, sind das GrundsĂ€tzliche, was wir sammeln und analysieren mĂŒssen“, sagte der Koordinator der 16 amerikanischen Geheimdienste in einer Kongress-anhörung am 29. Oktober 2013 in Washington. Zugleich zeigten er und der NSA-Chef Keith Alexander sich in der Befragung ĂŒberzeugt, dass Europa seinerseits die USA und deren Politiker ausspioniere. Auch wĂŒrden die EuropĂ€er massiv Daten eigener BĂŒrger sammeln. Clapper bestĂ€tigte zwar nicht, dass die USA etwa TelefongesprĂ€che von Merkel oder anderen Staats- und Regierungschefs abgehört hĂ€tten. Es sei aber generell „absolut“ hilfreich, an solche Kommunikation zu kommen. „Das ist eines der ersten Dinge, die ich 1963 in der Geheimdienstschule gelernt habe“, sagte der Spionage-Veteran. „Es ist unersetzlich fĂŒr uns zu wissen, was die LĂ€nder bewegt, was ihre Politik ist.“ Zu den bevorzugten Abhörzielen gehörten auch militĂ€rische FĂŒhrer.lxxxviii Der ebenfalls in der Vorbemerkung zu diesem Artikel erwĂ€hnte EnthĂŒllungsjournalist Glenn Greenwald erklĂ€rte, dass es bei der AffĂ€re nicht nur um Bespitzelung von BĂŒrgern gehe, sondern um politische Macht und Wirtschaftsspionage. Ersteres wird von Clapper bestĂ€tigt, letzteres zunĂ€chst nicht. Auch die hiesige Presse hat diesen Aspekt bisher vollkommen ausgeklammert. Sehr deutlich konnte man einem Interview der FAZ mit dem weißrussischen Publizisten aus Amerika, Evgeny Morozov, im Oktober 2013 entnehmen, was im Hauptteil dieses Artikels schon herausgearbeitet wurde, dass nĂ€mlich ĂŒber einfache Wirtschaftsspionage hinausgehende weltweite Analysen wirtschaftlicher und privater Daten mit Hilfe von spezieller Software angestellt werden, um prognostische Faktoren ĂŒber Konsumverhalten, Krisen des Marktes und der Finanzwirtschaft herausarbeiten zu können. Dies wurde im Artikel oben unter „Forschung fĂŒr die totale Überwachung“ bereits erwĂ€hnt. Im Interview heißt es: „Es ist eine strukturelle Logik im Spiel, die etwas mit Kapitalismus zu tun hat, mit Konsumverhalten, mit Dingen, ĂŒber die Amerikaner nicht gern reden. Das Resultat ist eine neue Reihe von Anreizen, um die Leute zu verleiten, ihre Daten preiszugeben und zu teilen. Die NSA wird sie so oder so bekommen, aber fĂŒr mich ist die NSA nur Teil eines viel grĂ¶ĂŸeren Problems, das ich in einer Art von prĂ€emptivem Regieren sehe, gestĂŒtzt auf Voraussagen, und Informationsanalysen, durch die Probleme entschĂ€rft werden sollen, bevor es Probleme sind. So, wie die NSA Terroristen ausfindig macht, bevor sie TerroranschlĂ€ge begehen, so handeln andere Behörden nach der gleichen Logik. Leute sollen gesund werden, bevor sie krank sind. Dank der neuen technologischen Infrastruktur werden Probleme im Voraus gelöst, und zwar mittels Anreizen, die neue Verhaltensweisen hervorrufen. FĂŒr einen Technokraten ist das eine perfekte Sache. Nicht so fĂŒr einen Demokraten, der sich denkende BĂŒrger wĂŒnscht, die zwischen richtig und falsch zu unterscheiden wissen und fĂ€hig sind, sich an der Verbesserung des Systems zu beteiligen.“lxxxix Wie man „den Wirkungsgrad des Wahlkampfs steigern“ und sich „die richtigen WĂ€hler effektiver erreichen“ lassen Schließlich soll ein letztes Beispiel zeigen, in welchem Stadium der Analyse, aber nicht nur der Analyse, sondern der massiven WĂ€hlerbeeinflussung und des Kaufverhaltens man offenbar schon jetzt angekommen ist. Wegen seiner Ungeheuerlichkeit wird der Bericht aus der Frankfurter Allgemeinen Zeitung hier in ganzer LĂ€nge wiedergegeben:xc „Ende August hatte die deutsche Vertretung von Google Journalisten, WahlkĂ€mpfer und Interessierte nach Berlin eingeladen, um die Google-Projekte zur Wahl vorzustellen. Den Hauptvortrag hielt Julius van de Laar, der fĂŒr Barack Obama im entscheidenden Bundesstaat Ohio Wahlkampf gefĂŒhrt hatte. Er berichtete, was man aus dem digitalen Wahlkampf in den USA inzwischen gelernt habe. NatĂŒrlich ging es als erstes um’s Geld: ‚Meine GĂŒte, 1.2 Milliarden Dollar hatten wir zur WĂ€hlermobilisierung zur VerfĂŒgung‘, um dann darauf einzugehen, was darunter verstanden wird. 2012 sei die Ausgangslage schlecht gewesen, 8% Arbeitslosigkeit, 41% Zustimmungsrate fĂŒr den PrĂ€sidenten, dazu eine katastrophale Performance des Kandidaten im ersten Fernsehduell‘. Nur in der politischen Botschaft sei die Obama-Kampagne klar vorn gelegen. ‚Mitt Romney – Killerkapitalist‘ ließ sich gut verkaufen, auch ‚General Motors am Leben, Usama Bin Ladin tot‘. Das Team von de Laar stellte sich aber als wichtigste Frage in Ohio, wie man ‚den Wirkungsgrad des Wahlkampfs steigern könne‘, wie sich „die richtigen WĂ€hler effektiver erreichen“ lassen – und wie man einen Bogen um diejenigen macht, die man schon verloren gab. Dieses Programm hieß ‚Force Multiplication‘ und es sollte Platz fĂŒr ‚Technologie und Daten‘ schaffen. Es ging nicht um politische Botschaften aus Hinterzimmern, sondern um die letztens vieldiskutierten „Big Data“. De Laar fĂŒhrte weiter aus: ‚Die DatenschĂŒtzer unter Ihnen, wenn Sie kurz raustreten wollen und sich einen Kaffee holen wollen. Kommen Sie in zehn Minuten wieder.‘ Er kam darauf zu sprechen, wie das ‚Micro-Targeting‘, die planvolle und gezielte WĂ€hleransprache der Obama-Kampagne funktionierte. Ausgangspunkt seien die WĂ€hlerlisten, in denen Namen und Telefonnummern aufgefĂŒhrt sind sowie die Information, ob die WĂ€hler an den demokratischen oder den republikanischen Vorwahlen teilgenommen hatten. Im zweiten Schritt ‚haben wir uns einfach einen Haufen Daten gekauft‘, sagte van de Laar. ‚Sie kennen Pay-Back?‘ fragte er ins Publikum. „Wir gehen da hin und sagen: ‚Pay-Back, bitte einmal die Daten ausspucken‘“. Diese Daten zeigen nĂ€mlich das Einkaufsverhalten der WĂ€hler, die die Pay-Back-Bonuskarte verwenden – was van de Laar als ein Beispiel unter vielen nannte –, und seien mit den Daten aus dem WĂ€hlerregister fusioniert worden. FĂŒr jeden potentiellen Obama-WĂ€hler wurde ein Datenbankeintrag angelegt und stĂ€ndig erweitert. Auch das Verhalten im Internet war von Interesse. Mit ‚Cookie-Targeting‘ wurde das online-Verhalten der WĂ€hler ĂŒber deren Computer ausgespĂ€ht und ausgewertet. Dieses Vorhaben, das ‚predictive analytics‘ genannt wird, erscheint unter den Stichworten ‚Social Media, Data Mining, Data Matching‘. Van de Laar: ‚Wir wollten herausfinden, wer die Personen waren, die sehr wahrscheinlich nicht wĂ€hlen gehen, aber uns wĂ€hlen wĂŒrden, wenn sie doch hingingen.‘


Man habe herausgefunden, dass 78% der Menschen, denen von Freunden oder Bekannten empfohlen wurde, Obama zu wĂ€hlen, tatsĂ€chlich fĂŒr ihn stimmten. Das Team konzentrierte sich also auf die zweite Zielgruppe: Menschen, die Obama sicher wĂ€hlen wĂŒrden und zusĂ€tzlich bereit seien, ihren Freunden und Nachbarn davon zu erzĂ€hlen. 21000 Freiwillige habe man in den drei Wochen vor der Wahl allein in Ohio mobilisiert. Sie klopften an mehr als 800 000 HaustĂŒren.


Eine iPhone-App gab im Wortlaut vor, wie ein GesprĂ€ch zu eröffnen sei und zu fĂŒhren ist – und erinnerte mit Nachdruck daran, fehlende Daten unbedingt zu erfassen. ‚Wir wollten nicht nur, dass Leute rumlaufen und mit irgendwelchen Menschen sprechen, wir wollen nachvollziehen, was dort genau passiert. Wir wollen wissen, wie die Konversationen laufen und welche Informationen wir da herausziehen können‘, sagte van de Laar. Dieser HaustĂŒrwahlkampf sei wahlentscheidend gewesen. Das Wahlkampfteam in Ohio beschĂ€ftigte 750 fest angestellte Mitarbeiter, aber entscheidend sei die Arbeit der Freiwilligen gewesen. Es wurde letztlich eine Parallelkampagne unter dem Titel ‚It’s about YOU‘ entwickelt. Das YOU bezog sich auf die Tausenden von Freiwilligen, die zumeist persönliche Beziehungen zu den Menschen an den HaustĂŒren besaßen, an die sie klopften, und die noch zu ĂŒberzeugen waren. Man habe sich aber nicht nur an der HaustĂŒre eingemischt, sondern bald wurde jeder Sympathisant zum Freiwilligen. Die moderne Technik half dabei: ‚Wir wollten, dass sich die Leute mit Facebook auf Obamas Internetseite anmelden, um einen Komplettzugriff auf deren Profildaten zu erhalten. Die Daten, die wir hatten, waren der Wahnsinn, und natĂŒrlich schauten wir sie uns an, wann es uns paßte‘, sagte van de Laar. Dabei ging ein Raunen durch den Saal.


Den entscheidenden Trick hatte van de Laar aber noch gar nicht genannt: WĂ€hler, die sich per Facebook auf Obamas Internetseite anmeldeten, willigten auch ein, dass die Kampagne im Namen der Nutzer Botschaften auf Facebook verbreiten durften. ‚Sie können sich vorstellen, was fĂŒr ein riesiges Asset das in diesem Wahlkampf war.‘ Die WĂ€hler konnten schlicht nicht mehr unterscheiden, wann sie es mit ihren Nachbarn oder mit der Kampagne zu tun bekamen. FĂŒr die WahlkĂ€mpfer der politischen Parteien im Raum verwies van de Laar auf eine Studie von Infratest Dimap. Auch in Deutschland informierten sich WĂ€hler vorrangig im direkten GesprĂ€ch ĂŒber anstehende Wahlen. ‚Das, was jetzt gemacht wird, ist der Grundstein fĂŒr die Zukunft, da wird der Trend hingehen‘.


In USA sei man allerdings schon an Grenzen gestoßen, fĂŒhrte van de Laar aus. Ein Zeichen des Erfolgs im HaustĂŒrwahlkampf seien die vielen Zettel gewesen, auf denen Bewohner notierten, dass sie schon lĂ€ngst ĂŒberzeugt seien, Obama zu wĂ€hlen und keine weitere Störung duldeten. Dass das Wahlrecht den WĂ€hlern Geheimhaltung zubillige, setzten van de Laars Strategen in einem Fall sogar außer Kraft. Sie wollten NichtwĂ€hler in den Nachbarschaften in Dankesbriefen nach der Wahl enttarnen. Diesem Vorhaben, ‚das 25% Zuwachs‘ versprach, setzte eine Morddrohung gegen Mitarbeiter der Kampagne ein frĂŒhes Ende.


‚Stalking‘ nannte das die Pressesprecherin der Piratenpartei, Anita Möllering, aus dem Publikum. Der von Google mit einem Pauschalgehalt ausgestattete Journalist Tilo Jung, der Googles Videoplattformen fĂŒr politische Interviews unter dem programmatischen Titel ‚Jung & Naiv‘ nutzt, wollte von de Laar wissen, wie mit den Daten nach der Wahl verfahren wurde und was in Deutschland möglich sei. Die Daten lĂ€gen fĂŒr die nĂ€chsten Kampagnen bereit, antwortete van de Laar. In Deutschland werde der Rahmen des legal Möglichen noch nicht ausgeschöpft. Es gebe ‚maximal legale Wege, noch deutlich stĂ€rker vorzugehen und ein besseres Targeting zu machen.‘ ‚Alles andere wĂ€re jung und naiv‘, sagte van de Laar.“