Text | Kulturation 2013 | Peter Kaiser | Von Wittgenstein zur NSA. Vom Positivismus ĂŒber den Anti-Terrorismus bis zur AbhöraffĂ€re Eine kurze Geschichte vom Positivismus ĂŒber den Anti-Terrorismus nach 9/11 bis zur neuesten AbhöraffĂ€re | Inhalt
Vorbemerkung
Wittgenstein und der Wiener Kreis
Logik gegen Metaphysik
Das Ende des Wiener Kreises
Von positivistischer Logik zur Kriegsforschung
9/11 oder Orwell lĂ€Ăt grĂŒĂen
Matrix ist keine Science Fiction
Nachbemerkung
Vorbemerkung, aus gegebenem AnlaĂ
Als dieser Artikel vor einigen Jahren geschrieben wurde, hatten die meisten hierzulande keinen Begriff davon, was die National Security Agency ist und was die AbkĂŒrzung NSA bedeutet. Wer allerdings jemals mit Security und Secrecy im Internet zu tun hatte, der hatte auch mit Kryptofizierung zu tun und wuĂte, dass die VerschlĂŒsselungstechniken vom zweitgröĂten Geheimdienst der USA fĂŒr private und geschĂ€ftliche Zwecke in der Weise beschrĂ€nkt sind, dass sie immer nur unterhalb der höchstmöglichen Kryptofizierung angewendet werden âdurftenâ. Der militĂ€rische Geheimdienst NSA mit Sitz in Fort Meade (offizieller Spitzname: âCryptocityâ), hat sich immer vorbehalten, jedwede VerschlĂŒsselung dekryptofizieren zu können, wenn es angebracht schien. Einen betrĂ€chtlichen Aufwand hĂ€tte es allerdings gebraucht. Trotzdem: die SchluĂfolgerung ist offenbar, dass ein US-amerikanischer, militĂ€rischer Geheimdienst bestimmt, mit welchem Kryptofizierungsgrad in der ganzen Welt gearbeitet werden darf. Erreicht wird dies durch ganz einfache technische Mittel: entsprechende Software, die Dokumente, Nachrichten etc. fĂŒr Dritte unlesbar machen wĂŒrde, gibt es nicht zu kaufen; die NSA hĂ€lt die Hand darĂŒber. Man kann sogar davon ausgehen, dass nicht einmal QuantenverschlĂŒsselung, obwohl es noch keine echten Quantencomputer gibt, vor der NSA bestehen könnte.i Zurzeit gibt es Quasi-Quantencomputer, z.B. solche, die mit Licht arbeiten, das in verschiedenen Richtungen polarisiert ist, so dass damit verschlĂŒsselte Nachrichten gesendet werden können; diese können jedoch trickreich abgefangen werden. Ein echter Quantencomputer wĂŒrde mit verschrĂ€nkten Teilchen arbeiten, bei denen eine Abhöraktion unmittelbar diesen VerschrĂ€nkungszustand aufheben wĂŒrde, so dass der Eingriff erkannt wird. Allerdings können verschrĂ€nkte Teilchen nur im Hochvakuum und bei Temperaturen nahe dem absoluten Nullpunkt âhergestelltâ werden; da die VerschrĂ€nkung im Nano- bis Millisekunden-Bereich wieder zerfĂ€llt, mĂŒssen die Rechen- oder Nachrichtenoperationen in dieser extrem kurzen Zeit durchgefĂŒhrt werden. So ist der Quantencomputer im Moment eher ein langjĂ€hriges Forschungsprojekt als eine anwendbare Methode, geschweige denn ein kommerzielles Objekt. Aber er wĂ€re âabhörsicherâ.
Bei den Arbeiten zum philosophischen Problem der richtigen Definition von Begriffen und Kategorien wie âKausalitĂ€tâ und âZufallâ fiel mir auf, dass es anscheinend einen groĂen Bogen vom Positivismus, von dem noch heute viele Naturwissenschaftler durchaus angetan sind, ĂŒber den Neopositivismus, etwa des Wiener Kreises, zur Entstehung von Computersprachen gibt. Anscheinend hatte alles mit kĂŒnstlichen Sprachen zu tun sowie mit formaler und inhaltlicher bzw. dialektischer Logik. Alle Programmiersprachen beruhen auf formaler Logik, eine inhaltliche Logik ist ausgeschlossen; dies kann Software nicht. Deren Sprachbefehle beruhen auf der Boolschen Algebra (Funktionen wie: und/oder/wenn - dann/nicht etc.) und sind abstrakt formalisierbar. Als Beispiel mag eine beliebige Suchma-schine fĂŒr das Internet dienen: man möchte einen bestimmten Begriff suchen, der einen ganz bestimmten Inhalt hat, dem also eine Semantik zugrunde liegt; Suchmaschinen können aber nicht nach Inhalten unterscheiden, sie kennen nur identische oder nicht-identische Zeichenketten, im Programmier-Slang âstringsâ. Daher kommt es, dass noch der kleinste Schreibfehler in einem Suchbegriff dazu fĂŒhrt, dass er scheinbar nicht vorhanden ist.
FĂŒr eine Suchmaschine ist der Begriff "Mercedes" stets einfach nur "Mercedes". Dabei kann es sich um diverse Autotypen handeln, einen alten Firmennamen mit all den dabei noch möglichen Verwendungen (z.B. Wertpapiere) oder um Personennamen. Und wahrscheinlich gibt es noch weitere Bedeutungen. Indem der Suchbegriff um weitere Begriffe, verknĂŒpft mit Boolschen Operatoren, ergĂ€nzt wird, kann der Suchende eine inhaltliche Eingrenzung vornehmen - doch das kann nur er, die Suchmaschine selbst bleibt weiter "dumm".ii Es entsteht die sogenannte âsemantische LĂŒckeâ.iii Diese beschreibt den semantischen, also bedeutungsbezogenen Unterschied zwischen zwei Beschreibungen eines Objekts, der dadurch entsteht, dass verschiedene ReprĂ€sentationsformen (Sprachen) dafĂŒr gewĂ€hlt werden. Dieser in der Informatik verwendete Begriff wird im Allgemeinen dort deutlich, wo ein Abbild des realen Lebens in eine formale, maschinell verarbeitbare ReprĂ€sentation ĂŒbertragen werden muss. Um nun das Suchen im Internet verbessern zu können, haben sich einige Wissenschaftler daran gemacht, das sogenannte âSemantic Webâ zu entwickeln, den nĂ€chsten logischen Schritt nach dem World Wide Web.iv Allerdings ist man von einer Abbildung der natĂŒrlichen Sprachen im binĂ€ren System noch weit entfernt. Immer ist an einer kritischen Schnittstelle ein Mensch vonnöten, der den semantischen Inhalt eines Begriffes zu deuten weiĂ, also weiĂ, in welcher Richtung ein Computerprogramm weiterlaufen soll und das auch âeingebenâ muss.
So waren es die Wissenschaftler des Wiener Kreises â abgesehen von Leibniz, auf den die binĂ€re Codierung (0-1) zurĂŒckgeht â die die Voraussetzungen dafĂŒr schufen, dass Menschen ĂŒberhaupt mit Maschinen kommunizieren konnten. Dies waren wiederum die Voraussetzungen dafĂŒr, dass âmanâ in den 1960er Jahren Software entwickeln konnte, die im Laufe der darauffolgenden Jahre und Jahrzehnte zu Programmen der 2-dimensionalen Rastererkennung (Auswertung von Röntgenbildern, Magnetresonanz-Imaging und Steuerung von Cruise Missiles), Ăbersetzung in und aus fremde(n) Sprachen (nicht nur Bedienungsanleitungen, sondern auch Abhöraktionen der Geheimdienste und der Polizei), Gesichtsfelderkennung (Einreise in die USA) und schlieĂlich âGait-Recognitionâ (Erkennung der Gangart eines Menschen) weiter entwickelt wurden. Mit letzterem Programm, bilden sich die Geheimdienste ein, könnte man Terroristen aus sicherer Entfernung an ihrer Gangart erkennen. Diese ist â wie ein Fingerabdruck â einzigartig, allerdings muĂ sie vorher ermittelt und als Vergleich in einer Datenbank gespeichert worden sein â ebenfalls wie beim Fingerabdruck oder einer DNA-Probe.
Die wissenschaftliche Entwicklung der entsprechenden, eben genannten Programme vollzog und vollzieht sich innerhalb des enormen Forschungsetats des nach 9/11 gegrĂŒndeten Ministeriums âHomeland Securityâ (genauer: United States Department of Homeland Security, DHSv), wie wir im folgenden Artikel sehen werden. Daher ist von einer engen Zusammenarbeit dieser Behörden auszugehen.
Wenn man daher wirklich verstehen will, wie es zu dem NSA-Debakel kam, muĂ man den philosophischen Hintergrund berĂŒcksichtigen, der zur Entstehung von Computer-programmen gefĂŒhrt hat. So stringent man Positivismus wie Neopositivismus auch kritisieren kann, so stringent sind diese Denkweisen, die hochgradig ideologieanfĂ€llig sind, wie gesagt, die Voraussetzung fĂŒr jedwede Art von Software gewesen. Allerdings zeigt die Kritik, in welcher Begrenztheit jedwede Art von Software eingeschlossen ist; da inhaltliche Logik nicht programmierbar ist, allen Verfechtern der âKĂŒnstlichen Intelligenzâ zum Trotz, kann Software auch keine âintelligentenâ Ergebnisse bzw. Lösungen von Problemen produzieren. Das stört jedoch Geheimdienste wie die NSA wenig; in schönstem und reinsten Reduktionismus glauben sie an die Allmacht der technischen Mittel eher, als an die kreative Intelligenz von Menschen.vi
Dabei ist die NSA nur einer der insgesamt 16 Geheimdienste der USA, wie anlĂ€Ălich der Umstrukturierung aller Geheimdienste mit einer âOberaufsichtâ, dem Director of National Intelligence (DNI), James R. Clapper (*1941), im Jahre 2010 auch in Deutschland bekannt wurde.vii Obama selbst hatte den MilitĂ€rstrategen und VietnamkĂ€mpfer Clapper im Juni 2010 vorgeschlagen und er wurde Anfang August 2010 vom amerikanischen Senat bestĂ€tigt. WĂ€hrend der NSA-AffĂ€re sagte er im Mai vor dem Kongressausschuss fĂŒr Nachrichten-dienste auf die Frage, ob die NSA rechtswidrig Telefondaten US-amerikanischer BĂŒrger sammle, das stimme nicht.viii Jedoch veröffentlichte er dann weniger als einen Monat spĂ€ter ein Dokument, welches das Gegenteil zugab â Metadaten von Telefonanrufen und -gerĂ€ten wĂŒrden gespeichert und ausgewertet.ix Obwohl in den Medien international der RĂŒcktritt Clappers gefordert wurdex und zu erwartende strafrechtliche Sanktionen diskutiert wurdenxi, ist er nach wie vor im Amt.xii
âHalten sich die Geheimdienste fĂŒr Gott?â, schrieb dann die FAZ am 09. September 2013, und wĂ€hnte eine âElite von digitalen Allsehernâ, die im Vorborgenen walte. Zu Recht macht der Autor, Frank Rieger, darauf aufmerksam, dass der Kanzleramtschef Roland Pofalla in einem kleinen Halbsatz zur ErklĂ€rung, der NSA-Skandal sei nun zu Ende, erkennen lieĂ, dass es keinerlei politische Kontrolle ĂŒber die Geheimdienste gebe. Er zitierte aus einem NSA-Papier, das der deutschen Regierung helfen sollte: âDie NSA hĂ€lt sich an alle Abkommen, die mit der deutschen Bundesregierung, vertreten durch ·die deutschen Nachrichten-dienste, geschlossen wurden, und hat sich auch in der Vergangenheit stets daran gehalten." Es wird deutlich, dass nicht etwa die Regierung hier verhandelt, nein, die Dienste machen alles unter sich aus. Was genau vereinbart wurde, welchen technischen Zugriff die NSA auf die Systeme unserer Dienste sowie deutsche und europĂ€ische Datenströme erhalten hat â das geht offenbar niemanden auĂerhalb des kleinen Zirkels der Eingeweihten etwas an. Schon gar nicht die Politiker, die von den Geheimdiensten immer als unzuverlĂ€ssige Kantonisten angesehen werden. Die Politik ist stets nur Zaungast der internationalen GeheimdienstgeschĂ€fte, dem Austausch von Abhörresultaten, Daten, Zugangsmöglichkeiten oder SchnĂŒffeltechnologien.xiii
Aber Abkommen hin, Abkommen her: ist nicht das Datenschutzgesetz gerade deshalb entstanden, weil die PrivatsphĂ€re der BĂŒrger geschĂŒtzt werden sollte? Erinnern wir uns an den AnlaĂ: die VolkszĂ€hlung von 1983/87 und das Grundsatzurteil des Bundesverfassungs-gerichts (BVerfG) vom Dezember 1983! An dieser Stelle ist ein Blick ins Gesetz hilfreich: im § 1 Zweck und Anwendungsbereich des Gesetzes (Bundesdatenschutzgesetz, BDSG) steht Folgendes:
(1) Zweck dieses Gesetzes ist es, den Einzelnen davor zu schĂŒtzen, dass er durch den Umgang mit seinen personenbezogenen Daten in seinem Persönlichkeitsrecht beeintrĂ€chtigt wird.
(2) Dieses Gesetz gilt fĂŒr die Erhebung, Verarbeitung und Nutzung personenbezogener Daten durch
1. öffentliche Stellen des Bundes,
2. öffentliche Stellen der LÀnder, soweit der Datenschutz nicht durch Landesgesetz geregelt ist und soweit sie
a) Bundesrecht ausfĂŒhren oder
b) als Organe der Rechtspflege tÀtig werden und es sich nicht um Verwaltungsangelegenheiten handelt,
3. nicht-öffentliche Stellen, soweit sie die Daten unter Einsatz von Datenverarbeitungs-anlagen verarbeiten, nutzen oder dafĂŒr erheben oder die Daten in oder aus nicht automa-tisierten Dateien verarbeiten, nutzen oder dafĂŒr erheben, es sei denn, die Erhebung, Verarbeitung oder Nutzung der Daten erfolgt ausschlieĂlich fĂŒr persönliche oder familiĂ€re TĂ€tigkeiten.
Allein danach sind sĂ€mtliche Abhöraktionen auf deutschem Boden nicht nur illegal nach dem BDSG, sondern sogar verfassungswidrig. Nur wenn jeder BĂŒrger, der abgehört werden will, sein EinverstĂ€ndnis erklĂ€ren wĂŒrde, könnte er von deutschen Behörden abgehört werden.
Aber auch die amerikanischen Spionageaktionen sind illegal; in einem bis heute gĂŒltigen Abkommen mit der UNO hat die USA sich verpflichtet, keine verdeckten Aktionen zu unternehmen. In einem Fall habe die NSA zudem den chinesischen Geheimdienst dabei ertappt, ebenfalls zu spionieren. Daraufhin haben die NSA abgefangen, was zuvor die Chinesen abgehört hatten.xiv Illegal sind auch Abhöraktionen mithilfe von technischem Equipment, das auf den DĂ€chern der BotschaftsgebĂ€ude, z.B. in Berlin, installiert ist. Formal legal sind dagegen Abhöraktionen von den USA oder England aus, wenn von dort der internationale Funkverkehr abgehört wird.
Der Chefredakteur des âGuardianâ, Alan Rusbridger, berichtete am 19. August 2013 von einem âeher bizarrenâ Vorfall, der sich einen Monat zuvor im Keller des RedaktionsgebĂ€udes zugetragen haben soll: der britische Geheimdienst GCHQxv hatte zwei Mitarbeiter der Zeitung gezwungen, DatensĂ€tze zu vernichten, die Edward Snowden ihnen kurz zuvor zugespielt hatte. Die angebliche BegrĂŒndung war, die Informationen sollten nicht bei chinesischen Agenten landen. Als Rusbridger im Vorfeld angerufen wurde, muĂte er sich Folgendes anhören: âIhr habt Euren SpaĂ gehabt, jetzt wollen wir das Zeug zurĂŒck.â Im Verlauf dieser Aktion wurden dann ganze Notebooks geschreddert.
Ein weiterer Vorfall ereignete sich, als der Brasilianer David Miranda, aus Berlin kommend, auf dem Flughafen Heathrow neun Stunden festgehalten und dabei von sieben Sicherheits-beamten eingeschĂŒchtert und bedroht wurde; er konnte seinen Flug nach Rio de Janeiro erst einen Tag spĂ€ter fortsetzen. Die Metropolitan Police berief sich auf den âTerror Act 2000â; sein Partner Glenn Greenwald war nĂ€mlich der erste, der ĂŒber den Fall Snowden berichtet hatte und so stand Miranda offenbar sogleich unter âTerrorismus-Verdachtâ. Sein Handy und sein Laptop wurden beschlagnahmt. Greenwald sagte in Rio, er wolle âjetzt erst recht auspacken.â Die britische Journalisten-Union bezeichnete die Festnahme als âMiĂbrauch des Gesetzesâ.xvi
Ein ganz anderer Vorfall soll hier nicht unerwĂ€hnt bleiben, der zeigt, wie anfĂ€llig derartige Ăberwachungssysteme schlicht und allein aufgrund ihrer monströsen GröĂe fĂŒr die Hardware-Ausstattung in Zukunft werden könnenxvii: weil sie den weltweiten Internetverkehr noch effektiver ĂŒberwachen will, baut die NSA in Utah jetzt eine gigantische Anlage. Der Start verzögert sich jedoch und die Eröffnung könnte sich um ein Jahr verschieben. Dem Wall Street Journal liegen Dokumente vor, aus denen hervorgeht, dass die Anlage in Utah von Stromschwankungen geplagt sei. Die AusfĂ€lle hĂ€tten Maschinen in Wert von mehreren Hunderttausend US-Dollar vernichtet. Die Schwankungen bringen Metall zum Schmelzen und sorgen fĂŒr Explosionen, so das Wall Street Journal weiter. Ein Mitarbeiter habe die StromstöĂe als Blitze bemerkt. Innerhalb von 13 Monaten habe es zehn FĂ€lle gegeben. Eine NSA-Sprecherin sagte der Zeitung, dass es in der Testphase technische Probleme gab, die aber inzwischen eingedĂ€mmt seien. An den Ursachen werde weiterhin geforscht, da Uneinigkeit darĂŒber herrsche, ob die LösungsvorschlĂ€ge funktionieren. Der Speicherplatz reicht dem Bericht nach bis in den Bereich von Zettabytes. Wer sich das vorstellen will: 36.000 Jahre lang HD-TV zu schauen, entspricht einem Exabyte. Das Ganze multipliziert mit 1000, ergibt ein Zettabyte (1021 Byte).
Nur die Stromkosten eines so gigantischen Datenzentrums liegen angeblich bei einer Million US-Dollar - pro Monat!
Doch nun zunĂ€chst zum ursprĂŒnglichen Teil dieser Arbeit.xviii
Ein kleiner, aber notwendiger Umweg â der Beginn mit reiner Philosophie
Wittgenstein und der Wiener Kreis
Zu Beginn des 20. Jahrhunderts war Wien, nach Karl Kraus eine âVersuchsstation fĂŒr WeltuntergĂ€ngeâ, mit seinem anregenden geistigen Klima in Philosophie, Mathematik, Physik, Psychoanalyse und den KĂŒnsten eines der kulturellen Zentren der europĂ€ischen Moderne.
Das Mathematische Institut der UniversitĂ€t Wien war neben denen in Göttingen und Warschau in den Disziplinen Mathematik und Logik fĂŒhrend; hier lehrten u.a. als ordentliche Professoren Philipp FurtwĂ€ngler (1869-1940), der von Göttingen (Fritz Klein) kam, und der Ăsterreicher Hans Hahn (1879-1934). Hahn leistete wichtige BeitrĂ€ge zur Variationsrechnung, Mengentheorie, Topologie und der Theorie der reellen Funktionen; sein Arbeitsgebiet war die Funktionenanalyse.
1922 wird Moritz Schlick (1882-1936) auf den Lehrstuhl fĂŒr Philosophie der induktiven Wissenschaften berufen, den zuvor Hahns Lehrer Ernst Mach innehatte. Der Physiker, Professor fĂŒr Mechanik, und Hobby-Philosoph Ernst Mach (1838-1916) vertrat einen dezidierten Positivismus, der sich insbesondere durch seine Auffassung ausdrĂŒckte, dass Ursache und Wirkung nur im menschlichen BewuĂtsein existierten: âIn der Natur gibt es keine Ursache und keine Wirkung.âxix Damit wird auf eine ErklĂ€rung der Naturerscheinungen vollkommen verzichtet und das von einem Physiker! Die Aufgabe der Wissenschaft sei es lediglich, diese zu beschreiben. HierfĂŒr brauche man nicht den Begriff der Ursache. AuĂerdem existiere die Welt nur in Form von âEmpfindungenâ und nur von diesen wĂŒsste man.xx Da nimmt es nicht wunder, dass Mach auch die bedeutendsten Theorien der Neuzeit ablehnte: âIch kann die RelativitĂ€tstheorie ebensowenig akzeptieren, wie ich die Existenz von Atomen und anderen solchen Dogmen akzeptieren kann.âxxi
Hans Hahn gehörte zu einer kleinen Gruppe von Gelehrten, die von Machs Positivismus beeinfluĂt waren und sich einmal wöchentlich in einem Wiener Kaffeehaus trafen. Obwohl Schlick als FĂŒhrer der Gruppe galt, war es Hahn, der das Interesse der Mitglieder auf die Logik richtete.
1924 installierte Schlick ein formelles Kolloquium, das sich jeden Donnerstagabend im Hinterhaus des Instituts fĂŒr Mathematik in der Boltzmanngasse traf. Das waren die AnfĂ€nge des Wiener Kreises, benannt nach einem Manifest, das 1929 von Rudolf Carnap, Otto Neurath, einem utopischen Sozialreformer, und Hans Hahn veröffentlicht wurde.
Zugang zu den Sitzungen erhielt man nur durch Einladung. Zur engeren Gruppe gehörten auch der Physiker Philipp Frankxxii oder der Mathematiker Karl Mengerxxiii; zum erweiterten Kreis u.a. Egon und Else Frenkel-Brunswick, die spĂ€ter in den USA mit drei anderen Autoren, darunter Adorno, die Studie âThe Authoritarian Personalityâ verfasste.xxiv 1926 besuchte der Physik- und spĂ€tere Mathematikstudent Kurt Gödel (1906-1978) die Sitzung zum ersten Mal, als sich der Wiener Kreis mit einer zweiten Lesung des Tractatus von Wittgenstein beschĂ€ftigte. Hans Hahns SchĂŒler Kurt Gödel nahm bis 1928 regelmĂ€Ăig teil, einige Male auch der Student Heinz von Foerster (1911-2002), der spĂ€ter in den USA als SekretĂ€r der Macy Konferenzen bekannt wurde.
Schon wenig spĂ€ter, nĂ€mlich 1930, wird Gödel seine UnvollstĂ€ndigkeitssĂ€tze vorlegen, die 1931 publiziert werden. Damit werden nicht nur heftige Diskussionen im Wiener Kreis hervorgerufen, sondern es wird auch das mathematische Weltbild der Mechanisten, als deren Vertreter Hilbert gelten kann, in Frage gestellt.xxv Rudolf Carnap (1891-1970) kam auf das Betreiben Hahns 1926 als Privatdozent fĂŒr Philosophie nach Wien, und wurde sofort zu den Sitzungen des Wiener Kreises eingeladen. Carnap hielt Vorlesungen ĂŒber die philosophischen Grundlagen der Arithmetik, die auch Gödel besuchte.xxvi
Carnap erarbeitete bis zu Beginn der 1930er Jahre die Ideen des logischen Empirismus und wendete den Apparat der mathematischen Logik auf die Analyse der Begriffe und die Axiomatisierung einzelner Theorien an. In einer zweiten Etappe bis 1936 â der syntaktischen â konstruierte Carnap die logische Sprache eines erweiterten PrĂ€dikatenkalkĂŒls.xxvii Er stellte die These auf, dass die Logik der Wissenschaft die Syntax der Sprache der Wissenschaft sei. In seiner dritten Periode, die zwei bis drei Jahre spĂ€ter begann, befaĂte sich Carnap mit Problemen, die mit der Konstruktion einer Universalsprache der Wissenschaft zusammenhĂ€ngen. Er untersuchte die Semantik, d.h. die Beziehung zwischen einer Sprache und dem von ihr beschriebenen Bereich von GegenstĂ€nden, und beschĂ€ftigte sich mit der Konstruktion kĂŒnstlich interpretierter Sprachen.xxviii
FĂŒr Martin Heidegger (1889-1976) waren Carnap und die Mitglieder des positivistischen Wiener Kreises, in dem die Fundamente fĂŒr die an formaler Logik und Wissenschaftstheorie interessierte analytische Tradition gelegt wurden, dagegen Leute, die angeblich die Strenge der Forschung mit Exaktheit, Wahrheit mit Wissenschaft und Denken mit Rechnen verwechselten. âHierâ, nĂ€mlich in Carnaps Aufsatz von 1929 in der Zeitschrift Erkenntnisxxix, âvollzieht sich die Ă€uĂerste Verflachung und Entwurzelung der ĂŒberlieferten Urteilslehre unter dem Schein mathematischer Wissenschaftlichkeitâ, so Heidegger.xxx Carnap dagegen hielt â wie der Wiener Kreis â am besonderen Status der Wissenschaft fĂŒr die Wahrheitssuche fest.xxxi
Vor allem Otto Neurath war es, der die programmatische Schrift âWissenschaftliche Weltauffassung: Der Wiener Kreisâ verfasste, die den Charakter eines politischen Manifestes hatte und damit Kontroversen ĂŒber den Inhalt bei den ĂŒbrigen Mitgliedern des Wiener Kreises provozierte, denen die Schrift zu sehr politisches Manifest war. Einig aber war man sich bei den Mitgliedern des Wiener Kreises im Unbehagen darĂŒber, dass âdie Philosophieâ im Gegensatz zu den Naturwissenschaften wenig Erfolg in der Lösung von Problemen im Bereich der Metaphysik hatte.xxxii
Man war der Ăberzeugung, dass im Rahmen eines klar formulierten Empirismus solche Probleme mittels an neuer mathematischer Logik orientierten, analytischen Methoden gelöst werden könnten. Zu dieser Ăberzeugung gehörte die Auffassung, dass alle Aussagen ĂŒber die Welt durch BeobachtungssĂ€tze ĂŒberprĂŒfbar sind â alle empirischen Begriffe seien auf elementare Beobachtungsbegriffe rĂŒckfĂŒhrbar. Eine âMeta-Mathematikâ fĂŒr die AufklĂ€rung des Wesens des Unendlichen schien notwendig. Behauptet wurde ein âzusammenhĂ€ngender Mechanismusâ, der sowohl in der Natur als auch im Denken zu finden sei.
Durch das Aufstellen logischer Systeme hoffte man auf Sicherheit und geordnete VerhĂ€ltnisse in Mathematik, Physik und Philosophie, aber auch auf die Möglichkeit, âWeltgesetzeâ aufzustellen. Das bedeutete die Anwendung von Logik fĂŒr alle Wissenschaften, aber auch fĂŒr die KĂŒnste, z.B. die Musik. Man wollte in einer sogenannten âEinheitswissenschaftâ âSystemeâ entwickeln, auf deren Grundlage man kommunizieren und die Welt beschreiben konnte.
Alle AnhĂ€nger einer solchen âwissenschaftlichen Weltauffassungâ waren sich einig in der Ablehnung der offenen Metaphysik und der versteckten des Apriorismus. Der Wiener Kreis aber vertrat darĂŒber hinaus die Auffassung, dass auch die Aussagen des (kritischen) Realismus und Idealismus ĂŒber RealitĂ€t oder NichtrealitĂ€t der AuĂenwelt und des Fremdpsychischen metaphysischen Charakters sind, da sie denselben EinwĂ€nden unterlĂ€gen wie die Aussagen der alten Metaphysik; sie seien sinnlos, weil nicht verifizierbar. Etwas ist âwirklichâ dadurch, dass es dem GesamtgebĂ€ude der Erfahrung eingeordnet wird. Es gibt kein Reich der Ideen, das ĂŒber oder jenseits der Erfahrung stĂŒnde.xxxiii
Im Wiener Kreis ging es um die Vision einer âuniversalen Weltspracheâ, die LeibnizÂŽ Traum von einer Kunstsprache sowie eines rationalen KalkĂŒls (lingua characteria und calculus ratiocina) weiterfĂŒhrte: logisch, mathematisch, prĂ€zise, mit der man sich sowohl transnational verstĂ€ndigen konnte, als auch mit Maschinen, und in der auch Maschinen mit Maschinen âsprechenâ konnten. Das sollte eine Zeichen- und Bildsprache sein, deren Vorbild âBasic Englishâ war und deren abstrakte Zeichen- und Symbolketten mit mechanisierten Ableitungen Jahrzehnte spĂ€ter mit den Computersprachen Wirklichkeit wurde. Nicht von ungefĂ€hr heiĂt eine modernere, noch gebrĂ€uchliche Programmier-sprache âBasicâ.
Logik gegen Metaphysik und âDeutsche Physikâ
Die neuen Arbeitsmethoden sollten auf neuer Logik, Mathematik, Physik und InterdisziplinaritĂ€t basieren. Der Einzelne arbeitet an seiner bestimmten Stelle innerhalb der einen Gesamtwissenschaft. Einig war man sich in der Ablehnung von Religion und Metaphysik (etwa der des deutschnationalen Dichters Othmar Spann oder des bereits erwĂ€hnten Martin Heidegger). Im NS-Deutschland hinwiederum wollte man von diesen Auffassungen, der âanalytischen, hermeneutischen und positivistischen Philosophieâ, offiziell nichts wissen. Diese wurden als âVorstellungen von einer MeĂ- und ZĂ€hlbarkeit der Weltâ und als ârein formalistisch-rechnerisches Denken, das KalkĂŒl nicht als Hilfsmittel, sondern als die Sache selbst, als ein Absolutum nimmtâ, abgelehnt - im Gegensatz etwa zum âdeutschen schöpferischen Denkenâ.
Der Wiener Kreis bedeutete fĂŒr die Vertreter der âdeutschen Wissenschaftâ jĂŒdische Philosophie, Physik und Mathematik: âDer Jude ist ein A-metaphysiker, und liebt in der Philosophie den Logizismus, den Mathematismus, den Formalismus und Positivismusâ.
Ein Vertreter der âdeutschen Wissenschaftâ ist der Physiker Phillip Lenard (1862-1947), Professor in Heidelberg. Schon 1922 fordert er in einem Manifest âmehr arische Wissenschaftâ und polemisiert speziell gegen Albert Einstein. 1936 erschien sein vierbĂ€ndiges Werk âDeutsche Physikâ, in dem er zum Kampf fĂŒr eine deutsche Physik aufforderte â gegen jĂŒdische Tendenzen in der deutschen Wissenschaft, gegen das âDogmatische, die mathematische Abstraktion, den Mangel an Nutzen und Geistesakrobatikâ.xxxiv
Nach der MachtĂŒbernahme der Nationalsozialisten in Ăsterreich emigrierten viele Wissenschaftler, darunter auch Mitglieder des Wiener Kreises wie Carnap, Neurath, Frank und Morris. Gödel emigrierte 1940 nach Princeton, an das neugegrĂŒndete Institute for Advanced Study, das 1930 von Caroline Bamberger Fuld, Louis Bamberger und Abraham Flexner gegrĂŒndet wurde. Hier traf Gödel u.a. auf den ungarischen Mathematiker John von Neumann (1903-1957)xxxv und Albert Einstein. Carnap emigrierte 1935 ebenfalls in die USA, zunĂ€chst nach Chicago und spĂ€ter nach Kalifornien an die UCLA (University of California Los Angeles).
Die Idee der âEinheitswissenschaftâ und einer âEinheitsspracheâ wird nach der Emigration aber durch Einbeziehung in die Kriegsforschung wĂ€hrend des Zweiten Weltkriegs verĂ€ndert. Sie erhĂ€lt einen neuen âKickâ, vor allem durch den amerikanischen Pragmatismus und dessen praktische Anwendung im Krieg, aber auch durch das System der Kommerzialisierung im amerikanischen Wissenschaftsbusiness.
Das Ende des Wiener Kreises, Kritik des Neopositivismus und die Entwicklung der Computersprachen
Das, was man sich damals in den 1930er Jahren in Wien zurechtgelegt hatte, wie man Wissenschaft organisieren soll, ist in den 1950er und 1960er Jahren zu Ende. In den USA beginnt man, mit ganz starker europĂ€ischer Beteiligung in den spĂ€ten 1940er und dann 1950er Jahren, InterdisziplinaritĂ€t anders zu sehen und zu organisieren. Die Idee einer interdisziplinĂ€ren âSystemtheorieâ kommt auch sehr intensiv ĂŒber eine Ă€ltere Wien-Verbindung, nĂ€mlich durch Ludwig von Bertalanffy, der spĂ€ter in den 1950er Jahren zusammen mit anderen in den USA die Gesellschaft fĂŒr âGeneral Systems Theoryâ grĂŒndete. Er war der erste, der die Idee von FlieĂgleichgewichten in natĂŒrlichen, also biologischen Systemen entwickelte und so zur thermodynamischen âsteady-state-theoryâ wesentlich beitrug, lange vor Ilya Prigogine.
Eine weitere Plattform fĂŒr diese Entwicklung sind die Macy-Konferenzen zu verschiedenen wissenschaftlichen Themen, z.B. zu Kybernetik.xxxvi
Es werden aber nicht nur diese Systemsprachen entwickelt, sondern beispielsweise auch zirkulĂ€re âFeedback-Modelleâ, die nicht nur in der Technik und in der neuen Kommunikationstechnologie relevant sind, sondern die auch in die Naturwissenschaften, die Sozialwissenschaften, ja, eigentlich in alle Einzelwissenschaften Eingang finden sollten, wie ihre Vertreter meinten. Neben Norbert Wiener ist der Neurophysiologe und Kybernetiker Warren McCulloch (1898-1969) die groĂe Figur der 1940er-60er Jahre fĂŒr diese Themen. Beide sind die Organisatoren und Koordinatoren der Macy-Konferenzen ĂŒber Kybernetik.
Ăber eine allgemeine und einheitliche Sprache von Systemdarstellungen sollte nun auch der Soziologe, der Mediziner oder der Techniker seinen Gegenstandsbereich als âsystemischâ beschreiben können.
Die Macy-Konferenzen ĂŒber Systemtheorie versuchten zu klĂ€ren, was ein System ist, dass ein System aus einer bestimmten Anzahl von Komponenten besteht und dass diese Begrifflichkeit und der formale Ansatz sich fast zwanglos in allen Disziplinen anwenden lassen wĂŒrden: in einem âsozialen Systemâ, âökonomischen Systemâ oder âpsychischen Systemâ usw.
Dazu kam ein dritter Punkt: zur Bewegung mit âSystemsprachenâ,
kybernetischen âModelleinheitenâ und der Kybernetik als der neuen Leitwissenschaft von Kontroll- und Kommunikationsprozessen kamen eine neue Architektur von Rechnern sowie vielfĂ€ltige neue Möglichkeiten des âBerechnensâ und der mathematischen Darstellung dieser Modellwelten. Dieser dritte Bereich wurde fĂŒr verschiedenste Richtungen wichtig, z.B. fĂŒr die kĂŒnstliche Intelligenz (KI oder Artificial Intelligence = AI), die Mitte der 1950er Jahre aus der Taufe gehoben wurde und sich mit entsprechenden Tagungen, Gesellschaften, Programmen und Förderungen, z.B. am M.I.T. (Massachusetts Institute of Technology, Marvin Lee Minsky, *1924, ĂŒbrigens ein SchĂŒler Alan Turings) organisiert.xxxvii
Damit befand man sich schon mitten im Neopositivismus. Dessen Grenzen sollen im Folgenden zunĂ€chst aufgezeigt werden; obwohl philosophisch grundlegend kritisierbar, muss man dennoch festhalten, dass diese Ideologie auf der hier geschilderten Entwicklungsstufe fĂŒr die Konstruktion von Computersystemen unerlĂ€Ălich gewesen ist. Ohne die schon genannten Mathematiker und jemanden wie John von Neumann, der spĂ€ter maĂgeblich an der Konstruktion der Wasserstoffbombe beteiligt war, wĂ€re es nicht möglich gewesen, Programmiersprachen ĂŒberhaupt zu entwickeln. Gleichzeitig zeigen die folgenden AusfĂŒhrungen, wie begrenzt die positivistische Auffassung geistiger Prozesse ist. Aber wir wollen der Kritik der neueren, vergeblichen Bestrebungen, an den hartnĂ€ckig widerkehrenden Behauptungen, man könne ein Gehirn mit Hilfe oder in Form eines Computersystems ânachkonstruierenâ, nicht vorgreifen. Dabei werden wir auch sehen, dass die âMacherâ von computergestĂŒtzten Systemen zur Ăberwachung von menschlichen Bestrebungen unter dem Deckmantel âTerrorismusbekĂ€mpfungâ sich keinen Deut darum scheren, ob dem Positivismus, falls sie von diesem ĂŒberhaupt etwas gehört haben sollten, irgendein Wahrheitsgehalt zukommt oder nicht, solange er sich instrumentalisieren lĂ€Ăt. Auf diesem Hintergrund bekommt der Positivismusstreit Ă la Habermas, Hans Albert u.a. eine ganz andere Bedeutung.
Die verschiedenen Ausgestaltungen bzw. Varianten des Neopositivismus sind im Grunde genommen in Wittgensteins Tractatus logico-philosophicus von 1918/21 vorweggenom-men und in ihrem Kern in wenigen seiner SĂ€tze zusammengefaĂt: âDie Gesamtheit der wahren SĂ€tze ist ⊠die Gesamtheit der Naturwissenschaften. Die Philosophie ist keine der Naturwissenschaften. Der Zweck der Philosophie ist die logische KlĂ€rung der Gedanken. Die Philosophie ist keine Lehre, sondern eine TĂ€tigkeit. Das Resultat der Philosophie sind nicht âphilosophische SĂ€tzeâ, sondern das Klarwerden von SĂ€tzenâ.xxxviii
SpĂ€ter wird Schlick formulieren: âEs ist das eigentliche GeschĂ€ft der Philosophie, den Sinn von Behauptungen und Fragen zu suchen, und klarzumachen. ⊠Der Sinn jedes Satzes wird in letzter Linie ganz allein durch Gegebenes bestimmt und schlechterdings durch nichts anderes.âxxxix
Genauer betrachtet, werden im Neopositivismus in eklektischer Weise verschiedene Philosophierichtungen aufgenommen. Mal ging es darum, wie immer in der professoralen Auseinandersetzung an den Hochschulen, möglichst originell zu sein, oder es ging darum, die dialektische Denkweise zu vermeiden â seltener aus völliger Unkenntnis der Hegelschen Philosophie, die ja auch nicht zu den leichtesten gehört â, hĂ€ufiger aber aus Angst, unmittelbar, meist sogar, ohne es zu wissen, in die Auseinandersetzungen des Kalten Krieges an den UniversitĂ€ten zu geraten und möglicherweise dabei seine Stellung zu verlieren oder sie gar nicht erst antreten zu können.
FĂŒr den Wiener Kreis kann man sagen, dass er einen radikalen Physikalismus vertritt, der â obwohl grundlegend kritisiert â bis in die heutige Zeit hinein wirkt. Zudem kann man zwei weitere Feststellungen machen, die diese EinschĂ€tzung zusĂ€tzlich unterstĂŒtzen: 1. die Ansichten bei einigen Vertretern Ă€ndern sich mit der Zeit, und 2. gehen hĂ€ufig die Institute der jeweiligen prominenteren Vertretern, wie bei von Foerster, mit der Pensionierung oder dem Ableben ihrer Direktoren zugrunde oder werden nicht mehr weitergefĂŒhrt. Im Falle von Heinz von Foerster wurde sogar das InstitutsgebĂ€ude an der University of Illinois abgerissen.xl Und schlieĂlich: der ganze Wiener Kreis ist im Grunde am Ende, als Friedrich Albert Moritz Schlick von einem ehemaligen Studenten, Dr. Hans Nelböck, am 22. Juni 1936 kurz vor Beginn seiner Vorlesung erschossen wird. Nelböck war ein rechtsextremer Psychopath, der wegen Morddrohungen gegen Prof. Schlick schon zweimal in eine Psychiatrische Anstalt eingewiesen worden war. Er wurde wegen des Mordes zwar verurteilt und zu 10 Jahren âKerkerhaftâ inhaftiert, aber nach dem âAnschluĂâ Ăsterreichs 1938 schnell wieder auf freien FuĂ gesetzt.
Die Vertreter des Neopositivismus behaupten, dass ihnen allen nur eins gemeinsam ist: eine âstreng wissenschaftlicheâ Haltung in der Philosophie, die durch systematische Anwendung der modernen mathematischen Logik erreicht werden soll. So wird der gesamte Erkenntnisprozess auf die Logik reduziert. Das positive Element aber ist die dezidiert intendierte Ăberwindung der Metaphysik.
Paradoxerweise hĂ€lt der Neopositivismus gerade und angeblich die Ăberwindung des Empirismus fĂŒr seine eigene, bedeutendste Leistung. Neopositivisten erklĂ€ren nĂ€mlich selbst, dass Mathematik und Logik ĂŒberhaupt nichts ĂŒber die Wirklichkeit aussagen, dass sie wesentlich inhaltsleer seien, lediglich Methoden zur Umformung von SĂ€tzen darstellen und daher a priori gelten. Die Proklamation dieser absoluten Beziehungslosigkeit von Logik und Mathematik auf eine Serie apriorischer Symbolreihen und deren Umformung in sich selbst fĂŒhrt nicht ĂŒber den primitiven Erfahrungsbegriff des traditionellen subjektiv-idealistischen Empirismus hinaus; auch wird das eigentliche Wesen von Mathematik und Logik gerade nicht erfaĂt. Denn Mathematik und Logik spiegeln in abstrakter, Ă€uĂerst kompliziert und vielseitig bedingter Form allgemeinste Beziehungen zwischen wirklichen Dingen und Klassen wirklicher Dinge wider. Der Neopositivismus leugnet jedoch die Existenz des Allgemeinen und damit auch die Klassen der Dinge und kann so den Abstraktionsprozess, in dem die mathematischen und logischen Begriffe generiert werden, nicht erklĂ€ren. Damit kann auch der Erkenntnisprozess nicht erklĂ€rt werden. Die gewaltigen Erfolge der Anwendung von Mathematik und Logik in der menschlichen Praxis, in der zweckbestimmten VerĂ€nderung und Nutzbarmachung der Wirklichkeit, werden unverstĂ€ndlich, unerklĂ€rbar und letzten Endes mystifiziert. Die Anerkennung dieser Erfolge, die auch der Neopositivismus nicht leugnen kann, bedeutet die Verlegung der Wirklichkeit in die Logik, in das Denken, in das BewuĂtsein. (Und dort soll es auch bleiben!) Der Ansatz des Neopositivismus, der angeblich der Ăberwindung des Empirismus dient und eine wissenschaftliche ErklĂ€rung der Welt anbietet, wird nicht konsequent zu Ende gefĂŒhrt, denn das wĂŒrde den Zweck des Unternehmens, den Schein der Wissenschaftlichkeit seiner Position zerstören sowie die anti-dialektische StoĂrichtung offen hervortreten lassen.
Diese ideologische Funktion des Neopositivismus tritt unmittelbar in der ErklĂ€rung zutage, dass alle Probleme in sĂ€mtlichen Wissenschaften, die nicht lediglich mit den analytischen Mitteln der modernen mathematischen Logik geklĂ€rt werden können, nur âScheinproblemeâ seien; wirklich ist laut dieser Auffassung nur das, was sich im Bereich mathematischer Logik abspiele. NatĂŒrlich wird dann auch eine von unserem subjektiven BewuĂtsein unabhĂ€ngige RealitĂ€t geleugnet. Das ist bei Foerster eindrucksvoll zu beobachten, wenn er in Interviews bei der ErwĂ€hnung des Wortes âRealitĂ€tâ sĂŒffisant fragt: âWo ist die RealitĂ€t?! Wo ham Sie die?âxli Also werden Fragen, die diese RealitĂ€t betreffen und nicht in das neopositivistisch-formallogische Schema passen, als âsinnlosâ bezeichnet.xlii Eigentlich ist damit gemeint, Neopositivisten wollen solche Fragen nicht beantworten, weil sie nicht in ihr Schema passen; die Antworten, die sie geben wĂŒrden oder mĂŒĂten, sind zu offensichtlich falsch.
Nach Auffassung des Neopositivismus besteht die Aufgabe der Philosophie nicht mehr in der Aufdeckung der allgemein objektiven GesetzmĂ€Ăigkeiten der Wirklichkeit und des wirklichen VerhĂ€ltnisses von Materie und BewuĂtsein, sondern lediglich in der logischen Analyse der Begriffsbildung der einzelnen Wissenschaften. Die weltanschauliche Funktion der Philosophie wird so auf Sprachphilosophie reduziert; damit werden dann auch die Einzelwissenschaften von ihrer weltanschaulichen Grundlage getrennt.
Nachdem der Neopositivismus alle wesentlichen Probleme, die in der Geschichte der Philosophie jemals ein Rolle gespielt haben, als âScheinproblemeâ auf diese Weise hinweg eskamotiert hat, bleibt als Gegenstand der Philosophie nur noch die logische Analyse der Sprache ĂŒbrig. Aber nicht etwa der konkreten, wirklichen Sprachen, sondern âStrukturen möglicher Reihenordnungen beliebiger Zeichenelementeâ. Damit wird â ganz âlogischâ â schlieĂlich auch noch die Sprache aus ihren objektiven Bedingungen herausgelöst und im letzten Grund irrationalistisch verabsolutiert. Die Herausarbeitung der Syntax solcher âReihenordnungenâ wird als die philosophische Hauptaufgabe angesehen. Die Syntax einer solchen âSpracheâ sei die Struktur des jeweiligen Darstellungssystems. Es wird behauptet, dass der Sinn eines Satzes nicht durch die wirklichen ZusammenhĂ€nge, die er widerspiegelt, festgelegt sei, sondern durch die Klasse der aus ihr ableitbaren, nichtanalytischen SĂ€tze. Da alle SĂ€tze der Mathematik und der Logik analytisch sind und sich aus ihnen daher auch nur weitere analytische SĂ€tze ableiten lassen, ergibt sich von neuem im Konkreten der SchluĂ, dass Mathematik und Logik objektiv leer seien, d.h. nichts ĂŒber die Wirklichkeit aussagten. Q.e.d.
Die Sprache der Wissenschaften zerfalle â so die Neopositivisten â in zwei Klassen von SĂ€tzen, syntaktische und empirische. Syntaktische SĂ€tze sind SĂ€tze ĂŒber Zeichen, Zeichenreihen und deren VerknĂŒpfung. Es wird behauptet, man habe eine besondere Entdeckung mit der Feststellung der Existenz von âquasi-syntaktischenâ SĂ€tzen gemacht. Diese Begriffsbildung geht vom Unterschied zwischen der Objektsprache und der syntaktischen Sprache eines Gebietes aus. Die Objektsprache handelt von Dingen, Eigenschaften und Beziehungen der Begriffe, SĂ€tze und Theorien ĂŒber dieses Gebiet; die syntaktische Sprache handelt von den logischen Beziehungen der Begriffe, SĂ€tze und Theorien ĂŒber dieses Gebiet. Als âquasi-syntaktischeâ SĂ€tze bezeichnet der Neopositivismus solche SĂ€tze, die scheinbar der Objektsprache angehören, sich aber tatsĂ€chlich in die syntaktische Sprache ĂŒbersetzen lieĂen. So lieĂe sich z.B. der Satz âFĂŒnf ist eine Zahlâ in den syntaktischen Satz âFĂŒnf ist ein Zahlwortâ ĂŒbersetzen. Damit sei der erste Satz als âquasi-syntaktischâ bewiesen. Seine Besonderheit bestehe darin, dass er in âinhaltlicherâ Redeweise das ausdrĂŒcke, was der zweite in âformalerâ Redeweise sage. Die âquasi-syntaktischenâ SĂ€tze handelten also nur scheinbar von auĂerhalb der Sprache gelegenen GegenstĂ€nden.
SpĂ€ter muĂten die Neopositivisten jedoch zugeben, dass die oben genannte Art und Weise der Satztransformation den Sinn, den Inhalt und den Charakter des Satzes Ă€ndert. Es traten daher neben die syntaktischen Probleme auch semantische Probleme, bei denen das Hauptgewicht auf der Bedeutung der Wörter und SĂ€tze lag. Daraus wurde aber nicht der SchluĂ gezogen, die Wörter, Begriffe und SĂ€tze auf die Wirklichkeit zurĂŒckzufĂŒhren, obwohl man nur so die oben erwĂ€hnten Antinomien, semantische und logische, hĂ€tte lösen können; der Neopositivismus grĂŒndete die logische âWahrheitâ keineswegs auf die Beziehungen zwischen Aussage und Wirklichkeit, sondern wieder nur auf Regeln, nĂ€mlich semantische Regeln. Mit dieser Wendung und um die Wissenschaftlichkeit aufrecht zu erhalten, wurde die semiotische Analyse der Sprache der Wissenschaften zum Inhalt der Philosophie erklĂ€rt. Einer solchen Analyse wurden nur drei Aspekte zugeschrieben: der syntaktische Aspekt â die Syntax der Sprache â, der semantische Aspekt (die âBedeutungâ der Sprache) und der pragmatische Aspekt der Sprache, also ihr Gebrauch.
Vor allem wurde diese Wendung von der Seite der Mathematik erzwungen, also gerade auf dem Gebiet, von dem die Neopositivisten glaubten, es fĂŒr sich monopolisieren zu können. Eine Ironie der Wissenschaftsgeschichte ist es, dass Gödel durch seine Forschungsarbeit unwiderlegbar nachwies, dass ein rein syntaktischer mathematischer Wahrheitsbegriff unbrauchbar ist, womit eine der ursprĂŒnglichen Grundthesen der Neopositivisten widerlegt wurde.
Der wirkliche Gehalt des Ăbergangs von der Syntax zur Bedeutung der Begriffe und Wörter wird dadurch bestimmt, wie diese âBedeutungâ gewonnen wird. Solange die Bedeutung eines Wortes nur definitorisch auf andere Wörter zurĂŒckgefĂŒhrt wird, deren Bedeutung als feststehend angesehen wird, wird das Problem nur von einem Wort oder Satz auf einen anderen verschoben, und jede ErklĂ€rung wird tautologisch. In letzter Instanz mĂŒssen aber die den Wörtern entsprechende Begriffe mit etwas konfrontiert werden, das selbst nicht Begriff ist und sein kann. Dies ist beim Neopositivismus eben nicht die objektive RealitĂ€t, sondern das unmittelbare Erlebnis, getreu dem Machschen Ansatz. Der erwĂ€hnte Rudolf Carnap hat in diesem Sinne versucht, ein Konstitutionssystem der Begriffe auf der Grundlage des âErlebnisgegebenemâ zu entwickeln.xliii Dabei behauptet er, dass sich alle Beziehungen auf Ăhnlichkeiten zwischen âElementarerlebnissenâ zurĂŒckfĂŒhren lieĂen; die âĂhnlichkeitserinnerungâ sei die Grundrelation. In diesem System lieĂe sich keine bewuĂtseinsunabhĂ€ngige RealitĂ€t konstituieren und es sei daher âsinnlosâ, von einer solchen zu reden.
Den Elementarerlebnissen entsprĂ€chen nun ElementarsĂ€tze von der Gestalt: âJetzt ist es hier so und so.â Die Wörter seien wesentlich nur hinweisend. Die âWahrheitâ eines solchen Elementarsatzes sei zugleich mit seinem Verstehen gegeben; die âWahrheitâ allgemeiner SĂ€tze sei eine Funktion der âWahrheitâ der ElementarsĂ€tze, die unter diesen Satz fielen.
Da dies wegen des âErlebnisâcharakters aber nur fĂŒr den Augenblick gilt, in dem etwas wahrgenommen wird, haben die Aussagen solcher SĂ€tze keinen bleibenden Wert, und sie sind â logisch â dann auch nicht beweisbar, wenn die Situation sich geĂ€ndert hat bzw. einfach nur die Zeit fortgeschritten und das Erleben nicht reproduzierbar ist. Also ist der âElementarsatzâ nicht in der Lage, die Bedeutung von SĂ€tzen und Wörtern wirklich zu begrĂŒnden. Die Neopositivisten versuchten daher, an Stelle des âElementarsatzesâ den âProtokollsatzâ zu setzen, der eben die zuletzt angegebene Form haben sollte. Jede allgemeine Aussage einer Wissenschaft sollte dann dadurch verifiziert werden, dass aus ihr âProtokollsĂ€tzeâ abgeleitet wĂŒrden, die dann ihrerseits mit unmittelbaren Erlebnissen verglichen wĂŒrden.
Die âProtokollsĂ€tzeâ sollen unmittelbare Erlebnisse bezeichnen, aber in ihnen sollen keine erst durch theoretische Verarbeitung der Wahrnehmungen gewonnene SĂ€tze enthalten sein. Wie solche SĂ€tze jedoch aussehen sollten, darĂŒber gingen die Auffassungen weit auseinander. Alle Versuche, solche âProtokollsĂ€tzeâ fĂŒr ein Fundament der Wissenschaft aufzustellen, scheiterten denn auch. Die Neopositivisten muĂten den âProtokollsĂ€tzenâ die ihnen zugewiesene QualitĂ€t der absolut gĂŒltigen, letzten Grundlage der Wissenschaft wieder entziehen.
Weitere Versuche, sich aus den WidersprĂŒchen des subjektiven Idealismus gegenĂŒber der Wirklichkeit herauszuwinden, fĂŒhrten daher noch tiefer in den Subjektivismus hinein, womit dann weitere WidersprĂŒche auftraten. Es entstand nĂ€mlich sogleich die Frage: wie muĂ man sich verhalten, wenn ein solcher, subjektiv festgesetzter âProtokollsatzâ einer bereits erarbeiteten und durch die Praxis als richtig bestĂ€tigten wissenschaftlichen Theorie widerspricht? Gibt man die Theorie auf, so gesteht man ein, dass die âProtokollsĂ€tzeâ nicht die Grundlage der Wissenschaft sind, sondern die auf die Wirklichkeit bezogene Wissenschaft die Grundlage der âProtokollsĂ€tzeâ ist. Dann wĂŒrde man den Weg zum Materialismus einschlagen. Das durfte jedoch nicht sein; also belieĂ man es bei den WidersprĂŒchen.
Durch den zweiten Weltkrieg wurde die TĂ€tigkeit des Wiener Kreises unterbrochen; danach gelangte der Neopositivismus als Analytische Philosophie in den USA, England, den skandinavischen LĂ€ndern und in Lateinamerika zu einigem EinfluĂ.
Deren sprachanalytische Richtung stĂŒtzte und stĂŒtzt sich vorwiegend auf Ludwig Wittgenstein. Eine dritte, von der Analytischen Philosophie nicht scharf zu trennende Strömung des Neopositivismus, die sich als Neo-Empirismus bezeichnet, ist vor allem um die Neubelebung des erkenntnistheoretischen PhĂ€nomenalismus sowie um die Verfeinerung des positivistischen Verifikationsprinzips und dessen Anwendung in den Sozialwissenschaften bemĂŒht. Offen apologetischen und ausgeprĂ€gt antikommunistischen Charakter nimmt der Neo-Emipirismus in Form des sogenannten kritischen Rationalismus an (K.R. Popper, Hans Albert u.a.).xliv
Der extrem antidialektische und wissenschaftsfeindliche Charakter des Positivismus, wie er sich im Wiener Kreis herausgebildet hat, Ă€uĂert sich u.a. im Verharren auf der Ebene der Empirie und in der Scheu vor theoretischen Verallgemeinerungen oder konsistenten weltanschaulichen Interpretationen der einzelwissenschaftlichen Resultate. In der Tendenz, bestimmte einzelne Objekteigenschaften, Denkabstraktionen oder auch einzelwissenschaftliche Methoden zu verabsolutieren und schematisch, gleichsam willkĂŒrlich, auf andere Gegenstands- bzw. Erkenntnisbereiche zu ĂŒbertragen, sind sich Positivisten wie Neopositivisten und letztlich auch kritische Rationalisten einig.
Zum Problem der Sprache in der Quantenmechanik z.B. kann folgende, anekdotenhafte Bemerkung Heisenbergs angefĂŒhrt werden: in einem GesprĂ€ch mit Niels Bohr ist die Rede von Begriffen, die bei der Beschreibung von Experimenten vorkommen und âderen Anwendungsbereich wir nicht genau angeben können.âxlv In diesem Zusammenhang kam Heisenberg auf die Positivisten zu sprechen, ĂŒber die er sich dezidiert Ă€uĂerte: â⊠ich habe einmal in einem Briefwechsel mit einem allzu eifrigen Positivisten der Wiener Schule etwas anderes behauptet. Ich hatte mich darĂŒber geĂ€rgert, dass die Positivisten so tun, als habe jedes Wort eine ganz bestimmte Bedeutung und als sei es unerlaubt, das Wort in einem anderen Sinne zu verwenden. Ich habe ihm dann als Beispiel geschrieben, dass es doch ohne weiteres verstĂ€ndlich sei, wenn jemand ĂŒber einen verehrten Menschen sagt, dass das Zimmer heller werde, wenn dieser Mensch das Zimmer betrete. NatĂŒrlich sei mir klar, dass das Photometer dabei keinen Helligkeitsunterschied registrieren wĂŒrde. Aber ich wehrte mich dagegen, die physikalische Bedeutung des Wortes >hell< als die eigentliche zu nehmen und die andere nur als die ĂŒbertragene gelten zu lassen.âxlvi
Von positivistischer Logik zur Kriegsforschung â ARPANet als VorlĂ€ufer des Internet und DARPA als militĂ€rische Operationalisierung von Grundlagen-forschung
Historisch war es also die Kombination von Logik â Denken â Kognitionsprozessen, allerdings undialektisch, d.h. ohne WidersprĂŒche, aus der schlieĂlich eine neue Generation von Computern hervorging. DafĂŒr waren Systemtheorie und abstrakte Sprachen nötig, mit denen an der Schnittstelle Mensch â Maschine kommuniziert werden konnte und Prozesse oder Dinge dargestellt werden konnten, die sich sprachlich oder ĂŒber Tabellen nur schwer vermitteln lassen. Der Mensch muĂte sich den Erfordernissen der abstrakten, formalen Logik der Rechenmaschinen unterordnen.
Am 9.1.1958 fordert US-PrĂ€sident Dwight D. Eisenhower (1890-1969) in seiner Rede âZur Lage der Nationâxlvii eine Konzentration der Anti-Missile und Satellitentechnologie innerhalb des Department of Defense unter dem Aspekt beschleunigter Verteidigungsanstrengungen. Die Bedrohung der Welt ging fĂŒr Eisenhower ganz simpel von der Sowjetunion aus: âThe threat to our safety, and to the hope of a peaceful world, can be simply stated. It is communist imperialism.âxlviii SchlieĂlich grĂŒndete Eisenhower am 7. Februar 1958 die âAdvanced Research Projects Agencyâ (ARPA), eine Forschungsabteilung des Pentagon, die eindeutig als Reaktion auf den sowjetischen Sputnik 1 zu verstehen ist.
Die ARPA besaĂ jedoch keine eigenen Forschungseinrichtungen. Die von ihr initiierten Projekte wurden an UniversitĂ€ten oder zivilen Forschungsinstituten durch ausgewĂ€hlte Vertragspartner durchgefĂŒhrt. Unter dem Direktor der ARPA (1961) Jack P. Ruina wird das âCommand and Control Projectâ zur Sammlung, Auswertung und Beurteilung strategischer Daten mit Hilfe von Computern gestartet. 1962-1964 wird Joseph C.R. Licklider auf Wunsch der ARPA dessen Direktor. Licklider kam vom Lincoln Lab des MIT, wo er im âPsychoacoustic Laboratoryâ tĂ€tig war, einer speziellen Forschungsrichtung der Informationswissenschaften. Licklider verfasst 1963 das âMemorandum to Members and Affiliates of the Intergalactic Networkâ, wo er den Mitgliedern des Intergalaktischen Netzwerkes, dem Vertragspartner der ARPA, seine Visionen fĂŒr ein kĂŒnftiges Computernetzwerk mitteilt.
1964-1965 wird Ivan Sutherland, der ebenfalls vom MIT kam, Direktor der ARPA. 1966-1969 wird sein Assistent bei der ARPA, Robert Taylor, neuer Direktor des Information Processing Techniques Office (IPTO), das zur ARPA gehört.xlix
Das IPTO steckte Forschungsgelder in fortgeschrittene Computer- und Netzwerktechnologien und beauftragte dreizehn Forschergruppen mit technologischen Projekten, die mit Mensch-Computer-Interaction und verteilten Systemen zu tun hatten. Jeder Gruppe wurde ein Budget zur VerfĂŒgung gestellt, das dreiĂig- bis vierzigmal gröĂer war als eine normale Forschungsförderung fĂŒr ein Projekt. Es wurde komplette Geheimhaltung ĂŒber ihre Verwendung verlangt und der Zugang zur state-of-the-art Technologie wurde ĂŒber folgende Institutionen organisiert:
Carnegie-Mellon University
MIT
RAND Corporation
Stanford Research Institute
System Development Corporation
University of California in Berkeley, Santa Barbara, und Los Angeles
University of South Carolina
University of Utah.
1966 wird Charlie Hertzfeld neuer ARPA-Direktor. Robert Taylor benötigt fĂŒr sein 1966 begonnenes Netzwerk einen Leiter und holt Lawrence (Larry) G. Roberts vom Lincoln Laboratory des MIT. DafĂŒr hatte ihm Hertzfeld eine Million Dollar Budget versprochen, wenn er den Aufbau eines verteilten Kommunikationsnetzwerks organisieren könne. Roberts wollte erst nicht, aber schlieĂlich kam er als ARPA IPTO Chef-Wissenschaftler im Dezember 1966, nachdem ein wenig Druck ausgeĂŒbt worden war. Roberts begann sofort mit der Arbeit an einem Systemdesign fĂŒr ein âwide area digital communications networkâ, sozusagen das erste WAN, das schlieĂlich zum ARPANet fĂŒhrte. 1967 stellt Roberts den ersten Netzwerkplan eines âcircuit-switchingâ Netzwerks. 1968 erfolgt die erste Ausschreibung fĂŒr das ARPANet. 1969 werden Rechner an der UCLA, am Stanford Research Institute u.a. implementiert und miteinander vernetzt; im selben Jahr noch zieht ARPA nach Arlington, Virginia um. Die erste öffentliche VorfĂŒhrung in Washington DC war dann 1972 â es gelang den Entwicklern, aus der Rechenmaschine Computer das Kommunikationsmedium Computer zu entwickeln: ein Netzwerk vorwiegend an mit MilitĂ€r verbundenen UniversitĂ€ten sowie Firmen wie MITRE und Rand Corporation, âder einfluĂreichsten âDenkfabrikâ des Kalten Kriegesâ.l Von dieser erhielt z.B. der Hegel-Philosoph Gotthard GĂŒnther (1900-1984) jahrelang Forschungsgelder.li
Ebenfalls 1972 wird ARPA umbenannt in DARPA, wobei das D fĂŒr âDefenseâ steht. 1974 entwickeln Bob Kahn und Vint Cerf das Internet-Netzwerk-Verfahren TCP, eine Art standardisierte Vorschrift, die fĂŒr die Kommunikation zwischen den Netzwerken unerlĂ€Ălich ist und noch heute so genannt wird.lii 1975 geht die Netzwerkverwaltung des ARPANet von der DARPA an die DCA (âDefense Communication Agencyâ des Verteidigungsministeriums) ĂŒber, die Bedarf angemeldet hat; man will ein von den ĂŒblichen KanĂ€len unabhĂ€ngiges Netz, um im Falle eines Atomkrieges weiter kommunizieren zu können. Die weiteren Stationen sind: 1983 Splitting von ARPANet und MILNET, das in das DEFENSE DATA NETWORK integriert wird. 1989 werden die Reste des ARPANet abgebaut und demontiert, 1993 wird DARPA unter der Clinton-Administration wieder umbenannt in ARPA, 1996 erneut umbenannt in DARPA.liii
9/11 oder: Orwell lĂ€Ăt grĂŒĂen
Um die Geschichte des DARPA vollends wĂŒrdigen zu können und um zu sehen, wie schmal der Grat zwischen âreinerâ Wissenschaft und ihrer (in diesem Fall miĂbrĂ€uchlichen) Anwendung ist, muĂ man sich ansehen, was heute daraus geworden ist. Es steht nĂ€mlich in unmittelbarem Zusammenhang mit 9/11 und ist bereits vor einigen Jahren in einem islĂ€ndischen Kriminalroman verarbeitet worden.liv Auch in den amerikanischen Romanen von David Baldaccilv bilden die jetzt zu erwĂ€hnenden Szenarien den politischen Hintergrund, auf dessen Boden dubiose Gestalten mehrerer der insgesamt 16 staatlichen Geheimdienste der USA auftreten.
Nach den terroristischen AnschlĂ€gen auf das World Trade Center in New York setzte in den USA eine rasante, antidemokratische Entwicklung ein, die mit der hastigen Verabschiedung des Patriot Act begann. Dies geschah in so groĂer Eile, dass einige Abgeordnete spĂ€ter zugaben, den Gesetzestext erst hinterher gelesen zu haben, als es zu spĂ€t war, noch etwas zu Ă€ndern.lvi Dieses als Anti-Terror-MaĂnahme gemeinte Gesetz bedeutet verschiedene EinschrĂ€nkungen der bĂŒrgerlichen Rechte; u.a. ermöglicht es, eine Person allein aufgrund des Verdachtes einer möglichen Bedrohung öffentlicher Interessen festzunehmen und fĂŒr unbegrenzte Zeit einzusperren, ohne Anklage zu erheben, ohne den Angehörigen mitzuteilen, wo und aus welchen GrĂŒnden der Betreffende gefangen gehalten wird, und ohne dass der VerdĂ€chtigte einen Anwalt bekommt.lvii Viele amerikanische Rechtsphilosophen sehen dies als einen eindeutigen VerstoĂ gegen die verfassungsmĂ€Ăigen Rechte der BĂŒrger an. Der oberste Gerichtshof der USA bestĂ€tigte jedoch dieses Gesetz und die Verfahrensweise. Besonders schlimm wird es, wenn MilitĂ€rbehörden erklĂ€ren, dass eine Person ein feindlicher Soldat oder eine Person auĂerhalb von Recht und Ordnung (unlawful combatant) ist, wie z.B. die Gefangenen in GuantĂĄnamo auf Kuba, denn dann werden dieser Person augenblicklich sĂ€mtliche Rechte genommen, egal welcher Nation er angehört.lviii
Ein Projekt, das von der DARPA gegrĂŒndet wurde, war das Information Awareness Office (IAO). Aufgabe des IAO war es, innerhalb einer Datenbank alle verfĂŒgbaren Merkmale der BĂŒrger der USA zu erfassen, zu durchsuchen und diese spĂ€ter auf verdĂ€chtige Muster hin auszuwerten. Dass eine solche Datenbank immens groĂ sein wĂŒrde, konnte man voraussehen. Das Unternehmen sollte vor allem dem Schutz vor Terrorismus dienen. Die Behörde selbst gab ihre Aufgabe wie folgt an:
âThe DARPA Information Awareness Office (IAO) will imagine, develop, apply, integrate, demonstrate and transition information technologies, components and prototype, closed-loop, information systems that will counter asymmetric threats by achieving total information awareness useful for preemption; national security warning; and national security decision making.â
Anfangs wurde das IAO von PrÀsident Bush unter dem Namen Total Information Awareness zu Beginn 2002 ins Leben gerufen. Zum Leiter der Behörde wurde John Poindexter bestellt, der unter anderem durch die Iran-Contra-AffÀre bekannt ist.lix
Die erste öffentliche Information war am 13. Februar 2002 in der New York Times zu lesen.lx Zu diesem Zeitpunkt war noch sehr wenig ĂŒber die Ziele der neu geschaffenen Behörde bekannt. Allein die Tatsache aber, dass man Festplatten in Petabyte-GröĂe benötigen wĂŒrde, sorgte fĂŒr starke Verwunderung und ĂberwachungsĂ€ngste.lxi BĂŒrgerrechtsorganisationen, wie die Electronic Frontier Foundation in San Francisco (EFF), protestierten wegen der âOrwellschenâ Absichten und wegen der Vergangenheit von Poindexter gegen diese Behörde.
Die Mission des IAO war es, soviel Informationen wie möglich an einer zentralen Stelle ĂŒber jede Person zusammenzutragen. Dadurch sollte es der US-Regierung ermöglicht werden, auf folgende AktivitĂ€ten jederzeit Zugriff zu haben: InternetaktivitĂ€ten, die Historie von KreditkarteneinkĂ€ufen, KĂ€ufe von Flugtickets, Mietwagen, Medizinische Aufzeichnungen (Krankenberichte), StudienbĂŒcher, FĂŒhrerscheinlizenzen, Gas-, Wasser- und Stromrechnungen, Steuererstattungen und andere Daten. Im Wesentlichen war es das Ziel des IAO, in der Lage zu sein, die gesamte Lebensgeschichte von Gedanken und Bewegungen irgendeines Individuums auf diesem Planeten auf Verlangen rekonstruieren zu können, ein Unterfangen, das damals der Bush-Administration notwendig erschien, um der Bedrohung des Terrorismus adĂ€quat begegnen zu können.lxii
Des weiteren war das Logo des IAO (siehe Abbildung), welches von der RĂŒckseite des Siegels der USA inspiriert wurde, ZĂŒndstoff fĂŒr Illuminaten-GlĂ€ubige und Verschwörungstheoretiker, vor allem angesichts des allsehenden Auges, das auf die Weltkugel blickt und auĂerdem schon auf den Ein-Dollarnoten abgebildet ist. Die Pyramide mit dem allsehenden Auge ist ein altes Freimaurerzeichen und seine Verwendung auf dem Siegel der USA geht vermutlich auf George Washington zurĂŒck, der Freimaurer war.
Nach den Kritiken am Logo wurde dieses am 19. Dezember 2002 von der Seite entfernt. Inzwischen sind alle links auf die ursprĂŒngliche Seite, wo es noch zu sehen war, auch blockiert.
Am 16. Januar 2003 wurde von Senator Russ Feingold ein Gesetz eingebracht, das den Kongress zu einer PrĂŒfung der AktivitĂ€ten der IAO veranlassen sollte. Nach einer Ă€hnlichen Eingabe eines anderen Senators sollte die IAO nicht mehr in den USA operieren dĂŒrfen. Ende Februar desselben Jahres wurde dann eine Anordnung erlassen, nach der die IAO alle AktivitĂ€ten beenden solle.
Die DARPA Ă€nderte am 20. Mai 2003 den Namen von Total in Terrorist Information Awareness (TIA), um damit deutlich zu machen, dass man nicht Dossiers von US-BĂŒrgern anfertigen wolle. Stattdessen solle die Behörde nur zur TerrorismusbekĂ€mpfung dienen. Trotz alledem wurde zwei Monate spĂ€ter beschlossen, keine Gelder mehr fĂŒr die Behörde bereitzustellen. Die DARPA selbst hatte 2004 ein Budget von vier Milliarden $ zur VerfĂŒgung.
Abb. Logo des IAO Dept. der DARPA. Es wurde schon im Dezember 2002, nach Etablierung des IAO anfangs desselben Jahres, wieder entfernt.
Das "Limitation on Deployment of Terrorism Information Awareness Program" wurde in den Defense Appropriations Act 2004 aufgenommen, welcher vom ReprĂ€sentantenhaus am 8. Juli 2003 verabschiedet wurde.lxiii Man konnte denken, dass dies das Ende fĂŒr das IAO bedeutete, vor allem aus finanziellen GrĂŒnden.
Am 14. Juli 2003 berichtete Wired News, dass "The Senate's $368 billion version of the 2004 defense appropriations bill, released from committee to the full Senate on Wednesday, contains a provision that would deny all funds to, and thus would effectively kill, the Terrorism Information Awareness program, formerly known as Total Information Awareness. TIA's projected budget for 2004 is $169 million."lxiv
Im Conference Report H.R. 2658, Department of Defense Appropriations Act, 2004 (24. September 2003, House Report 108-283) konnte man dann lesen:
Sec. 8131. (a) Notwithstanding any other provision of law, none of the funds appropriated or otherwise made available in this or any other Act may be obligated for the Terrorism Information Awareness Program ...
the term "Terrorism Information Awareness Program" means the program known either as Terrorism Information Awareness or Total Information Awareness, or any successor program, funded by the DARPA, or any other Department or element of the Federal Government, including the individual components of such Program developed by the DARPA.
In einem folgenden Review des ReprĂ€sentantenhauseslxv wurden allerdings die Restriktionen lediglich fĂŒr den âEinsatzâ und die âImplementation" angesehen, nicht fĂŒr Forschung.lxvi
Reuters erhielt einen Kongressbericht, der neun Monate, nachdem der Kongress das kontroverse ComputerĂŒberwachungs-Programm des Pentagon abgeschossen hatte, zeigte, dass die US-Verwaltung fortfĂ€hrt, private Aufzeichnungen und Datenbanken durchzukĂ€mmen, um verdĂ€chtige AktivitĂ€ten auszuschnĂŒffeln. Peter Swire, oberster Beamter der Clinton-Administration, sagte: "I believe that Total Information Awareness is continuing under other names."lxvii
Forschung fĂŒr die Totale Ăberwachung
Als Teil des "Total Information Awareness" Programms werden verschiedene neue Technologien erforscht:lxviii
Effective Affordable Reusable Speech-to-text, oder EARS, hat das ausgesprochene Ziel, "developing speech-to-text (automatic transcription) technology whose output is substantially richer and much more accurate than currently possible." Dieses Programm ist auf menschliche Radio- und Telephon-Konversation in einer Vielzahl von Sprachen fokussiert; es ist notwendig fĂŒr die computerunterstĂŒtzte Analyse der massiven Anzahl an TelefonĂŒberwachungen, zu der das IAO ohne richterliche Anordnung das Recht hat.
Futures Markets Applied to Prediction, oder FutureMAP, ist dazu gedacht, sich "auf Markt-basierte Techniken zu konzentrieren, um Ăberraschungen zu vermeiden und zukĂŒnftige Ereignisse vorherzusagen." Es analysiert Daten der Weltökonomie, um politische InstabilitĂ€t, Bedrohungen der nationalen Sicherheit und ganz allgemein jedes gröĂere Ereignis in der nĂ€chsten Zukunft bereits im Ansatz vorauszusagen. Die dezidierte Strategie des IAO fĂŒr diese Abteilung umfaĂt auch: "the markets must also be sufficiently robust to withstand manipulation", was auf die Absicht schlieĂen lĂ€Ăt, zukĂŒnftige Ereignisse zu beeinflussen, um die Ziele der USA zu unterstĂŒtzen.
Genisys ist der Name eines Datenbanksystems, das als die zentrale Informationseinheit fĂŒr das IAO implementiert werden sollte. Die bis dahin verwendeten Datenbanksysteme, die in der 1980er Jahren entworfen worden waren, erwiesen sich fĂŒr die enormen Mengen an Daten, die es zu sammeln galt, als vollkommen unzureichend.
Genoa stellt "structured argumentation, decision-making and corporate memory to rapidly deal with and adjust to dynamic crisis management" zur VerfĂŒgung. Im wesentlichen ist dieses Programm dazu entworfen, SchluĂfolgerungen zu ziehen und Entscheidungen auf der Basis von Informationen zu treffen, die menschliche Analyse (âhuman analysisâ), Firmengeschichte (âcorporate historyâ) und strukturiertes Denken miteinander vereinigen. Dieses Forschungsprojekt wurde im Fiskaljahr 2002 beendet; ihm folgte das Genoa II Projekt, das in effektiver Weise die Zusammenarbeit zwischen den Regierungsabteilungen automatisch regeln soll.
Human Identification at a Distance, oder HumanID, "ist ein Programm, um automatisierte, biometrische Identifikationstechnologien zu entwickeln, um Menschen ĂŒber groĂe Distanzen aufspĂŒren, erkennen und identifizieren zu können." Dieses Programm war dazu gedacht, ein Gesichts- und Gangart-Identifikationssystem ĂŒber eine Distanz von 150 m fĂŒr das Fiskaljahr 2004 zu implementieren.lxix Damit im Zusammenhang steht die entsprechende Hardware, ein âAll-seeing-Eyeâ, um aus der Höhe Menschen an ihrer Gangart erkennen zu können (âGait Recognitionâ; siehe nĂ€chsten Punkt).
Autonomous Real-time Ground Ubiquitous Surveillance-Imaging System (ARGUS-IS): Im Programm fĂŒr dieses autonome System wird ein Echtzeit, hochauflösendes, wide-area VideoĂŒberwachungssystem entwickelt, das dem Krieger im Minimum 65 VGA Videofenster ĂŒber sein Gesichtsfeld zur VerfĂŒgung stellt. Jedes Videofenster kann elektronisch gesteuert werden, unabhĂ€ngig von den anderen, und kann entweder kontinuierlich ein Bild eines bestimmten Areals am Boden erfassen oder es ist so gestaltet, dass ein spezifisches Zielobjekt (dismount oder Fahrzeug) im Fenster automatisch erfaĂt wird.
Translingual Information Detection, Extraction and Summarization, oder TIDES, wird entwickelt, um Informationen in der Sprache oder im Text verschiedener Sprachen zu entdecken, zu ĂŒbersetzen und zu extrahieren. Eine Demonstration der maschinellen FĂ€higkeiten und Integration in die TIA Systeme der DARPA wurde 2003 erwartet, die Realisierung war fĂŒr 2005 angestrebt.lxx AufschluĂreich sind die Sprachen, die im Moment vorrangig getestet werden: Arabisch in English (A2E) und Chinesisch in English (C2E).lxxi Es dient zum Beispiel dem FBI fĂŒr dessen beide Systeme: Federal Bureau of Investigation (FBI) Integrated Data Warehouse (IDW) und Security Concept of Operations (S-CONOPS), Investigative Data Warehouse (IDW) Program.
Wargaming the Asymmetric Environment, oder WAE, ist dazu gedacht, automatische Technologien zu entwickeln, die in der Lage sind, terroristische Attacken vorherzusagen und prĂ€diktive Indikatoren durch die ĂberprĂŒfung individuellen und Gruppenverhaltens in einem breiten Umfeld zu identifizieren. Das WAE wird auch Interventionsstrategien auf der Basis der Motivation spezifischer Terroristen entwickeln.
Wie schon gesagt, ist das TIA keineswegs âgestorbenâ, sondern es werden ganze Teile des TIA offenbar weiterhin von der National Security Agency (NSA) genutzt, die u.a. die Oberhoheit in Fragen der Kryptologie innehat. Keine VerschlĂŒsselung darf so hoch sein, dass die NSA sie nicht mehr dekryptofizieren kann. Wie das US-Magazin "The National Journal" kĂŒrzlich berichtete, ist die Arbeit an zwei Data-Mining-Systemen im TIA-Projekt nicht eingestellt, sondern an eine Abteilung der NSA weitergegeben worden. Es handelt sich dabei um das "Information Awareness Prototype System" und "Genoa II", deren Entwicklung unter den Bezeichnungen "Basketball" und "Topsail" von der US-Regierung weiterfinanziert wird. Grundlage ist offenbar ein als geheim eingestufter Zusatz zu dem Gesetz, mit dem die Finanzierung von TIA 2003 vom US-Kongress eingestellt worden war. Danach werden Teile des Projekts weiter gefördert, wenn sie von anderen amerikanischen Regierungsbehörden ĂŒbernommen werden.
Die NSA hat Zugriff auf die Kommunikationsdatenaufzeichnungen der meisten US-Telekommunikationsunternehmen und wertet diese unter Umgehung des so genannten FISA-Gesetzes aus, um Hinweise auf terroristische AktivitĂ€ten herauszufiltern. Das FISA-Gesetz von 1978 (Foreign Intelligence Surveillance Act)lxxii schreibt eigentlich vor, dass Lauschangriffe in den USA nur mit richterlicher Genehmigung erfolgen dĂŒrfen. US-Justizminister Alberto Gonzalez hatte in einer Anhörung im Februar 2006 eingerĂ€umt, dass das FISA-Gesetz nicht in allen FĂ€llen eingehalten worden war. Die New York Times hatte nĂ€mlich Ende 2005 enthĂŒllt, dass die Regierung von George W. Bush trotz der Aufweichung und der erweiterten Befugnisse das Gesetz systematisch gebrochen hatte und die Kommunikation von Amerikanern im Ausland mit den USA tausendfach abhören lieĂ. Als die Senatoren Gonzalez fragten, warum FISA ĂŒberhaupt umgangen worden sei, antwortete dieser, er könne dazu aus GrĂŒnden der nationalen Sicherheit keine Aussage machen.
Inzwischen wurde das FISA-Gesetz 2008 erneuert und soll bis 2012 gelten. Danach kann legal jeder Amerikaner, der sich nachweislich im Ausland aufhÀlt und mit den USA kommuniziert, abgehört werden. Und gerade erst unterschrieb PrÀsident Obama in letzter Minute mit Hilfe eines Unterschriftsautomaten, da er sich auf Reisen befand, die VerlÀngerung des Patriot Act bis Juni 2015.lxxiii
Zwei Hauptkomponenten des TIA-Projekts sind auf diese Weise weitergewandert â zur Advanced Research and Development Activity (ARDA), die im NSA-Hauptquartier in Fort Meade â Spitzname: âCrypto Cityâ â angesiedelt ist. Dabei handelt es sich zum einen um das Information Awareness Prototype System. Das war als KernstĂŒck der TIA-Architektur gedacht und sollte sĂ€mtliche Werkzeuge zur Gewinnung, Analyse und Weiterleitung von Informationen integrieren. Laut National Journal wurde es in âBasketballâ umbenannt. Die zweite Komponente war Genoa II (siehe oben). Dieses lĂ€uft nun unter dem Name âTopsailâ weiter.
Gonzalezâ Zeugenaussage, dass die US-Regierung verstĂ€rkten Gebrauch von FISA macht, und seine Argumentation, warum das Gesetz nur teilweise gelte, zeigt: Das Problem ist nicht nur, dass Regierungsagenten schnell handeln wollen. Die FISA-Regeln verlangen fĂŒr die Genehmigung eines Lauschangriffs die altmodische BegrĂŒndung eines âVerdachtsfallsâ vor dem zustĂ€ndigen Gericht. Diese Regelung kann jedoch nicht greifen, wenn die NSA eine automatisierte Analyse und Auswertung von Telefon- und Email-Daten vornimmt.lxxiv
Wie die Klage der BĂŒrgerrechtsorganisation EFF (Electronic Frontier Foundation) in San Francisco gegen die Telekommunikationsfirma AT&T zeigt, hat die NSA Zugang zu den Schaltungen und Aufzeichnungen der meisten, vielleicht sogar aller fĂŒhrenden amerikanischen Telekommunikationsunternehmen. Deren Datenressourcen sind umfangreich: Im AT&T-Rechenzentrum in Kansas etwa sind 1.92 Billionen GesprĂ€chsaufzeichnungen aus mehreren Jahrzehnten gespeichert. Mehr noch, die meisten internationalen Telekommunikationsverbindungen laufen inzwischen nicht mehr ĂŒber Satelliten, sondern ĂŒber unterseeische Glasfaserkabel, so dass viele Carrier internationale Telefonate ĂŒber ihre Schaltrechner in den USA leiten.
Dank der WillfĂ€hrigkeit der Telekom-Unternehmen kann die NSA heute deutlich mehr KommunikationsvorgĂ€nge abfangen, und dies fast in Echtzeit. Mit Zugang zum GroĂteil des weltweiten Telefondatenverkehrs können die Superrechner der NSA jeden Anruf in einem Netzwerk digital absaugen und ein Arsenal an Data-Mining-Werkzeugen darauf loslassen. Eine Datenverkehrsanalyse zusammen mit der Theorie sozialer Netzwerke (sic!) erlaubt, Muster möglicher terroristischer AktivitĂ€ten aufzudecken, die menschlichen Analysten unzugĂ€nglich wĂ€ren. Das Filtern von Inhalten mit Hilfe von ausgeklĂŒgelten Suchalgorithmen und statistischen Verfahren wie der Bayesâschen Analyse sowie Methoden des Maschinenlernens ermöglichen die Suche nach bestimmten Wörtern oder Sprachkombinationen, die auf die Kommunikation von Terroristen hindeuten könnten.lxxv
Ob die speziellen TIA-Technologien von der NSA in der InlandsĂŒberwachung der USA tatsĂ€chlich schon genutzt werden, ist noch nicht bewiesen. Die beiden Teilsysteme Topsail und Basketball Ă€hneln aber Beschreibungen von Technologien, die ARDA und NSA einsetzen, um die Datenströme aus Telefon- und Emailkommunikation zu belauschen. Ein ehemaliger TIA-Projektmanager hat ausgesagt, dass die TIA-Forscher sich regelmĂ€Ăig mit der ARDA ausgetauscht und eine âgute Koordinierungâ unterhalten hĂ€tten.
Diese letzte Tatsache ist besonders bedeutsam. Ganz gleich, ob nun TIA-Technologien in der InlandsaufklĂ€rung eingesetzt wurden oder nicht â vergleichbare Technologien kamen auf jeden Fall zum Einsatz. 2002 vergab die ARDA beispielsweise Fördergelder in Höhe von 64 Millionen Dollar fĂŒr ein neues Programm namens âNovel Intelligence from Massive Dataâ. Eine Untersuchung des US-Rechnungshofes von 2004 zeigte darĂŒber hinaus, dass amerikanische Regierungsbehörden 199 Data-Mining-Projekte betrieben oder entwickelten. Davon waren 120 darauf ausgelegt, groĂe Mengen persönlicher Daten zu sammeln und auszuwerten, um das Verhalten von Individuen vorhersagen zu können. Da die als geheim eingestufte Projekte in der Untersuchung nicht berĂŒcksichtigt wurden, dĂŒrfte die tatsĂ€chliche Zahl noch weitaus höher ausfallen.
ZusĂ€tzlich zu diesen Programmen existieren bereits Data-Mining-Anwendungen in der Industrie, die etwa Kreditkartenbetrug oder Gesundheitsrisiken fĂŒr Versicherungen aufspĂŒren sollen. All diese Informationen gehen in Datenbanken ein, die frĂŒher oder spĂ€ter fĂŒr Behörden zugĂ€nglich werden könnten.
Wie also sollte man Data-Mining-Technologien wie TIA regulieren?
Kim A. Taipale, leitender Direktor am Center for Advanced Studies in Science and Technology Policy in New York, wies 2006 in einem Artikel ("Whispering Wires and Warrantless Wiretaps: Data Mining and Foreign Intelligence Surveillance")lxxvi darauf hin, dass es 1978, als FISA verfasst wurde, noch sinnvoll war, das Gesetz auf das Abfangen von klar definierten KommunikationsvorgÀngen zu beschrÀnken. Denn diese fanden damals in Telefonaten immer zwischen zwei bekannten Endpunkten statt, so dass der Kommunikationskanal abgehört werden konnte.
In heutigen Netzwerken wird die Kommunikation hingegen wĂ€hrend des Sendens in einzelne Datenpakete, normalerweise etwa acht, zerlegt und beim EmpfĂ€nger wieder zusammengefĂŒgt. Will man diese abfangen, muss man Filter an diversen Kommunikationsknoten installieren, in der Hoffnung, die richtigen Pakete herauszu-fischen und wieder richtig zusammenzusetzen. Selbst wenn man eine konkrete Kommunikationsverbindung belauschen will, muss man deshalb den gesamten Datenfluss ĂŒberwachen, in den diese eingebettet ist. Angesichts dessen sei das FISA-Gesetz nicht mehr zeitgemĂ€Ă, argumentiert Taipale. Denn wenn man âes in einer strengen Auslegung anwendet â also ohne âelektronische Ăberwachungâ des auslĂ€ndischen Kommunikationsflusses durch die USA oder dort, wo sich mit einer gewissen Wahrscheinlichkeit US-BĂŒrger abhören lassen â, dann könnte es keine automatisierte Ăberwachung irgendeiner Art geben.âlxxvii
Taipale schlĂ€gt vor, das FISA-Gesetz nicht aufzugeben, sondern anzupassen. Elektronische Ăberwachung wĂŒrde dann den Status einer gewöhnlichen kurzen PersonenĂŒberprĂŒfung nach US-Recht bekommen, falls ein Verdachtsmoment vorliegt. Im Kontext automatisierten Data-Minings wĂŒrde das bedeuten, dass die Ăberwachung abgebrochen wird, wenn der Verdacht sich als unbegrĂŒndet erwiesen hat. Sollte sich der Verdacht hingegen erhĂ€rten, wĂŒrde der Lauschangriff fortgesetzt, und dann mĂŒsste vom Ăberwachungspersonal entschieden werden, ob eine richterliche Genehmigung im Sinne des FISA-Gesetzes nötig ist, um die IdentitĂ€t des Belauschten zu ermitteln.
FISA und andere Gesetze zum Schutz der PrivatsphĂ€re ungeachtet der heutigen technischen VerĂ€nderungen aufrechterhalten zu wollen, betont Taipale, wĂŒrde zu einem Absolutismus im Kampf um die PrivatsphĂ€re fĂŒhren, der sich am Ende selbst besiegt. Ein Beispiel dafĂŒr könnte das Schicksal des Genisys Privacy Protection Projekts sein. Dieser Teil des TIA-Projekts war dazu gedacht, Sicherheitsbehörden gleichzeitig gröĂeren Zugang zu Daten zu verschaffen und die individuelle PrivatsphĂ€re zu schĂŒtzen, indem die Daten den Analytikern nur anonymisiert zur VerfĂŒgung gestellt wurden. Die IdentitĂ€t einer Person sollte erst enthĂŒllt werden, wenn Beweise und eine entsprechende Genehmigung vorlagen. Genisys war die einzige TIA-Technologie, die gestoppt wurde, nachdem der öffentliche Aufschrei das TIA-Projekt zu Fall gebracht hatte.
Ein neues Ministerium der USA: Heimatschutz
Als eine weitere, beachtenswerte MaĂnahme als Antwort auf 9/11 wurde im Jahre 2002 ein neues Ministerium der USA geschaffen, das Heimatschutzministerium der Vereinigten Staaten (engl. United States Department of Homeland Security, DHS).lxxviii Es ist mit ĂŒber 200 000 BeschĂ€ftigten nach dem Pentagon und der Rentenorganisation die drittgröĂte Bundesbehörde. In ihm wurden einige zuvor unabhĂ€ngige Institutionen zusammengelegt, so zum Beispiel die Sicherheitskontrollen an den FlughĂ€fen, der Zoll, die KĂŒstenwache und die Katastrophenschutzbehörde Federal Emergency Management Agency (FEMA). Entgegen ursprĂŒnglichen PlĂ€nen wurden ihm jedoch nicht das FBI und die CIA unterstellt. Erster Minister des DHS war Tom Ridge. Seit dem 20. Januar 2009 ist Janet Napolitano die Ministerin.
Hauptaufgabe des DHS ist der Schutz der amerikanischen Bevölkerung und Staatsgebiete vor terroristischen und anderen Bedrohungen. Diese Aufgabe obliegt in den USA anders als in anderen LĂ€ndern somit nicht dem Innenministerium, denn das Innenministerium der Vereinigten Staaten ist nur fĂŒr die Verwaltung der bundeseigenen LĂ€ndereien wie Nationalparks verantwortlich.
Das Ministerium nahm 22 bestehende Bundesbehörden in sich auf, z.B. den Katastrophenschutz (siehe unten). Diesen hatte PrĂ€sident Jimmy Carter bereits 1979 fĂŒr nationale NotfĂ€lle gegrĂŒndet. FEMA wurde damals aus mehreren kleinen Agenturen zu einer Bundesbehörde zusammengefĂŒgt und zĂ€hlt heute innerhalb des Ministeriums 2600 Angestellte.
Eine weitere VorlĂ€ufer-Institution war das United States Army Corps of Engineers (USACE). Es ist ein Hauptkommando der US Army fĂŒr das Pionier- und Bauingenieurwesen mit landes- und weltweiten Strukturen.
Die Koordinierungsstelle der Homeland Security ist das National Operations Center (NOC). Sitz der Behörde ist der Nebraska Avenue Complex, Washington D.C. Ein weiteres BĂŒro unterhĂ€lt man im Ronald Reagan Building im Federal Triangle. Im WeiĂen Haus gibt es zur politischen Koordinierung den Heimatschutz-Rat (Homeland Security Council) mit John O. Brennan als PrĂ€sidentenberater fĂŒr den Heimatschutz an der Spitze. Andere bedeutende Vertretungen, die unter den Verantwortungsbereich des Heimatschutzministeriums fallen, umfassen unter anderem die US-Ministerien fĂŒr Gesundheit, Justiz und Energie.
Obwohl nach Mitarbeitern drittgröĂtes Ministerium, ist das Budget jedoch deutlich kleiner als das der beiden gröĂten Ministerien und betrĂ€gt etwa die HĂ€lfte des Budgets des Landwirtschaftsministeriums.
Im Namen des Heimatschutzministeriums unterzeichnete George W. Bush im Mai 2007 die National Security Presidential Directive 51 (NSPD 51), auch als Homeland Security Presidential Directive 20 (HSPD 20) bekannt, eine prĂ€sidentielle Direktive zur nationalen Sicherheit, die im Falle einer nationalen Katastrophe, eines Notfalls oder Angriffes die Fortdauer der konstitutionellen Regierungsarbeit (âEnduring Constitutional Governmentâ) sicherstellen soll, indem der US-PrĂ€sident sich mit der FĂŒhrung der gesamten Bundesregierung betraut, und die Kooperation zwischen der Exekutive, der Legislative, und der Judikative koordiniert.
Interessant ist der Aufbau des DHS:
unterstellte Behörden
United States Citizenship and Immigration Services
United States Customs and Border Protection
United States Immigration and Customs Enforcement
Transportation Security Administration
United States Coast Guard (KĂŒstenwache; durch PrĂ€sidialbeschluss oder im Falle einer KriegserklĂ€rung durch den Kongress untersteht sie automatisch der Navy, bis der PrĂ€sident etwas anderes dekretiert)
Federal Emergency Management Agency (FEMA)
United States Secret Service
beratende Organe
Homeland Security Advisory Council
National Infrastructure Advisory Council
Homeland Security Science and Technology Advisory Committee
Critical Infrastructure Partnership Advisory Council
Interagency Coordinating Council on Emergency Preparedness and Individuals with Disabilities
Task Force on New Americans
Einrichtungen des Ministeriums
Domestic Nuclear Detection Office
Federal Law Enforcement Training Center
National Protection and Programs Directorate
Federal Protective Service
National Communications System
Directorate for Science and Technology
Directorate for Management
Office of Policy
Office of Immigration Statistics
Office of Health Affairs
Office of Intelligence and Analysis
Office of Operations Coordination
Office of the Secretary, umfaĂt
Privacy Office,
Office for Civil Rights and Civil Liberties,
Office of Inspector General,
Citizenship and Immigration Services Ombudsman,
Office of Legislative Affairs,
Office of the General Counsel,
Office of Public Affairs,
Office of Counternarcotics Enforcement (CNE),
Office of the Executive Secretariat (ESEC),
Military Advisor's Office;
National Cyber Security Center.
Um seine Aufgabe zu erfĂŒllen, Bedrohungen âvorauszusehen, zuvorzukommen und abzuwendenâ, benutzt das Ministerium ein fĂŒnf Stufen umfassendes, auf Farben basierendes Homeland Security Advisory System, um die angenommene Gefahrenlage anzuzeigen: GrĂŒn, Blau, Gelb, Orange, Rot. Eine Ă€hnliche Skala wird schon seit den Zeiten des Kalten Krieges vom US-MilitĂ€r verwendet, um den Verteidigungszustand der StreitkrĂ€fte anzuzeigen. Er wurde als DefCon bekannt. Das Homeland Security Advisory System wurde unter anderem von Michael Moore in seinem Film âFahrenheit 9/11â kritisiert, weil es der Regierung durch Anhebung der Gefahrenstufe ermögliche, die Medienaufmerksamkeit auf sich und von gewissen anderen Ereignissen abzulenken. Zum Beispiel wurde beim Parteikongress der Demokraten in Boston 2004 vor den PrĂ€sidentschaftswahlen die Alarmstufe angehoben, weil âHinweise auf AnschlĂ€geâ eingetroffen seien. Beim Wahlparteitag der Republikaner im selben Jahr in New York geschah dies aber nicht.
Ein weiterer Kritikpunkt besteht darin, dass noch nie objektive Kriterien fĂŒr die Warnstufen veröffentlicht wurden. Dazu wird von Sicherheitsexperten das Warnsystem hinterfragt, weil die Warnhinweise viel zu wenig konkret sind. Die PolizeikrĂ€fte werden zwar bei einer erhöhten Alarmstufe aufgestockt, doch sie erhalten nur vage Hinweise wie: âmöglich sind AnschlĂ€ge auf das Eisenbahnnetzâ. Dies ist wenig hilfreich, denn logischerweise ist es jederzeit möglich, dass auf Eisenbahnen AnschlĂ€ge verĂŒbt werden.
âMATRIXâ ist keine Science Fiction
Als ob das alles noch nicht unheimlich genug ist, fĂ€llt jetzt noch eine ominöse Datenbank einer dubiosen Firma in Florida auf, die den Namen MATRIX trĂ€gt. Auch in dieser sollen persönliche Informationen von Amerikanern gesammelt werden.lxxix Allein der Name ist nicht glĂŒcklich gewĂ€hlt, Ă€hnlich ungeschickt wie beim FBI, das ein System zur Ăberwachung von Internetdaten Carnivore (Fleischfresser) nannte.
MATRIX steht fĂŒr Multistate Anti-Terrorism Information Exchange. Mit dem System, entwickelt von der Firma Seisint Inc. in Boca Raton, Florida, sollen, wie die Washington Post berichtetlxxx, Muster und Verbindungen zwischen Personen und Ereignissen schneller gefunden werden. In die Datenbank werden Informationen der Strafverfolgungsbehörden sowie persönliche Informationen ĂŒber US-amerikanische StaatsbĂŒrger eingespeist, die in kĂ€uflichen Datensammlungen verfĂŒgbar sind. Alles sei ganz harmlos, wird gesagt, weil das System nur Daten benutze, die sowieso vorhanden und verfĂŒgbar seien. Wie der Name schon sagt, soll das System spĂ€ter nicht nur fĂŒr Florida, sondern erst einmal in insgesamt 13 Bundesstaaten (Alabama, Connecticut, Florida, Georgia, Kentucky, Louisiana, Michigan, New York, Oregon, Pennsylvania, South Carolina, Ohio und Utah) eingesetzt werden und den Datenaustausch zwischen diesen LĂ€ndern verbessern. FĂŒr das Pilotprojekt sind Virginia, Maryland, Pennsylvania und New York vorgesehen.
Dabei geht das MATRIX-Projekt gar nicht auf die Initiative von Behörden, sondern auf die eines Unternehmers zurĂŒck, der entweder meinte, sich um den Staat verdient machen zu wollen, oder aber glaubte, dass mit Sicherheitstechnik auch kĂŒnftig gute GeschĂ€fte zu machen sind. Hank Asher, der GrĂŒnder der IT-Firma Seisint, rief anscheinend kurz nach den AnschlĂ€gen vom 11.9.2001 bei der Polizei in Florida an und versprach, er könne die Terroristen und andere finden, die verdĂ€chtig sind. Seisint stellte dann seine Software MATRIX dem Staate Florida erst einmal kostenlos zur VerfĂŒgung. Dann wurde das System in anderen Staaten vorgefĂŒhrt und wohlwollend aufgenommen. Dabei kam die Idee auf, die Datenbank mit einer Suchmaschine namens "Who" auszustatten, die im Zentrum des Projekts stehen sollte.
Das Justizministerium von Florida steckte daraufhin weitere vier Millionen Dollar in das von Seisint entwickelte Programm MATRIX, um es landesweit zu erweitern. Auch fĂŒr das angeblich kostenlos fĂŒr Florida entwickelte System hatte Seisint 1.6 Millionen $ bewilligt bekommen. Das uns schon bekannte Heimatschutzministerium wollte dann weitere 8 Millionen investieren. Offenbar wurde das System bereits kurz darauf in Florida benutzt. Bis 2003 sollen sich 135 Polizeibehörden angeschlossen haben. MATRIX soll nach einem Dokument des Justizministeriums "den Austausch von Informationen ĂŒber Terrorismus und andere kriminelle AktivitĂ€ten erweitern und verbessern". Abgesprochen wurde das System offenbar auch mit dem demokratischen Senator Bob Graham, der zu der Zeit Leiter des Geheimdienstausschusses war. Graham und die Demokraten hatten ĂŒbrigens hohe Spenden von Seisint erhalten.
Neben Virginia, Maryland, Pennsylvania und New York nimmt auch Washington D.C. an der geplanten MATRIX-Datenbank oder dem weniger monströs klingenden internetbasierten Justice Information System teil. Der demokratische BĂŒrgermeister von Washington D.C., Anthony Williams, wies noch einmal darauf hin, dass es sich dabei nicht nur um Informationen zur Vorbereitung auf NotfĂ€lle handelt, sondern dass die Datenbank auch zur BekĂ€mpfung der allgemeinen KriminalitĂ€t gedacht ist. Man wĂŒrde die Informationen auf die Daten der Strafverfolgungsbehörden beschrĂ€nken und nicht alle verfĂŒgbaren Daten aller Amerikaner in einer zentralen Datenbank speichern. Das kann man glauben oder auch nicht.
Das System soll, wie Margret Nedelkoff Kellems, in Washington fĂŒr öffentliche Sicherheit zustĂ€ndig, anmerkte, es beispielsweise ermöglichen, in Kraftfahrzeug-Daten nach Fotografien und Informationen ĂŒber rothaarige Besitzer von roten Hondas im Umkreis von 30 Kilometern um einen bestimmten Ort herum suchen zu können. Das hieĂe dann aber doch, dass Informationen ĂŒber alle BĂŒrger zumindest der beteiligten Bundesstaaten verfĂŒgbar sein wĂŒrden. Kellems war offenbar bemĂŒht, das mit staatlichen Geldern weiter entwickelte System von der MATRIX-Datenbank in Florida abzugrenzen, die mehr Daten enthalten soll.
Und wie schon im Fall von Poindexter bei der TIA ist auch der Experte fĂŒr Computertechnologie Hank Asher eine dubiose Gestalt.lxxxi 1999 beendete die DEA und das FBI einen Vertrag mit einer Asher-Firma, weil bekannt wurde, dass er von einem Zeugen als Pilot und Drogenschmuggler identifiziert worden ist und als Informant fungiert hat. Von der Drogengeschichte wisse man im Justizministerium, aber schlieĂlich sei er weder angeklagt noch verhaftet worden. Seit 1993 arbeitet Asher mit den Strafverfolgern in Florida zusammen, dem Florida Department of Law Enforcement (FDLE) â unbeschadet dessen, dass das FBI und die DEA 1999 die VertrĂ€ge mit seiner alten Firma DBT Online wegen seiner Verbindungen mit dem Drogenschmuggel beendeten, woraufhin Asher die Firma verkauft hatte. Trotzdem erhielt seine neue Firma Seisint in Florida zwei VertrĂ€ge, ohne dass dabei eine Ausschreibung stattfand. Mit dem ehemaligen Direktor des FDLE, der gerade pensioniert wurde, ist Asher eng befreundet. Der neue Direktor hat inzwischen eine HintergrundĂŒberprĂŒfung von Asher angeordnet.
Asher hat auch fĂŒr andere Behörden wie FBI oder Secret Service kostenlos gearbeitet. Angeblich habe die Firma tatsĂ€chlich dabei geholfen, Verbindungen zwischen den FlugzeugentfĂŒhrern von 9/11 herzustellen. Bekanntlich haben einige der FlugzeugentfĂŒhrer unter immer noch mysteriösen UmstĂ€nden in Florida Flugunterricht genommen. Auch hier gibt es Verbindungen zum Drogenschmuggel.lxxxii
Interessant ist auch, dass Florida 1998 mit der DBTlxxxiii, der damals noch Asher gehörenden Firma, einen Vertrag ĂŒber 4 Millionen Dollar abschloss, um eine WĂ€hlerliste zu erstellen, auf der sich diejenigen befanden, die von der Wahl ausgeschlossen werden können. DBT wurde spĂ€ter zu ChoicePoint.lxxxiv FĂŒr die PrĂ€sidentschaftswahlen im Jahr 2000 wurden aufgrund der Informationen von ChoicePoint von der Innenministerin Katherine Harris einige Zehntausend Menschen â vornehmlich Schwarze, Latinos und arme WeiĂe, also eher Gore-WĂ€hler â von der Wahl ausgeschlossen, die angeblich in anderen Staaten Vorstrafen hatten. In den meisten US-Bundesstaaten dĂŒrfen StraftĂ€ter aber nach VerbĂŒĂung ihrer Strafe wieder wĂ€hlen. Manche der StraftĂ€ter wurden auch erst in der Zukunft verurteilt, wie damals in der amerikanischen Presse berichtet wurde. Die Liste der angeblich Vorbestraften ist angeblich aus Texas gekommen. Zwar wurde die Liste von Harris korrigiert, aber Tausende blieben weiterhin von der Wahl ausgeschlossen. Die Wahl in Florida ging mit gerade einmal 500 Stimmen Mehrheit fĂŒr Bush aus. In Florida wurden zudem ĂŒber 170.000 abgegebene Stimmen fĂŒr ungĂŒltig erklĂ€rt. Eine NachzĂ€hlung wurde vom Obersten Gericht als nicht fĂŒr notwendig befunden, das Bush daher als Sieger der Wahl anerkannte. Eine trotzdem durchgefĂŒhrte NachzĂ€hlung ergab allerdings, dass bei einer rechtzeitigen NachzĂ€hlung Al Gore der Gewinner in Florida und damit auch in den USA gewesen wĂ€re.
Wir haben gesehen, dass es nichts hilft, Positivismus und Neo-Positivismus allein zu kritisieren, obwohl das schon notwendig ist. Einrichtungen und Forschungsinstitute des militĂ€risch-industriellen Komplexes (Eisenhower) scheren sich darum wenig bis gar nicht. Man könnte sich angesichts der Kritik ruhig zurĂŒcklehnen und sich sagen: wenn der ideologische Unterbau (eigentlich ist es der Ăberbau) derart falsch oder wenigstens unzureichend, nĂ€mlich allein mit formaler Logik konstruiert ist und Inhalte keine Rolle zu spielen scheinen, wenn es reduktionistischer gar nicht mehr geht (wie z.B. in dem Vorhaben, ein menschliches Gehirn im Computer nachzubilden), dann kann ja eigentlich nichts Schlimmes passieren. Aber allein, wenn man ĂŒber die Fehler nachdenkt, die bei der Maschinen- und Software-gesteuerten Ăberwachung der BĂŒrger eines Staates entstehen und die zu falschen Informationen in den Datensammlungen ĂŒber die gleichen Personen fĂŒhren, dann kann einem Angst und Bange werden. Dies gilt umso mehr, als alle diese Datenbanken unter Ă€uĂerster Geheimhaltung aufgebaut werden (wahrscheinlich schon sind), nĂ€mlich unter der Obhut unterschiedlichster Geheimdienste und damit der öffentlichen Kontrolle weitgehend, wenn nicht vollstĂ€ndig entzogen sind. Ob damit âder Terrorismusâ wirksam bekĂ€mpft werden kann oder Terroristen an ihrer Gangart oder der Gesichtsstruktur sicher identifiziert werden können, ist ohnehin zu bezweifeln. Orwell lebt und lĂ€Ăt grĂŒĂen.
Nachbemerkung, aus noch gegebenerem AnlaĂ
Als ob das hier Geschilderte noch nicht genug wĂ€re, wuchs die Empörung ĂŒber die NSA erst so richtig an, als bekannt wurde, dass das Mobiltelefon der Bundeskanzlerin Dr. Angela Merkel abgehört wurde; sie benutzte selten ihr abhörsicheres Zweit-Mobiltelefon, weil es ihr zu umstĂ€ndlich sei, es zu bedienen.
Kurz zuvor war schon bekannt worden, dass die NSA nicht nur die EuropĂ€ische Union (EU), sondern auch die United Nations (UNO) abhört. Nach Auswertungen von Dokumenten, die dem SPIEGEL spĂ€testens seit dem 25. August 2013 vorliegen, ist es der NSA im Sommer 2012 gelungen, die VerschlĂŒsselung zu knacken und in die interne Videokonferenzanlage der UNO einzudringen. Dies habe fĂŒr "eine dramatische Verbesserung der Daten aus Video-Telekonferenzen und der FĂ€higkeit, diesen Datenverkehr zu entschlĂŒsseln" gesorgt, heiĂt es in einem geheimen NSA-Dokument. "Der Datenverkehr liefert uns die internen Video-Telekonferenzen der UNO (yay!)". Innerhalb von knapp drei Wochen sei die Zahl der entschlĂŒsselten Kommunikationen von 12 auf 458 angestiegen.lxxxv
Die Spionageaktionen sind illegal, in einem bis heute gĂŒltigen Abkommen mit der UNO hat sich die USA verpflichtet, keine verdeckten Aktionen zu unternehmen.
Aus den internen Dokumenten geht zudem hervor, dass die NSA die EU auch nach deren Umzug in die neuen BotschaftsrĂ€ume im September 2012 noch ausspioniert hat. Unter den Dokumenten, die der Whistleblower Edward Snowden von Rechnern der NSA kopiert hat, befinden sich LageplĂ€ne der EU-Botschaft an der 3rd Avenue in New York, die die Lage der BĂŒros, aber auch der IT-Infrastruktur und der Server betreffen. Dem neuen EU-GebĂ€ude gab der US-Geheimdienst den Codenamen "Apalachee". Die EU-Botschaft in Washington wurde intern "Magothy" genannt.
Auf drei Wegen attackierte die NSA nach eigenen Angaben die europĂ€ischen Dependancen: jeweils per Wanze sowie durch Kopieren der Festplatten in New York und das Infiltrieren des Computernetzwerks in Washington. Dabei machte sich die NSA zunutze, dass die Computer der beiden EU-Botschaften ĂŒber ein sogenanntes Virtuelles Privates Netzwerk (VPN) miteinander verbunden sind. "Wenn wir den Zugang zu einer Seite verlieren, können wir ihn unmittelbar zurĂŒckerhalten, wenn wir ĂŒber das VPN der anderen Seite kommen", konstatieren die NSA-Techniker in einer internen PrĂ€sentation. "Wir haben das mehrere Male genutzt, als wir bei ,Magothy' rausgeschmissen wurden."
Das AuswĂ€rtige Amt in Berlin besitzt nach eigenen Angaben keine Informationen ĂŒber eine mögliche AusspĂ€hung der Vereinten Nationen und von Botschaften durch den US-Geheimdienst NSA. "Wir haben keine eigenen Erkenntnisse", sagte ein Sprecher.
Laut den internen Dokumenten unterhÀlt die NSA zudem in mehr als 80 Botschaften und Konsulaten weltweit ein eigenes Abhörprogramm, das intern "Special Collection Service" genannt wird und oft ohne das Wissen des Gastlands betrieben wird. Einen entsprechenden Lauschposten soll die NSA demnach in Frankfurt, einen weiteren in Wien unterhalten.
Die Existenz der Lauscheinheiten in Botschaften und Konsulaten sei unter allen UmstĂ€nden geheim zu halten, heiĂt es in dem Material. Wenn sie bekannt wĂŒrden, wĂŒrde das "den Beziehungen zum jeweiligen Gastland schweren Schaden zufĂŒgen", so ein NSA-Dokument. Inzwischen ist aber bekannt geworden, dass auf dem Dach der US-Amerikanischen Botschaft in Berlin, direkt neben dem Brandenburger Tor, eine Abhöranlage aufgebaut ist.
Weiter wurde im Oktober 2013 bekannt, dass auch die brasilianische PrÀsidentin Dilma Rousseff von der NSA abgehört wird/wurde; sie will zusammen mit Deutschland diese AffÀre in Form einer Resolution gegen das AusspÀhen von elektronischer Kommunikation vor die UNO bringen.lxxxvi
Darin werden alle Staaten aufgefordert, Gesetzgebung und Praxis bei Ăberwachungsaktionen im Ausland auf den PrĂŒfstand zu stellen. Wörtlich heiĂt es: âDie gleichen Rechte, die Menschen offline haben, mĂŒssen auch online geschĂŒtzt werden - vor allem das Recht auf Privatheit.â Der Text wurde zusammen mit Brasilien ausgearbeitet, dessen PrĂ€sidentin Dilma Rousseff ebenfalls vom US-Geheimdienst NSA bespitzelt wurde.lxxxvii Der Entwurf geht nun zunĂ€chst an den zustĂ€ndigen Menschenrechtsausschuss, der im November darĂŒber beraten wird.
Der in der Vorbemerkung erwĂ€hnte US-Geheimdienstchef James Clapper hat SpĂ€hangriffe auf auslĂ€ndische Spitzenpolitiker verteidigt. âDie Absichten politischer FĂŒhrungen, wie auch immer sie ausgedrĂŒckt werden, sind das GrundsĂ€tzliche, was wir sammeln und analysieren mĂŒssenâ, sagte der Koordinator der 16 amerikanischen Geheimdienste in einer Kongress-anhörung am 29. Oktober 2013 in Washington. Zugleich zeigten er und der NSA-Chef Keith Alexander sich in der Befragung ĂŒberzeugt, dass Europa seinerseits die USA und deren Politiker ausspioniere. Auch wĂŒrden die EuropĂ€er massiv Daten eigener BĂŒrger sammeln.
Clapper bestĂ€tigte zwar nicht, dass die USA etwa TelefongesprĂ€che von Merkel oder anderen Staats- und Regierungschefs abgehört hĂ€tten. Es sei aber generell âabsolutâ hilfreich, an solche Kommunikation zu kommen. âDas ist eines der ersten Dinge, die ich 1963 in der Geheimdienstschule gelernt habeâ, sagte der Spionage-Veteran. âEs ist unersetzlich fĂŒr uns zu wissen, was die LĂ€nder bewegt, was ihre Politik ist.â Zu den bevorzugten Abhörzielen gehörten auch militĂ€rische FĂŒhrer.lxxxviii
Der ebenfalls in der Vorbemerkung zu diesem Artikel erwĂ€hnte EnthĂŒllungsjournalist Glenn Greenwald erklĂ€rte, dass es bei der AffĂ€re nicht nur um Bespitzelung von BĂŒrgern gehe, sondern um politische Macht und Wirtschaftsspionage. Ersteres wird von Clapper bestĂ€tigt, letzteres zunĂ€chst nicht. Auch die hiesige Presse hat diesen Aspekt bisher vollkommen ausgeklammert.
Sehr deutlich konnte man einem Interview der FAZ mit dem weiĂrussischen Publizisten aus Amerika, Evgeny Morozov, im Oktober 2013 entnehmen, was im Hauptteil dieses Artikels schon herausgearbeitet wurde, dass nĂ€mlich ĂŒber einfache Wirtschaftsspionage hinausgehende weltweite Analysen wirtschaftlicher und privater Daten mit Hilfe von spezieller Software angestellt werden, um prognostische Faktoren ĂŒber Konsumverhalten, Krisen des Marktes und der Finanzwirtschaft herausarbeiten zu können. Dies wurde im Artikel oben unter âForschung fĂŒr die totale Ăberwachungâ bereits erwĂ€hnt.
Im Interview heiĂt es: âEs ist eine strukturelle Logik im Spiel, die etwas mit Kapitalismus zu tun hat, mit Konsumverhalten, mit Dingen, ĂŒber die Amerikaner nicht gern reden. Das Resultat ist eine neue Reihe von Anreizen, um die Leute zu verleiten, ihre Daten preiszugeben und zu teilen. Die NSA wird sie so oder so bekommen, aber fĂŒr mich ist die NSA nur Teil eines viel gröĂeren Problems, das ich in einer Art von prĂ€emptivem Regieren sehe, gestĂŒtzt auf Voraussagen, und Informationsanalysen, durch die Probleme entschĂ€rft werden sollen, bevor es Probleme sind. So, wie die NSA Terroristen ausfindig macht, bevor sie TerroranschlĂ€ge begehen, so handeln andere Behörden nach der gleichen Logik. Leute sollen gesund werden, bevor sie krank sind. Dank der neuen technologischen Infrastruktur werden Probleme im Voraus gelöst, und zwar mittels Anreizen, die neue Verhaltensweisen hervorrufen. FĂŒr einen Technokraten ist das eine perfekte Sache. Nicht so fĂŒr einen Demokraten, der sich denkende BĂŒrger wĂŒnscht, die zwischen richtig und falsch zu unterscheiden wissen und fĂ€hig sind, sich an der Verbesserung des Systems zu beteiligen.âlxxxix
Wie man âden Wirkungsgrad des Wahlkampfs steigernâ und sich âdie richtigen WĂ€hler effektiver erreichenâ lassen
SchlieĂlich soll ein letztes Beispiel zeigen, in welchem Stadium der Analyse, aber nicht nur der Analyse, sondern der massiven WĂ€hlerbeeinflussung und des Kaufverhaltens man offenbar schon jetzt angekommen ist. Wegen seiner Ungeheuerlichkeit wird der Bericht aus der Frankfurter Allgemeinen Zeitung hier in ganzer LĂ€nge wiedergegeben:xc
âEnde August hatte die deutsche Vertretung von Google Journalisten, WahlkĂ€mpfer und Interessierte nach Berlin eingeladen, um die Google-Projekte zur Wahl vorzustellen. Den Hauptvortrag hielt Julius van de Laar, der fĂŒr Barack Obama im entscheidenden Bundesstaat Ohio Wahlkampf gefĂŒhrt hatte. Er berichtete, was man aus dem digitalen Wahlkampf in den USA inzwischen gelernt habe. NatĂŒrlich ging es als erstes umâs Geld: âMeine GĂŒte, 1.2 Milliarden Dollar hatten wir zur WĂ€hlermobilisierung zur VerfĂŒgungâ, um dann darauf einzugehen, was darunter verstanden wird. 2012 sei die Ausgangslage schlecht gewesen, 8% Arbeitslosigkeit, 41% Zustimmungsrate fĂŒr den PrĂ€sidenten, dazu eine katastrophale Performance des Kandidaten im ersten Fernsehduellâ. Nur in der politischen Botschaft sei die Obama-Kampagne klar vorn gelegen. âMitt Romney â Killerkapitalistâ lieĂ sich gut verkaufen, auch âGeneral Motors am Leben, Usama Bin Ladin totâ. Das Team von de Laar stellte sich aber als wichtigste Frage in Ohio, wie man âden Wirkungsgrad des Wahlkampfs steigern könneâ, wie sich âdie richtigen WĂ€hler effektiver erreichenâ lassen â und wie man einen Bogen um diejenigen macht, die man schon verloren gab. Dieses Programm hieĂ âForce Multiplicationâ und es sollte Platz fĂŒr âTechnologie und Datenâ schaffen. Es ging nicht um politische Botschaften aus Hinterzimmern, sondern um die letztens vieldiskutierten âBig Dataâ. De Laar fĂŒhrte weiter aus: âDie DatenschĂŒtzer unter Ihnen, wenn Sie kurz raustreten wollen und sich einen Kaffee holen wollen. Kommen Sie in zehn Minuten wieder.â Er kam darauf zu sprechen, wie das âMicro-Targetingâ, die planvolle und gezielte WĂ€hleransprache der Obama-Kampagne funktionierte. Ausgangspunkt seien die WĂ€hlerlisten, in denen Namen und Telefonnummern aufgefĂŒhrt sind sowie die Information, ob die WĂ€hler an den demokratischen oder den republikanischen Vorwahlen teilgenommen hatten. Im zweiten Schritt âhaben wir uns einfach einen Haufen Daten gekauftâ, sagte van de Laar. âSie kennen Pay-Back?â fragte er ins Publikum. âWir gehen da hin und sagen: âPay-Back, bitte einmal die Daten ausspuckenââ. Diese Daten zeigen nĂ€mlich das Einkaufsverhalten der WĂ€hler, die die Pay-Back-Bonuskarte verwenden â was van de Laar als ein Beispiel unter vielen nannte â, und seien mit den Daten aus dem WĂ€hlerregister fusioniert worden. FĂŒr jeden potentiellen Obama-WĂ€hler wurde ein Datenbankeintrag angelegt und stĂ€ndig erweitert. Auch das Verhalten im Internet war von Interesse. Mit âCookie-Targetingâ wurde das online-Verhalten der WĂ€hler ĂŒber deren Computer ausgespĂ€ht und ausgewertet. Dieses Vorhaben, das âpredictive analyticsâ genannt wird, erscheint unter den Stichworten âSocial Media, Data Mining, Data Matchingâ. Van de Laar: âWir wollten herausfinden, wer die Personen waren, die sehr wahrscheinlich nicht wĂ€hlen gehen, aber uns wĂ€hlen wĂŒrden, wenn sie doch hingingen.â
Man habe herausgefunden, dass 78% der Menschen, denen von Freunden oder Bekannten empfohlen wurde, Obama zu wĂ€hlen, tatsĂ€chlich fĂŒr ihn stimmten. Das Team konzentrierte sich also auf die zweite Zielgruppe: Menschen, die Obama sicher wĂ€hlen wĂŒrden und zusĂ€tzlich bereit seien, ihren Freunden und Nachbarn davon zu erzĂ€hlen. 21000 Freiwillige habe man in den drei Wochen vor der Wahl allein in Ohio mobilisiert. Sie klopften an mehr als 800 000 HaustĂŒren.
Eine iPhone-App gab im Wortlaut vor, wie ein GesprĂ€ch zu eröffnen sei und zu fĂŒhren ist â und erinnerte mit Nachdruck daran, fehlende Daten unbedingt zu erfassen. âWir wollten nicht nur, dass Leute rumlaufen und mit irgendwelchen Menschen sprechen, wir wollen nachvollziehen, was dort genau passiert. Wir wollen wissen, wie die Konversationen laufen und welche Informationen wir da herausziehen könnenâ, sagte van de Laar. Dieser HaustĂŒrwahlkampf sei wahlentscheidend gewesen. Das Wahlkampfteam in Ohio beschĂ€ftigte 750 fest angestellte Mitarbeiter, aber entscheidend sei die Arbeit der Freiwilligen gewesen. Es wurde letztlich eine Parallelkampagne unter dem Titel âItâs about YOUâ entwickelt. Das YOU bezog sich auf die Tausenden von Freiwilligen, die zumeist persönliche Beziehungen zu den Menschen an den HaustĂŒren besaĂen, an die sie klopften, und die noch zu ĂŒberzeugen waren.
Man habe sich aber nicht nur an der HaustĂŒre eingemischt, sondern bald wurde jeder Sympathisant zum Freiwilligen. Die moderne Technik half dabei: âWir wollten, dass sich die Leute mit Facebook auf Obamas Internetseite anmelden, um einen Komplettzugriff auf deren Profildaten zu erhalten. Die Daten, die wir hatten, waren der Wahnsinn, und natĂŒrlich schauten wir sie uns an, wann es uns paĂteâ, sagte van de Laar. Dabei ging ein Raunen durch den Saal.
Den entscheidenden Trick hatte van de Laar aber noch gar nicht genannt: WĂ€hler, die sich per Facebook auf Obamas Internetseite anmeldeten, willigten auch ein, dass die Kampagne im Namen der Nutzer Botschaften auf Facebook verbreiten durften. âSie können sich vorstellen, was fĂŒr ein riesiges Asset das in diesem Wahlkampf war.â Die WĂ€hler konnten schlicht nicht mehr unterscheiden, wann sie es mit ihren Nachbarn oder mit der Kampagne zu tun bekamen. FĂŒr die WahlkĂ€mpfer der politischen Parteien im Raum verwies van de Laar auf eine Studie von Infratest Dimap. Auch in Deutschland informierten sich WĂ€hler vorrangig im direkten GesprĂ€ch ĂŒber anstehende Wahlen. âDas, was jetzt gemacht wird, ist der Grundstein fĂŒr die Zukunft, da wird der Trend hingehenâ.
In USA sei man allerdings schon an Grenzen gestoĂen, fĂŒhrte van de Laar aus. Ein Zeichen des Erfolgs im HaustĂŒrwahlkampf seien die vielen Zettel gewesen, auf denen Bewohner notierten, dass sie schon lĂ€ngst ĂŒberzeugt seien, Obama zu wĂ€hlen und keine weitere Störung duldeten. Dass das Wahlrecht den WĂ€hlern Geheimhaltung zubillige, setzten van de Laars Strategen in einem Fall sogar auĂer Kraft. Sie wollten NichtwĂ€hler in den Nachbarschaften in Dankesbriefen nach der Wahl enttarnen. Diesem Vorhaben, âdas 25% Zuwachsâ versprach, setzte eine Morddrohung gegen Mitarbeiter der Kampagne ein frĂŒhes Ende.
âStalkingâ nannte das die Pressesprecherin der Piratenpartei, Anita Möllering, aus dem Publikum. Der von Google mit einem Pauschalgehalt ausgestattete Journalist Tilo Jung, der Googles Videoplattformen fĂŒr politische Interviews unter dem programmatischen Titel âJung & Naivâ nutzt, wollte von de Laar wissen, wie mit den Daten nach der Wahl verfahren wurde und was in Deutschland möglich sei. Die Daten lĂ€gen fĂŒr die nĂ€chsten Kampagnen bereit, antwortete van de Laar. In Deutschland werde der Rahmen des legal Möglichen noch nicht ausgeschöpft. Es gebe âmaximal legale Wege, noch deutlich stĂ€rker vorzugehen und ein besseres Targeting zu machen.â âAlles andere wĂ€re jung und naivâ, sagte van de Laar.â
|
| |