Minutiae. Texte * Bilder * Gedanken


Wörterbuch des philosophischen Alltags (L-Z)

Missbrauchte Wörter

  aktualisierte, mit mehreren neuen Artikeln ergänzte Version (pdf)

Inhalt

All-Inclusive
Blaustrumpf
Blackfacing
Blondine
Bonusmeilen
Bullshit
Cool
Dagobert Duck
Design
Engel
Entsorgung
Fasten
Formel 1
Fremdgehen
Fun Fact
Galanterie
Gentleman
Geiz (ist geil)
Guillotine
HAL9000
Halluzination
Heuschrecke
Innovation
Jogging
Judas
Korrekt, politisch
Kulturbeutel
Kurschatten

(2. Teil)

Lemminge
Leuchtturm
Moorhuhn
Monopoly
Nerd
Netzwerk, soziales
O-Ton
Passwort
Poesiealbum
Quantensprung
Reality TV
Sexy
Shopping
Star Trek
Spielverderber
Supermom
Tamagotchi
Twittern
Umfrage
Visualisierung
Wikipedia
Winnetou
XXL
Yeti
Zehn Gebote, Die
Zickenkrieg

LEMMINGE, possierliche Pelztierchen der Spezies Lemmini, die äußerlich einem Meerschweinchen ähnlich sind, mit schwarz-braunem Fell, einer Stupsnase, winzigen Öhrchen und einem kurzen Schwanz. Wahrscheinlich würden sie heute noch weitgehend unbekannt in den arktischen Regionen unseres Planeten Gras und Moos vor sich hin mümmeln und durch die Gänge ihres ausgedehnten Tunnelsystems streifen, wenn sie nicht schon frühzeitig in den Ruf gekommen wären, sie würden gelegentlich aus unerfindlichen Gründen Massenselbstmord begehen. „Wie die Lemminge“ heißt seitdem: ohne Verstand in einer Herde auf den Abgrund hin zu stürmen und sich geradezu wonnevoll in einen kollektiv-sinnlosen Tod zu stürzen. Wie so viele Gerüchte über das Tierreich ist auch dieses allerdings falsch: Tatsächlich vermehren sich die Lemminge nur, wie viele ihrer Nagetierverwandten, phasenweise sehr stark. Und wenn der Überlebensdruck in ihrer relativ schmalen comfort zone zu stark wird, begeben sich große Gruppen auf eine gefährliche Wanderschaft, die sie häufig nicht überleben – vor allem beim Überqueren großer Flüsse, da Lemminge zwar notfalls schwimmen können, aber leider keine Langstrecken.

Im Mittelalter glaubte man noch, Lemminge würden bei stürmischem Wetter vom Himmel regnen. Heute weiß man, dass die Legende vom Massenselbstmord in einer Walt-Disney-Dokumentation mit dem suggestiven Titel White Wilderness (1958) in die Welt gesetzt wurde. Die Filmleute hatten aber lediglich Eskimokindern so viele der possierlichen Nager abgekauft wie sie nur finden konnten, die Lemminge dann am Drehort auf eine Art rotierendes Karussell gesetzt und aus allen möglichen Winkeln gefilmt, um den Eindruck einer unabsehbaren Menge zu produzieren. Schließlich wurden – Vorsicht, nichts für schwache Gemüter! – die armen und wahrscheinlich sehr verwirrten Lemminge von den Kameraleuten auf den Abgrund zu getrieben, so dass ihnen nichts übrigblieb als – der Sprung in eben diesen. Begierig griff anschließend die Populärkultur die fellsträubende Geschichte auf und machte Computerspiele, Popsongs und Shows daraus. Warum die Lemminge sich übrigens, meist gruppenweise und relativ wohlorganisiert, auf die gefährliche Wanderschaft begeben, von welchem Impuls getrieben und nach welchen geheimen Gesetzen – weiß der Himmel, von dem sie nicht regnen, wenn überhaupt, die Wissenschaft jedenfalls weiß es bis jetzt nicht.
Ziemlich sicher weiß man hingegen, dass es immer wieder historisch Gruppen von Menschen gegeben hat, die gemeinsam freiwillig in den Tod gegangen sind. Im Wesentlichen kann man zwei Spezies von menschlichem Massenselbstmord unterscheiden. Die erste Variante findet statt in einer ausweglosen Situation, zumeist im Krieg. Im Jahr 73 n. Chr. wurde die jüdische Stadt Masada von römischen Truppen belagert; als die Erstürmung der Stadt bevorstand, sollen die Männer durch Los bestimmt haben, wer von ihnen zunächst alle anderen und anschließend sich selbst töten sollte. Es starben beinahe alle Bewohner von Masada, insgesamt über neunhundert Menschen. Ähnliches ereignete sich beim Einmarsch der Roten Armee in Demmin im Mai 1945 (ca. fünfhundert Selbsttötungen). Die Inder haben ein eigenes Wort dafür, Jauhar; es wurde mehrfach praktiziert bei den muslimischen Eroberungen im Mittelalter. In Japan nennt man es Seppuku; hier ist auch ein Fall bekannt, in dem sich zahlreiche japanische Soldaten und Zivilisten nach der Niederlage in der Schlacht um Saipan 1944 tatsächlich von den Klippen ihrer Insel stürzten.
Die zweite Variante hat ausschließlich religiöse Gründe: Anhänger einer Religionsgruppe, meist geführt von einem charismatischen Guru, begehen auf dessen Befehl Massenselbstmord, um sich für den Eintritt in eine höhere Existenz zu qualifizieren: Beim Jonestown-Massaker 1978 starben 921 Menschen für ihren Führer Jim Jones durch den Genuss zyanidhaltiger Limonade; 1994 töteten sich 61 Sonnentempler in der Schweiz, und das sind nur die bekanntesten und erstaunlicherweise historisch recht jungen Beispiele. Auch von der fanatischen Religiosität führt also ein direkter Weg die Klippe herab; im Unterschied zur politischen Variante des ultimativen Auswegs aus einer als aussichtlos empfundenen, akut lebensbedrohlichen Situation sind die Motive hier jedoch ultra-irrationalistisch, und von Freiwilligkeit kann nur in einem sehr eingeschränkten Sinn die Rede sein.
Der Selbstmord an sich ist nicht nur laut Albert Camus das einzige „wirklich ernste philosophische Problem“, das die Grundfrage der Philosophie beantwortet; er ist zunächst ein sehr reales psychologisches und soziologisches Phänomen. Besonders bemerkenswert ist im Blick auf den Lemminge-Mythos, dass Suizide gehäuft auftreten, wenn sich bekannte Persönlichkeiten das Leben genommen haben – weshalb es eine sogar weitgehend respektierte Richtlinie des Deutschen Presserats gibt, darüber nicht zu berichten. Dieser Nachahmungseffekt wurde nach Goethes Roman Die Leiden des jungen Werthers (1774), dessen Held sich aus unglücklicher Liebe erschießt, „Werther-Effekt“ getauft; denn schon damals folgten gerüchteweise eine nicht genau bezifferte Zahl junger Menschen Werthers Vorbild, was Goethe veranlasste, der zweiten Auflage den wohl ersten Warnhinweis der Literaturgeschichte voranzustellen: „Sei ein Mann und folge mir nicht nach!“ Neueren Studien zufolge tritt der Werther-Effekt verstärkt in denjenigen sozialen Gruppen auf, die sich mit dem „Vorbild“ bezüglich Geschlecht, Alter, sozialer Stellung identifizieren; weshalb der auch kaum geheim zu haltende Suizid des Profifußballers Robert Enke besonders gefährlich für junge Männer war. Auch bestimmte Orte, berühmte Brücken beispielsweise, scheinen eine besondere Anziehungskraft auszuüben, von hier aus den Absprung in den Abgrund, wie schon so viele Leidensgenossen zuvor, zu tun.
Trotz Camus‘ bereits zitierter Einschätzung der Selbsttötung als eigentliches philosophisches Kern- und Wurzelproblem ist das Thema im philosophischen Diskurs einigermaßen tabuisiert. Einzig David Hume hat sich in einer erst nach seinem Tod veröffentlichten Abhandlung sehr deutlich für das Recht des Einzelnen, seinem Leben ein Ende zu setzen, ausgesprochen. Er argumentiert dabei einigermaßen skrupellos, aber in der Sache wenig widerlegbar: „Ein Haar, eine Fliege, ein Insekt ist imstande das mächtige Wesen, dessen Leben von solcher Bedeutung ist, zu zerstören. Ist die Annahme absurd, daß menschliche Einsicht verfügen darf über das, was von so nichtigen Ursachen abhängig ist? Den Nil oder die Donau aus ihrem Lauf abzulenken wäre kein Verbrechen, wenn ich es vermöchte. Wo ist denn das Verbrechen, einige wenige Unzen Blut aus ihrem natürlichen Kanal abzulenken? Meint Ihr, daß ich gegen die Vorsehung murre oder meine Erschaffung verwünsche, weil ich aus dem Leben gehe und einem Dasein ein Ende mache, das mich elend machte, wenn ich es fortsetzte?“ Letztendlich gebe es aus der Perspektive des großen Weltganzen sowieso keinen Tod, sondern nur Veränderung, Verwandlung, Neugeburt: „Wenn ich tot sein werde, werden die Elemente, aus welchen ich zusammengesetzt bin, noch ihren Dienst in der Welt tun und in der großen Werkstatt von gleichem Nutzen sein, als da sie dieses individuelle Geschöpf bildeten. Für das Ganze wird der Unterschied nicht größer sein als zwischen meinem Aufenthalt im Zimmer oder im Freien.“ David Hume starb übrigens mit 65 Jahren als wohlhabender Mann und anerkannter Schriftsteller (der Vatikan hatte seine Schriften allerdings auf den Index gesetzt, und man kann angesichts der Position zum Selbstmord durchaus verstehen, warum). Sein Freund Adam Smith berichtete von seinem letzten Lebensjahr, zwar habe ihn seine Gesundheit im Stich gelassen (überliefert ist eine chronische Diarrhöe von mehr als einem Jahr Dauer), aber er sei heiter gewesen, habe sich mit seinen Freunden vergnügt, Karten gespielt und Bücher gelesen.
Die völlig entgegengesetzte Position, nämlich das strikte Verbot der Selbsttötung, vertritt nicht nur traditionell die Kirche, sondern auch beispielsweise Immanuel Kant: Sich selbst zu töten heiße, die Menschheit in seiner Person herabzuwürdigen und seiner Pflicht zur Erhaltung eben dieser Person nicht gerecht zu werden. Arthur Schopenhauer hingegen, neben Hume der zweite berühmte Suizid-Fürsprecher, hält die Selbsttötung zwar für erlaubt, aber für eine „vergebliche und darum törichte Handlung“. In ihr äußere sich gerade der unaustilgbare Wille zum Leben als unzerstörbares Grundprinzip: „Hingegen auch umgekehrt: wen die Lasten des Lebens drücken, wer zwar wohl das Leben möchte und es bejaht, aber die Qualen desselben verabscheut, und besonders das harte Los, das gerade ihm zugefallen ist, nicht länger tragen mag: ein solcher hat nicht vom Tode Befreiung zu hoffen und kann sich nicht durch Selbstmord retten; nur mit falschem Scheine lockt ihn der finstere kühle Orkus als Hafen der Ruhe. Die Erde wälzt sich vom Tage in die Nacht; das Individuum stirbt; aber die Sonne selbst brennt ohne Unterlaß ewigen Mittag. Dem Willen zum Leben ist das Leben gewiß: die Form des Lebens ist Gegenwart ohne Ende; gleichviel Zeit entstehn und vergehn, flüchtigen Träumen zu vergleichen.“ Durchaus ähnlich wie bei Hume ist auch bei Schopenhauer der Selbstmord bedeutungslos im Angesicht des großen Weltganzen, des Universums, des alles umfassenden Willens zum Leben. Nietzsche schließlich führt den Gedanken noch einen logischen Schritt weiter: „Man geht nie durch jemand anderes zugrunde, als durch sich selbst“ – und das gelte auch für den sog. ‚natürlichen‘ Tod. Der Mensch ist, auch wenn er sich etwas anderes einbildet, sowieso nichts als ein besserer Lemming mit Daumen im Angesicht des Universums.
Am konsequentesten hat jedoch Sigmund Freud den dunklen Trieb zum Abgrund im Menschen analysiert. War er zunächst noch davon ausgegangen, dass alles menschliche Handeln vom Lustprinzip regiert werde, kommt er im Laufe seiner Studien beinahe wider Willen dazu, einen zweiten, genauso urtümlichen Trieb zu diagnostizieren, den zum Tode nämlich. In Jenseits des Lustprinzips (1920) wird es bündig heißen: „Das Ziel alles Lebens ist der Tod, und zurückgreifend: Das Leblose war früher da als das Lebende“. Darin unterscheide sich der Mensch übrigens in nichts vom Tier, und der Glaube an die Vervollkommnungsfähigkeit der Menschheit als überlegenes Geschlecht sei nichts als eine „wohltuende Illusion“. Der Todestrieb sei vielmehr der natürliche Gegenspieler des Lustprinzips, der auf bedingungsloses Überleben durch Fortpflanzung programmiert sei; der Todestrieb hingegen gehe auf Rückkehr in einen unbelebten, anorganischen Zustand aus, der allem Leben vorgeordnet sei. In seinen späten kulturgeschichtlichen Schriften schließlich, die Freud im Angesicht des sich abzeichnenden Zivilisationsbruchs schrieb, wandelte er den Todestrieb zu einem allgemeinen Destruktionstrieb um, der sich nicht nur im Individuum, sondern in der Menschheit als Ganzem ausdrücke: „Und nun, meine ich, ist der Sinn der Kulturentwicklung nicht mehr dunkel. Sie muß uns den Kampf zwischen Eros und Tod, Lebenstrieb und Destruktionstrieb zeigen […]. Dieser Kampf ist der wesentliche Inhalt des Lebens überhaupt, und darum ist die Kulturentwicklung kurzweg zu bezeichnen als Lebenskampf der Menschenart“. Auch hier obsiegt also am Ende die kollektive Perspektive: Wie die Lemminge kämpft die Menschheit ums Überleben; und wie die Lemminge kann sie dabei dem Tod nicht entfliehen.
Freud starb übrigens 83jährig im Londoner Exil. Seit 17 Jahren litt der Kettenraucher an einem Gaumenkrebs, bereits 1923 waren ihm der rechte Oberkiefer und der Gaumen operativ entfernt worden und er trug eine Prothese im Mund, bis zu seinem Tod folgten 33 weitere Operationen. Schließlich verabreichte ihm sein Hausarzt auf seinen eigenen Wunsch hin am 23. September 1939 morgens eine Überdosis Morphium, die Freuds Leben beendete. Bis zum Ende aber kämpfte er mit seinem eigenen Konstrukt, dem Todes- oder Destruktionstrieb; „darum würden wir es als Erleichterung empfinden, wenn unser ganzer Gedankenaufbau sich als irrtümlich erkennen ließe“, so hatte er schon in Jenseits des Lustprinzips geschrieben. Der zweite Weltkrieg jedoch hat seine ungeliebte These mehr als bestätigt. Die Lemminge, immerhin, brauchen im Unterschied zum Menschen keine Kriege als Vorwand für die Art von kollektivem Selbstmord, die nur ein anderer Name für Krieg ist.
          
LEUCHTTURM, Gebäude meist in Form eines Turms, das ein Leuchtfeuer aussendet und dadurch Schiffen den Weg weist und sie vor gefährlichen Untiefen warnt. Leuchttürme stehen meist an exponierten Stellen am oder im Meer; sie sind seit der Ausrüstung mit Fresnel-Linsen ab etwa 1820 durch eine bestimmte Frequenz der ausgesendeten Lichtzeichen eindeutig zu identifizieren. Metaphorisch wird der Begriff „Leuchtturm“ seit jeher gern verwendet, um etwas zu bezeichnen, das weithin sichtbar ist (vgl. visibility) und orientierenden Charakter hat; so beispielsweise bei „Leuchtturmprojekten“ in Wissenschaft und Forschung. In ihrem Roman To the Lighthouse hat die englische Autorin Virginia Woolf den Leuchtturm zum Leitmotiv der modernen Suche nach Orientierung gemacht: „For they must go for the Lighthouse after all“. Es wird allerdings ein halbes Leben dauern, bis die Romanfiguren dieses eigentlich ständig in Sichtweite befindliche Ziel ihrer kindlichen Sehnsucht endlich erreichen.
Türme haben schon in der frühen Menschheitsgeschichte gleichermaßen die Erhebung des Menschen hin zu Gott symbolisiert als auch orientierende Funktionen ausgeübt. Ein erstes Leuchtturmprojekt in diesem Sinne war der wohlbekannte Turm von Babel: „Wohlauf, laßt uns eine Stadt und einen Turm bauen, des Spitze bis in den Himmel reiche, daß wir uns einen Namen machen! Denn wir werden sonst zerstreut in alle Länder“ (Genesis 11, 4). Archäologen konnten beweisen, dass ein Turm von Babylon wirklich existiert hat. Es handelte sich wahrscheinlich um eine Tempelanlage in Form einer Zikkurat, im Format quadratisch-praktisch-gut: Seine Grundfläche betrug ebenso wie seine Höhe mutmaßlich 91 Meter. Im ersten Jahrtausend vor Christus wurde er mehrfach zerstört und wieder neu aufgebaut; der letzte in einer langen Reihe von Eroberern, die sich hier als Baumeister betätigten, war Alexander der Große. Die Sprachverwirrung, die Gott als Strafe für die menschliche Überhebung im unmittelbaren Anschluss an die Tat verhängte, war zu diesem Zeitpunkt bereits vollkommen, der Zerfall der Bausubstanz nur noch eine Frage der Zeit („There’ll be no landing at the Lighthouse tomorrow“  so werden auch bei Virginia Woolf die sehnsüchtigen Kinder immer wieder abgewiesen).
Vor der Zeitenwende haben es aber bereits zwei andere, im doppelten Sinne „Leuchtturmprojekte“ in die Hitliste der Weltwunder geschafft: der Koloss von Rhodos und der Pharos von Alexandria. Bei ersterem handelte es sich um eine über 30 m hohe (also nur ein Drittel des Babel-Turms) monumentale Bronzestatue des Sonnengottes Helios, die an der Hafeneinfahrt von Rhodos in zwölfjähriger Bauzeit erreichtet wurde; die Rhodier glaubten, ihr Schutzgott habe sie vor der Eroberung durch Demetrios I. gerettet. Bis weit in spätere Zeiten war der angeblich mit von Mole zu Mole gespreizten Beinen dastehende Gott ein beliebtes Bildmotiv (er müsste allerdings dafür eine Schrittweite von ca. 750 m gehabt haben). Seine Lebensdauer war jedoch wie die des Babylon-Projekts begrenzt: Bereits 224 vor Christus stürzte er bei einem Erdbeben ein – was gleichzeitig diejenigen Autoren in der antiken Literatur bestätigte, die in ihm schon immer ein Symbol des menschlichen Größenwahns gesehen hatten („No going to he Lighthouse, James“, sagt der Vater immer wieder mit erhobenem Zeigefinger).
Während es nicht ganz zu klären ist, ob der Koloss wirklich auch als Leuchtfeuer diente, steht das beim Großen Leuchtturm von Alexandria fest. Er soll über 100 Meter hoch gewesen sein (also etwas höher als der Turm von Babel) und ruhte auf einer massiven Plattform aus Granit, die mit Götterbildern geschmückt war. Nach seinem Standort auf der Insel Pharos, gelegen am Hafeneingang nach Alexandria, wurde er auch pharus alexandrinus genannt; daraus leiten sich die Wörter für Leuchtturm in den romanischen Sprachen ab (frz. phare, it. faro). Auch er fiel einer Reihe von Erdbeben zum Opfer, hielt sich jedoch immerhin noch bis zum 14. Jahrhundert halbwegs aufrecht. Eine Anekdote, die Lukian von Samosata über seinen Baumeister Sostratus erzählt, thematisiert dabei bereits die Vergänglichkeit von ambitionierten Leuchtturmprojekten: „Erinnere dich, wie es jener knidische Baumeister machte, der den berühmten Leuchtturm auf Pharos, eines der größten und schönsten Werke in der Welt, baute, um aus dessen Spitze den Seefahrern bei Nacht ein Zeichen zu geben, um sich vor den Klippen von Parätonium hüten zu können, zwischen welche man ohne die äußerste Gefahr nicht geraten kann. Wie er dieses große Werk vollendet hatte, grub er seinen eigenen Namen in den Stein, woraus es erbaut ist; den Namen des damaligen Königs hingegen bloß auf den Kalk, womit er den Stein überzog; wohl wissend, daß diese Aufschrift in ziemlich kurzer Zeit mit der Tünche abfallen und alsdann jedermann die Worte lesen würde: ‚Sostratus, des Dexiphanes Sohn, von Knidos, den erhaltenden Göttern, für die Seefahrer.‘ – Dieser Sostratus sah also über die kurze Zeit seines eigenen Lebens hinaus, in die jetzige und in alle die künftigen Zeiten hinaus, solange der Leuchtturm von Pharos, als Denkmal seiner Kunst, dauern wird“.
Der griechische Spötter und Satiriker Lukian war es auch, der erstmals in seiner Phantasie einen Blick auf die Erde von oben warf und dabei die Leuchttürme als Wegmarken entdeckte. In seinem Dialog Ikaromenippus oder Die Luftreise fordert er den Gesprächspartner auf: „Schwinge dich also, so gut du kannst, in Gedanken mit mir zum Mond empor und reise mir nach und beobachte, wie sich die Dinge auf der Erde von dort aus den Augen zeigen werden. Fürs erste bilde dir ein, du sehest die Erde ganz außerordentlich klein, ich will sagen, noch kleiner als den Mond; so daß ich mir, wie ich zum ersten Mal hinunterguckte, gar nicht vorstellen konnte, wo alle die hohen Berge und das so große Weltmeer geblieben wären; und ich versichre dich, hätte ich den Koloß zu Rhodus und den Leuchtturm bei Pharos nicht erblickt, ich würde die Erde gar nicht einmal gefunden haben; so aber ließen mich jene so hoch emporragende Kunstwerke und der Sonnenglanz, der mir aus dem Ozean entgegenspiegelte, schließen, daß das, was ich sah, die Erde sei. Wie ich aber einmal die Augen scharf darauf geheftet hatte, wurde mir alles so deutlich, daß ich nicht nur Völker und Städte ganz genau erkennen, sondern sogar sehen konnte, wie die einen auf dem Meere dahersegelten, andere Krieg führten, noch andere ihr Feld bauten und wieder andere zu Gerichte saßen; ich unterschied sogar Männer und Weiber und Tiere und überhaupt“. Google Street View war noch nicht erfunden, sonst hätten „Männer und Weiber und Tiere und überhaupt“ vielleicht Klage wegen der Verletzung ihrer Persönlichkeitsrechte eingereicht; so aber überwiegt das Faszinosum an den monumentalen Errungenschaften der Menschheit, wie sie sich bis ins All an den Leuchttürmen manifestiert („Do take me to the Lighthouse with you. I should so love it!”, bettelt der kleine James immer wieder).
Spätere Literaten sind Lukian gefolgt; Leuchttürme tauchen immer wieder als beliebte Dingsymbole in literarischen Texten auf. In Fontanes Roman Unwiederbringlich sind sie lebensorientierend – „Nun, ein Leuchtturm war es gewiß, für dich und mich, ein Licht fürs Leben und hoffentlich bis in den Tod“; in Geibels An den König von Preußen politisch wegweisend:
Doch dir, o Fürst aus edlem Stamme,
Der treu vor Gott sein Volk regiert,
Den schöner noch des Geistes Flamme
Als seiner Väter Krone ziert,
Auf den, wenn sich die Wolken schwärzen,
Als Leuchtturm schauet Deutschlands Kern.
Weniger heroisch hingegen geht es zu bei Heinrich Heine im Buch der Lieder, wo es ein wenig doppeldeutig an ein unbekanntes lyrisches „Du“ gerichtet heißt:
Du aber standest fest gleich einem Turme;
Ein Leuchtturm war dein Kopf mir in dem Sturme,
Dein treues Herz war mir ein guter Hafen.
Wohl wogt um jenen Hafen wilde Brandung,
Nur wen'ge Schiff' erringen dort die Landung,
Doch ist man dort, so kann man sicher schlafen.
Schließlich hat die Phantasie der Dichter (in diesem Fall Kurt Tucholsky) auch der einsame Leuchtturmwärter beflügelt, der abgeschnitten von der Außenwelt seinen Pflichten treu nachkommt und ergeben auf die Ablösung oder das Postschiff wartet. „Mein Beruf – ich bin Zweiter Leuchtturmwächter auf der kleinen Ostseeinsel Achnoe, und die Nächte sind lang – mein Beruf zwingt mich, viel und ausgiebig zu lesen. Um neue Bücher ist mir nicht bange – die bekomme ich von meinem Freund, Herrn Andreas Portrykus, dem Nachtredakteur des ›Strahlförder Generalanzeigers‹ (mit Unfallversicherung). Er schenkt mir alle Rezensionsexemplare, und so lese ich Nacht für Nacht, alles durcheinander: Romane und Reisebeschreibungen und zarte, sinnige Geschichten aus edler Frauenhand, und was man eben so liest“ („What does one send to the lighthouse indeed?“, fragen sich auch Virginia Woolfs inzwischen erwachsen gewordene Helden, als der lange geplante Besuch endlich stattfinden soll). Leuchttürme sind insofern auch Inseln der Abgeschiedenheit in einer immer hektischer werdenden Welt, die keinen Platz mehr für lesende Leuchtturmwärter hat und denkmalsgeschützte Leuchttürme allenfalls zu Therapiezwecken an zivilisationsgeplagte Manager oder die Einsamkeit suchende Künstler vermieten könnte (vgl. Retreat).
Den diversen literarischen Leuchttürmen sind eher wenige philosophische an die Seite zu setzen, trotz des durch Plutarch überlieferten Imperativs des Pompejus: Navigare necesse est (Seefahrt tut not, in der kernigen deutschen Übersetzung; frei nach Virginia Woolf: „for they must go to the Lighthouse after all!“). Pompejus wies damit recht heroisch auf die höhere Notwendigkeit der pünktlichen Getreideversorgung der Hauptstadt gegenüber den mit dem aufziehenden Sturm verbundenen Gefahren für das eigene Leben hin (die Selbstverleugnung wird allerdings etwas gedämpft durch die spätere Ergänzung: sed sine vita non navigamus – ohne Leben auch keine Seefahrt). Leuchttürme im philosophischen Sinne dienen darüber hinaus primär der Orientierung im Denken; man vergleiche dazu Kants kleinen Aufsatz Was heißt sich im Denken orientieren? Der dann und wann recht bildverliebte Königsberger Binnenphilosoph unterscheidet hier verschiedene Arten von Orientierung. Als erstes führt er die ganz natürliche geographische Orientierung an, die es dem Menschen erst erlaubt, sich in der Welt zu bewegen; diese kann auf abstrakterer Stufe erweitert werden durch die mathematische Orientierung. Die wichtigste Orientierung überhaupt jedoch, so Kant in Rechtfertigung des eigenen Leuchtturm-Projekts der Kritik aller Erkenntnisvermögen, bietet ein „reiner Vernunftglaube“ als „Wegweiser oder Kompaß, wodurch der spekulative Denker sich auf seinen Vernunftstreifereien im Felde übersinnlicher Gegenstände orientieren“ soll. Wobei es bezeichnend ist, dass Kant sich vom weiten Feld des Meeres mit seinen sturmumtosen Leuchttürmen bildlich nun aufs feste Land mit seinen stabilen Wegweisern rettet – dort bleibt man vielleicht doch am sichersten vor dem Ozean der Metaphysik geschützt („No, the other was also the Lighthouse. For nothing was simple one thing. The other was the Lighthouse too”, heißt es bei Virginia Woolf philosophisch tiefgründig).
Heutzutage sind Leuchttürme ebenso wie Kompasse eigentlich nutzlos geworden und dienen nur noch der sentimentalen Erinnerung an frühere, erschreckend orientierungslose, aber dafür umso bilderfreundlichere Zeiten („The Lighthouse was then a silvery, misty looking tower with a yellow eye that opened suddenly and softly in the evening“, heißt es über den Leuchtturm bei Virginia Woolf). Orientierung auch im fremdesten Gebiet verschafft einem jeden ein kleiner viereckiger Kasten, der in freundlichem Tonfall auch noch den unorientiertesten Automobilisten (vgl. Mobilität) belehrt: „Bei nächster Gelegenheit bitte wenden und in hundert Meter rechts abbiegen. In fünfzig Meter rechts abbiegen. Jetzt abbiegen“. Gestützt auf das von den Amerikanern entwickelte GPS-Satellitennavigationssystem kann jederzeit der eigene Ort bestimmt und auf einer Karte elektronisch angezeigt werden. Und wenn die freundliche Stimme dann auch noch säuselt: „Sie haben Ihr Ziel erreicht!“, fühlt sich jeder endlich einmal wirklich angekommen. Mit Virginia Woolf bleibt allerdings zu bedauern: „the Lighthouse had become almost invisible”.
          
LINGUISTIC TURN, sprach(wissenschaftliche) Wende oder: Wende zur Sprache. Der linguistic turn war der Urvater aller folgenden turns in Philosophie, Geistes- und Sozialwissenschaften vom Beginn des 20. bis ins 21. Jahrhundert hinein. Geboren aus dem Überdruss am Idealismus (Hegel und die Folgen) und am Materialismus (Marx und die Folgen), entdeckten analytische Philosophen (Gottlob Frege) und sprachphilosophisch orientierte Meisterdenker (Bertrand Russell, Ludwig Wittgenstein) die menschliche Sprache neu – nicht als williges Werkzeug oder eher sprödes Material zum Definitionenschmieden, sondern als dasjenige, was Bedeutung, Sinn, Erkenntnis erst konstituiert. Natürlich war die Idee nicht völlig neu. Schon Platon hatte in seinem Dialog Kratylos eine Theorie des perfekten Wortes vorgelegt, das der Idee sozusagen von Gott auf den Leib geschneidert ist. Aber er hatte es noch nicht einen linguistic turn genannt (glossiki strophi wäre aber auch ein gutes Label gewesen). Diese hochwirksame Etikettierung warf erst der amerikanische Philosoph Richard Rorty 1967 auf den Begriffsmarkt. Von den Philosophen und den Sprachwissenschaftlern aus breitete sie sich quasi-pandemisch über alle möglichen Disziplinen aus und mutierte dabei zu – einer ganzen Galerie weiterer turns, akademischer Wendeübungen sozusagen. Die eigentlich interessante Grundfrage bei all dem ist jedoch: Sind Wenden angelegt in der Natur des wissenschaftlich denkenden Menschen (nennen wir ihn: homo scientificus) und deshalb sozusagen eine anthropologisch-dialektische Pflichtübung (homo scientificus ist das Wesen, das sich wendet), der man sowieso nicht entgehen und die man deshalb durchaus ins Produktive wenden kann? Oder sind Wenden reine Sprachspiele aus dem universitären Kindergarten (auch als Wissenschaftler bleibt der Mensch das Wesen, das ständig neue Kleider braucht): Heute trägt man linguistic, morgen cultural und übermorgen wartet bestimmt schon der nächste turn um die Ecke?
Schicken wir zur Beantwortung dieser Frage die großen turns auf den Laufsteg. Auf den linguistic folgt, wir springen nun schon in die 70er Jahre des 20. Jahrhunderts (in der ersten Hälfte hatten die Wissenschaften anderes zu tun, und nicht unbedingt Besseres), der schon erwähnte cultural turn. Getrieben diesmal unter anderem von der multikulturell erwachten Ethnologie (Clifford Geertz) und der quellenkritisch gewendeten Geschichtswissenschaft (Hayden White) tritt die „Kultur“ ins Zentrum wissenschaftlichen Fragens und Forschens. Dabei bleibt weitgehend diffus, was mit „Kultur“ - oder culture im englischen, was etwas anderes ist als „Kultur“, was es nicht gerade einfacher macht mit der Präzisierung – eigentlich genau gemeint sein soll. Aber man ist sich vage einig, dass es ruhig ein wenig mehr Populär- und nicht mehr nur Hochkultur sein soll; was der pandemischen Ausbreitung wiederum hilfreich ist, Kultur lässt sich als Label sowieso so ziemlich an alles und jedes anheften (natürlich gab es das schon vorher. Herder wäre zu erwähnen, der weitgehend vergessene Erfinder der Kulturgeschichte wie der Kulturphilosophie. Aber er hat es nicht turn genannt, er glaubte ja auch noch an Gott als Vater aller Wenden).
Doch noch während die Kultur um sich greift, wird sie schon vom spatial turn (auch: topologische Wende, hin zum Raum) bedrängt. Jetzt sind die Geographen an der Reihe, die den „Lebensraum“ möglichst schnell vergessen wollen, und auf einmal sind Räume nicht mehr nur Dinge auf Landkarten oder Kontinenten, sondern soziale Räume, Denkräume, Anschauungsräume – Dinge in Köpfen also (Anschauungsformen, das war bei Kant schon so. Er hat es aber nicht Wende genannt; er sprach nur von „Umänderung der Denkart“ in seiner Kritik der reinen Vernunft, und zum Initiator der „kopernikanischen Wende“ in der Philosophie hat ihn erst die Philosophiegeschichte gemacht, die Helden gerade dringend brauchte). Demgegenüber hat sich der temporal turn nicht wirklich durchsetzen können; wahrscheinlich, weil Zeit schon immer ein Ding in Köpfen war (außerdem ist sie wirklich schwer zu verstehen, das wusste schon Augustinus).
Hingegen betritt nun energisch der visual turn (auch: ikonische Wende, hin zum Bild) den Laufsteg. Kunstwissenschaftler mutieren zu Bildwissenschaftlern, nein, eigentlich alle, die genug vom Buch haben, bekommen jetzt bildwissenschaftliche Kostüme (in der Antike nannte man das epkphrasis, es gibt gute Bücher dazu). Aber nun sind wir schon zu Beginn des 21. Jahrhunderts angekommen, die alten turns drücken sich noch im Hintergrund herum und wollen nicht abtreten, doch es drängen in immer dichterer Folge auf die Bühne: der material turn (Artefakte, Wissen zum Anfassen, was tatsächlich relativ neu ist; Dinge hat man sonst den Naturwissenschaften überlassen, damit sie sich die Finger daran schmutzig machen), der emotional turn (wohingegen man über Emotionalisierung als Kulturtechnik schon bei Aristoteles gute Gedanken lesen kann), der areatic turn (die Wende hin zu guten altmodischen Tugenden in der praktischen Philosophie, und nein, mit den antiken Vorgängern fangen wir jetzt gar nicht an) - und so weiter und so fort, und ein Ende ist nicht abzusehen.
Wir hingegen kommen nun, in einer mäßig eleganten Wende, zu unserer Anfangsfrage zurück. Was ist der turn in den Wissenschaften jetzt also: reine Arabeske, pflichtmäßige Turnübung, des Kaisers neue Kleider ins akademische Milieu versetzt? Oder doch ein Grundmuster menschlichen Denkens und Forschens, das sich eben in Wenden vollzieht und nicht als Einbahnstraße den Berg hinaufführt, und ganz oben winken der Gipfel des Wissens, die große vereinheitlichte Welttheorie, die Erhebung des homo scientificus zum homo deus? Positiv gewendet, könnte man sagen: Die diversen turns waren durchaus produktiv darin, neue Perspektiven auf alte Gegenstände und Methoden zu eröffnen. Sie waren eine Frischzellenkur für erschöpfte Geistes- und Sozialwissenschaften (die Naturwissenschaften verjüngen sich von selbst; es hilft eben, wenn man – in Grenzen – verifizierbares oder wenigstens überprüfbares Wissen mit natürlichem Verfallsdatum generiert). Sie haben auch die zeitweise ziemlich verbarrikadierten Grenzen zwischen den Disziplinen ein wenig aufgebrochen: Ebenso wie die „Sprache“ vagabundieren die „Kultur“, die „Bilder“ oder die „Dinge“ frei zwischen den Gegenstandsgebieten, die man vorher künstlich auseinandersortiert hatte. Turns können dadurch, in Glücksfällen, eine Art Überblickswissen hervorbringen; vielleicht sogar, in noch größeren Glücksfällen, eine engere Anbindung akademischen Wissens an Alltags- und Welterfahrung: Wir alle gehen um mit Bildern, mit Sprache, mit Dingen, mit Räumen, mit Emotionen. Negativ gewendet, generieren Turns allerdings jede Menge modische Absurditäten und dienen der Etablierung neuer Alleinvertretungsansprüche (frei nach dem Ricola-Motto: „Wer hat’s erfunden?“). Sie wenden Altbekanntes nur, entstauben es allenfalls ein wenig, aber husten danach ziemlich stark, weil ihnen der Staub in die Augen geflogen ist und sie jetzt gar nichts mehr sehen. Und wie immer ist wahrscheinlich beides wahr: in unterschiedlichen Kontexten, unter unterschiedlichen Randbedingungen, in unterschiedlichen Graden, in Anwendung auf den Einzelfall nämlich. Es waren Meisterdenker, originelle Köpfe, Grenzüberschreiter, die die jeweilige Wende „erfanden“, weil sie etwas gefunden hatten, das zu Unrecht ganz hinten im Kleiderschrank lag (es gibt nichts Neues unter der Sonne, Bibel, Prediger Salomo. Und ganz gewiss nicht in Kleiderschränken). Und sie haben es nicht nur entstaubt, sondern in eine gänzlich neue Form gebracht. Hinter ihnen aber drängelten sich die Nachtreter, die Modenarren, die Groupies der Wissenschaft, die sich alle ein Fähnchen vom neuesten Fummel anheften wollten, bis der nächste neue Schrei ertönt.
Ergo: Der Mensch ist das Wesen, das sich wendet, und er ist es auch in der Wissenschaft. Das ist kein Grund zum Hochmut. Er hätte das nicht nötig, wenn er eine Eule wäre, beispielsweise, die beinahe den ganzen Gesichtskreis allein durch das Drehen des Kopfes abdecken kann; oder wenn er ein Insekt wäre, dessen zehntausend Einzelaugen ihm ein wahrlich hinreichend facettiertes Bild der Welt liefern. Und der Mensch ist ebenso das Wesen, das ständig neue Kleider braucht weil er sonst nackt dastünde, und weil er sich nicht häuten kann wie eine Schlange, oder sich verpuppen, wie ein Schmetterling. Goethe, Feind jeder abrupten Wendung und Anhänger der langsamen, sich wie ein Blatt entfaltenden Verwandlung aus sich selbst heraus und im Austausch mit der Welt, hat gesagt (nein, er hat es einer seiner klügeren Figuren in den Mund gelegt): In der Mitte liege nicht etwa die Wahrheit; das sei nur ein verbreiteter Irrtum. Was in der Mittel liege, sei einzig und allein das „Problem“ – „unerforschlich vielleicht, vielleicht auch zugänglich, wenn man es darnach anfängt“. Die Welt aber ist ein Problem für die Wissenschaft, die niemals Endlösungen produzieren kann (zum Glück). Und wenn es sich nicht mit einem Blick erfassen lässt, dann vielleicht am besten – gewendet und aus verschiedenen Blickrichtungen?
          
MONOPOLY (von griech. mono: allein und polein: kaufen), ein bei Alt und Jung beliebtes Brettspiel, heute erhältlich in 111 Versionen und 43 Sprachen nicht nur auf dem gesamten Globus, sondern auch im All: die „Heute“-Edition war 2007 an Bord der Raumfähre „Atlantis“ dabei (Mission: „Fliegen Sie zum ISS. Begeben Sie dich direkt dorthin. Fliegen Sie nicht über den Mars und ziehen Sie keine weiteren staatlichen Fördergelder ein!“). Der Begriff bezeichnet eine Marktsituation, in der ein bestimmtes Gut nur von einem Verkäufer angeboten wird, der deshalb weitgehend dessen Preis bestimmen kann. Bereits die Geschichte von Monopoly selbst ist ein gutes Beispiel für diejenigen wirtschaftlichen Prozesse, die im Zusammenhang mit Monopolbildungen auftreten: Sie ist ein Kampf um geistige Urheberrechte, gesichert durch Patente, deren Vermarktung durch Monopolisten übernommen wird, die ihre beherrschende Marktstellung durch Klagen und Legendenbildungen zu schützen versuchen. Dass das Spiel eigentlich bereits 1904 von einer Engländerin namens Elizabeth Magie Philipps unter dem Namen The Landlord’s Game erfunden und patentiert wurde, war lange Zeit unbekannt; es kam erst in einem langwierigen Rechtsstreit ans Licht, den der Erfinder eines Anti-Monopoly, ein Professor namens Ralph Anspach, gegen die Firma Parker führte, die 1935 die Rechte auf die alleinige ökonomische Verwertung von einem Amerikaner namens Charles Darrow erworben hatte. Darrow hatte sich das Spiel, so die Firmenlegende, ausgedacht, um die vielen Arbeitslosen in der Weltwirtschaftskrise in den 30er Jahren zu beschäftigen. Nachdem er das Spiel eine Zeitlang sehr erfolgreich in Heimarbeit gefertigt und in Kaufhäusern vertrieben hatte, erwarb der Spielhersteller Parker die Rechte von ihm und sorgte für die weltweite Verbreitung. Im Rahmen der Globalisierung gibt es inzwischen alle nur denkbaren geographischen Varianten vom „Monopoly Oberpfalz“ bis zum „Monopoly World“, alle marktgängigen Merchandising-Kooperationen von Monopoly Star Wars bis Monopoly Sponge Bob, alle technisch machbaren Medien-Versionen vom Kartenspiel über das Videospiel bis hin zum Applet für das iPhone.
Die Spielphilosophie des Monopoly ist ein genaues Abbild des Kapitalismus im Kleinen, mit einer Ausnahme: Beim Monopoly wird anfangs jeder mit dem gleichen Grundkapital ausgestattet, um ihm die Teilnahme zu ermöglichen. Das Ziel ist die unbedingte persönliche Gewinnmaximierung durch Ausschaltung der Konkurrenz – wer pleite ist, spielt nicht mehr mit („Gehen Sie zum Arbeitsamt. Begeben Sie sich direkt dort hin. Gehen Sie nicht über Los, sondern ziehen Sie Hartz IV ein!“). Theoretisch kann das Spiel unbegrenzt lang gespielt werden, da die Bank definitionsgemäß niemals Pleite gehen kann und notfalls ein provisorisches Notgeld bekommt (dass dies ein realistisches Detail ist, wurde jedoch erst kürzlich deutlich). Wie im richtigen Leben hat der Staat das Gewaltmonopol („Gehen Sie sofort ins Gefängnis!“) und das Steuermonopol („die Einkommensteuer ist fällig!“). Die Gesellschaft der Spielenden tritt auf als geschlossene Klassengesellschaft, ordentlich hierarchisch auf dem Spielbrett angeordnet: Von den luftigen Höhen der Schloss- und Parkstraße in edlem Königsblau geht es über die Einkaufs- und Verwaltungsbezirke (Rathausplatz, Hauptstraße) durch die Wohnbezirke des gehobenen Großbürgertums (Goethestraße, Opernplatz) über die Mietskasernen des unteren Mittelstands (Berliner Straße, Wiener Straße) zu den Industrievierteln (Elektrizitätswerk, Hafenstraße), und schließlich durch die nur noch hellblau-blassen Vororte (Poststraße, Elisenstraße) zu den trashig-pinkfarbenen, zweifelhaften Bezirken von Turm- und Badstraße. Belohnt wird die Akkumulation von Kapital und dessen fleißige Zirkulation: Wer hat, dem wird gegeben werden; wer am schnellsten den Zyklus durchläuft, kommt am häufigsten über Los und profitiert schon vom reinen Überleben. Dabei sind jedoch, auch dies realistisch, eine Reihe von Glücksmomenten eingebaut: Neben das Würfelglück treten die Schicksalsschläge oder Glücksfälle von Ereignis- und Gemeinschaftskarten, ein wahres Bild des bürgerlichen Lebens im kleinen: Noch heute stöhnen wir über zu hohe Arztkosten, Bußgeld für zu schnelles Fahren, unverschämte Versicherungsbeiträge und überflüssige Renovierungskosten; ebenso freuen wir uns über Erbschaften, Einkommensteuerrückerstattungen – und natürlich in Zeiten der Casting-Gesellschaft ganz besonders über den berühmten zweiten Platz in einer Schönheitskonkurrenz!
Das klassische Monopoly demonstriert schon dem Kleinkind anschaulich die Gesetzmäßigkeiten ökonomischer Monopole. Diese waren auch Aristoteles bereits bekannt, der sie in seiner Politik anhand eines Beispiels erläutert. Der kluge Philosoph Thales sieht aufgrund seiner wissenschaftlichen Kenntnisse eine ausgezeichnete Olivenernte voraus, pachtet noch im Winter alle Ölmühlen der Gegend für ein Spottgeld, um sie nach erfolgter Ernte dann als Monopolist teuer zurückzuverpachten. Aristoteles empfiehlt, der Staat möge sich daran ein Beispiel nehmen, um seine chronisch klammen Finanzen zu sanieren; ein Rezept, dass heutzutage angesichts allgegenwärtiger Privatisierungspläne und eines unreflektierten Lobes der alleinseligmachenden Konkurrenz durchaus bedenkenswert erscheinen mag. Der Staat hat im Übrigen bis heute vor allem ein bedeutsames Monopol, nämlich das von Max Weber erstmals so benannte Gewaltmonopol – das allerdings ebenso bedroht scheint von fundamentalistischem Terror wie dem Outsourcing selbst hoheitlicher Staatsaufgaben an dubiose Sicherheitsfirmen. Daneben ist die philosophisch bedeutsamste Form des Monopols das Meinungsmonopol in weitestem Verstande. Für Arthur Schopenhauer waren vor allem die Vertreter der monotheistischen Religionen die „Monopolisten und Generalpächter“ des „metaphysischen Bedürfniß“; neben ihnen wuchs die philosophische Erkenntnis nur wie ein „wildes Kraut“. Meinungsmonopole gibt es aber genauso in der Wissenschaft, wo jedes „Paradigma“ zumindest zeitweise einen Alleinherrschaftsanspruch über die Köpfe geltend macht. Es wäre eine verlockende Idee, auch hier einmal ein Monopoly zu entwerfen: Residieren die Dekonstruktivisten noch in der Schloßallee, oder sind die Neurowissenschaften inzwischen eingezogen? Ist die Metaphysik schon zur Badstraße abgestiegen? Wo steht das größte Zitierkartell? Wer hat das meiste symbolische Kapital akkumuliert? Ziehen Sie eine Ereigniskarte: „Sie sind Keynote Speaker bei einer Internationalen Konferenz geworden!“ – oder eher: „Ihr wissenschaftliches Hauptwerk wird vom Verlag bei Ebay für 1 Euro verkauft“? Wie auch immer: „Gehen Sie über Los, und ziehen Sie ein neues DFG-Projekt ein!“
Monopoly ist, so gesehen, weder „nur“ ein Spiel noch „nur“ eine etwas unerwünschte Nebenwirkung der Marktwirtschaft. Josef Schumpeter hat in seiner Wirtschaftstheorie darauf hingewiesen, dass Monopole nach dem Prinzip der „schöpferischen Zerstörung“ nötige Erneuerungsprozesse in Gang setzen; und sogar für Karl Marx war das „moderne Monopol“ letztlich geschichtlich notwendig: „In der Praxis des Lebens findet man nicht nur Konkurrenz, Monopol und ihren Widerstreit, sondern auch ihre Synthese, die nicht eine Formel, sondern eine Bewegung ist“. Auch die Erfindung von sog. „Kartellämtern“ auf staatlicher Ebene, die das ungezügelte Wachstum von Monopolen und den mafiaähnlichen Zusammenschluss eigentlicher konkurrierender Wettbewerber eindämmen sollten, konnte dieser Bewegung letztlich nicht schaden – wobei, aparterweise, das „Kartell“ (von charta, dem Schriftstück) eigentlich eine kernzivilisatorische Errungenschaft meinte, nämlich die schriftliche Niederlegung von Regeln in einer Wettbewerbssituation, beispielsweise in den Ritterturnieren des Mittelalters oder im Duellrecht, bis hin zu zwischenstaatlichen Verträgen. Heute allerdings liegt uns die Assoziation zum „Drogen-Kartell“ doch erheblich näher. Insofern hat sich auch hier das Monopoly-Prinzip letztlich als anthropologisch unschlagbar und Ausdruck eines existentialistischen Imperativs erwiesen, dem sich nur die Allerwenigsten entziehen können: Im „Rücke vor bis auf Los!“ äußert sich das immerwährende Versprechen gänzlich unverdienten Glücks, das durch den Triumph über alle diejenigen, die wieder einmal Einkommensteuer zahlen oder gar zur Badstraße zurückmüssen, erst richtig genossen werden kann.
          
NERD, ein eigentlich unübersetzbarer Ausdruck aus dem US-amerikanischen Slang der Colleges und Universitäten; im Duden wird er seit 2004 als „sehr intelligenter, sozial isolierter Computerfan“ definiert, was es aber nicht ganz trifft. Schon die Wortherkunft ist umstritten. In einem Gedicht des amerikanischen Kinderbuchautors Dr. Seuss mit dem Titel If I ran the zoo (1950) wird wahrscheinlich erstmals ein „Nerd“ als eine von mehreren absonderlichen fiktiven Lebensformen genannt („A Nerkle, A Nerd, and a Seersucker, too!“) Andere Erklärungen leiten das Wort von „nut“, also der scherzhaften Bezeichnung eines Verrückten, ab. Das IEEE (Institut für Electrical and Electronical Engineers, also eine Art Selbsthilfeorganisation der Betroffenen) vertrat die These, „nerd“ sei beim Versuch entstanden, „drunk“ (engl. betrunken) rückwärts zu lesen. Es stehe für diejenigen College-Studenten, die lieber einer Party dem Rücken zukehren und sich absonderlichen Hobbys wie dem Lesen von Büchern oder dem Entwerfen technischer Geräte widmen. Im anthropologischen Typenkreis des amerikanischen College-Milieus ist der „Nerd“ auf jeden Fall der Gegenpol zum „Jock“, dem sportlich erfolgreichen, von den Frauen umschwärmten und allseits populären männlichen Alpha-Typus. Er ist dabei schwer zu unterscheiden vom „Geek“ (dem klassischen Streber, der genauso unpopulär, aber eher extrovertiert ist) und wird genauso wie dieser regelmäßig Opfer des „Bully“. Der Begriff war in seinen Ursprungszeiten (den 60er- und 70er-Jahren) eindeutig negativ konnotiert: Nerds waren unbeliebt, unsportlich, unattraktiv, ungeschickt, ungesellig und in höchstem Maße langweilig – also all das, was die „coolen kids“ nicht waren. Sie trugen hässliche Hornbrillen und Zahnspangen, die falschen Klamotten („Anoraks“ wurde zur Bezeichnung eines eigenen Untertypus) und hatten die befremdlichsten Hobbys der Welt (Computer, Technik, Naturwissenschaften). Im Übrigen war der Nerd zumeist männlich, und das ist auch bis heute so geblieben (und ein Thema für die Gender-Kiste).
Das meiste andere jedoch nicht. Denn mit den 80er- und 90er-Jahren kamen Bill Gates (das Urbild eines Nerd schlechthin, schon äußerlich) und Steve Jobs (nicht vollständig nerdy, sondern mit einer Prise Hippie); es kamen Linus Torvalds, der Erfinder von Linux, Mark Zuckerberg mit facebook, Larry Page mit google, die Liste ließe sich fortsetzen – milliardenschwere Erfolgsgeschichten von bekennenden und in der Wolle gefärbten Nerds, die mit einer nerd-spezifischen Kombination aus verrückten Ideen und technischen Kompetenzen die Welt so schnell eroberten, dass die ganzen Jocks und Bullies auf einmal sich völlig unerwartet auf der Verliererseits wiederfanden. Es kam der ebenfalls kaum zu erwartende internationale Erfolg der TV-Serie The Big Bang Theory, einer Sitcom über vier sozial in unterschiedlichem Maße gestörte, aber gleichzeitig hochbegabte Physiker und ihre Erlebnisse mit der sehr, sehr fremden Welt der Frauen. Big Bang Theory (BBT) ist geradezu ein vollständiges Inventar des Nerd-Tums: Wesentliche Bestandteile sind, verkleidet zur ComicConvention gehen, StarTrek und andere SciFi-Serien ebenso grenzenlos zu verehren wie alle Superhelden der amerikanischen Pop-Kultur, tage- und nächtelang Video- oder Rollenspiele spielen, mit Stephen Hawkins zu telefonieren, kurz: das Kind im Manne zu seinem vollen Recht kommen zu lassen – aber dabei gleichzeitig das Universum zu erforschen, die ISS auszurüsten oder avancierteste theoretische Physik zu betreiben und dabei den Nobelpreis als Nahziel nie aus den Augen zu verlieren. Der Nerd à la Sheldon Cooper, dem Ober-Nerd aus BBT, schwankt ständig zwischen Genie und Kleinkind. Seine kommunikativen Kompetenzen sind demzufolge beschränkt, zumindest was Menschen angeht, noch spezieller: Frauen – aber wenn er einen nicht gerade mit einem seiner endlosen Vorträge oder seiner Egozentrik zu Tode genervt hat, muss man ihn einfach lieben (außerdem beherrscht er die Welt. Widerstand ist zwecklos!)
Man kann den Nerd, wie es gern mit stereotyp anklagendem Unterton getan wird, als „Stereotyp“ bezeichnen; früher hätte man ihn einfach als einen „Charakter“ aufgefasst. Die Idee vom „Charakter“ als eines menschlichen Typus (also gerade nicht im heutigen Sinn einer spezifisch individuellen, habituellen Ausprägung bestimmter Eigenschaften) gibt es seit der Antike. Das kanonische Werk dazu hat der Aristoteles-Schüler Theophrastos von Ephesos (371-287 v. Chr.) hinterlassen, eine kleine, aber umso wirkungsmächtigere Schrift mit dem lakonischen Titel „Charaktere“. Sie enthält dreißig Kapitel, die jeweils einen Typus schildern, der zumeist – wie ursprünglich der Nerd – negativ geprägt ist: Es treten auf der Unaufrichtige, der Schmeichler, der Schwätzer, der Gerüchtemacher, der Nörgler, der Übereifrige, der Feigling, der Verleumder – alle zwar gezeichnet nach dem Vorbild von Theophrasts Athener Zeitgenossen, aber bis heute als überzeitliche Standardausprägungen (‚charakter‘ ist das griechische Wort für den Prägestempel) des Menschlichen erkennbar. Die französischen Moralisten des 18. Jahrhunderts (vor allem Jean de La Bruyère) haben die Tradition ebenso aufgenommen wie ihre englischen Kollegen (Shaftesbury); im deutschen Sprachraum haben sich heute wenig bekannte, sogenannte Populärphilosophen wie Christian Fürchtegott Gellert oder Ernst Platner an Charakterskizzen zur Veranschaulichung ihrer Philosophie versucht.
Wo fände sich nun ein passender Platz für der Nerd in einer solchen Charakter-Galerie? Ist er vielleicht die moderne Ausprägung des „Stubengelehrten“, des zerstreuten Professors, der traditionell in der Gelehrtensatire verspottet wird, und Big Bang Theory deren jüngster Nachkomme? Friedrich Nietzsche, der zweifellos größte und boshafteste Moralist der Moderne, hat ein wenig schmeichelhaftes Bild vom typischen Gelehrten gezeichnet: „jeder Spezialist hat seinen Buckel. Ein Gelehrten-Buch spiegelt immer auch eine krummgezogne Seele: jedes Handwerk zieht krumm“. Aber das trifft für den Nerd, zumindest in seiner selbstbewussten Erfolgsform à la Bill Gates oder Sheldon Cooper, dann doch nur recht äußerlich zu. Etwas näher kommt man ihm, wenn man ihn als „Fachidioten“ bezeichnet; ein Begriff, den bemerkenswerterweise Karl Marx in Das Elend der Philosophie (1885) geprägt hat, wo es heißt: „Was die Arbeitsteilung in der modernen Gesellschaft charakterisiert, ist die Tatsache, dass sie die Spezialitäten, die Fachleute und mit ihnen den Fachidiotismus erzeugt.“ Der Nerd wäre dann der spezifische Fachidioten-Typus des digitalen Zeitalters: Seine massiv einseitig ausgebauten Kompetenzen und Leistungen auf fachlichem Gebiet bezahlt er mit einer Einbuße an sozialen Beziehungen, sexueller Attraktivität und dem, was man etwas nostalgisch eine „harmonische“ oder „ganzheitliche Persönlichkeitsbildung“ nennen könnte (falls es so etwas überhaupt noch gibt und wir nicht sowieso schon alle medial geprägte Stereotypen geworden sind).
Aber wird man dem Nerd damit nun wirklich gerecht? Immerhin lebt er eine echte Leidenschaft in einer Zeit, die längst alle Leidenschaft auf Sex und Fußball reduziert und ins Privatfernsehen verbannt hat – auch wenn es eben eine technisch-rationale Leidenschaft ist, was sich aber keinesfalls ausschließen muss, auch wenn sich das der Jock nicht vorstellen kann. Und immerhin steht er zu seinen Freuden und Hobbys und muss sich nicht ins Koma saufen oder Ecstasy nehmen, um die ganze Welt um sich herum in einem Phantasie-Universum zu vergessen. Innerhalb seiner Peer-Group ist er voll integriert und sogar eher überdurchschnittlich kommunikationsfähig. Sein wirtschaftlicher Erfolg schließlich hat ihn ultimativ gerechtfertigt: Nerds haben die Handys erfunden, auf denen die Jocks und Yuppies dieser Welt herumspielen; Nerds haben das Internet gebaut, dass unser Leben auf den Kopf gestellt hat; Nerds haben die sozialen Netzwerke aufgebaut, in denen ihre ehemaligen Widersacher nun ihre fehlenden realen Beziehungen kompensieren. Kurz: Nerds beherrschen die Technik, werden aber nicht von ihr beherrscht; sie werden (im besten Fall) beherrscht von ihrer Begeisterung für das Wissen, für das Verrückt-Utopische wie für das Technisch-Machbare. Sind sie vielleicht die eigentlichen Philosophen des Computer-Zeitalters, Superhelden ohne Cape und von eher schmalbrüstiger Statur, aber dafür mit der grenzenlosen Neugierde und der unerschöpflichen Energie, die einstmals den Philosophen auszeichnete (nicht aber den Stubengelehrten)? Von dem vorsokratischen Naturphilosophen Thales wird erzählt, dass er in einen Brunnen gefallen sei, als er astronomische Berechnungen anstellte und dabei offensichtlich nicht recht auf seine Füße, sondern lieber auf den bestirnten Himmel über ihm schaute; und eine thrakische Magd wollte sich darüber schier totlachen. Ebenso mögen heute die Party-Girls über die Sheldon Coopers und Bill Gates dieser Welt kichern und posten; aber Thales ist geblieben, während die thrakische Magd zur namenlosen Randfigur der Geschichte schrumpfte (vielleicht aber hieß sie Penny).
          
NETZWERK, SOZIALES; im allgemeinsten Sinn sind Netzwerke Strukturen, die aus durch Knoten verbundenen Elementen bestehen und dadurch mathematisch als Graphen (zum Beispiel wie in einem U-Bahn-Plan) darstellbar sind. Die Knoten können hintereinander angeordnet sein (Ketten-N.) oder über einen zentralen Knoten miteinander verbunden (Stern-N.). Allgegenwärtige technische Netzwerke sind beispielsweise Computer-Netzwerke; vom Networking spricht man vor allem in Bezug auf politische (vgl. Seilschaft) oder Karriere-Netzwerke (vgl. Mentoring). Bei sozialen Netzwerken stehen demgegenüber kommunikative Funktionen im Vordergrund; sie bedienen sich heute häufig elektronischer Medien und nutzen dabei die technischen Möglichkeiten von Computernetzwerken zur Datensammlung, -verwaltung und -verbreitung.
Das größte soziale Netzwerk der Gegenwart ist die von dem Amerikaner Marc Zuckerberg entwickelte Website Facebook. Ursprünglich als Studentenscherz geplant – der Vorläufer war eine Seite namens Hot or Not, die die erotischen Vorzüge von Kommilitoninnen bewerten sollte (vgl. Evaluation) , entwickelte es sich zur derzeit meist genutzten Kommunikations-Plattform junger Menschen in aller Welt. Im Januar 2011 wurde die 600-Millionen-Benutzer-Grenze durchbrochen, allein in Deutschland sind derzeit beinahe 15 Millionen Nutzer registriert. Jedem Nutzer steht in Facebook eine Profilseite zur Verfügung, auf der er sich und seine Interessen und Vorlieben vorstellen kann – dabei spielen möglichst originelle Fotos eine wichtige Rolle, die inzwischen zu einer ganz eigenen Kultur der Selbstinszenierung fernab vom biometrisch normierten Passfoto geführt haben (vgl. Big Brother). Weitere Möglichkeiten der Selbstdarstellung bietet der persönliche blog (das virtuelle Äquivalent eines Tagebuchs), in dem jeder sein Herz für jeden sichtbar ausschütten kann. Daneben dient Facebook vor allem der Kommunikation der Teilnehmer: Wer online ist, kann mit Freunden chatten (von engl. to chat: plaudern, das virtuelle Äquivalent eines Gesprächs unter Anwesenden); es können sowohl persönliche (das virtuelle Äquivalent eines Briefes) als auch öffentliche Nachrichten (das virtuelle Äquivalent einer Zeitung) verschickt werden. Als Nachrichtenbörse ist Facebook schließlich sogar politische Bedeutung zugewachsen: Die effektivsten Waffen der Volksrevolutionen des 21. Jahrhunderts scheinen vermeintlich harmlose soziale Netzwerke wie Facebook (siehe auch Twitter) zu sein, die für freien Informationsfluss und effiziente Organisation von Massendemonstrationen auch in Diktaturen sorgen können (Facebook ist also auch das virtuelle Äquivalent eines Flugblatts).
Ein wichtiges Prinzip von Facebook ist die Förderung der immer dichteren Vernetzung durch Freundschaften und Empfehlungen: Wer eine Seite besucht, die ihm gefällt, kann sie bewerten und weiterempfehlen („gefällt mir“/“gefällt mir nicht“); die Zahl der virtuellen Freundschaftskontakte wird dabei zum Indikator der gelungenen Selbstdarstellung bzw. der noch notwendigen Arbeit am überzeugenden Persönlichkeitsbild (siehe auch Design). Facebook führt mit dieser Empfehlungspolitik die altehrwürdige Tradition der Stammbücher oder der späteren Poesiealben fort. Erfunden wurden die Stammbücher bereits zur Zeit der Reformation, als es Mode wurde, Autographen berühmter Reformatoren – offensichtlich die Superstars ihrer Zeit – zu sammeln (vgl. Hype). Besonders wichtig waren die Stammbücher im studentischen Leben. Sie enthielten Handschriften von Professoren und anderen wichtigen Persönlichkeiten, die auch als Empfehlungsschreiben genutzt wurden („gefällt mir“). Ein Gedicht (am besten ein persönliches Widmungsgedicht: „An ***“), ein kurzes Zitat oder ein Wahlspruch sorgten für literarischen Glanz und ein Quentchen Lebensweisheit. Wichtig waren schließlich auch hier schon optische Elemente – entweder eine persönliche Federzeichnung, oder, bei mangelnder Begabung, notfalls, ein Glanzbildchen. Offensichtlich lag bei den Stammbüchern jedoch noch der stärkere Akzent auf dem sozialen Aspekt der Vernetzung – einen Platz für Selbstdarstellung bot zumindest das eigene Stammbuch nicht, auch wenn die angesammelten Freundschaftsbeweise durchaus als „symbolisches Kapital“ im Sinne Pierre Bourdieus verstanden werden konnten.
Der soziale Nutzen von Netzwerken als Freundschaftsbünden ist schon sehr früh erkannt worden. In beinahe allen frühen Kulturen ist beispielsweise die Gastfreundschaft ein hohes Gut, das religiös begründet und mit bestimmten Ritualen und Sitten institutionell gefestigt wurde. Es beruhte zumeist auf Gegenseitigkeit: Wer einen Fremden in seinem Haus gastlich aufnimmt, unabhängig von dessen sozialem Status und finanziellen Möglichkeiten, kann erwarten, dass ihm in der Fremde die gleiche Vorzugsbehandlung gewährt wird. Die Gastfreundschaft ist insofern, zumindestens als Ideal, eine ebenso hierarchiefeindliche und egalitäre Praxis wie ihr später Nachfahre Facebook. In der Realität war sie natürlich auch eine wichtige Basis für die Entstehung und Verbreitung von Handelsbeziehungen und diente insofern ganz praktischen ökonomischen Interessen. Einen ähnlichen Austausch pflegten im Mittelalter und bis heute die Klöster; viele Ordensgemeinschaften waren dem Ideal der peregrinatio, der Lebenswanderschaft (siehe auch Jogging) als einer Form der Entsagung von allen weltlichen Gütern verpflichtet, und nicht nur in der benediktinischen Ordensregeln hieß es: „Alle Gäste, die kommen, sollen wie Christus aufgenommen werden“. Auch hier gab es natürlich einen praktischen Nebennutzen: Reisende Mönche verfolgten neben dem eigenen Seelenheil missionarische Ziele.
Eine andere bewährte Form sozialer Netzwerke sind die Gelehrtennetzwerke seit Beginn des Humanismus – internationale Verbindungen der Elite-Wissenschaftler ihrer Zeit (siehe auch Leuchtturm), die in Ermangelung elektronischer Kommunikationsplattformen und angesichts der Schwierigkeiten von Reisen über großen Entfernungen zu den eifrigsten Briefschreibern wurden. Als besonders schreibwütig ist beispielsweise der Philosoph und Universalgelehrte Gottfried Wilhelm Leibniz bekannt. Sein Briefwechsel, heute als UNESCO-Weltdokumentenerbe geschützt, enthält rund 15.000 Briefe von ca. 1.100 Korrespondenten aus 16 Ländern (damit stünde er auch in Facebook ziemlich gut da; geht man davon aus, dass er rund 50 Jahre lang korrespondierte, wären dies 3.000 Briefe pro Jahr, pro Tag also mehr als acht). Dicht auf den Fersen liegt ihm der Schweizer Albrecht von Haller, ebenfalls einer der letzten in der rapide aussterbenden Spezies der Universalgelehrten (vgl. Artenvielfalt). Von ihm sind 17.000 Briefe überliefert, sowohl in lateinischer als auch in deutscher Sprache; er begann auch bereits selbst damit, seine Briefe zu publizieren.
Haller nimmt damit vorweg, was im 18. Jahrhundert im Rahmen des empfindsamen Freundschaftskultes die Regel werden sollte: Briefe sind nicht etwa Privatsache, sondern, gerade umso intimer und „zärtlicher“ sie sind, ein öffentliches Gut. Wenn sich Freunde ihrer Liebe versichern (und zwar auch Männer!), dürfen alle zuhören und ein oder zwei Tränen vergießen. Einer der größten Freundschafts-Netzwerker im recht dicht gestrickten Netz der Modeströmung der Empfindsamkeit Mitte des 18. Jahrhunderts war Johann Wilhelm Ludwig Gleim, der zudem eine interessante Frühform von Facebook entwickelte: Er sammelte nämlich eifrig Porträts seiner Freunde, die er in seinem Haus in Halberstadt im „Freundschaftstempel“ aufhing, um ständig von seinen Herzensgenossen umgeben zu sein (frei nach seinem Motto: „In einer Gallerie von grossen Männern steh, Bist du nicht selbst ein grosser Mann“; seine eigenen Gedichte waren nämlich nicht ganz so berühmt wie sein Freundschaftsenthusiasmus). Wer es nicht zu einem Porträt bei Gleim brachte, hatte offensichtlich im empfindsamen Milieu versagt; unter den 150 bei seinem Tod angesammelten faces waren so wichtige Autoren wie Lessing, Wieland, Klopstock, Herder und Jean Paul. Ebenso liebevoll wurde der Briefverkehr gesammelt und archiviert; Gleim selbst brachte es auf über 2.000 eigene Briefe, jedoch mit über 500 Korrespondenten, die ihm ihrerseits mehrere Tausend Briefe schickten. Eine kleine Kostprobe aus dem Briefwechsel mit einem besonders empfindsamen Korrespondenzpartner, Friedrich Heinrich Jacobi (der Briefwechsel beider wurde ebenfalls bereits zu Lebzeiten publiziert): „Seine Briefe? Alles was Fürsten geben können, das liebenswürdigste Geschenk des schönsten Mädchens ist nicht zu reizend für mich. Aber, o mein Freund, wird auch mein Glück immer währen? Es ist zu schön für mich. Verzeihen Sie die Besorgnisse, womit die Zärtlichkeit mit quält. Wird nicht eine Zeit kommen, da ich vergebens nach Ihren Briefen seufzen muß?“ Nicht auszudenken, was der Mann in Facebook angerichtet hätte!
Nicht immer jedoch waren soziale Netzwerke geprägt von Gleichheitsidealen, uneigennütziger Freundschaft oder hehren wissenschaftlichem Interessenaustausch. Es gibt kriminelle Netzwerke – wer sich einer ihm von der Mafia angetragenen „Freundschaft“ verweigert („gefällt mir nicht“), wird die Folge dieses netzwerk-unfreundlichen Verhaltens möglicherweise am eigenen Leibe zu spüren bekommen – ebenso wie elitäre (die Geheimbünde aller Zeiten und Länder). Ein weiteres negatives Gegenbild eines allzu eifrig betriebenen networkings hat ebenfalls schon antike Tradition: Es ist der Nepotismus, die „Vetternwirtschaft“ (lat. nepos: Neffe), die Besetzung von Posten und die Vergabe von Privilegien an Familienmitglieder; eine Sitte, die sich zeitweise besonderer Beliebtheit bei den Päpsten und Kardinälen erfreute. Tatsächlich ist der Begriff des Netzes sogar in gewisser Weise zentral für die Verbreitung gerade der christlichen Religion, wie es ein berühmtes Gleichnis in Lukas 5 lehrt. Als Jesus zum See Genezareth kommt, bittet er einen ortsansässigen Fischer – der damals noch Simon heißt, aber unter dem Namen Petrus in die Religionsgeschichte eingehen wird , ihn auf einen kleinen Fischzug mitzunehmen. Der Fischer gehorcht, obwohl er bereits die ganze Nacht unterwegs war, und fängt gemeinsam mit seinen Kollegen eine derartige Menge Fische, dass die Netze reißen und die Schiffe sinken. Angesichts dieses Wunders ergreift die Fischer großer Schrecken, Jesus aber sagt die bedeutungsschwangeren Worte: „Fürchte dich nicht; denn von nun an wirst du Menschen fangen“. Und so nahm das Apostel-Netzwerk seinen Anfang.
An diesem Beispiel kann man allerdings sehen, wie zwiespältig die Netz-Metapher selbst ist. In der Literatur wird sie überwiegend negativ gebraucht: Netze sind Fallen für Vögel und Fische, in Netze verstrickt man sich; so beispielsweise der aufklärerische Poet Barthold Hinrich Brockes in seinem Gedicht Der Mensch in voluminösen neunbändigen Irdischen Vergnügen in Gott:
Was eine Spinn' im Fürstlichen Pallast,
Den Sammt und Marmor schmückt, Gold, Purpur und Damast,
Die alle Pracht für nichtes schätzet,
Der ihr bestaubtes Netz, und anders nichts, gefällt,
In welchem sie sich bloß am Mücken-Fang' ergetzet;
Das bist du, eitler Mensch, in der so schönen Welt.
Dein Netz ist Leidenschaft, die Mücken sind das Geld.
Ähnlich sieht auch Friedrich Nietzsche das weltumspannende Netzwerk der Gelehrten und Intellektuellen eher als verfängliches Netz, das von Sokrates als Menschenfänger ausgeworfen wurde: „Wer sich einmal anschaulich macht, wie nach Sokrates, dem Mystagogen der Wissenschaft, eine Philosophenschule nach der anderen wie Welle auf Welle sich ablöst, wie eine nie geahnte Universalität der Wissensgier in dem weitesten Bereich der gebildeten Welt und als eigentliche Aufgabe für jeden höher Befähigten die Wissenschaft auf die hohe See führte, von der sie niemals seitdem wieder völlig vertrieben werden konnte, wie durch diese Universalität erst ein gemeinsames Netz des Gedankens über den gesamten Erdball, ja mit Ausblicken über die Gesetzlichkeit eines ganzen Sonnensystems, gespannt wurde; wer dies alles, samt der erstaunlich hohen Wissenspyramide der Gegenwart, sich vergegenwärtigt, der kann sich nicht entbrechen, in Sokrates den einen Wendepunkt und Wirbel der sogenannten Weltgeschichte zu sehen“. Sokrates ist sozusagen der Freund aller Freunde im Facebook aller abendländischen Philosophen und Erkenntnissuchenden; und wer sich diesem Netz der „alexandrinischen Kultur“ entzieht – wie Nietzsche selbst , reduziert dadurch die Zahl seiner eigenen Freunde drastisch („gefällt mir gar nicht“).
Der philosophisch zertifizierte Experte für alle Arten von Freundschaftsverhältnissen ist jedoch der Sokrates-Schüler Aristoteles mit seiner ausgearbeiteten Theorie der Freundschaft in der Nikomachischen Ethik. Zunächst unterscheidet Aristoteles drei verschiedene Motive, aus denen man eine Freundschaft eingehen kann (wobei Freundschaft immer als gegenseitig erzeigtes Wohlwollen gedacht wird): um des Vorteils willen (verbreitet bei Menschen im höheren Lebensalter, die mitten im Lebensstress stehen und jeden Vorteil brauchen können); um das Vergnügens willen (verbreitet bei jungen Menschen); und aufgrund von „edler Art und gleicher sittlicher Gesinnung“ (ohne genauere Angaben, wahrscheinlich eher selten). Allein diese letzte Art der Freundschaft, so Aristoteles, ist beständig, da sittliche Gesinnungen nicht wie die Kleider oder die Vergnügungen nach dem neuesten Design gewechselt werden; sie bedarf jedoch für ihre Entstehung „der Zeit und der Gewohnheit des Zusammenlebens“ – „denn der Wunsch, Freundschaft zu schließen, stellt sich schnell ein, die Freundschaft nicht“. Erst diese „Gemeinschaft der Lebensverhältnisse“ stiftet das für wahre Freundschaft unersetzliche Vertrauen.
Das setzt der „rechten Zahl der Freunde“, über die Aristoteles in einem eigenen Unterkapitel nachdenkt, recht enge Grenzen: Denn genauso, wie man nicht unbegrenzt Gäste unterbringen kann, bei allem Respekt gegenüber dem Gebot der Gastfreundschaft, kann man nicht mit unbegrenzt vielen Freunden gemeinsam leben – zumal man sich beispielsweise bei einer Freundschaft aus dem Motiv der gegenseitigen Vorteilsnahme nicht nur massenhaft eigene Vorteile, sondern auch unbegrenzte Gegendienste einhandeln würde. Ebenso würde man sich das Vergnügen verderben, wenn die Fit-for-Fun-Freunde die Überhand gewönnen: Jeden Tag Party hält keiner aus (oder, nach Aristoteles: „so reicht man mit wenig aus, wie mit dem Gewürz bei einer Speise“). „Also wird das Richtige doch wohl dies sein, daß man nicht danach strebt, eine möglichst große Anzahl von Freunden zu haben, sondern nur geradeso viele als für eine volle Lebensgemeinschaft zulässig sind“, fasst Aristoteles schließlich mit gewohnter Weisheit und Mäßigung zusammen.
Nun würden wohl auch die härtesten Facebook-Fans nicht behaupten, dass eine virtuelle Kommunikationsplattform eine „volle Lebensgemeinschaft“ herstelle – die konkreten Lebensumstände und das soziale Umfeld könnten ja theoretisch sogar geradezu gegensätzlich sein, da sich die grundlegende Gemeinsamkeit zunächst einmal nur auf den technischen Zugang zu entsprechenden Kommunikationsmedien beschränkt. Insofern stellen soziale Netzwerke im Internet wohl eher eine moderne Form virtueller Gastfreundschaft dar, die auf unverbindlichen Empfehlungen beruht, in der die Fiktion der Gegenseitigkeit aufrechterhalten wird und für die bestimmte Regeln gelten (siehe auch Korrekt, politisch). Eine gelegentliche Dienstleistung (Motiv der Vorteilsnahme) ist dabei ebenso wenig ausgeschlossen wie ein gemeinsames Vergnügen dann und wann (vgl. Flash mob); und wenn man tatsächlich einen gleichgesinnten Freund fände (vgl. Singularität), lassen sich ja gemeinsame reale Lebensverhältnisse unter Umständen herstellen. Gleichwohl rät die Metapherngeschichte zur Vorsicht: In ein soziales Netzwerk kommt man, ebenso wie in ein Fangnetz, leichter hinein als wieder heraus; wen das Netz einmal eingewickelt hat, den gibt es so leicht nicht wieder frei.
          
O-TON, Abkürzung für Original-Ton, technisch aufgezeichnetes akustisches Ereignis, entweder von sprachlichen Äußerungen (beispielsweise von Interviews in Hörfunk oder Fernsehen) oder von Geräuschen (beispielsweise als Geräuschkulisse im Film). Meist handelt es sich bei sprachlichen O-Tönen in den Nachrichtenmedien um kurze Ausschnitte aus längeren Stellungnahmen, beispielsweise von Politikern. Sie werden verwendet, um die „Originalität“ (von lat. origo: Ursprung) der jeweiligen Ausdrucksweise zu erhalten und dadurch den Eindruck von Authentizität (von griech. authentikos: echt, zuverlässig, verbürgt) zu erwecken. Ein O-Ton enthält zum einen eine zusätzliche Information über den Sprecher – der einer Aussage seine unverwechselbare Stimme und seine individuelle Formulierung verleiht –und gibt dem Gesagten zum anderen eine Art Echtheitsgarantie: Es handelt sich hier nicht um etwas Erfundenes oder nur nach dem Hörensagen Referiertes von unsicherer Glaubwürdigkeit, sondern um die dokumentierte sprachliche Äußerung eines realen Individuums in einer konkreten Situation, für deren Authentizität dieses mit seiner ganzen Person einsteht.
Der mediale Reiz des O-Tons zehrt zunächst vom besonderen Gefühlswert einer menschlichen Stimme, die von altersher als Ausdruck der Persönlichkeit gilt und eine persönliche Beziehung zwischen Sprecher und Hörer darstellt. Schon Aristoteles beschreibt in seiner Nikomachischen Ethik das ethische Vorbild des „Hochgesinnten“ auch anhand seiner Stimme: „Die Bewegungen des Hochgesinnten sind langsam, seine Stimme tief, seine Sprache getragen. Denn wem wenige Dinge sehr am Herzen liegen, der hat keine Eile, und wer nichts für groß hält, der erhebt nicht den Ton“. Wahrscheinlich hat auch Gott so gesprochen (zumindest tut er es in sämtlichen Hollywood-Filmen zu biblischen Themen), als er sich nach dem Diktat der Zehn Gebote persönlich vom Berg Sinai herab an sein auserwähltes Volk wandte. Baruch de Spinoza hebt in einer frühen luziden Kommunikationsanalyse hervor: „Will man indess der Bibel nicht Gewalt anthun, so muss man zugeben, dass die Israeliten eine wirkliche Stimme gehört haben. Denn es heisst Deut. V. 4 ausdrücklich: ‚Von Angesicht zu Angesicht hat Gott mit Euch gesprochen;‘ d. h. so, wie zwei Menschen ihre Gedanken gegenseitig vermittelst ihrer beiden Körper sich mitzutheilen pflegen. Es wird deshalb mehr mit der Bibel übereinstimmen, anzunehmen, dass Gott wirklich eine Stimme erzeugt hat, welche die zehn Gebote offenbarte“. Der biblische O-Ton ist nach Spinozas Überzeugung von allerhöchster Authentizität und nicht etwa nur eine Metapher; und der Einsatzzweck der göttlichen Stimme war genau kalkuliert: „denn wenn auch jene Stimme, welche die Israeliten hörten, ihnen keine philosophische oder mathematische Gewissheit von dem Dasein Gottes geben konnte, so genügte sie doch, um sie zur Bewunderung Gottes, wie sie ihn bisher gekannt, hinzureissen und zu dem Gehorsam anzutreiben; dies war der Zweck dieses Schauspiels“. Leider jedoch waren die technischen Aufzeichnungsmöglichkeiten der Zeit sehr begrenzt, so dass wir weiterhin über die Stimme Gottes nur spekulieren können.
Das menschliche Äquivalent dieses göttlichen O-Tons, ihr psychischer Stellvertreter sozusagen ist die berühmte „innere Stimme“. Sie figuriert unter verschiedenen Namen in der Philosophiegeschichte, wie sie beispielsweise Friedrich Heinrich Jacobi referiert: „Wir haben einen Freund in uns – ein zartes Heiligtum in unserer Seele, wo die Stimme und Absicht Gottes lange Zeit sehr hell und klar widertönet. Die Alten nannten sie den Dämon, den guten Genius des Menschen, dem sie mit so vieler Jugendliebe huldigten, mit so vieler Ehrfurcht folgten. Christus begreift's unter dem klaren Auge, das des Lebens Licht ist und den ganzen Leib licht macht. David bittet darum, als um den guten, freudigen Lebensgeist, der ihn aufrecht ebener Bahn führe u. f. Mögen wir's nun Gewissen, innern Sinn, Vernunft, den logos in uns nennen, oder wie wir wollen; genug, es spricht laut und deutlich, zumal in der Jugend, ehe es durch wilde Stimmen von aussen und innen, durch das Gebrause der Leidenschaft und das Geschwätz einer klügelnden Unvernunft allmählich geschweigt oder irre gemacht wird“. Jedem Menschen ist demnach von Geburt ein innerer O-Ton eigen, der jedoch leicht durch die immer lauter werdenden Umgebungsgeräusche in der Moderne übertönt wird – man denke nur an die musikalische Dauerbeschallung vieler Jugendlicher, gegen die eine innere Stimme allerdings ziemlich energisch anbrüllen müsste. Die daraus resultierenden Gefahren sah schon Nietzsche: „Lieber taub, als betäubt. – Ehemals wollte man sich einen Ruf machen: das genügt jetzt nicht mehr, da der Markt zu groß geworden ist – es muß ein Geschrei sein. Die Folge ist, daß auch gute Kehlen sich überschreien, und die besten Waren von heiseren Stimmen ausgeboten werden; ohne Marktschreierei und Heiserkeit gibt es jetzt kein Genie mehr“.
Zwischen göttlichen Stimmen und inneren Stimmen erstreckt sich der weite Bereich der menschlichen Stimme, die Johann Gottfried Herder in seiner Anthropologie zur Basis aller kulturellen Entwicklung und zum Ursprung der menschlichen Sprache macht: „In der Reihe der Wesen hat jedes Ding seine Stimme und eine Sprache nach seiner Stimme. Die Sprache der Liebe ist im Nest der Nachtigall süßer Gesang wie in der Höhle des Löwen Gebrüll, im Forste des Wildes wiehernde Brunst und im Winkel der Katze Zetergeschrei; jede Gattung redet die ihrige, nicht für den Menschen, sondern für sich und für sich so angenehm als Petrarchs Gesang an seine Laura!“ Am stimmlichen O-Ton erkennen sich auch die Mitglieder der gleichen Spezies und reagieren deshalb nicht-aggressiv auf ihre eigenen Verwandten; noch einmal Herder: „sobald uns aber nur ein Ton des Leidenden ruft, so verlieren wir die Fassung und eilen zu ihm: es geht uns ein Stich durch die Seele. Ist's, weil der Ton das Gemälde des Auges zum lebendigen Wesen macht, also alle Erinnerungen eigner und fremder Gefühle zurückbringt und auf einen Punkt vereinet? Oder gibt es, wie ich glaube, noch eine tiefere organische Ursache? Gnug, die Erfahrung ist wahr, und sie zeigt beim Menschen den Grund seines größern Mitgefühls durch Stimme und Sprache. An dem, was nicht seufzen kann, nehmen wir weniger teil, weil es ein lungenloses, ein unvollkommeneres Geschöpf ist, uns minder gleich organisieret“. Die persönliche Stimme appelliert also an unsere grundlegenden Gemeinsamkeiten als Menschen: Hier spricht – ganz konkret hörbar – ein Mensch wie du und ich, sei es nun die Bundeskanzlerin oder der Bundestrainer, der Filmheld oder das Katastrophenopfer, Sokrates oder Lady Gaga.
Der Vorläufer des O-Tons aus Zeiten vor der technischen Reproduzierbarkeit der menschlichen Stimme war das gute alte Zitat (lat. citatum: das Aufgerufene). Als „geflügeltes Wort“, vorzugsweise aus den Klassikern, verleiht es dem Sprecher die Aura von souveräner Bildung und humanitärer Weite. Wobei die Formulierung vom „geflügelten Wort“ natürlich selbst ein Zitat ist: Bei Homer eilen die „geflügten Worte“ „schnell von den Lippen des Redenden“ und fliegen „zum Ohre des Hörenden“ (Odyssee; die einprägsame Übersetzung stammt von Johann Heinrich Voß). Eingefangen hat sie ein deutscher Oberlehrer des 19. Jahrhunderts, Georg Büchmann, der dadurch selbst zu einem „geflügelten Namen“ geworden ist: In seiner umfangreichen Zitatensammlung, bis heute immer wieder neu aufgelegt, finden sich nach einem ersten Kapitel mit Klassikern aus der Bibel Zitate aus Werken aller Länder und unterschiedlicher Epochen der Geistesgeschichte. Ursprünglich überwogen dabei eindeutig die lateinischen O-Töne; das humanistische Bildungszitat galt lange Zeit unter Gelehrten als Authentizitätsbeleg und Synonym zur auctoritas, dem Autortum schlechthin: Man suchte nach der einzig richtigen, „authentischen“ Auslegung von kanonischen Schriften, sei es der Religion, des Rechts oder der klassischen Literatur. Bereits im 18. Jahrhundert mehren sich jedoch die kritischen Stimmen angesichts dieser Form entliehener geistiger Authentizität. Knigge schreibt in seinem Lebenshilfe-Klassiker Über den Umgang mit Menschen (siehe auch Korrekt, politisch): „Auch kann ich das Zitieren und Berufen auf fremde Autoritäten wie überhaupt alles Prahlen und Schmücken mit fremden Federn nicht leiden. Das mittelmäßigste selbst Gedachte und mit Überzeugung Gefühlte ist für uns mehr wert als das Vortrefflichste, das wir bloß nachlallen.“ Und auch Georg Christoph Lichtenberg bemängelt den nur vordergründigen Wert nachgesagter O-Töne: „Wir beweisen aus den Alten, was wir mit Beispielen aus unserm Ort eben so kräftig unterstützen könnten; auch werden Sentenzen zitiert, die nichts beweisen, und Sätze, aus denen man nichts Neues lernt“. Zitate, und gerade die guten, verhindern so gesehen, geradezu systematisch das Selbstdenken und Selbstformulieren und stehen der Entdeckung von Neuem (siehe auch Innovation) im Weg.
Am pointiertesten hat die Kritik am prätendierten Gelehrtentum der Vielzitierer jedoch Heinrich Heine auf den Punkt gebracht. In seinen Reisebildern schildert er in einem fiktiven Brief an eine Dame eine neue Geschäftsidee; es geht darum, wie man aus dem „symbolischen Kapital“ Bildungsgut auch monetären Gewinn ziehen kann: „Im Notfall könnte ich bei meinen gelehrten Freunden eine Anleihe von Zitaten machen. Mein Freund G. in Berlin ist sozusagen ein kleiner Rothschild an Zitaten und leiht mir gern einige Millionen, und hat er sie nicht selbst vorrätig, so kann er sie leicht bei einigen andern kosmopolitischen Geistesbankiers zusammenbringen – Doch ich brauche jetzt noch keine Anleihe zu machen, ich bin ein Mann, der sich gut steht, ich habe jährlich meine 10000 Zitate zu verzehren, ja, ich habe sogar die Erfindung gemacht, wie man falsche Zitate für echte ausgeben kann. Sollte irgendein großer, reicher Gelehrter, z. B. Michael Beer, mir dieses Geheimnis abkaufen wollen, so will ich es gerne für 19000 Taler Kurant abstehen; auch ließe ich mich handeln“. Gerade das inflationäre Zitieren von O-Tönen führt offensichtlich geraden Weges zur Unoriginalität des Zitierenden, der sich mit fremden Federn schmückt, weil er keine eigenen vorzuweisen hat und es einfacher ist, sie anderen Leuten auszureißen. Zudem nutzen sich auch die allerbesten Zitate über die Zeit dann doch ab, zumal wenn sie ihren Neuigkeitswert verloren haben; es sei noch einmal Heine zitiert, dessen hier zitierte Zitierkritik zum Glück noch relativ frisch und unabgenutzt ist: „Übrigens, Madame, haben Sie gar keine Idee davon, mit welcher Leichtigkeit ich zitieren kann. Überall finde ich Gelegenheit, meine tiefe Gelahrtheit anzubringen. Spreche ich z. B. vom Essen, so bemerke ich in einer Note, daß die Römer, Griechen und Hebräer ebenfalls gegessen haben, ich zitiere all die köstlichen Gerichte, die von der Köchin des Lucullus bereitet worden – weh mir, daß ich anderthalb Jahrtausend zu spät geboren bin! –, ich bemerke auch, daß die gemeinschaftlichen Mahle bei den Griechen so und so hießen und daß die Spartaner schlechte schwarze Suppen gegessen“. Der Verdacht liegt nahe, dass das Zitat nicht einmal stimmt und dass die schwarzen Suppen dann doch so schwarz nicht waren (sie enthielten vor allem Schweinefleisch und waren als Fleischgericht überhaupt nur ein Luxus der Besserverdienenden). Mit einem weiteren Zitatenkenner und -kritiker des 19. Jahrhunderts, Theodor Fontane, gesprochen: „Es wird wohl falsch zitiert sein; die meisten Zitate sind falsch“ (Die Poggenpuhls).
Die zunehmende Kritik an klassischen O-Tönen hängt auch damit zusammen, dass Ende des 18. Jahrhunderts ein neuer Wert einen steilen Aufstieg im BIldungsmilieu vollzieht: die Originalität. Das „Originalgenie“ des Sturm-und-Drang – der ersten Jugendrevolte der deutschen Literaturgeschichte, die natürlich als erstes mit den geistigen Vätern aufräumen musste – zehrt allein aus sich und seiner unverwechselbaren, individuellen Natur, nicht aus dem angestaubten Bildungsfundus der Jahrhunderte; es produziert sozusagen aus Prinzip nichts als bisher völlig unerhörte Originaltöne (die dann auch entsprechend laut gerieten; ein Zitat gefällig? Nietzsche: „Gefahr in der Stimme. – Mit einer sehr lauten Stimme im Halse, ist man fast außerstande, feine Sachen zu denken“). Der revolutionäre Gestus erschöpfte sich jedoch relativ schnell, sei es aufgrund zunehmenden Alters der Revolutionsführer (u. a. Goethe und Herder), sei es aufgrund zunehmender Heiserkeit der allzu lauten Stimmen. Immanuel Kant versuchte in seiner wenig später erschienenen Kritik der Urteilskraft dem Originalitäts- und Genie-Hype systematisch auf den Grund zu gehen. Von Kunst, so legt er zunächst fest, könne man nur dann sprechen, wenn es Regeln gebe, nachdem ein Kunstwerk überhaupt als solches zu erkennen und beurteilen sei. Diese Regeln könnten aber nicht nach einem außer der Kunst liegenden abstrakten Begriff gebildet sein. Vielmehr gibt das Genie im Kunstwerk der Kunst selbst die jeweilige Regel. Das sei nun aber gerade keine Lizenz für jegliche künstlerische Extravaganz: „Man sieht hieraus, daß Genie 1) ein Talent sei, dasjenige, wozu sich keine bestimmte Regel geben läßt, hervorzubringen: nicht Geschicklichkeitsanlage zu dem, was nach irgend einer Regel gelernt werden kann; folglich daß Originalität seine erste Eigenschaft sein müsse. 2) Daß, da es auch originalen Unsinn geben kann, seine Produkte zugleich Muster, d. i. exemplarisch sein müssen; mithin, selbst nicht durch Nachahmung entsprungen, anderen doch dazu, d.i. zum Richtmaße oder Regel der Beurteilung, dienen müssen“. Nicht alles, was ein Original-Genie aus der eigenen Tiefe heraus produziert, ist deshalb von sich aus besonders wertvoll; nicht jeder O-Ton muss für die Nachwelt bewahrt werden. „Da aber viele eine entschiedene Vorliebe für Plaudern und Schwatzen haben, so hört man auf der Straße und in Gesellschaften und liest in Büchern mancherlei, was unverkennbar eine Originalitätswut an sich trägt, die, auf das Leben übertragen, die Welt mit einer Menge von Kunstprodukten bereichern würde, von denen eins lächerlicher als das andre wäre“ (O-Ton Kierkegaard, Entweder-Oder).
Natürlich konnte Kierkegaard nicht ahnen, dass zu Beginn des 21. Jahrhunderts aufgrund der enormen Erweiterung der Speicherkapazitäten (siehe auch Netzwerk, Twittern, Wikipedia) die Welt tatsächlich mit einer Flut von weitgehend bedeutungs- und regellosen O-Tönen überschwemmt werden würde; wobei das wahrlich Erstaunende und philosophisch noch nicht einmal ansatzweise Behandelte daran ist, welches ungeheure Interesse gerade die trivialsten menschlichen Äußerungen (siehe auch Reality TV) finden. Die Toleranzschwelle für „originalen Unsinn“ ist offenbar sehr beweglich geworden – vorausgesetzt jedoch, er überschreitet nicht eine gewisse Wahrnehmungsschwelle, die entweder mit Twitter auf 140 Zeichen, mit der Leseforschung auf acht Worte pro Satz (bzw. etwas mehr, wenn er nicht viele mehrsilbige Wörter enthält) oder mit einem durchschnittlichen Nachrichtenbeitrag in Fernsehen und Hörfunk auf ca. 90 Sekunden begrenzt werden kann. O-Töne sind nur in kleinen Dosen reizvoll bzw. überhaupt erträglich – das zeigen eindrucksvoll Interviews mit Spitzensportlern, die meist zu Wahrheiten wie „Es gibt nur eine Möglichkeit: Sieg, Unentschieden oder Niederlage!“ (O-Ton Franz Beckenbauer) oder „Wie so oft liegt auch hier die Mitte in der Wahrheit“ (O-Ton Rudi Völler) führen (die dann aber häufig eine steile Karriere als „geflügelte Worte“ des Alltags machen: „Ich habe fertig!“, O-Ton Giovanni Trappatoni).
Was das für komplexere politische Themen bedeutet, weiß jeder, der nur eine Tagesschau lang den O-Tönen von Politikern gelauscht oder die kurzatmigen, aber balkengroßen (siehe auch XXL) Schlagzeilen der BILD-Zeitung studiert hat. Wahrscheinlich werden über kurz oder lang auch philosophische Grundlagenschriften in appetitlichen Party-Häppchen erscheinen (vgl. short cuts; die Anwendung auf das vorliegende Werk liegt im Übrigen auf der Hand). Je vielfältiger und je lauter die O-Töne werden, desto mehr scheint jedoch paradoxerweise die Originalität verloren zu gehen. Aber auch das ist nicht neu und kann abschließend natürlich mit einem kurzen Zitat belegt werden: „Und deshalb haben sich die Bedingungen für die Entstehung des Genius in der neueren Zeit nicht verbessert, und der Widerwille gegen originale Menschen hat in dem Grade zugenommen, daß Sokrates bei uns nicht hätte leben können und jedenfalls nicht siebzig Jahre alt geworden wäre“ (Nietzsche, Unzeitgemäße Betrachtungen).
          
PASSWORT, eine aus Buchstaben und/oder Zahlen von festgelegter Länge bestehende Zeichenfolge, die gemeinsam mit einer Benutzerkennung zur Bestätigung der Identifizierung in einem Programm dient. Das Passwort muss unbedingt geheim gehalten werden und sorgt dafür, dass persönliche Informationen über den Benutzer – zum Beispiel bezüglich seines Kontostands, seiner Einkaufsvorlieben oder Lebensgewohnheiten – nur für ihn selbst zugänglich sind. Da sich im Zuge der durchgehenden Vernetzung und Digitalisierung aller Lebensbereiche (vgl. WWW, Google) die Notwendigkeit ergibt, sehr viele Passwörter zu benutzen, gibt es inzwischen eigene Programme zur Verwaltung von Passwörtern (die natürlich passwortgeschützt sein müssen).
Ein Vorfahre des Passwortes ist die „Parole“ (von ital. parola: das Wort), die lange Zeit im militärischen Bereich genutzt wurde, um zwischen Freund und Feind sicher unterscheiden zu können: So wurde beispielsweise für die Wachablösung ein Kennwort vereinbart, das auf die Frage nach der Parole genannt werden musste. Natürlich konnte die Parole auch verraten werden, sie bildete eine permanente Schwachstelle im militärischen Abwehrsystem. Das gleiche gilt für ihren modernen Nachfahren, das Passwort, vor allem dann, wenn es einfach zu entschlüsseln ist – weil es zu kurz ist, zu selten gewechselt wird, zu leicht zu erraten ist. Die Hitlisten der meist gewählten Passwörter führen regelmäßig die Ziffernfolgen „123456“ (je nach Länge der geforderten Zeichenfolge) oder die Buchstaben „abcdef“ bzw. (immerhin etwas origineller) „qwertz“ an. Bei älteren Damen beliebt ist „4711“, bei männlichen Draufgängern „007“, bei ganz Einfallslosen „0815“; bei allen Altersstufen und unabhängig vom Geschlecht das Geburtsdatum, das Autokennzeichen oder die Namen/Kosenamen der Herzallerliebsten/eigenen Nachkommen/Haustiere. Denkfaule wählen als Passwort gern „Passwort“. Ein Klassiker ist schließlich die naheliegende Antwort auf die Frage: „Kennen Sie das Passwort?“ – und wer wahrheitsgemäß „nein“ tippt, ist schon drin.
Verwandt ist das Passwort von etwas weiter her mit den „Zauberwörtern“ der Märchen- und Sagenwelt. Deren international beliebtestes und multikulturell anwendbares ist „Abracadabra“, dass es in der Variante „avada kedavra“ bis in die Harry-Potter-Romane, den Hyper-Bestseller der Wende vom 20. zum 21. Jahrhundert (vgl. Hype) geschafft hat (und dort den schlimmsten und verbotensten aller Zauberflüche, den Todesfluch, bezeichnet). „Abrakadabra“ gilt als eine Art phonetisches Urwort schlechthin, da es in sehr vielen Sprachen ähnlich oder gleich ausgesprochen wird. Erstmals aufgezeichnet wurde es in einem medizinischen Fachbuch der Spätantike, dem Liber medicinalis des Quintus Serenus Sammonicus (um 200 n. Chr.); der Doktor empfahl es als Schutzzauber gegen die Malaria, am besten in einem Amulett ständig bei sich zu tragen. Die genaue Bedeutung ist umstritten und entsprechend der multinationalen und -funktionalen Verwendbarkeit geradezu zauberhaft vielfältig. Sehr naheliegend ist der Bezug auf die ersten vier Buchstaben des lateinischen Alphabets, die mit dem Vokal A angereichert werden, dem „edelsten, ursprünglichsten aller laute, aus brust und kehle voll erschallend, den das kind zuerst und am leichtesten hervor bringen lernt, den mit recht die alphabete der meisten sprachen an ihre spitze stellen“ (so das Deutsche Wörterbuch der Brüder Grimm unter „A“). Vermutet wurde weiterhin eine Verwandtschaft zum gnostischen „Abraxas“, einer Bezeichnung für das höchste Urwesen schlechthin (das ebenso gut Gott wie Teufel sein kann). Weitere Kandidaten sind ein arabischer Donnerzauber und die lateinische Formel „abra cadaver“ (öffne den Leichnam), die bei der Leberschau der Auguren im alten Rom angewandt wurde. Letzte Möglichkeit: „Abracadbra“ ist eine reine Sprachspielerei und bedeutet einfach gar nichts außer sich selbst – ein optimales Passwort also.
Der Glaube an die Wirksamkeit dieses und anderer Zauberworte beruht auf uralten namensmagischen Vorstellungen, nach denen im Name das (geheime) Wesen seines Trägers enthalten ist und derjenige, der den Namen weiß und ausspricht, Macht über ihn erlangt. Volkstümlich ist uns das aus früher Kindheit vertraut: „Ach wie gut, dass man niemand weiß, dass ich Rumpelstilzchen heiß“, singt der kleine Giftzwerg nur so lange fröhlich, bis die Königin ihn endlich bei seinem richtigen Namen nennt: „und als bald hernach das Männlein hereintrat und fragte: ‚nun, Frau Königin, wie heiß ich?’ fragte sie erst ‚heißest du Kunz?’ ‚Nein.’ ‚Heißest du Heinz?’ ‚Nein.’ ‚Heißt du etwa Rumpelstilzchen?’ ‚Das hat dir der Teufel gesagt, das hat dir der Teufel gesagt,’ schrie das Männlein und stieß mit dem rechten Fuß vor Zorn so tief in die Erde, daß es bis an den Leib hineinfuhr, dann packte es in seiner Wut den linken Fuß mit beiden Händen und riß sich selbst mitten entzwei“. Das Passwort ist entdeckt (obwohl es recht gut gewählt und wahrlich nicht leicht zu erraten war), die Identität vernichtet.
Dass man mit Passworten nicht spaßen sollte, demonstriert auch Die Geschichte von Kalif Storch. Ein böser Zauberer hat dem Kalifen und seinem Großwesir das magische Wort verraten, durch das man in ein Tier verwandelt werden kann; man dürfe aber auf keinen Fall lachen, sonst könne die Verwandlung nie mehr rückgängig gemacht werden, weil man das Zauberwort dadurch vergesse. Es ist ein „recht schweres lateinisches“, brüstet sich der Zauberer vor seinen Kollegen, „es heißt Mutabor“. Der Lateiner lacht sich trotzdem ins Fäustchen: „Mutabor“ heißt einfach „ich werde verwandelt werden“ – das Passwort ist also wieder einmal genau das, was es tut, und auch die beiden Störche werden trotz ihres Gelächters wieder in ihre ursprüngliche Gestalt zurückverwandelt, der Zauberer wird aufgehängt, und die Geschichte von der Verwandlung dient zukünftig der Unterhaltung der Enkelkinder.
Namensmagische Vorstellungen spiegeln sich in Sprichwörtern – „wenn man den Teufel nennt, kommt er gerennt“ – und in Volksbräuchen: den Namen eines Toten auszusprechen, ist bei den Polynesiern ein Tapu (davon leitet sich das seit dem 18. Jahrhundert auch in Europa benutzte „Tabu“ ab). Nomen est omen, hieß es schon in Rom – wobei das sowohl für den berühmten „guten Namen“ (mit dem man leider immer noch nicht bezahlen kann, sondern man braucht weiterhin passwortgeschützte Kredit- und Scheckkarten) – als auch für einen schlechten gelten kann. „Sprechende Namen“ sind ein weit verbreitetes literarisches Mittel, vor allem in der Komödie. Aber auch hier bietet Harry Potter noch eine Vielzahl von Beispielen, allen voran der düstere Voldemort (der „Dieb des Todes“, frz. – dessen Namen im Übrigen nicht genannt werden darf, ein klarer Fall von tapu), aber auch der verräterische Snape (eine Mischung aus dem Affen, ape, und der Schlange, snake, im Englischen). Vom „Zauberwort“ spricht schließlich auch Die Wünschelrute von Joseph von Eichendorff, das romantische Passwort-Gedicht schlechthin:
Schläft ein Lied in allen Dingen,
Die da träumen fort und fort,
Und die Welt hebt an zu singen,
Triffst du nur das Zauberwort.
Wer das Zauberwort also weiß, dem erschließen sich alle Geheimnisse der Natur und der Schöpfung – nicht jedoch in schnöder begrifflicher Sprache, sondern als naturmagischer Gesang, den nur der wahre Romantiker wahrnehmen kann. Andererseits weiß die Literatur jedoch auch um das Zufällige und Vergängliche aller Namen: „Gefühl ist alles, Name ist Schall und Rauch“, sinniert Faust bei Gretchen – womit er aber nur von seinen mephistophelisch inspirierten Verführungsabsichten ablenken will.
Allerdings führt die Frage nach Fausts Religiosität, die Gretchen zuvor gestellt hatte, auf ein weiteres Namenstabu. Im jüdischen Glauben steht das Tetragramm J-H-W-H für den Namen Gottes, den nur dieser allein aussprechen kann. Dieser Name unterscheidet ihn von allen anderen Göttern und dient als Passwort für sein auserwähltes Volk, die Juden. Deshalb wurde von den Abschreibern der Tora bewusst offen gelassen, welche Vokale zwischen den vier Konsonanten des „Tetragramms“ einzusetzen sind. Durch diese gezielte Tabuisierung ist schließlich die „richtige“ Aussprache des Gottesnamen in Vergessenheit geraten (man geht heute davon aus, dass es „Jahwe“ lauten muss). Was jedoch bedeutet JHWH? Auch hier gibt es wiederum mehrere Theorien; eine davon ist die etymologische Herleitung von der Vergangenheitsform der dritten Person Singular des hebräischen Verbs „sein“. JHWE wäre also in etwa „Gott ist“ – das reine Sein des Gottes, der von sich selbst sagt: „Ich bin, der ich bin“ (Exodus, 3, 14) ist das existenzialistische Grundpasswort schlechthin, sozusagen.
Die Etymologie, die Lehre von der Wortherkunft und -geschichte also, ist einer der Tricks, den „Zauberwörtern“ und magischen Namen wissenschaftlich auf die Spur zu kommen: Denn wenn der Name in irgendeiner Weise das Wesen dessen spiegelt, der ihn trägt, dann kann er dies ja nur entweder durch eine verborgene, zweite Bedeutung (semantisch) oder durch sein äußerliche Klangfolge (phonetisch), die das Wesen sinnlich erfahrbar macht. Letzteres veranschaulichen vor allem sogenannte „Onomapoetica“, direkt lautmalerische Wörter. Die bekanntesten Beispiele sind der „Kuckuck“ oder das „Kikeriki“; wie weit man es aber treiben kann mit der Lautmalerei, haben schon die sprachverliebten Kling-Dichter des Barocks vorgeführt, z. B. der Pegnitzschäfer Johann Klaj, der zweifellos auch ein begnadeter Passwort-Erfinder gewesen wäre:
Der kekke Lachengekk koaxet/krekkt/und quakkt/
Des Krippels Krückenstockk krokkt/grakkelt/humpt und zakkt/
Des Gukkuks Gukken trotzt dem Frosch und auch die Krükke.
Was knikkt und knakkt noch mehr? kurtz hier mein Reimgeflikke.
Onomapoetica sind jedoch selten, da sie nur aus akustisch wahrnehmbaren Phänomenen abgeleitet werden können. Die allgemeinere Möglichkeit der etymologischen Herleitung von Wortbedeutungen erläutert Platons Dialog Kratylos, einer der frühesten sprachphilosophischen Texte überhaupt. Er geht von einer Streitfrage zwischen Hermogenes und Kratylos aus, die diese dem weisen Sokrates zur Entscheidung vorlegen: „Hermogenes: Dieser Kratylos behauptet, o Sokrates, es gebe von Natur einen richtigen Namen für jedes Ding, und nicht das sei ein Name, den einige nach Übereinkunft einem Dinge beilegten […], sondern es gebe eine Richtigkeit der Namen von Natur, und zwar für Hellenen und Barbaren, für alle ein und dieselbe“. Kratylos ist also ein „Nominalist“ im Wort- und übertragenen Sinne: Für ihn bezeichnen Namen das Wesen eines Dinges, und zwar unabhängig von gesellschaftlicher Konvention oder nationalsprachlicher Verschiedenheiten. Hermogenes hingegen bezweifelt das: „Ich habe zwar, o Sokrates, gar oft mit diesem hier und mit vielen anderen gesprochen, kann mich aber nicht überzeugen, daß es einen anderen Grund für die Richtigkeit eines Namens gebe als Verabredung und Übereinkunft. Denn mir scheint jeder Name, den man einem Dinge beilegt, der rechte zu sein, und wenn man ihn wieder mit einem anderen vertauscht und jenen nicht mehr gebraucht, so müsse man diesen späteren für nicht minder richtig halten als den früheren“. Hermogenes ist also ein „Konventionalist“: Namen sind beliebig vertauschbare Absprachen, nicht mehr und nicht weniger. Sokrates schließlich nimmt zunächst einmal beide auf die Schippe, indem er die Ernsthaftigkeit dieses philosophischen Nebenkriegsschauplatzes bestreitet: „Wenn ich schon beim Prodikos [einem bekannten Sophisten] den Vortrag für fünfzig Drachmen gehört hätte, durch den man, wie jener sagt, hierüber aufgeklärt wird, so könntest du leicht sofort die Wahrheit über die Richtigkeit der Namen erfahren. Nun aber habe ich ihn nicht gehört, sondern nur den Vortrag für eine Drachme: Daher kenne ich den wahren Sachverhalt in diesen Dingen nicht. Doch bin ich bereit, ihn mit dir und Kratylos gemeinsam zu untersuchen.“ Darauf folgt eine kostenlose, sehr akribische, sehr umfangreiche Untersuchung der verschiedensten Möglichkeiten, Namen herzuleiten – seien es Götternamen, die Benennungen menschlicher Tugenden oder gar der „Name“ selbst, im Griechischen „onoma“: „Sokrates: So gleicht der Name, onoma, einem aus einem Satze zusammengeschmiedeten Worte, des Inhalts, daß es das Seiende (on) ist, worauf sich das Suchen bezieht. Besser kannst du es noch an dem Ausdruck onomastos, namhaft, erkennen: denn da heißt es ausdrücklich, es sei das Seiende, nach dem ein Streben stattfinde, on hou masma“.
Alles klar? Auch die Gesprächspartner sind eher verwirrt denn erhellt, was Sokrates wahrscheinlich beabsichtigt hatte – denn ihm geht es bei allem etymologischem Geplänkel vor allem darum, die platonische Ideenlehre als eigentlichen Kern des Streits herauszuarbeiten: Es sei nämlich letztlich egal, ob die Worte die Dinge nachahmen und so ihr Wesen enthielten, oder ob sie reiner Zufall seien, da es auf sie sowieso nicht ankomme: „Gesetzt, es ist auch wirklich in hohem Grade möglich, die Dinge aus Worten kennen zu lernen, aber auch durch sie selbst, – welches wäre der schönere und sicherere Weg der Erkenntnis: aus dem Bilde zu erkennen, ob es selbst gut nachgebildet ist und die Wirklichkeit, die es abbildete, oder aus der Wirklichkeit sie selbst und ob das Abbild von ihr richtig geraten ist?“ Im Reich der Ideen braucht man keine Passwörter mehr, da die Sprache sowieso nur ein mangelhafter Ersatz für die unmittelbare Schau der Urbilder alles Seins ist.
Während der Name als Passwort zum Wesen der Dinge vor allem in der Welt der Mystik, des Volksglaubens und der Sagen weiterlebt, macht in der akademischen Philosophie seit Aristoteles sein etwas blässerer Vetter Karriere: der Begriff. Zwar gibt es sowohl im Aristotelischen Organon wie beispielsweise bei Thomas Hobbes (Grundzüge der Philosophie), Friedrich Wilhelm Hegel (Wissenschaft der Logik) oder John Stuart Mill (System der deduktiven und induktiven Logik) ausführlichste Kapitel über den „Namen“ – verstanden nun jedoch im allgemeinen Sinn als „Wort“ überhaupt, als Benennung für Gegenstände und Sachverhalte. Mit Hobbes ist man sich im Wesentlichen einig darüber, dass der Konventionalismus die Sache richtig beschreibt: „In Kürze nur merke ich an, daß ich annehme, daß der Ursprung der Namen willkürlich ist, eine Voraussetzung, welche nach meinem Urteil keinem Zweifel unterliegt“. Das bei weitem überwiegende Interesse der Schulphilosophie gilt nun nicht mehr dem Individuellen und Magischen des Einzelnamens, sondern dem Allgemeinen und Objektiven des Begriffs. Und es liegt auch im Blick auf die Zukunft nahe, dass das Passwort samt all seinen magischen Vorfahren bald ausgedient haben wird: Zuverlässigere Identifikation versprechen biometrische Merkmale wie die Zusammensetzung von Iris oder Stimme, der Fingerabdruck, letztlich die DNA als umfassender genetischer Passcode. In Zeiten hochleistungsfähiger Entschlüsselungsalgorithmen kann man sich die sowohl durch die Gesetze der Stochastik als auch durch die Faulheit oder mangelnde Originalität der Benutzer begrenzten Variationsmöglichkeiten sprachlicher Identifikation nicht mehr leisten. Nach dem unaussprechlichen Gotteswort und dem naturmagischen Zauberwort erweist sich damit auch das menschliche Passwort als vergänglich: Wo Sozialversicherungsnummer + genetischer Fingerabdruck die Identität endlich zweifelsfrei und zudem fälschungssicher garantieren, ist Sprache als Merkmal der Individualität überflüssig geworden.
          
POESIEALBUM, gebundenes Buch mit weißen Seiten (von lat. album = weiß), die zur Erinnerung von Freunden mit Versen und Bildern gestaltet werden können. Jeder Eintragende bekommt dabei eine Seite zur freien künstlerischen Entfaltung (deshalb „Poesie“; verstanden nicht nur als Aufforderung, gefälligst in gereimten Versen zu sprechen, sondern auch die schnöde Alltagswelt hinter sich zu lassen zugunsten einer höheren künstlerischen Idealwelt). Verbunden mit der Ehre der Eintragung können Auflagen sein wie: „Liebe Leute groß und klein! Schreibt Ihr in mein Album ein, wascht euch erst die Hände rein!“ Von ähnlicher lyrischer Qualität sind häufig auch die verzeichneten Verse, bei denen Originalität oder Kreativität offensichtlich weniger geschätzt wird als die Reinlichkeit der Handschrift, die klassische Sentenzenschwere der Verse oder die Auswahl von regenbogenfarben glitzernden Glanzbildchen. Die Reihenfolge der Eintragungen signalisiert dabei durchaus Bedeutungsschwere: Kommt die verehrte Grundschullehrerin zuerst oder doch der Erbonkel? Die Eltern vor den Geschwistern? Die Freunde sortiert nach Maß der individuellen Zuneigung oder nach Rang in der Hackordnung der jeweiligen peer group? Und verschwindet das Poesiealbum mit den ersten schmerzhaften Freundschaftsverlusten, angesichts derer ein zeitloser Klassiker unter den Einträgen erst wahrhaft verständlich wird: „Lerne erst die Menschen kennen, denn sie sind veränderlich. Die dich heute Freunde nennen, schimpfen morgen über dich!“ – oder bleibt es erhalten, lange Zeit versteckt in einer sehr staubigen Schublade, und im Alter wiederentdeckt und liebevoll durchblättert?
Trotz seiner wichtigen Funktion als Freundschaftsdokument ist das Poesiealbum sehr viel jünger als die Freundschaft selbst. Zum ersten ist es gebunden an die Entwicklung einer für alle verfügbaren Schriftkultur; in der Antike tauschte man zum Zeichen der Freundschaft allenfalls Rüstungen, wie es beispielsweise aus Homers Ilias überliefert ist (aber vielleicht war ja ein nicht überlieferter Freundschaftsspruch auf den Harnisch eingeprägt?). Zum zweiten erfordert es eine Wertschätzung der nostalgisch verklärten Erinnerung, verbunden mit einem gewissen Sammelenthusiasmus. Das demonstriert bereit sein historisches Vorbild, das Stammbuch nämlich: In ein solches Album trugen gute Freunde ihren Namen, das Familienwappen und ihren Wahlspruch ein – es demonstrierte also ihre adlige Abstammung ebenso wie ihre Gesinnung und wies bereits die auch für das Poesiealbum bezeichnende Mischung von Sprach- und Bildelementen auf, war jedoch noch wenig auf die persönliche Beziehung ausgerichtet. Im 18. Jahrhundert erlebte das Stammbuch dann seine eigentliche Blütezeit, und zwar vor allem im Studententum: In ihm versicherten sich nicht nur Kommilitonen gegenseitig ihrer bleibenden Verbundenheit; es diente auch zur Festigung sozialer Netzwerke, indem Eintragungen von Professoren oder anderer Autoritäten als Empfehlung beim Wechsel der Universität vorgezeigt werden konnten. Wichtig wurde nun die persönliche Widmung an den Stammbuchinhaber, mit Nennung des Widmenden, ggf. seines Standes und seiner Fakultät sowie Ort und Zeit. Zunehmender Wertschätzung erfreuten sich auch Widmungsgedichte, die von mehreren berühmten Autoren bis hinein ins 20. Jahrhundert überliefert sind. Idealerweise bauen sie einen persönlichen Bezug zum Adressaten auf, sei es nun ein angeschmachtetes Fräulein, ein politischer Gesinnungsgenosse oder ein unermüdlicher Mitzecher. Sie können aber auch mäßig albern sein, wie die Verse des jungen Goethe an seinen Sturm-und-Drang-Freund Jakob Michael Reinhold Lenz (mit dem er sich als Klassiker dann heillos überwerfen sollte): „Zur Erinnerung guter Stunden, / Aller Freuden, aller Wunden, / Aller Sorgen, aller Schmerzen, / In zwei tollen Dichterherzen, / Noch im letzten Augenblick / Laß ich Lenzchen dies zurück“. Andere studentische Stammbücher glänzen vor allem durch obszöne Zeichnungen aus dem wilderen Teil des studentischen Lebens. Trotz dieser vielfältigen Anwendungsmöglichkeiten hatte sich der Reiz des Stammbuchs jedoch gegen Ende des 18. Jahrhunderts offenbar erschöpft; so beklagt Moses Mendelssohn die oberflächliche Hascherei nach Celebrities: „Man kennt diese Klasse der Reisenden in Deutschland, die ihre Stammbücher von Ort zu Ort herumtragen, und was sie bei einem Manne von Verdienst sehen oder erfragen, in grösster Eil, und Geschwindigkeit hier und da wieder anbringen, oder gar zum öffentlichen Drucke befördern“. Und Heinrich Heine stellt gar einen Bezug zwischen dem allgemeinen Verfall des Freundschaftskults und dem langsamen Verschwinden der Stammbücher her: In einem Gedicht mit dem Titel Kein Stammbuch sinniert er: „Betrug und Freundschaft sind ja zumeist / im Erdenverkehre Geschwister, / Und was man jung ein Stammbuch heißt, / wird endlich Totenregister“. Das Risiko von Freundschaftsverlusten beklagen Poesiealbumsverse dementsprechend bis heute: „Brich nie das Band der Freundschaft / unüberlegt entzwei, / denn findest du es wieder, / ein Knoten bleibt dabei“!
Im 19. Jahrhundert gewannen stattdessen die Poesiealben an Popularität. Sie waren nicht mehr ständisch gebunden, sondern wurden zum allgemeinen Objekt des Sammeleifers in einem sammelwütigen Zeitalter, zunehmend auch von Frauen. Die Betonung des „Poetischen“ sollte dabei wohl die Prosa des bürgerlichen Alltagslebens im beginnenden industriellen Zeitalter kompensieren; ironischerweise war eine Nebenwirkung aber die Verflachung des eigentlichen poetischen Gehalts. Diese äußerte sich auf allen Ebenen der Gestaltung: Wichtig war nicht mehr die charakteristische Handschrift, sondern der Eintrag diente eher als Schönschreibübung in zierlichem Sütterlin– noch für Hegel war die Handschrift als „einfache Äußerlichkeit“, genauso wie die Stimme, ein wichtiger „Ausdruck des Innern“ und eine Grundlage einer „festeren Existenz“; und Georg Simmel diagnostizierte wenig später mit dem Aufkommen der Schreibmaschine eine Tendenz hin zu „mechanischer Gleichförmigkeit“: „und dann entfällt der Verrat des Persönlichsten, den die Handschrift so oft begeht“. An die Stelle der Handzeichnung tritt das industriell produzierte, dem Massengeschmack ästhetisch angepasste Glanzbildchen. Schließlich verschwindet auch das persönliche Widmungsgedicht; die deutschen Klassiker werden nun geplündert auf der Suche nach allgemein zitierfähigen Sinnsprüchen. Noch für Herder waren solche Sentenzen, markant formulierte Lebensweisheiten in der Tradition der römischen Dichtung Senecas und Juvenals, wahrhafte Medien der Popularität: „Denksprüche fürs Volk klingen in Reimen prächtig! Wohlgereimte Sentenzen sind Machtsprüche; sie tragen im Reim das Siegel der ewigen Wahrheit“. Hat man jedoch zum tausendsten Mal, umrankt von schillernden Putten und Blumenkränzen, das unsterbliche Goethe-Wort „Edel sei der Mensch, hilfreich und gut“ gelesen, wird einem der Sinn wahrscheinlich eher nach satirischer Umformulierung stehen („Edel sei der Mensch, milchreich die Kuh!“) – oder doch nach volkstümlicheren Weisheiten wie: „Bis die Flüsse aufwärts fließen, bis die Hasen Jäger schießen, bis die Mäuse Katzen fressen, solang wird ich dich nicht vergessen!“
In den Zeiten von Facebook und dem Ersatz von realen Freunden durch virtuelle „Follower“ hat sich auch das Poesiealbum angepasst. Heutzutage heißt es „Freundebuch“ (immerhin noch eine korrekte Übersetzung des lateinischen Namens des altehrwürdigen Stammbuchs, album amicorum) und ist geschlechterspezifisch kodiert: Mädchen wählen gern das Pferdefreundebuch oder „Prinzessin Lillifee und ihre Freunde“, Buben bevorzugen das „Bundesliga-Freundebuch“. An ihm verdient die multimediale Unterhaltungsindustrie (das „SpongeBob-Freundebuch“, das „Shaun-das-Schaf-Freundebuch“); leicht zynisch angehaucht spiegelt es die moderne Patchwork-Identität („Mein Ex-Freunde-Buch“). Die Anforderungen an die persönliche Originalität oder die Gestaltungsfreude sind nur noch minimal; man klebt ein Foto ein (notfalls tut es auch ein Verweis auf die Profilseite in einem sozialen Netzwerk) und beantwortet vorformulierte Fragen in einfachen Stichworten. Neben Name, Alter, Schulklasse spielen dabei vor allem persönliche Vorlieben (Lieblingsfarbe, Lieblingsessen, Lieblingstier, Lieblingspopstar, Lieblingssportler, Lieblingsfilm, Lieblingscomputerspiel, verschwindend: Lieblingsbuch; oder ganz allgemein: „was ich am liebsten mag“) bzw. Abneigungen („was ich gar nicht mag“) eine Rolle. Der darin wiedergespiegelte Freundschaftswert ist ebenso wie der damit verbundene Erinnerungswert eher bescheiden (gesteigert wird jedoch der Unterhaltungswert durch kuriose Rechtschreibfehler), zumal die Antworten sich meist in einem relativ engen, sozusagen erinnerungspolitisch korrekten Spektrum bewegen, das von „Frieden auf Erden“ und „meine Familie“ bis zu „Spinat“ und „Hausaufgaben“ reicht. Damit ist zu guter Letzt ein Poesiealbum-Klassiker eingeholt, der die Verflüchtigung aller bleibenden Beziehungen in der modernen Welt mit der unüberbietbaren Klarheit und Knappheit der wahren Sentenz prophezeite: „Durch Zufall lernten wir uns kennen, durch Zufall werden wir uns trennen, durch Zufall werden wir uns wiedersehen!“
          
QUANTENSPRUNG, physikalisches Konzept, demzufolge Prozesse auf der Ebene von Molekülen anderen Gesetzen folgen als makroskopische Prozesse, die den Regeln der klassischen Physik gehorchen. Kleinste atomare und subatomare Systeme können demnach nur diskrete Zustände annehmen; „diskret“ (von lat. discretus: unterschieden, voneinander getrennt) bedeutet – im Gegensatz zu „kontinuierlich“ –, dass Phänomene nicht in kontinuierlicher Abstufung vorkommen, sondern nur in kleinen Päckchen, den „Quanten“ (von lat. quantum: wie viele?). Ändert ein solches System seinen Zustand, geschieht das nicht graduell, sondern in einem Sprung von dem einen in den anderen Quantenzustand. Ein Quantensprung ist also eine winzige, sprunghafte Zustandsänderung in einem sehr, sehr kleinen System, bei dem Energie frei oder absorbiert wird. Umgangssprachlich hat sich allerdings eine geradezu gegensätzliche Bedeutung eingebürgert: Häufig wird gerade dort von einem „Quantensprung“ gesprochen, wo es um große, unerwartete Veränderungen geht, von denen man sich etwas ganz Neues und besonders weitreichende Fortschritte (siehe auch Innovation) verspricht.
Mutmaßlich ist diese begriffliche „Unschärfe“ darauf zurückzuführen, dass die Entdeckungen der Quantenphysik tatsächlich einige unerhörte und zunächst äußert umstrittene Neuerungen in der Physik brachten, gegen die sich selbst ihre Entdecker anfangs wehrten. Das logische und metaphysische Provokationspotential des Begriffes kann man sich am besten klarmachen, indem man eines der berühmtesten Gedankenexperimente der Quantenphysik nachvollzieht, nämlich „Schrödingers Katze“ (sanftbesaitete Katzenfreunde können das liebe Kätzchen auch durch eine Spinne oder eine Schlange, je nach persönlicher Phobiepräferenz, ersetzen). Man stelle sich einen geschlossenen Kasten vor, in dem das Tier eingesperrt ist, und zwar in Gesellschaft eines instabilen Atomkerns, der innerhalb einer bestimmten Zeitspanne mit einer gewissen Wahrscheinlichkeit zerfällt. Sobald dies geschieht, wird Giftgas freigesetzt und die Katze dadurch getötet. Der Atomkern zerfällt jedoch nur mit einer gewissen Wahrscheinlichkeit innerhalb dieses Zeitraums – es gehört zu den Eigenheiten der Quantenphysik, dass sie nur „Aufenthaltswahrscheinlichkeiten“ für bestimmte Teilchen an einem bestimmten Ort zu einer bestimmten Zeit angeben kann. Verstreicht dieser Zeitrum, ohne dass der Atomkern zerfällt, befindet er sich nun in einem Zustand der „Überlagerung“ zweier Zustände: Er ist gleichzeitig zerfallen und nicht-zerfallen – was auf der mikroskopischen Ebene der Quantenphysik keinen logischen Widerspruch und überhaupt kein Problem darstellt, jedoch bei der Übertragung auf die makroskopische Ebene eines wird: Die Katze wäre demnach nämlich zugleich tot und nicht-tot – ein quantenphysischer Zombie, sozusagen, was offensichtlich ein unhaltbarer Zustand ist. Öffnet man nun den Kasten, setzt man diesem Überlagerungszustand ein Ende: Das Atom „entscheidet“ sich sozusagen in diesem Moment für einen der beiden Zustände. Man kann aber nicht beides haben – ein genaues Wissen um den jeweiligen Zustand des Atoms/der Katze und seine Beobachtbarkeit (so jedenfalls die „Kopenhagener Deutung“ des Gedankenexperiments; es gibt auch andere, die aber wesentlich weniger anschaulich sind).
Die Erkenntnisse der Quantenphysik wurden erst durch die Entwicklung geeigneter Versuchs- und Messmethoden auf molekularer Ebene sowie erheblich fortgeschrittener mathematischer Kenntnisse möglich; das durch sie provozierte Nachdenken über die Kontinuität oder Diskontinuität der Welt ist allerdings deutlich älter. Die Vorstellung von einer „Kette der Wesen“, der great chain of being, in der graduelle Übergänge von der unbelebten zur belebten Natur, von den Tieren zu den Menschen, von den Menschen zu den Engeln angenommen wurden, prägte lange Zeit die Naturgeschichte und auch die Philosophie. So führt beispielsweise John Locke, immerhin einer der Hauptvertreter des philosophischen Empirismus, aus: „Ich halte es für wahrscheinlich, dass es mehr Arten verständiger Wesen über uns, als sinnlicher und körperlicher Dinge unter uns giebt, weil man in der sichtbaren körperlichen Welt keinen Sprung und keine Kluft antrifft. Das Absteigen nach unten vom Menschen ab geschieht nur in kleinen Stufen und in einer fortlaufenden Reihe der Dinge, von denen die nächsten sich wenig unterscheiden. Es giebt Fische mit Flügeln, die keine Fremdlinge in der Luft sind, und es giebt Vögel, die das Wasser bewohnen und deren Blut so kalt und deren Fleisch so dem der Fische gleich ist, dass selbst die gewissenhaftesten Christen sie an Fasttagen essen. Sie sind den Vögeln und Fischen so nahe, dass sie zwischen beiden stehen; ebenso verketten die Amphibien die Land- und Wasserthiere; Seehunde leben auf dem Lande und im Meere, und Schildkröten haben das warme Blut und die Eingeweide vom Schwein, ohne der Seejungfern und Meermännchen zu gedenken, von denen man sich im Vertrauen erzählt. Manche Thiere scheinen so viel Wissen und Verstand zu haben, wie manche, die Menschen heissen, und das Pflanzen- und Thierreich sind so eng verknüpft, dass zwischen dem höchsten aus jenem und dem niedersten aus diesem kaum ein Unterschied bestehen wird“.
Das Zitat demonstriert neben einer gewissen Demut gegenüber den Mitbewohnern der Schöpfung und einigen naturgeschichtlichen Kuriositäten anschaulich die Konsequenz aus diesem programmatisch kontinuierlichen Naturbild: Es führte nämlich zur nachgerade detektivischen Suche nach fehlenden Zwischengliedern, den missing links – beispielsweise zwischen Menschen und Affen (siehe auch Yeti); hierher gehört auch der berühmte Urvogel Archaeopteryx als Bindeglied zwischen Dinosauriern und Vögeln. Die moderne Evolutionstheorie hat diese Kontinuitätsvorstellungen weitgehend bestätigt; obwohl Mutationen sich rein zufällig vollziehen, führen sie durch die Selektion innerhalb der jeweiligen Umwelt meist zu einer eher langsamen und kontinuierlichen Artenentwicklung. Gleichwohl gibt es auch in der Evolution so etwas wie Quantensprünge durch Mutationen, die gelegentlich sehr schnell ablaufende – wenn auch nicht wirklich sprunghafte – Veränderungen hervorbringen können, und nicht nur auf der mikroskopischen Ebene. Als heiße Kandidaten dafür gelten sowohl die Entstehung von Leben aus einer unbelebten Versammlung anorganischer Moleküle oder auch die Entstehung von Bewusstsein (vgl. Emergenz). Vielleicht springt die Natur ja doch, wenn auch in kleinen Sätzen, wie beim Quantensprung?
Das Problem des „Sprunges“ taucht in der Philosophie allerdings eher dort auf, wo man um einen Übergang zwischen zwei logisch oder ideo-logisch völlig unvereinbaren Zuständen verlegen war – beispielsweise für das Verhältnis von Geist und Materie. Friedrich Wilhelm Joseph Schelling führt in diesem Zusammenhang aus: „Geist und Materie. Denn immer noch drückt uns dieselbe Unbegreiflichkeit, wie zwischen Materie und Geist Zusammenhang möglich sei. Man kann sich das Abschneidende dieses Gegensatzes durch Täuschungen aller Art verbergen, kann zwischen Geist und Materie so viel Zwischenmaterien schieben, die immer feiner und feiner werden, aber irgend einmal muß doch ein Punkt kommen, wo Geist und Materie Eins oder wo der große Sprung, den wir so lange vermeiden wollten, unvermeidlich wird, und darin sind alle Theorien sich gleich“. Beinahe sieht man hier schon, wie sich der Weg zur Quantenphysik abzeichnet (was allerdings gar nicht in Schellings Intention lag): Indem man die „grobe“ Materie immer feiner und feiner macht, schreibt man ihr heimlich schon ein Geistesattribut – die „Feinheit“ – zu; es fehlen sozusagen nur noch die geeigneten Messinstrumente zu ihrer Erfassung (bis heute hat sich da wenig geändert; wenn wir einen Geigerzähler für Bewusstseinsphänomene auf synaptischer Ebene im Gehirn hätten, wäre vieles einfacher).
Georg Wilhelm Friedrich Hegel wird das gleiche Problem auf abstrakt-logischer Ebene behandeln; und er spricht sogar in diesem Zusammenhang schon von „Quanten“. Ihm geht es um das Verhältnis zwischen Quantitäten – also Mengenverhältnissen, die sich immer kontinuierlich und allmählich verändern – und Qualitäten – die plötzlich auftreten und sich nicht quantifizieren lassen (vgl. Qualia). Im Blick auf die verschiedenen Aggregatszustände von Wasser (vgl. Emergenz) stellt Hegel fest: „Ohne durch Zwischenstufen durchgegangen zu sein, tritt eine spezifische Verbindung auf, die auf einem Maßverhältnisse beruht und eigene Qualitäten hat“; Eis ist etwas qualitativ anderes als flüssiges Wasser, ebenso wie Wasserdampf. Aus diesem unschuldigen Beispiel zieht Hegel dann, in einem ziemlichen Sprung, weitreichende Folgerungen: „Alle Geburt und Tod sind, statt eine fortgesetzte Allmählichkeit zu sein, vielmehr ein Abbrechen derselben und der Sprung aus quantitativer Veränderung in qualitative. Es gibt keinen Sprung in der Natur, wird gesagt; und die gewöhnliche Vorstellung, wenn sie ein Entstehen oder Vergehen begreifen soll, meint, wie erinnert, es damit begriffen zu haben, daß sie es als ein allmähliches Hervorgehen oder Verschwinden vorstellt. Es hat sich aber gezeigt, daß die Veränderungen des Seins überhaupt nicht nur das Übergehen einer Größe in eine andere Größe, sondern Übergang vom Qualitativen in das Quantitative und umgekehrt sind, ein Anderswerden, das ein Abbrechen des Allmählichen und ein qualitativ Anderes gegen das vorhergehende Dasein ist“. Das Schicksal von Schrödingers Katze ist insofern wirklich ein philosophischer Quantensprung: Der Tod ist die ultimative qualitative Veränderung, die jedem quantitativen Mehr oder Weniger von Leben ein entschiedenes Ende setzt. Und ebenso, noch einmal Hegel, ist das Denken selbst der Sprung in die Philosophie schlechthin: „Das Erheben des Denkens über das Sinnliche, das Hinausgehen desselben über das Endliche zum Unendlichen, der Sprung, der mit Abbrechung der Reihen des Sinnlichen ins Übersinnliche gemacht werde, alles dieses ist das Denken selbst, dies Übergehen ist nur Denken. Wenn solcher Übergang nicht gemacht werden soll, so heißt dies, es soll nicht gedacht werden“. Ich denke, also bin ich gesprungen, ist insofern die Maxime des (idealistischen) Philosophen!
Hegels logischer Sprung ins Absolute der Philosophie und des Denkens findet wenig später ein Äquivalent in der Ethik: Sören Kierkegaard prägt den „Sprung in den Glauben“, im englischen Sprachraum inzwischen beinahe bekannter als „leap of faith“. Um das Christentum mitsamt seinen unendlichen logischen Paradoxien persönlich anzunehmen, ist nach Kierkegaard ein unbedingter Sprung unumgänglich; vom Zustand des Nicht-Glaubens in den des Glaubens gibt es keinen allmählichen Weg, sondern der Abgrund zwischen diesen beiden qualitativ unvereinbaren Zuständen kann nur durch einen emotionalen Anlauf und einen intellektuellen salto mortale überwunden werden. Wer glauben will, so Kierkegaard, muss springen!
Philosophische „Sprünge“ teilen mit den alltagssprachlichen „Quantensprüngen“ die Eigenschaft, dass sie sich meist in der Größenordnung des Makrokosmos abspielen, besonders große Gräben überbrücken müssen und besonders weitreichende Konsequenzen haben: Sein oder Nichtsein, Glauben oder Unglauben, Geist oder Materie? Mit den physikalischen Quantensprüngen wiederum kommen sie darin überein, dass es keinerlei kontinuierlichen Übergänge zwischen zwei komplementären, qualitativ entgegengesetzten Zuständen gibt: Man kann weder ein bisschen tot noch ein bisschen schwanger noch ein bisschen christlich sein. Oder kann man doch? Gibt es nicht vielleicht doch auch menschliche Erfahrungen von Überlagerungen, von Unentschiedenheit, die erst dadurch entschieden wird, dass ein Beobachter hinschaut und dadurch die unwiderrufliche Entscheidung auslöst? In Goethes Erlkönig heißt es:
Wer reitet so spät durch Nacht und Wind?
Es ist der Vater mit seinem Kind;
Er hat den Knaben wohl in dem Arm,
Er faßt ihn sicher, er hält ihn warm.
Die Situation erinnert, wenn auch sehr von fern, an Schrödingers Katze: Der Alltag ist ausgeblendet, Vater und Kind bilden eine Einheit, umgeben von Dunkelheit und Sturm. In dieser Situation spielt sich ein Gespräch zwischen Vater und Sohn ab, bei dem der Sohn im dunklen Wald Gespenster (zerfallende oder nicht-zerfallende Atome) sieht und phantasiert:
„Mein Sohn, was birgst du so bang dein Gesicht?“
„Siehst, Vater, du den Erlkönig nicht?
Den Erlenkönig mit Kron und Schweif?“
„Mein Sohn, es ist ein Nebelstreif.“
Das Gespräch setzt sich noch ein wenig fort, der Erlkönig verspricht dem Knaben seine schönen Töchter und rückt ihm auch persönlich immer näher auf den Leib (er spricht dabei mit geflügelten Worten, siehe auch O-Ton):
„Ich liebe dich, mich reizt deine schöne Gestalt;
Und bist du nicht willig, so brauch ich Gewalt.“
„Mein Vater, mein Vater, jetzt faßt er mich an!
Erlkönig hat mir ein Leids getan!“
An dieser Stelle lebt der Knabe zwar noch, gerät aber immer stärker in einen Überlagerungszustand zwischen Leben und Tod; so lange das Gespräch dauert, ist nicht genau zu klären, ob er noch lebendig ist oder schon den Toten anheimfällt. Dass er wirklich tot ist, entscheidet sich erst, als der Vater anhält, also den Kasten öffnet und die Beobachterposition einnimmt:
Dem Vater grauset's, er reitet geschwind,
Er hält in Armen das ächzende Kind,
Erreicht den Hof mit Mühe und Not;
In seinen Armen das Kind war tot.
Es wäre mit ein wenig Phantasie leicht vorstellbar, dass beide ewig „durch Nacht und Wind“ weitergeritten wären und die Überlagerung niemals geendet hätte; es wäre ebenso vorstellbar, dass der Vater an beliebiger Stelle anhält – den Kasten öffnet – und das Kind dann entweder lebt oder stirbt. Das Beispiel mag noch ein wenig gruseliger sein als Schrödingers Katze (oder Spinne oder Schlange), es mag auch den sehr viel komplizierteren und vor allem unanschaulicheren Gesetzen der Quantenphysik nicht ganz gerecht werden; so warnte ja schon Schrödinger im Blick auf sein eigenes „ganz burleskes“ Gedankenexperiment: „Das Typische an solchen Fällen ist, daß eine ursprünglich auf den Atombereich beschränkte Unbestimmtheit sich in grobsinnliche Unbestimmtheit umsetzt, die sich dann durch direkte Beobachtung entscheiden läßt. Das hindert uns, in so naiver Weise ein „verwaschenes Modell“ als Abbild der Wirklichkeit gelten zu lassen“. Dass es jedoch dann und wann willkürliche Sprünge und nicht minutiös nachvollziehbare, allmählich sich vollziehende, kausal bis ins kleinste Detail begründbare Entwicklungen sind, die auch das menschliche Leben insgesamt prägen können, ist eine Erkenntnis, die in jedem Bungee-Springer ebenso steckt wie im Philosophen-Artisten Nietzsche: „Das sind jene wahrhaften Menschen, jene Nicht-mehr-Tiere, die Philosophen, Künstler und Heiligen; bei ihrem Erscheinen und durch ihr Erscheinen macht die Natur, die nie springt, ihren einzigen Sprung, und zwar einen Freudensprung, denn sie fühlt sich zum ersten Male am Ziele, dort nämlich, wo sie begreift, daß sie verlernen müsse, Ziele zu haben, und daß sie das Spiel des Lebens und Werdens zu hoch gespielt habe“.
          
REALITY TV (von lat. res: Ding), Realitätsfernsehen, Sendungsformate im Fernsehen, in denen Ereignisse aus der alltäglichen, gesellschaftlichen Realität primär zu Unterhaltungszwecken wiedergegeben werden; im Gegensatz zu dokumentarischen Formaten, die allgemeine Sachverhalte aus der Wirklichkeit (v.a. Natur und Wissenschaft) primär zu Bildungszwecken darstellen. Das Phänomen ist nicht mehr ganz neu und multinational. Der Begriff entstand bereits in den 40er Jahren in den USA, wo sozusagen der Dinosaurier aller Reality-Formate, die Sendung Candid Camera (im deutschen Fernsehen bis heute bekannt und beliebt als Versteckte Kamera), ausgestrahlt wurde; bereits in den 50er Jahren folgten die ersten Casting- und Talentshows (Miss America). Ab Ende der 80er Jahre präsentierten Serien den Alltag in verschiedenen Berufsfeldern (COPS). Der Urvater von Big Brother entstand 1991 in den Niederlanden (Nummer 28). Ende der 90er Jahre kamen die ersten Reality-Gameshows auf (diesmal in Schweden: Expedition Robinson, 1997). Extreme Ausprägungen erreichte das Reality TV im neuen Jahrtausend beispielsweise mit der Live-Übertragung von Schönheitsoperationen. Die fortschreitende Unterbietung aller Scham-, Ekel- und Peinlichkeitsschwellen, angeheizt vom Quotenkrieg des privaten Fernsehens, wird voraussichtlich auch in absehbarer Zeit noch nicht gebremst werden können.
Systematiker des Reality TV unterscheiden säuberlich einzelne Untergattungen. Sie fallen in die drei großen Oberkategorien Reality-Soap, Docutainment und Reality-Spielshows, wobei die genaue Abtrennung der einzelnen Spezies im Wildwuchs der Unterhaltungsbranche teilweise ebenso wenig möglich ist wie in der Botanik. In Reality- oder auch Doku-Soaps steht das alltägliche Leben im Mittelpunkt, vorzugsweise im Familienkreis, in der Krise und/oder auf Lebenshöhe- und tiefpunkten. Hier werden öffentlich Erziehungsdefizite aufgearbeitet (Die Super-Nanny, Das Erziehungscamp, Schluss mit Hotel Mama) oder persönliche Veränderungsprozesse dokumentiert (Die Hammer-Soap – Heimwerker im Glück; Ab ins Beet! – Die Garten Soap; Goodbye Deutschland! Die Auswanderer; Die Rückwanderer). Es gibt Lebensberatung in jeder Form, Eheberatung, Schuldenberatung, Ernährungsberatung, Schönheitsberatung, Berufsberatung (wahrscheinlich demnächst auch Beratungsberatung). Im Docutainment stehen einzelne Berufswelten im Vordergrund, vorzugsweise natürlich spektakuläre und bildträchtige – Polizisten (Polizeistation Berlin Mitte), Krankenhäuser (Babystation), Zoos (Elefant, Tiger & Co.) –, aber auch etwas trashige wie Die Autohändler – Feilschen. Kaufen. Probe fahren, Der Putztrupp, Die Skilehrer (beliebt in Österreich). Unter diese Kategorie fallen ebenso Kochshows (Die Küchenschlacht; Die kulinarischen Abenteuer der Sarah Wiener) wie die diversen Berufs-TÜVs (Rach, der Restauranttester; Der Hotelinspektor; Die Schulermittler).
Reality-Spielshows hingegen leben davon, dass etwas vor dem voyeuristischen Auge des Zuschauers passiert: Sie bringen Menschen in Extremsituationen – z. B. durch Isolation (Big Brother in allen Varianten), durch Konfrontation mit Grenzerfahrungen wie Ekel und körperlicher Belastung (Dschungel-Camp; Ich bin ein Star, holt mich hier raus!), durch den Appell an die Schadenfreude (Versteckte Kamera); die öffentlich-rechtlich entschärfte Variante ist die sogenannte Living History, in der Freiwillige sich in historischen Experimentalsituationen versuchen dürfen (Schwarzwaldhaus 1902; Steinzeit – Das Experiment). Zu den Reality-Spielshows gehören auch die momentan besonders beliebten Casting-Shows (DSDS – Deutschland sucht den Superstar; Popstars). Ähnlich funktionierten auch die Nachmittags-Talkshows vor allem der 90er Jahre, in denen persönlichste Probleme vor einem Studiopublikum öffentlich ausgetragen wurden  und je mehr Tränen dabei flossen und je vergifteter die Atmosphäre war, umso besser amüsierte sich der Zuschauer (Vera am Mittag; siehe auch Zickenkrieg).
Trotz dieser schillernden Vielfalt der Erscheinungsformen teilen die Formate des Reality TV doch einige wesentliche Merkmale. Deren wichtigstes ist das Authentizitäts-Postulat (siehe auch O-Ton): Der Zuschauer muss glauben, dass ihm tatsächlich die Realität und nichts als die Realität gezeigt wird – auch wenn im Einzelnen durchaus nachweisbar ist, dass die vermeintlich spontanen Szenen einer strikten Gefühlsregie folgen, das vermeintlich freie Studio-Publikum einstudierte Reaktionen auf Befehl wie in der Hundeschule von sich gibt, die Laien-Darsteller entweder instruiert oder gar keine Laien sind, die Szenen und Kulissen gestellt und das Material redaktionell bearbeitet wurde. Zum zweiten muss diese Realität dem Alltag entstammen. Die Akteure müssen Menschen wie Du und Ich sein, es darf kein allzu großer Abstand zum Publikum entstehen – sonst wäre die Identifikationsbasis gefährdet, die erst die starken emotionalen Reaktionen ermöglicht, von denen Reality TV lebt: Es geht nicht um Information, es geht nicht um Belehrung, es geht nicht um Reflexion, es geht nicht um Kritik – es geht ums Herz, aufs Herz, durch das Herz, der Kopf darf abgestellt werden, es reagieren der Bauch, die Triebe und Instinkte, das eben, was uns allen (oder wenigstens hinreichend vielen) gemeinsam ist. Nur so kann man nämlich Quote machen – das Alles-oder-Nichts-Prinzip des Privatfernsehens, seine ultima ratio, seine einzige Göttin. Zudem hat Reality TV noch den Vorzug, dass es billig ist: Arbeitet es doch gezielt „unprofessionell“ und benötigt weder teure Kulissen noch anspruchsvolle Superstars; es genügen die Helden des Alltags, die alles für einen kurzen Moment des Ruhms, ein Lächeln von Heidi Klum und ein Schulterklopfen von Dieter Bohlen geben, und sei es die Selbstachtung oder die Menschenwürde.
Das eigentliche Rätsel ist jedoch, warum Reality TV überhaupt so gut funktioniert, wie es das tut. Offensichtlich hat das mit dem spezifischen Verständnis von „Realität“ zu tun – ein philosophisch bedeutungsschwerer Begriff, dessen Geschichte in der Philosophie zumindest wechselhaft zu nennen ist. Denn ob es so etwas wie „Realität“ – Wirklichkeit – überhaupt gibt, und wenn ja, ob es vom Menschen zu finden und zu erkennen ist, hat die gegensätzlichsten Auffassungen hervorgerufen. Berühmt und für lange Zeit prägend für die Philosophie war der mittelalterliche „Universalienstreit“, die Frage danach, ob Allgemeinbegriffen oder konkreten Einzeldingen Realitätscharakter zukommt – wobei, entgegen der gemeinen Intuition, für die mittelalterlichen Philosophen außer Frage stand, dass die Universalien das einzige im Vollsinn reale waren (wie wäre Gott auch sonst zu denken?) Einen möglichen anderen Extremstandpunkt nimmt der subjektive Idealismus seit George Berkeley ein: Real ist demnach nur, was von einem Menschen als solches wahrgenommen werden kann: „So unmöglich es mir ist, ein Ding ohne eine wirkliche Wahrnehmung desselben zu sehen oder zu fühlen, eben so unmöglich ist es mir hiernach, irgend ein sinnlich wahrnehmbares Ding oder Object gesondert von der sinnlichen Wahrnehmung oder Perception desselben zu denken“. Immanuel Kant schließlich fasst die Diskussion zusammen: „Schon von den ältesten Zeiten der Philosophie her haben sich die Forscher der reinen Vernunft, außer den Sinnenwesen oder Erscheinungen (phaenomena), die die Sinnenwelt ausmachen, noch besondere Verstandeswesen (noumena), welche eine Verstandeswelt ausmachen sollten, gedacht, und, da sie (welches einem noch unausgebildeten Zeitalter wohl zu verzeihen war) Erscheinung und Schein vor einerlei hielten, den Verstandeswesen allein Wirklichkeit zugestanden. In der Tat, wenn wir die Gegenstände der Sinne, wie billig, als bloße Erscheinungen ansehen, so gestehen wir hiedurch doch zugleich, daß ihnen ein Ding an sich selbst zum Grunde liege, ob wir dasselbe gleich nicht, wie es an sich beschaffen sei, sondern nur seine Erscheinung, d.i. die Art, wie unsre Sinnen von diesem unbekannten Etwas affiziert werden, kennen. Der Verstand also, eben dadurch, daß er Erscheinungen annimmt, gesteht auch das Dasein von Dingen an sich selbst zu“. In der verkürzten Variante fürs Privatfernsehen: Es gibt zwar eine von uns unabhängige Realität, aber wir werden sie nie erkennen können, weil unsere Sinne dafür nicht eingerichtet sind – und es ist sowieso fraglich, was wir davon hätten. Wir könnten es auf jeden Fall nicht in einem Reality-TV-Format (Deutschland sucht das „Ding an sich“) abbilden; ebenso wenig wie die scholastischen Universalien (Allein unter Begriffen; Ich bin ein Philosoph, holt mich hier raus! Das Super-Absolute; Idealität – das Experiment). Allein der Berkeleysche Ansatz hat eine gewisse Massenmedientauglichkeit, vor allem wenn man ihn wieder etwas simplifiziert: Denn dass Sein Wahrgenommenwerden ist, ist zweifellos die Maxime jedes Selbstdarstellungskünstlers im Reality TV.
Warum jedoch sollte man diesen Exzessen der Selbst- und Realitätsdarstellung zuschauen, und was ist daran eigentlich unterhaltend? Jahrhundertelang gehörte es zu den Grundfesten der Kunstauffassung, dass die Realität zwar nachgeahmt werden sollte, aber eben auf kunstvolle Art und Weise und zu einem höheren Zweck; nur die wenigsten Kunsttheorien setzten auf einen sozusagen nackten Realismus, noch dazu des Alltäglichen. Gleichwohl ist ein ästhetisches Prinzip von Anfang an als entscheidend wahrgenommen worden, das auch das Reality TV in gewisser Weise prägt: das der Nachahmung (griech. mimesis) nämlich. Schon für Aristoteles lag hier die anthropologisch-biologische Quelle des Vergnügens sowohl am Hervorbringen als auch am Rezipieren von Kunst, wie er in seiner Poetik erläutert: „Denn sowohl das Nachahmen selbst ist den Menschen angeboren – es zeigt sich von Kindheit an, und der Mensch unterscheidet sich dadurch von den übrigen Lebewesen, daß er in besonderem Maße zur Nachahmung befähigt ist und seine ersten Kenntnisse durch Nachahmung erwirbt – als auch die Freude, die jedermann an Nachahmungen hat“. Gleich darauf erweist sich Aristoteles auch als Prophet des neueren Unterhaltungsfernsehens: „Als Beweis hierfür kann eine Erfahrungstatsache dienen. Denn von Dingen, die wir in der Wirklichkeit nur äußerst ungern erblicken, sehen wir mit Freude möglichst getreue Abbildungen, z. B. Darstellungen von äußerst unansehnlichen Tieren und von Leichen“. Allerdings zielte Aristoteles wohl doch nicht auf das Dschungel Camp oder Aktenzeichen XYZ ab; vielmehr meinte er, dass das primäre Interesse bei solchen Darstellungen das Lernen, und damit ein philosophischer Urtrieb sei (was wir mit Sicherheit beim Reality TV ausschließen können, selbst für Die Superlehrer). Hilfreich ist auch seine Unterscheidung zwischen verschiedenen Kunstgenres, die von verschiedenen Charakteren produziert würden und auf verschiedene Charaktere zielen. Sein Muster ist recht einfach: Nachgeahmt werden immer Menschen; Menschen sind entweder gut oder schlecht: „die Edleren ahmten gute Handlungen und die von Guten nach, die Gewöhnlicheren jedoch die von Schlechten, wobei sie zuerst Rügelieder dichteten [Die Aufpasser; Die Schulermittler; Achtung Kontrolle!], die anderen hingegen Hymnen und Preislieder [Die Super-Nanny; Die Superfrauchen, Die Super-Mamas; Die Super-Lehrer]“.
Das Kunstwerk solle jedoch nicht – und jetzt wird es etwas komplizierter  einfach abbilden, „was wirklich geschehen ist, sondern vielmehr, was geschehen könnte, d. h. das nach den Regeln der Wahrscheinlichkeit und Notwendigkeit Mögliche“; nur so könne Dichtung zu etwas „Philosophischerem“ und „Ernsthafterem“ als Geschichtsschreibung werden. Deshalb sei es auch wichtig, dass das „Schauderhafte“ und „Jammervolle“ – diejenigen Affekte, auf die die griechische Tragödie nach Aristoteles im Wesentlichen zielt – in der Handlung selbst liege und nicht etwa nur ein Inszenierungseffekt sei: „Diese Wirkungen durch die Inszenierung herbeizuführen, liegt eher außerhalb der Kunst und ist eine Frage des Aufwandes“. Das hört sich zwar an wie Reality TV, aber nur, wenn es denn wirklich welches wäre: Gezeigt wird hier aber mit Vorliebe das im Alltag Unwahrscheinliche und Zufällige, und zwar sorgfältig so inszeniert, dass es wie Authentizität aussieht. Eine Reality-Show mit dem Titel Notwendiges und Mögliches XXL hätte wahrscheinlich sehr geringe Chancen auf Quote; Ödipus 440 – Ich heirate meine Mutter! (Aristoteles Lieblingsbeispiel für einen guten Tragödien-Plot) hingegen wäre wohl tragfähig, wenn man auf die realistische Darstellung des Vatermords verzichten würde.
Das aristotelische Nachahmungsprinzip könnte also mit gewissen Variationen ein Baustein zum Publikumserfolg des Reality TV sein. Dass Publikum und Theater (als öffentliche Inszenierung und Vorform des Reality TV) prinzipiell in einem engen Zusammenhang stehen, war Theaterautoren und Ästhetikern schon lange bekannt. Ein nach dem Muster der griechischen Tragödie und ihrer Zuschauer entworfenes Idealbild des Publikums zeichnet Johann Gottfried Herder unter dem Titel Haben wir noch das Publikum der Alten?: „Bei jeder Gattung des Publikums aber denket man sich ein verständiges, moralisches Wesen, das an unsern Gedanken, an unserm Vortrage, an unsern Handlungen teilnimmt, ihren Wert und Unwert zu schätzen vermag, das billiget oder mißbilliget, das wir also auch zu unterrichten, eines Bessern zu belehren, in Ansehung seines Geschmacks zu bilden und fortzubilden uns unterfangen dürfen. Wir muntern es auf, wir warnen; es ist uns Freund und Kind, aber auch Lehrer, Zurechtweiser, Zeuge, Kläger und Richter. Belohnung hoffen wir von ihm nicht an-ders als durch Beifall, in Empfindungen, Worten und Taten“. Und Einschaltquoten, würde der Programmdirektor ergänzen; wohingegen man bei dem „verständigen, moralischen Wesen“ sowie der Geschmacksbildung und Unterrichtung durchaus Abstriche hinnehmen könnte – dafür sind bekanntlich die öffentlich-rechtlichen Fernsehsender zuständig, die deshalb auch Rundfunkgebühren kassieren dürfen und nicht auf Einnahmen aus der ungeliebten Werbung zurückgreifen müssen.
Die Zweiteilung in einen E-(für ernsthaft) und U-(für Unterhaltung)-Bereich der Kunst, die sich hier abzuzeichnen beginnt, entsteht bereits Ende des 18. Jahrhunderts – seitdem Kunst nämlich durch die zunehmende Alphabetisierung von einer Eliteveranstaltung für die wenigen Gebildeten zu einer Massenveranstaltung fürs Volk wird. Bereits Friedrich Schlegel sieht nur wenige Jahrzehnte nach Herder einen tiefen Graben zwischen beiden Publikumsgruppen (hier im Blick auf die Dichtkunst): „Ferner der schneidende Kontrast der höhern und niedern Kunst. Ganz dicht nebeneinander existieren besonders jetzt zwei verschiedene Poesien nebeneinander, deren jede ihr eignes Publikum hat, und unbekümmert um die andre ihren Gang für sich geht. Sie nehmen nicht die geringste Notiz voneinander, außer, wenn sie zufällig aufeinandertreffen, durch gegenseitige Verachtung und Spott; oft nicht ohne heimlichen Neid über die Popularität der einen oder die Vornehmigkeit der andern“. Der arte-Konsument rümpft die Nase, wenn er auf der Fernbedienung versehentlich auf DSDS rutscht – aber ebenso der SAT1- und RTL-Hörige, wenn er sich vom Dschungel-Camp in einen arte-Themenabend verirrt. Und während nach Schlegel das eine „höhere Kunst“ und „Poesie“ ist, ist das andere „gröbere Kost“, gekennzeichnet durch „das totale Übergewicht des Charakteristischen, Individuellen und Interessanten in der ganzen Masse der modernen Poesie, vorzüglich aber in den spätern Zeitaltern. Endlich das rastlose unersättliche Streben nach dem Neuen, Piquanten und Frappanten, bei dem dennoch die Sehnsucht unbefriedigt bleibt“. Neu, pikant, frappant – das könnte geradezu der Slogan eines Privatsenders sein, wären es nicht zu viele Fremdworte in einem Satz. Besonders einleuchtend an dieser frühen Medienanalyse ist auch die Erkenntnis, dass diese Art von Unterhaltungsbedürfnis nie befriedigt werden kann, da sie immer noch mehr will – mehr Sensationen, mehr Peinlichkeiten, mehr Übertreibungen, mehr Erniedrigungen, mehr mehr mehr von allem und jedem (siehe auch XXL, Innovation).
Schlegel empfiehlt angesichts der Misere genau wie vor ihm Herder und nach ihm Nietzsche die Rückkehr zur griechischen Tragödie: Nur dort war noch – zumindestens im verklärenden Rückblick – eine Einheit von Theater und Leben, Kunstschaffenden und Publikum gegeben; dort wurden zwar auch wilde Leidenschaften aufgewühlt, aber zum Zwecke ihrer „Reinigung“ – mit dem Begriff „Katharsis“ aus der antiken Medizin beschrieb Aristoteles die Tragödie als eine Art Triebabfuhrunternehmen, aus dem man physisch und moralisch entschlackt hervorkam wie aus einem orientalischen Hamam. Andererseits gab es aber auch antike Philosophen, für die die Realität höchstens ein Schauspiel von zweifelhaftem Wert war, das jedoch mit der höheren Wirklichkeit nichts zu tun hat. So lässt sich eine der ältesten und bekanntesten philosophischen Parabeln bereits als Gleichnis einer Mediengesellschaft lesen. In Platons Höhlengleichnis aus der Politeia wird folgende Situation geschildert: „Stelle dir nämlich Menschen vor in einer höhlenartigen Wohnung unter der Erde, die einen nach dem Lichte zu geöffneten und längs der ganzen Höhle hingehenden Eingang habe, Menschen, die von Jugend auf an Schenkeln und Hälsen in Fesseln eingeschmiedet sind, so daß sie dort unbeweglich sitzenbleiben und nur vorwärts schauen, aber links und rechts die Köpfe wegen der Fesselung nicht umzudrehen vermögen; das Licht für sie scheine von oben und von der Ferne von einem Feuer hinter ihnen; zwischen dem Feuer und den Gefesselten sei oben ein Querweg; längs diesem denke dir eine kleine Mauer erbaut, wie sie die Gaukler vor dem Publikum haben, über die sie ihre Wunder zeigen“. Über diesen Querweg tragen nun Leute Geräte vorbei, Menschenstatuen, Bilder aus Holz – eben all das, was die „Realität“ so an realen Gegenständen zu bieten hat. Die Gefangenen in der Höhle jedoch sehen von all dem nur die Schatten, da ihr Blick ja auf die Projektion auf der Höhlenwand fixiert ist; sie halten die Schatten, die sie dort sehen, zwingend für „Realität“. Interessant würde es nun, so Platon, wenn man einen dieser Schattenseher freigebe: „Wenn einer entfesselt und genötigt würde, plötzlich aufzustehen, den Hals umzudrehen, herumzugehen, in das Licht zu sehen, und wenn er bei allen diesen Handlungen Schmerzen empfände und wegen des Glanzgeflimmers vor seinen Augen nicht jene Dinge anschauen könnte, deren Schatten er vorhin zu sehen pflegte: was würde er wohl dazu sagen, wenn ihm jemand erklärte, daß er vorhin nur ein unwirkliches Schattenspiel gesehen, daß er jetzt aber dem wahren Sein schon näher sei und sich zu schon wirklicheren Gegenständen gewandt habe und daher nunmehr auch schon richtiger sehe?“ Der Höhlenmensch kann die Wirklichkeit gar nicht mehr sehen; er ist ver-blendet für immer und zieht die Rückkehr in seine Schattenwelt der zutiefst verunsichernden, ja schmerzhaften Realitätserfahrung vor. Zwar lässt Platon ihm einige Hoffnung: Durch langsame Gewöhnung könne er schließlich auch dahin kommen, den Glanz der wahren Welt zu ertragen (die bei Platon natürlich die der Ideen ist). Was wäre jedoch, wenn die Wahrnehmungsorgane bereits verkümmert wären? Die Augen für immer geschädigt, der Geist für immer geblendet, die Füße unfähig zur Bewegung, die Finger nur noch zum Zappen auf der Fernbedienung zu gebrauchen, die Verdauung auf Chips und Bier konditioniert? Und wozu braucht man schließlich eine bedrohliche „echte“ Realität, wenn die Schatten doch so real wirken, wenn man auch mit ihnen – wenn auch nur vertretungsweise (vgl. Spiegelneuronen) leben, lieben und hassen kann? Dass die Wirklichkeit selbst die beste Show sein könnte und das Leben selbst gelebt werden will, bleibt demgegenüber eine unbewiesene philosophische Hypothese.
          
SHOPPING, von to shop aus dem Englischen: kaufen, einkaufen. Das Besondere am shopping ist, dass bei ihm im Gegensatz zum gemeinen Kaufen nicht das Ergebnis der Kaufhandlung im Vordergrund steht, sondern der lustvolle Akt des Einkaufens selbst. Shopping gilt inzwischen als Hobby (obwohl Personalberater davon abraten, es als solches in einem Bewerbungsschreiben aufzulisten), dem einer aktuellen Statistik zufolge knapp 19 Millionen Deutsche häufig, 46 Millionen gelegentlich und nur etwas mehr als fünf Prozent nie nachgehen. Eine Statistik darüber, wie häufig die Deutschen philosophieren, würde wohl bestenfalls das genau spiegelverkehrte Ergebnis produzieren; was vielleicht erklärt, warum ein so weit verbreitetes Phänomen philosophisch bisher eher unterbelichtet geblieben ist. Erst neuere konsumkritische Bewegungen wie die Frankfurter Schule (Tenor: "Massenkonsum erzeugt falsche Bedürfnisse und hält die Massen von der eigentlich bitter nötigen Revolution der Verhältnisse ab") oder konsumapologetische wie der Konsumismus von Norbert Bolz (Tenor: "Massenkonsum ist das Immunsystem der friedlichen Weltgesellschaft gegen jegliche Form von Totalitarismus") nähern sich dem Phänomen etwas umfassender.
Aus der leider nur marginal dokumentierten Geschichte des Shoppings könnte man immerhin eine Typologie des Shoppens entwickeln, die eine Art wörtlich genommene "Vermögens“-Lehre des Menschen wäre: Sage mir, wie ich kaufe, und ich sage dir, was du bist! Der Archetyp ist der Einkäufer: Er kauft, was er braucht, sei es auf der griechischen agora, dem römischen forum, einem mittelalterlichen Marktplatz oder in einem modernen Supermarkt. Falls er schreiben kann, hat er eine ordentliche Einkaufsliste dabei, und er orientiert sich bei der Auswahl an seinen Bedürfnissen und seinen finanziellen Möglichkeiten. Ihm noch recht nahe ist der Schnäppchenjäger: Er ist der Jäger und Sammler unter den Einkäufern. Der Schnäppchenjäger sucht nach dem günstigsten Angebot, sei es im Basar oder im Hyperstore oder im Fachgeschäft, wo er hartnäckig verhandelt; und er kauft nicht in erster Linie, weil er etwas braucht, sondern weil es billig ist und die Beute – das Schnäppchen – sein Jagd- und Verhandlungsgeschick beweist. Wahrscheinlich ist auch dieser Typus eine anthropologische Konstante, und es gab schon in der Steinzeit Schnäppchenjäger, die ihren mageren Hasen gegen eine besonders große Portion Getreide verschachert haben.
Dem Schnäppchenjäger verwandt ist der Statuskäufer: Er kauft um aller Welt zu zeigen, wie erfolgreich und wichtig er ist. Heutzutage findet man ihn gern beim Autohändler oder im Elektrofachmarkt, wo er Kataloge wälzt, Testergebnisse konsultiert und Preise vergleicht, um schließlich ein noch schnelleres Auto, ein noch höher auflösendes Fernsehgerät, das allerneueste Smartphone – oder in der genauso verbreiteten weiblichen Variante: ein noch angesagteres Markenkleid, eine noch teurere Handtasche, noch verwegenere Markenschuhe – vorzeigen zu können: Seht, so viel Geld habe ich, ich kann mir auch ein Zweitauto und ein Dritthandy und eine Viertfrau leisten, also muss ich doch wohl wichtig, mächtig, einflussreich sein! Auch hier liegt der Verdacht nahe, dass dieses Sozialverhalten tief in der Natur des Menschen liegt und nur mit der Entwicklung der Geldwirtschaft die spezifische Form des Statuskaufs angenommen hat. Den diesem zugrunde liegenden Kompensationsmechanismus hat bereits Karl Marx genau analysiert: "aber das Geld ist der wirkliche Geist aller Dinge, wie sollte sein Besitzer geistlos sein? Zudem kann er sich die geistreichen Leute kaufen, und wer die Macht über die Geistreichen hat, ist der nicht geistreicher als der Geistreiche? Ich, der durch das Geld alles, wonach ein menschliches Herz sich sehnt, vermag, besitze ich nicht alle menschlichen Vermögen? Verwandelt also mein Geld nicht alle meine Unvermögen in ihr Gegenteil?" Marx hat aber ebenso darauf hingewiesen, was der Preis dieser allzu billigen Denkhaltung ist: Wenn man mit Geld alles kaufen kann, wird auch alles käuflich und dadurch entwertet – "da das Geld als der existierende und sich betätigende Begriff des Wertes alle Dinge verwechselt, vertauscht, so ist es die allgemeine Verwechslung und Vertauschung aller Dinge, also die verkehrte Welt, die Verwechslung und Vertauschung aller natürlichen und menschlichen Qualitäten".
Shopping im engeren Sinne jedoch ist eine Erscheinung, die erst seit dem 19. Jahrhundert nachweisbar ist. Es taucht auf mit dem Flaneur, der ziellos durch die Geschäftsstraßen streift und window shopping betreibt. Die Erfindungen des Schaufensters, des Kaufhauses und der shopping mall sind wesentliche Meilenstein in der Geschichte des shopping; soziologisch ist es verbunden mit dem Aufstieg des Bürgertums und seiner anwachsenden Kaufkraft, die sich in den europäischen Metropolen des 19. Jahrhunderts, London und Paris, am frühesten abzeichnete. Der Shopper betreibt das Kaufen als Freizeitaktivität; es vertreibt die Langeweile und es ist ein Ausdruck seiner persönlichen Freiheit (nämlich: auch das Sinnlose und Unvernünftige tun zu können – because we can!) wie auch seiner Persönlichkeit (nämlich: sein eigenes Äußeres und seinen Lebensraum als Design-Kunstwerk gestalten zu können). Es ähnelt dadurch ironischerweise der Kunst, die in der Moderne häufig als zweckfrei, unreguliert und ultimativer Ausdruck subjektiven Erlebens definiert wurde: Der Shopper ist ein Alltagskünstler, und die Menge und Wertigkeit der Marken-Einkaufstüten, die er stolz durch die Shopping Mall trägt, ist der Ausweis seiner (sozusagen passiv-kreativen) Produktivität.
Nachzulesen ist die dazu gehörige Philosophie des shopping bereits in Georg Simmels Philosophie des Geldes: "Jemand sagte mir, er hätte das Bedürfnis, alle Dinge, die ihm sehr gefallen, zu kaufen, wenn auch nicht für sich und um sie zu besitzen; es käme ihm nur darauf an, seinem Gefallen an den Dingen damit einen aktiven Ausdruck zu geben, sie durch sich durchgehen zu lassen und ihnen so irgendwie den Stempel seiner Persönlichkeit aufzudrücken. Hier ermöglicht also das Geld eine ganz eigenartige Expansion der Persönlichkeit, sie sucht sich nicht mit dem Besitz der Dinge selbst zu schmücken, die Herrschaft über diese ist ihr gleichgültig; es genügt ihr vielmehr jene momentane Macht über sie, und während es scheint, als ob dieses Sich-Fernhalten von jeder qualitativen Beziehung zu ihnen der Persönlichkeit gar keine Erweiterung und Befriedigung gewähren könne, wird doch gerade der Actus des Kaufens als eine solche empfunden, weil die Dinge ihrer Geldseite nach sozusagen absolut gehorsam sind". Shopping ist eine virtuelle Macht- und Persönlichkeitsentfaltung – aber eben deshalb auch niemals zur Gänze zu befriedigen, da es nicht auf einem konkreten und handfesten Bedürfnis beruht, das zumindest zeitweise gestillt werden kann, sondern auf einem imaginären Erlebnis. Schon Simmel sieht deshalb: "Der Genuß dieser bloßen Symbolik des Genusses kann sich nahe an das Pathologische hin verirren" – shopping hat offensichtlich Suchtcharakter, und der Kaufzwang (Oniomanie) ist eine medizinisch anerkannte Zwangsstörung, die wahrscheinlich auf einem schwach ausgeprägten Selbstwertgefühl basiert und verhaltenstherapeutisch behandelt wird.
Letztlich aber zehrt der weltumspannende und kulturübergreifende Erfolg der Shopping Mall davon, dass sie ein Weltmodell ist, das all das aufweist, was dem Menschen in seiner natürlichen oder sozialen Umwelt weitgehend verloren gegangen ist. Die Shopping Mall ist ein in von der Außenwelt künstlich abgeschlossener Kosmos. Draußen regnet es oder ist es zu heiß, Autoabgase verpesten die Luft, Verkehrslärm übertönt das Vogelzwitschern, Städte sind zu Betonwüsten und Groß-Werbeflächen geworden, Hektik herrscht allenthalben. Die Shopping Mall hingegen ist vollklimatisiert, freundlich beleuchtet und dezent beschallt; es mischen sich die betörenden Düfte der Parfümerien mit den verlockenden Gerüchen aus der multikulturellen Erlebnis-Gastronomie, die Menschen schlendern über polierte Marmorgänge, vielleicht lächeln sie sogar ab und zu. Man findet Vertrautes, die immergleiche Mischung an Marken-Shops; man entdeckt gelegentlich Neues, eine noch bessere Espresso-Maschine, ein weiteres Paar Schuhe kann eigentlich nie schaden, und warum nicht gleich einen neuen Schuhschrank dazu, der alte ist sowieso voll? Man kann schauen, vergleichen, seine Gedanken schweifen lassen: Wird aus mir nicht vielleicht doch ein anderer, ein schönerer, ein besserer Mensch mit diesem Markenhemd, mit jener stylishen Handtasche? Die Shopping mall verwöhnt unsere Sinne, sie stimuliert unsere Phantasie, sie verschafft uns gute Gefühle: Jeder Kauf eine kleine Belohnung, und jeder Nicht-Kauf ein Beweis unserer inneren Stärke! Und ist es nicht sogar moralisch geboten, den Konsum anzukurbeln zur Stärkung der Binnennachfrage? Was wäre denn schließlich, wenn keiner mehr kaufen würde?
Ja, was wäre wohl? Heinrich Heine berichtete Mitte des 19. Jahrhunderts aus Paris: "Jetzt, wo das Neujahr herannaht, der Tag der Geschenke, überbieten sich hier die Kaufmannsläden in den mannigfaltigsten Ausstellungen. Der Anblick derselben kann dem müßigen Flaneur den angenehmsten Zeitvertreib gewähren; ist sein Hirn nicht ganz leer, so steigen ihm auch manchmal Gedanken auf, wenn er hinter den blanken Spiegelfenstern die bunte Fülle der ausgestellten Luxus- und Kunstsachen betrachtet und vielleicht auch einen Blick wirft auf das Publikum, das dort neben ihm steht. Die Gesichter dieses Publikums sind so häßlich ernsthaft und leidend, so ungeduldig und drohend, daß sie einen unheimlichen Kontrast bilden mit den Gegenständen, die sie begaffen, und uns die Angst anwandelt, diese Menschen möchten einmal mit ihren geballten Fäusten plötzlich dreinschlagen und all das bunte, klirrende Spielzeug der vornehmen Welt mitsamt dieser vornehmen Welt selbst gar jämmerlich zertrümmern!" Diese düstere Prophezeiung liegt aber auch schon 170 Jahre zurück, der weltweite Siegeszug des Konsums scheint weiter unaufhaltsam und gegen allzu hässliche Gesichter hilft der Schönheitschirurg (2. Obergeschoss, rechts von der Rolltreppe, neben dem Nagelstudio, heute Sonderpreis für Nasen!). Eine aktualisierte Philosophie des Shopping erscheint also dringend geboten; vielleicht am besten maßgeschneidert, mit Öko-Gütesiegel und in verschiedenen Formaten zu erwerben im philosophischen Kaufhaus Ihres Vertrauens?
          
STAR TREK (Trek, von niederländisch und niederdeutsch trek: länger andauernder Zug, meist von Auswanderern oder Flüchtlingen, hier: zu den Sternen), Titel einer Reihe von insgesamt fünf Fernsehserien (sowie einiger Filme), die sich mit den Reisen eines Raumschiffes von der Erde namens USS Enterprise im Weltraum beschäftigen. Die Serie wurde von dem amerikanischen Drehbuchautor Gene Roddenberry erfunden, der jedoch selbst nicht mehr das erstaunliche Wachstum seines geistigen Kindes erleben durfte; er verstarb im Jahr 1991, zwei Jahre, bevor mit Deep Space Nine die dritte „Generation“ Raumreisender auf Sendung ging. Das Star-Trek-Universum erstreckt sich räumlich über mehrere Quadranten des Weltalls und zeitlich vom Jahr 2063 – dem ersten Kontakt der Menschheit mit einer außerirdischen Spezies, den Vulkaniern, zu denen ein gewisser Mr. Spock gehört  bis ins Jahr 2378, in dem das Raumschiff Voyager der vierten Generation von seiner langen Odyssee durch den Weltraum heimkehrt.
„Der Weltraum, unendliche Weiten. Wir befinden uns in einer fernen Zukunft. Dies sind die Abenteuer des neuen Raumschiffs Enterprise, das viele Lichtjahre von der Erde entfernt unterwegs ist, um fremde Welten zu entdecken, unbekannte Lebensformen und neue Zivilisationen. Die Enterprise dringt dabei in Galaxien vor, die nie ein Mensch zuvor gesehen hat“  diese einfachen und doch schwergewichtigen Worte, mit denen jede neue Enterprise-Folge begann, gehören zur Primärsozialisation ganzer Generationen von Fernsehkonsumenten. Sie benennen diejenigen Merkmale, die über die Zeit hinweg zur Kernidentität der Serie in all ihren Varianten gehörten. Im Zentrum steht die Verherrlichung menschlichen Entdeckertums, das sich nach der vollständigen Erschließung der Erde bis in den abgeschnittensten Polarwinkel nun auf den Weltraum konzentriert. Sie spielt in einer nicht allzu fernen Zukunft, die genug Verwandtschaft mit der Lebenswelt des 20. und 21. Jahrhunderts aufweist, um noch als realistisch wahrgenommen zu werden (siehe auch Reality TV); alle „irdischen“ Haupt- und Generalprobleme (Krieg, Hunger, Armut) sind jedoch nach einem furchtbaren dritten Weltkrieg endgültig gelöst. Die Erde ist Mitglied einer „Vereinigten Föderation der Planeten“ geworden, die zwar militärisch organisiert ist, aber vor allem wissenschaftliche Ziele verfolgt. Ihr moralischer Imperativ ist die sogenannte „Erste Direktive“: Sie bestimmt, dass keine Eingriffe in die natürliche Entwicklung von Zivilisationen vorgenommen werden dürfen, die noch nicht die für das Reisen jenseits der Lichtgeschwindigkeit notwendige Warp-Technologie besitzen. Ist diese Schwelle überschritten, kann ein Erstkontakt aufgenommen werden; die Spezies darf dann auch die Aufnahme in die Föderation beantragen. Vorher heißt es zwingend (auch wenn das berühmte Zitat leider so nie vorkam): „Beam me up, Scotty; there’s no intelligent life on this planet!“.
Der Warp-Antrieb ist einer der technologischen Revolutionen, die das Star-Trek-Universum erst ermöglichen und dabei, mit einer gewissen dichterischen Freiheit natürlich, auf konkrete physikalische Hypothesen über die Natur des Weltalls zurückgreifen (beispielsweise die Existenz von „Wurmlöchern“ oder das „Beamen“, die Teleportation über große Entfernungen hinweg). Neben den Abenteuer- und Science-Fiction-Elementen lebt die Star-Trek-Welt jedoch vor allem von den Hauptfiguren der verschiedenen Serien; die Handlung konzentriert sich jeweils auf den inneren Führungskreis der Offiziere mit seiner sozialen Dynamik und den Kapitän als charismatische Führungspersönlichkeit. Dabei sind die einzelnen Staffeln als „Generationen“ der Fernsehserie in hohem Maße repräsentativ für ihre Entstehungszeit. Der Prototyp, Raumschiff Entreprise (ausgestrahlt von 1966 bis 1969), präsentierte eine bis auf den Vulkanier Mr. Spock durchgehend menschliche Crew, in der für Vielfalt allein eine farbige Hauptdarstellerin (Lt. Uhura mit ihrem aparten Miniröckchen) sowie ein japanischer (Lt. Zulu) und ein russischer (Fähnrich Chekov) Offizier vertreten waren. In die Filmgeschichte eingegangen ist zudem der erste Filmkuss zwischen einer schwarzen Frau (Uhara) und einem weißen Mann (Capitain Kirk). Ansonsten dominierte der Charmeur und Draufgänger James T. Kirk, der die Überlegenheit von typisch menschlicher Emotion  gepaart mit einer Neigung, Konflikte wenn nötig im Faustkampf von Mann zu Mann zu klären  gegenüber Mr. Spocks vulkanischer Allwissenheit und Abgeklärtheit demonstrieren durfte. Diese besondere Akzentuierung des Menschlichen in all seiner Fehlbarkeit sollte sich als eine weitere Konstante im Star-Trek-Universum erweisen.
Darauf folgte mit der Next Generation (1987 bis 1994) die sauberste und ordentlichste Star-Trek-Crew schlechthin: Die Welt schien generell in Ordnung, sogar in Russland herrschte die Perestroika, und der Kapitän war ein Franzose, Jean-Luc Picard, fast schon ein Weiser im Vergleich zum eruptiven Captain Kirk. Mr. Spock wurde ersetzt durch einen Androiden namens Mr. Data  der auf der Suche nach seiner „Menschlichkeit“ zeitweise menschlicher wirkte als Picard und wacker für die Menschenrechte der Androiden kämpfte. Die „Außerirdischen“ wurden generell bunter (vgl. Multikulti) und die Animationen technisch immer perfekter; mit den Borg war schließlich sogar ein ebenbürtiger Gegner gefunden: eine totalitär organisierte Spezies, gelenkt von einem kollektiven Bewusstsein (vgl. Schwarm-Intelligenz) und getrieben vom Bedürfnis, jegliche neue Fähigkeit, die ihr im Universum begegnet, zu „assimilieren“  der Standardspruch der Borgdrohne zur Begrüßung fremder Lebensformen ist: „Widerstand ist zwecklos“, und meist stimmt das auch (ausgenommen natürlich bei Captain Picard).
So hätte man bis ins Unendliche weiter durch den Weltraum fliegen können  offensichtlich änderte sich jedoch das Bezugssystem, die Erde, stärker als der Weltraum. Nach dem Tod des optimistischen Humanisten Roddenberry wurde Rick Berman zum Produzenten, der mit der dritten Star-Trek-Serie, Deep Space Nine (1992 bis 1999), eine Art dunkleres Gegenbild zur aufgeklärten Next Generation entwarf: eine im tiefen Raum strategisch günstig an einem Wurmloch gelegene Raumstation, auf der die die unterschiedlichsten Spezies aufeinander treffen  darunter so liebenswerte Erfindungen wie die Ferengi, ein dem hemmungslosen Raubtier-Kapitalismus (siehe auch Heuschrecke) verschworenes Volk mit einer religionsähnlichen Charta aus 258 Handelsregeln, aber auch die bedrohlichen Formwandler, eine kollektive Lebensform, die die Föderation gegen Ende der Serie in einen Überlebenskampf von kosmischen Dimensionen stürzt. Dem Multi-Kulti-Charakter der 90er entsprach auch Benjamin Sisko, ein Afro-Amerikaner, Hobbykoch und Baseball-Fan als Captain, dessen dann und wann aufscheinende dunkle Seiten meilenweit entfernt von der nur selten erschütterten Seelenruhe des Shakespeare-Lesers Picard schienen.
Mit der vierten Generation, Raumschiff Voyager (1994 bis 2001), wurde das Reisemotiv erstmals zu einem zusammenfassenden Handlungsstrang: Die Voyager wird in den entlegenen „Delta-Quadranten“ verschlagen, von dem aus eine Rückkehr zur Erde selbst mit allerhöchster Warp-Stufe 75 Jahre dauern würde. Dass sie trotzdem gelingt, ist vor allem der äußerst energischen Art der ersten Frau auf dem Kapitänsstuhl zu verdanken, Kathryn Janeway, an deren Seite der erste Offizier Chakotay den „neuen Mann“ des beginnenden Milleniums geben darf: mitfühlend, weichherzig, etwas esoterisch angehaucht. Während die Voyager bei ihrer Odyssee durch den Weltraum zwar dann und wann mit ihrer Auslegung der „Ersten Direktive“ etwas großzügig umgehen muss, prinzipiell aber den hohen moralischen Maßstäben ihrer Vorgänger treu bleibt, ist die letzte Generation des Star-Trek-Universums, Star Trek: Enterprise (2001 bis 2005), deutlich von der Erfahrung von 09/11 geprägt. Sie geht in der Handlungszeit zurück in die Zeit vor der Entstehung der Vereinigten Föderation und reagiert auf die Bedrohung der gesamten Erde durch eine unbekannte, technologische hoch überlegene Spezies mit Gegengewalt bis hin zur Folter. In der Crew agieren nun außerordentlich junge, durchtrainierte menschliche Protagonisten, deren physische Attraktivität es aber nicht geschafft hat, der Serie zu ihrer alten Popularität zu verhelfen. Bis heute jedoch entstehen weiterhin einzelne Star-Trek-Filme  ganz zu schweigen von den ungezählten Ablegern, Parodien, Büchern, Zeitschriften und Fanzines, die weiter innerhalb des Star-Trek-Universums kreisen, auch wenn die Hauptsonne sozusagen erloschen ist.
Damit ist schließlich ein letztes für das Star-Trek-Universum bezeichnendes Merkmal benannt, nämlich die enthusiastische und ausdauernde Anhänglichkeit der Trekkies an ihre Welt – die natürlich auch einen wesentlichen Wirtschaftsfaktor in der Vermarktung des Warenzeichens Star Trek (vgl. Merchandising) darstellt (die Ferengi hätten bestimmt eine Handelsregel dafür). Trekkies haben eine eigene Sprache, eigene Publikationsorgane, eigene Uniformen; sie treffen sich zu regelmäßigen conventions überall in der Welt, die einen als zähneknirschende und waffenstarrende Klingonen verkleidet, die anderen als spitzohrige Vulkanier oder gnomenhafte Ferengi. Sie bilden damit wahrscheinlich eine der größten multinationalen Non-Governance-Organisationen der letzten Dekaden, und wenn Captain Kirk jemals als Präsidentschaftskandidat in der „Vereinigten Förderation“ der amerikanischen Staaten antreten würde, wäre ihm der Erfolg gewiss.
Das Star-Trek-Universum ist damit ein respektabler Nachfolge der alten Epen – den großen Mega-Erzählungen, in denen seit jeher Kulturvölker ihre Vorstellungen von der Entstehung des Universums und der Stellung ihrer eigenen Nation in diesem zusammengefasst und überliefert haben – vom sumerischen Gilgamesch über die indischen Mahabharata bis hin zum sagenhaften Homer der Griechen, dem Schöpfer – oder zumindest Überlieferer – der Ilias und der Odyssee aus dem achten vorchristlichen Jahrhundert. Das Epos ist, Aristoteles‘ Definition in seiner Poetik (siehe auch Reality TV) zufolge, eine erzählende Gattung im Unterschied zur Tragödie als dramatisch-darstellender Gattung; und es weißt die sprichwörtliche „epische Breite“ auf: Im Epos kann nicht nur, es muss sogar möglichst viel Welt dargestellt werden, in den Worten des Romantheoretikers Georg Lukacs: „Die Epopöe gestaltet eine von sich aus geschlossene Lebenstotalität“. Diese Lebenstotalität ist aber eine zutiefst menschliche – zwar greifen die Götter gerade in den Homerischen Epen durchaus ins Geschehen ein, dennoch werden hier exemplarische menschliche Grunderfahrungen wie der sagenhafte Zorn des Achilles, der das Grundmotiv der Ilias bildet, geschildert. Auch wenn an die Stelle des trojanischen Pferdes ultramoderne Raumkreuzer getreten sind und Captain Janeway den Platz von Odysseus eingenommen hat (der eigentlich immer nur nach Hause zu Penelope will, aber dann doch noch schnell vorher ein Abenteuer erledigt, weil es eben auf dem Wege liegt) – die Anfangszeilen der Odyssee könnten mit leichten Variationen auch vom Rhapsoden auf einer Star-Trek-Convention weihevoll vorgetragen werden:
Sage mir, Muse, die Taten des vielgewanderten Mannes,
Welcher so weit geirrt, nach der heiligen Troja Zerstörung,
Vieler Menschen Städte gesehn, und Sitte gelernt hat,
Und auf dem Meere so viel unnennbare Leiden erduldet
Seine Seele zu retten und seiner Freunde Zurückkunft.
Diese unwiderstehliche Mischung von Reise und Heimkehr, Heldentaten und Liebesgeschichten, exemplarischen menschlichen Individuen und dem Wohl und Wehe ganzer Völker, hat dem Epos seine anhaltende Beliebtheit von Troja bis Vulkan verschafft. In der Philosophie hingegen stand man dem Reisen, gar dem in ferne Länder, zunächst eher skeptisch gegenüber; Agrippa von Nettelsheim referiert beispielsweise zustimmend aus Platons Politeia: „auch gab er nicht zu, dass einer von den Bürgern, wann er nicht vierzig Jahre alt war, in fremde Lande reisen dürfte; auch sollten keine Fremden zu ihnen eingelassen werden, damit sie nicht etwan durch eine fremde Seuche die Sparsamkeit und Sitten der guten alten Zeit möchten anstecken, die Bürger dieselben verlernen und hernach einen Ekel dafür haben, wodurch wackere Städte sind ruinieret und mit grausamen Lastern, als Hurerei, Ehebruch, Hoffart und Verschwendung beflecket worden“. Aus der Fremde kommt eben nicht immer nur Gutes; und im Interesse eines stabilen Staatswesens mögen die Raumschiffe besser im Dock bleiben – oder unbelehrbare Trekkies wenigstens in der medizinischen Quarantänestation.
Besonders eindringlich mit den Kosten und Nutzen des Reisens hat sich Jean-Jacques Rousseau in seinem Erziehungsroman Emile auseinandergesetzt. Soll sein Musterschüler reisen oder nicht? Dient das nicht der Menschenkenntnis? „Muß man nun aber, um die Menschen zu studieren, die ganze Erde durchstreifen? Muß man, um die Europäer zu beobachten, nach Japan gehen? Muß man sämtliche Individuen kennen, um das Geschlecht kennen zu lernen? Sicherlich nicht. Es gibt Menschen, die sich so ähnlich sehen, daß es nicht der Mühe wert ist, sie einzeln zu studieren. Wer zehn Franzosen gesehen hat, der hat alle gesehen“. Zweifellos gilt das auch für Ferengi und Klingonen, von Vulkaniern oder gar den Borg ganz zu schweigen; trotzdem hält sich bis heute das Gerücht, dass Reisen bildet. Das gibt auch Rousseau zu, aber nur unter bestimmten Voraussetzungen: Der Reisende muss nämlich ein Philosoph sein, ein guter Mensch und ein guter Beobachter; das Reisen ist nur für diejenigen zu empfehlen, „welche in sich selbst Festigkeit genug besitzen, die Lehren des Irrtums anzuhören, ohne von ihnen verführt zu werden, und das Beispiel des Lasters anzuschauen, ohne sich von demselben fortreißen zu lassen. Die Reisen bieten einen Anstoß, seinen Neigungen nachzusehen, und vollenden den Menschen im Guten wie im Bösen. Bei der Heimkehr ist jeder so, wie er sein ganzes Leben hindurch bleiben wird. Es kehren nun weit mehr Schlechte als Gute zurück, weil bei der Abreise weit mehr zum Schlechten als zum Guten geneigt sind“. Reisen bildet also vor allem anderen den Charakter – erst durch die Konfrontation mit fremden Spezies, fremden Welten, fremden Sitten erweist sich die Gültigkeit menschlicher wie individueller Moralität. Captain Picard hätte dem sicherlich zugestimmt: Reisen durch den Weltraum sind eine Angelegenheit für gefestigte Charaktere, nicht für haltlose Abenteurer. Captain Kirk wäre da allerdings nicht ganz so sicher gewesen.
Dass der Weltraum jedoch prinzipiell Platz für unendliche Welten hat, die die menschliche Neugier und Reiselust notwendig reizen, gehört schon zum Vorstellungsraum der Antike. Lukrez schreibt in seiner Naturlehre:
Wenn nun die Menge der Keime so groß ist, daß sie zu zählen
All die Lebenszeit der lebenden Wesen nicht reichte,
Und darin die Natur sich erhält, die in ähnlicher Weise
Überallhin zu verbringen vermag die Keime der Dinge,
Wie sie sie hierher brachte, so mußt du wieder bekennen,
Daß noch andere Erden in anderen Welten bestehen
Mit verschiedenen Rassen von Menschen und Sippen der Tiere.
Die Existenz weiterer Welten wird hier rein logisch aus den Prinzipien der uns bekannten einen Welt abgeleitet: Es wäre einfach äußerst unwahrscheinlich angesichts der unvorstellbaren Größe des Weltraums und der unendlichen Anzahl von „Keimen“ und „Atomen“ in diesem, dass das Leben nur an einem einzigen Ort entstanden sein sollte. Noch einen Schritt weiter gingen die Empiristen des 18. Jahrhunderts: Warum eigentlich sollten uns unbekannte Welten den gleichen Prinzipien folgen wie unsere eigene? David Hume lässt in seinen Dialogen über die natürliche Religion einen der beiden Gesprächspartner sinnieren: „Die Brahminen behaupten, daß die Welt ihren Ursprung von einer unendlichen Spinne hat, welche diese ganze verwickelte Masse aus ihrem Eingeweide spann und nachher das Ganze oder einen Teil vernichtet, indem sie es wieder in sich zurücknimmt und in ihr eigenes Wesen auflöst. Das ist eine Art Kosmogonie, welche uns lächerlich erscheint, weil eine Spinne ein kleines verächtliches Tier ist, deren Tätigkeit wir nicht geneigt sind, als Modell des ganzen Universums gelten zu lassen. Aber doch ist hier eine neue Form der Analogie, selbst auf unserer Erdkugel. Und gäbe es einen ganz von Spinnen bewohnten Planeten (was wohl möglich ist), so würde dort diese Folgerung ebenso natürlich und unwidersprechlich erscheinen, als diejenige, welche auf unserem Planeten den Ursprung aller Dinge aus Vernunft und Intelligenz herleitet, wie sie von Cleanthes vorgetragen worden ist“.
Hume wäre offensichtlich ein gutes Crew-Mitglied der Enterprise gewesen; gelingt es ihm doch, die menschliche Perspektive hinter sich zu lassen und aus dem Standpunkt des Universums vorurteilsfrei fremde Lebensformen zu würdigen, ganz entsprechend der „Ersten Direktive“. Weniger am Platze wäre hingegen Friedrich Nietzsche gewesen, der den gleichen Standpunktwechsel mit einer wenig schmeichelhaften Situationsbeschreibung der menschlichen Spezies verbindet: „In irgendeinem abgelegenen Winkel des in zahllosen Sonnensystemen flimmernd ausgegossenen Weltalls gab es einmal ein Gestirn, auf dem kluge Tiere das Erkennen erfanden. Es war die hochmütigste und verlogenste Minute der ‚Weltgeschichte‘; aber doch nur eine Minute. Nach wenigen Atemzügen der Natur erstarrte das Gestirn, und die klugen Tiere mußten sterben.  So könnte jemand eine Fabel erfinden und würde doch nicht genügend illustriert haben, wie kläglich, wie schattenhaft und flüchtig, wie zwecklos und beliebig sich der menschliche Intellekt innerhalb der Natur ausnimmt. Es gab Ewigkeiten, in denen er nicht war; wenn es wieder mit ihm vorbei ist, wird sich nichts begeben haben. Denn es gibt für jenen Intellekt keine weitere Mission, die über das Menschenleben hinausführte. Sondern menschlich ist er, und nur sein Besitzer und Erzeuger nimmt ihn so pathetisch, als ob die Angeln der Welt sich in ihm drehten“. Keine weitere Mission also – auch die Enterprise ist nach mehr als fünfzig Jahren von den Bildschirmen der winzigen Erde verschwunden, und mit ihr ein modernisiertes Epos von Reise- und Abenteuerlust, verbunden mit einer paradox anmutenden Hochschätzung der Grenzen des Menschen: Mensch sein heißt im Star-Trek-Universum, sich seiner Fehlbarkeit bewusst zu sein, aber trotzdem unter allen Umständen so zu handeln, als könne man die selbstgesetzten hohen moralischen Standards auch erreichen. Dadurch unterscheidet sich der Menschen nicht nur von ihm technologisch, sondern auch von ihm geistig überlegenen Spezies wie den Vulkaniern, denen immer wieder ihre letztlich auf Verdrängung der Emotionalität beruhende, einseitige Rationalitätsorientierung unter die Nase gerieben wird (mit einem heimlichen Seitenhieb auf die grundsätzliche Überlegenheit individualistischer Gesellschaftskonzepte gegenüber kollektivistischen, das muss in einer amerikanischen Erfolgsserie schon sein!). Ob das nächste, dann wahrscheinlich wirklich globalisierte Großepos allerdings noch so „menschen-freundlich“ sein wird, bleibt abzuwarten.
          
SUPERMAMA, Bezeichnung für eine Mutter, die wie ein Comic-Superheld über magische Kräfte verfügt, wie eine eierlegende Wollmilchsau alles kann (und zwar gleichzeitig) und überhaupt die „allerbeste Mama der ganzen Welt“ ist (beliebter Muttertagsspruch, gern von blumengeschmückten Herzen umgeben). Dass dies allerdings auch eine furchteinflößende Vorstellung sein kann, wusste schon der deutsche National- und Superheld Dr. Faust. Als er von seinem personality coach Mephistopheles zu den in dunkler Tiefe um einen Dreifuss brütenden „Müttern“ geschickt wurde, klagte er kleinlaut: „Die Mütter! Mütter! s’klingt so wunderlich!“ Bekanntlich ist das Staunen der Anfang der Philosophie; fragen wir also beherzt: Was klingt an „Mütter“ eigentlich so wunderlich?
Die Welt ist, um am Anfang zu beginnen, nicht denk-, nein: nicht leb-bar ohne Mütter. Mütter sind die Gebärerinnen (biologische Definition von Mutter: Trägerin der Eizelle), die Hüterinnen (Mutterliebe), die Bewahrerinnen (Generationenfolge) der Menschheit. Deshalb kannten die meisten vorschriftliche Kulturen Muttergottheiten, die man sich ungefähr vorzustellen hat wie Fausts wunderliche Mütter. Die mythenumwobene Magna Deum Magna Idea (oder kurz: magna mater) gehört zur dunklen Erde (sie ist eine der chthonischen Gottheiten, im Gegensatz zu den hellen olympischen Göttern). Aus ihrem Schoß erwachsen Fruchtbarkeit und Gedeihen ebenso wie Verderben und Sterben; das ist der Kreislauf der Natur, die man deshalb von jeher gern „Mutter Natur“ genannt hat, im Gegensatz zum „Vater Staat“. Streng zu unterscheiden ist die große Mutter von den späteren olympischen Liebesgöttinnen, eher harmlosen Wesen, die mit ihrer unsterblichen Schönheit lediglich Männer in den Ruin führen oder zu ein wenig Krieg anstiften. Die griechische Urmutter Gaia gehört zu den alten Muttergöttinnen wie die ägyptische Isis oder die Teilzeitgöttin Persephone, die ein halbes Jahr im Totenreich bei ihrem dunklen Gatten und ein halbes Jahr überirdisch unter der allerfreulichen Sonne zubringt und damit besonders sinnbildlich gleichzeitig für Tod und Fruchtbarkeit verantwortlich ist. Und noch die Gottesmutter Maria spiegelt sehr von fern die Vorstellung einer durch Geburt machtvollen, wenn auch nicht direkt unerschöpflich fruchtbaren weiblichen Gottheit.
Der erste Theoretiker einer solchen magna mater war der Schweizer Altertumsforscher Johann Jakob Bachofen, der Mitte des 19. Jahrhunderts sein monumentales Werk Mutterrecht publizierte. Er berief sich dabei auf frühe religiöse Weiblichkeits-Darstellungen in allen bekannten Kulturen und entwarf das Modell einer gynaikokratischen Gesellschaft, in der die Frauen durch ihre Fähigkeit zum Gebären den Männern übergeordnet waren. Sie basierte auf der Verehrung weiblicher Fruchtbarkeitsgöttinnen (magna mater), auf Matrilinearität (weibliche Erbfolge) und Matriarchat (die Frau als Oberhaupt der Familie). Psychologisch hat der Schweizer Psychiater C.G. Jung in der ersten Hälfte des 20. Jahrhunderts diese Vorstellung gewendet: Im Mutter-Archetyp leben die magnae matres der Frühkulturen ebenso wie die Ahnfrauen und bösen Schwiegermütter aus Mythos und Märchen in jeder Psyche fort. Sie werden nachtnächtlich erlebt in Träumen, finden vielfache Ausdrucksformen in Kunst und Sage – und bedrohen nicht nur Faust, sondern jeden Mann, der seine individuelle anima (seine weiblichen Züge) in einem schmerzhaften Ablösungsprozess vom kollektiven Mutter-Archetyp trennen muss.
Mit dem Sieg des Christentums, des wissenschaftlichen Rationalismus und des Patriarchats wurde auch die Mutter entmythisiert. Zwar schwebt die Gottesmutter noch lange gnadenspendend und ziemlich abgehoben im Hintergrund, doch mit der Neuzeit nimmt die Mutter-Kritik an Fahrt auf. Reale Mütter nämlich, so stellt sich heraus, sind inzwischen nicht nur ihrer ursprünglichen Macht beraubt, sondern sie sind zum idealen Opfer schlechthin geworden: Mütter können eigentlich alles nur falsch machen (wie man an ihren Kindern sieht). Seit Martin Luthers Bibelübersetzung („Wer bereitet dem Raben seine Nahrung, wenn seine Jungen schreien zu Gott und umherirren ohne Futter?“, Hiob 38, 41) geistert die vernachlässigende, egozentrische Rabenmutter durch das kulturelle Gedächtnis. Leider ist sie fake news: Rabenkinder schreien zwar besonders laut und verlassen frühzeitig das Nest, bis dahin aber umsorgen die Rabeneltern geradezu vorbildlich den Nachwuchs (schuld war das schlechte kulturelle image des rabenschwarzen Rabens). Ihr Gegenpol ist, ebenso schon in der Bibel nachweisbar, die Glucke („Wie oft wollte ich deine Kinder um mich sammeln, so wie eine Henne ihre Küken unter die Flügen nimmt“ spricht Jesus, Matt 23, 37): Lautstark gluckernd bebrütet sie ihre Eier; sind sie geschlüpft, hält sie ihre Küken durch ebensolches Gluckern beisammen und breitet schützend ihre Flügel über sie aus (keine fake news, Hennen tun das, man nennt das: Instinkt). Überbehütung auf der einen, gluckernden Seite, Vernachlässigung auf der anderen, rabenschwarz kreischenden: Mütter können es eben keinem recht machen!
Heute sind wir insofern weiter, als wir keine herabwürdigenden Tier-, sondern schicke Technikmetaphern benutzen. Zwar flattern immer noch Rabenmütter durch den Mediendschungel, aber eher als Identifikationsmodell für die karrierebewusste, emanzipierte Frau („ich bin eine Rabenmutter und stolz darauf!“) Abgelöst wurden sie, zum einen, von den Helikoptermüttern: Ewig kreisen sie über den zarten Häuptern ihrer Zuchtbefohlenen, machen nicht wenig Lärm dabei und kennen nur ein einziges Gesprächsthema: die so außerordentlichen Vorzüge und hochsensiblen Bedürfnisse ihres hochbegabten Sprösslings. Vollzeitüberwacht, vollzeitbehütet, vollzeitgefördert, vollzeitgeliebt: Die Helikopter-Mama ist eine wahre Supermama. Im Übrigen soll die so schlagende Metapher auf die Aussage eines amerikanischen Teenagers über seine eigene Mutter zurückgehen; verbreitet wurde sie im englischen Sprachraum von der Psychologin Wendy Mogel. Das dänische Äquivalent ist die curling mom (im Original: curlingbarn, in die Welt gesetzt von dem dänischen Psychologen Bent Hougaard; die deutschen Äquivalente sind eher mäßig lustig: die Schneepflug- oder die Rasenmähermama): Wie beim Curling-Sport auf dem Eis wischt sie ihrem Herzenskind prophylaktisch jeden noch so kleinen Krümel hinweg, der es bremsen könnte auf seinem hochglanzpolierten Lebensweg. Wenn die Helikopter- oder Curlingmom zum bürgerlichen Mittelstand gehört und einen SUV fährt, mutiert sie zur soccer (oder, je nach kulturellem Kontext, hockey) mom. Die moderne Glucke ist hypermobil, ständig einsatzbereit und schläft nie; ihre schützenden Flügel hat sie durch die Überwachungsapp famisafe auf dem Handy ersetzt, und gegluckert wird aufs Schönste in chatgroups und Mamablogs
Eine etwas dunkelgrau abgeschwächte Variante der Rabenmutter hingegen ist die Tigermutter. Zwar kannte die deutsche Sprache schon lange Löwen- oder Tigermütter, aber weltweit verbreitete sich die Metapher erst durch die Battle hymn of the Tiger Mother (2011) der amerikanisch-asiatischen Juristin Amy Chua. Sie erzog ihre eigenen Töchter zum einen nach den strengen Maßgaben jahrtausendealter chinesischer Erziehungskunst: Disziplin, Respekt vor den Eltern, klare Ziele und vor allem – üben, üben, üben, sei es ein Instrument, ein Sport, eine Technik: Exzellenz gibt es nicht umsonst, und inflationäres Lob für jede Minderleistung erzeugt nur inflationiertes Selbstvertrauen. Der amerikanische Anteil an der Tiger-Pädagogik ist demgegenüber etwas schwächer ausgeprägt: Im Zentrum steht das einzelne Kind als unverwechselbares Individuum mit einzigartigen persönlichen Fähigkeiten. Wenig überraschend wurde Chuas Hymne vor allem in den USA äußerst kritisch aufgenommen, da sie der schon lange unterbewusst schwelenden Angst vor den asiatischen overachievern nun eine solide Basis verschaffte. Hingegen stieß im alten Europa vor allem der autoritäre Aspekt auf den zu erwartenden Widerstand bei den baby boomern, die mit der Milch der anti-autoritären Erziehungsideologie gesäugt wurden und auf das Wort „Disziplin“ geradezu instinktmäßig mit geistigem Hautausschlag und medialem Aufschrei reagieren.
Wildentschlossene Tigermütter auf der einen Seite, ewig gluckernde Helikopter-Moms auf der anderen – nur wenige Pädagogen oder Psychologen weisen gelegentlich vorsichtig darauf hin, dass vielleicht die Überbehütung, in welcher Form auch immer, nicht das zentrale Problem der zeitgenössischen mütterlichen Erziehungsleistung sein könnten, sondern eher – aber hier fehlen, interessanterweise, die Bilder: die Unterversorgung, die materielle wie emotionelle Vernachlässigung bis hin zum psychischen und physischen Missbrauch. In den USA gibt es immerhin die deadbeat (Totschlag-) parents, die Formulierung zielt aber speziell auf finanzielle Probleme ab: Zu viele geschiedene Elternteile (meist: Väter) können oder wollen sich die Unterhaltskosten für den Nachwuchs nicht leisten. Vor den wahrscheinlich jedoch härteren und einschneidenderen Folgen mütterlichen Teil- oder Totalversagens stoppt sogar die interkulturelle Metaphernproduktion der Besserdenkenden.
Derweil geht die Suche nach der Supermama fröhlich weiter: Gesucht werden die Tiger-Mama ohne Zähne, die Soccer-Mama ohne klimaschädlichen SUV und die gender maingestreamte Rabenmutter mit der Super-Karriere und den Super-Kindern (gleichzeitig, natürlich)! Finden wir endlich die universale Teilzeit-Glucke, die immer da ist, wenn man sie braucht, aber einem nie auf die Nerven geht; die die allerbesten, ökologisch korrektesten Kuchen der Welt backt, die man zudem immer essen und immer haben kann (gleichzeitig, natürlich)! Es wäre auch schön – wir denken zurück an Faust, „die Mütter, die Mütter, s’klingt so wunderlich“ –, wenn die Supermom ein wenig ambig sein könnte, vielleicht trans- oder wenigstens meta-geschlechtlich, jedenfalls nicht so stereotyp weiblich. Dann könnten die Männer endlich ihr faustisches Mütter-Trauma verlieren, weil sie es trotz galoppierender Verweiblichung der Gesellschaft immer noch nicht nicht geschafft haben, ihren archaisch-bedrohlichen Mutter-Archetyp in eine modern-sozialverträgliche anima zu verwandeln. Denn das ist das eigentliche Skandalon der Mutter, sei sie nun magna mater, Supermom oder Glucke: Gebären ist Macht! (aber das wird die Reproduktions-Medizin schon unter Kontrolle bekommen)
          
SEXY, von lateinisch „sexus“ für (weibliches oder männliches) Geschlecht. Das Wort „sexus“ wanderte in alle europäischen Sprachen ein und blieb für lange Zeit die ideologisch unumstrittene Bezeichnung für das biologische Geschlecht. Erst im 20. Jahrhundert entsteht das Adjektiv „sexy“ im Sinne von (ausschließlich) äußerlich anziehend, erotisch attraktiv, körperlich erregend: „Sexy“ war fortan vor allem der (zumeist: weibliche) Körper. Immer stärker wurde das Attribut des Attraktiven aber auch auf andere körperliche, allgemein äußerliche oder schließlich sogar geistige Phänomene angewandt: „Sexy“ konnte bald auch die Stimme sein, genauso wie Schuhe oder ein Auto. Dass heute auch eine Idee, ein Begriff oder ein Konzept „sexy“ sein kann vor allem im intellektuellen oder wissenschaftlichen Milieu –, zeigt, dass auch der Verstand gekitzelt, zu Ideen verführt und mit Erregungspotentialen aller Art verbunden werden kann. Diese Entwicklung demonstriert einmal mehr die historische Wandelbarkeit ästhetischer Werturteile: Was macht eine Idee eigentlich „sexy“, verstanden als ästhetisches Urteil? Überprüfen wir das an einer weitgehend unumstrittenen philosophischen Aussage von hohem Allgemeinheitsgrad, nämlich an Immanuel Kants berühmten Satz: „Aufklärung ist der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit!“ Ein schöner Gedanke? Ein interessanter? Oder doch eher sexy? Und wie verändert sich die Aussage, wenn man sie unter diesen verschiedenen ästhetischen Beleuchtungen versuchsweise fokussiert?
Die Vorgeschichte der Ästhetik als derjenigen Disziplin, die sich mit Qualitätsurteilen über Wahrnehmung beschäftigt, beginnt in der Antike mit dem Begriff des „Schönen“, der lange Zeit auch konkurrenzlos blieb. Doch schon bei Platon wird Schönheit durchaus nicht nur sinnlichen Gegenständen zugeschrieben. Die augenfällige Attraktivität menschlicher Körper (damals: eher junger männlicher), die im Betrachter den durchaus körperlich erlebten eros auslöst, war nur die erste Stufe der Erkenntnis des Schönen. Von dort aus hatten sich Schauende und Denkende zur Schönheit der Seelen, der Handlungen, Sitten, Gesetze und schließlich: bis zum Ideal des Schönen schlechthin aufzuschwingen. Das damit verbundene Persönlichkeitsideal war das des „Kalokagathos“, des Schön-Guten, das sich sowohl in der äußeren Erscheinung (Gymnastik!) als auch in allen sprachlichen und intellektuellen Ausdrucksformen bis hin zum politischen und gesellschaftlichen Handeln äußerte. Offensichtlich greift es zu kurz, einzelne Aussage unter diesem ganzheitlichen Maßstab zu messen; „schön“ im platonischen Sinne wäre Kants Aufklärungsbestimmung erst, wenn ihr ganzer Sinn eine Person und ihr gesamtes Handeln durchgehend prägte.
„Schönes Denken“ ist bei Alexander Gottlieb Baumgarten, der die Ästhetik als eigenständige Disziplin in der deutschen Philosophie etablierte, dadurch definiert, dass es eine „Vollkommenheit der sinnlichen Erkenntnis“ ist. „Vollkommen“ ist die sinnliche Erkenntnis erst, wenn sie „klar“ und „deutlich“ ist. Klar wird sie aber nur auf dem Weg über die „unteren“ Vermögen, nämlich die sinnliche Wahrnehmung im Gegensatz zum Verstand, der durch begriffliche Bestimmungen Deutlichkeit erstrebt. Klare Erkenntnis erkennt beispielsweise man an der Kohärenz, der inneren Übereinstimmung der Gedanken, in der die Ausdrucksform aufs genaueste dem Inhalt entspricht. Dieses Kriterium trifft auf Kants Satz insofern zu, als er zum wahren Verständnis eben Selbstdenken erfordert: Er gibt keine rein begriffliche Definition von Aufklärung, sondern eine bildlich-anschaulich angereicherte („Ausgang“), die das geforderte Selbstdenken unmittelbar in Aktion setzt.
Eine der bekanntesten Definitionen von Schönheit im 18. Jahrhundert stammt natürlich von Kant selbst: das „interesselose Wohlgefallen“, das das Schöne beim Betrachter erweckt, ist deren untrügliches Merkmal. Wir wollen das Schöne, wenn wir es anschauen, weder besitzen noch essen noch verführen, sondern es um seiner selbst willen genießen, ohne dass wir einen persönlichen Vorteil oder einen rein egoistischen Lustgewinn dadurch haben – das „interesselose Wohlgefallen“ ist damit geradezu der Gegenpol zum attraktiv-erregenden „sexy“ oder auch zum platonischen „eros“. Im Blick auf unseren Testsatz kann man relativ leicht erkennen, dass er wohl bei den meisten kein „interesseloses Wohlgefallen“ weckt, weil er nämlich zur kritischen Selbstreflexion des eigenen Handelns auffordert was meist als eher schmerzhaft empfunden wird (außer bei „schönen Seelen“). Aber gerade die völlige Befreiung des „Schönen“ von jeglicher Emotion und seine Enterotisierung führen dazu, dass sich genau um diese Zeit ein wichtiger Konkurrenzbegriff zum „Schönen“ in der Ästhetik entwickelt: Auf einmal wird das „Interessante“ interessant. Der Aufklärer Christian Garve bestimmt es in einem viel gelesenen Essay Über das Interessierende als dasjenige, das (ohne unser bewusstes Zutun) unsere Aufmerksamkeit bei seiner Wahrnehmung weckt und dadurch den Geist in erhöhte Tätigkeit versetzt. Das funktioniert besser bei Gegenständen, so Garve, die den Menschen betreffen. Und es funktioniert am besten, je ähnlicher und vertrauter uns der Gegenstand persönlich ist: Je näher uns ein Gedanke auf den Pelz rückt, desto mehr merken wir auf. Dabei wird automatisch eine Spannung aufgebaut, die das Denken weiter vorantreibt: Das „Interessante“ lässt uns keine Ruhe, es wirkt tatsächlich, im allgemeinsten Sinne: geistig erregend! Kants Satz müsste im Hinblick darauf vor allem auf sein Provokationspotential überprüft werden, das er aber durchaus hat: Nur wird das kleine Wörtlein „selbstverschuldet“ bis heute gern überlesen.
Hätte also auch Garve schon das Denken als „sexy“ bezeichnen können, wenn ihm das Wort zur Verfügung gestanden hätte? Es ist wohl noch ein weiterer Schritt nötig, um vom milde zwischen Objektivität und Subjektivität schillernden „interessant“, das das Denken beflügelt, zum sinnlich und persönlich erregenden „sexy“ zu kommen: Der Gedanken muss ein beinahe körperlich empfindbares Erregungspotential haben, ein wenig skandalös sein, ein wenig verrufen vielleicht, ein wenig abenteuerlich. Und er muss – da die erotische Anziehung vom anderen Geschlecht ausgeht zur geistigen Fortpflanzung anregen: Aufklärung wäre dann nicht nur Ausgang aus der selbstverschuldeten Unmündigkeit, sondern würde zum Ideen-Sex geistig mündiger Individuen führen (und die Vermehrung und Erzeugung neuer Ideen wäre ein durchaus erwünschter Nebeneffekt!).
Unter dem Blickwinkel der neuesten Filiale der Ästhetik, der „Evolutionären Ästhetik“, würde das sogar biologischen Sinn machen. Ihr zufolge ist das Schönheitsempfinden zu großen Teilen genetisch verankert. Schönheit fällt dabei sowieso in Eins mit sexueller Attraktivität, die vor allem einen Zweck hat: die Fortpflanzung sicherzustellen. Schön ist, was gesunde und reiche und durchsetzungsfähige Nachkommenschaft verspricht und damit die pole position in der sexuellen Selektion! Gilt das also auch für – Ideen-Sex und den intellektuellen Selektionsprozess? Eine Arbeitshypothese könnte lauten: im wissenschaftlichen Betrieb – gelegentlich, mit Glück, ja; im öffentlich-politischen Diskurs mit seiner heiß gelaufenen Empörungs- mehr denn Erregungsdynamik– eher nein. Davon unabhängig verdankt sich aber der Erfolg von „sexy“ wohl vor allem der Notwendigkeit, ständig neue Begriffe zu erfinden (oder alte umzudeuten), um öffentliche Aufmerksamkeit zu erregen und notfalls auch über das Fehlen neuer Inhalte hinwegzutäuschen. Damit verbunden ist eine gewisse Domestizierung der Sexualität: Wenn schon mäßig interessante wissenschaftliche Ideen „sexy“ sein können, wünschte man sich doch gelegentlich etwas mehr intellektuelle Pornographie. Auf der anderen Seite kann man die zunehmende Verkörperlichung des Denkens (die aber eigentlich schon in Platons „eros“ der Schönheit angelegt ist) durchaus auch als Fortschritt und Befreiungsbewegung lesen: Aufklärung wäre dann nicht nur der Ausgang des Menschen aus seiner selbstverschuldeten Unmündigkeit, sondern auch aus seiner fremdverordneten Reduzierung auf ein reines Geistwesen!
          
SPIELVERDERBER, auch: spoilsport (englisch und französisch) oder turbator laetitiae (lateinisch, zu Deutsch: Freudenstörer): So nennt man jemanden, der sich nicht an die Regeln hält und damit den anderen Spielteilnehmern das Spiel „verdirbt“ – denn ein Spiel ohne Regeln macht nicht nur keinen Spaß, nein: Es ist anthropologisch unsinnig, evolutionär unsinnig und, wie Kinder wahrscheinlich sagen würden: einfach total doof! Spiele, genauer gesagt: gemeinschaftlich gespielte Spiele (allein für sich ist keiner ein Spielverderber), seien es solche auf dem Sportplatz oder im Sandkasten, mit Spielkarten oder Avataren, mit Wörtern oder Begriffen, leben davon, dass innerhalb eines Rahmens von begrenzten, von vornherein festgelegten Vorschriften und Verboten maximale Kreativität entfaltet werden kann. Aber wer am Rahmen kratzt oder ihn sprengt, muss auf die Bank oder in die Strafecke, weil: Er ist ein Spielverderber und hat damit die Spielfreude gestört!
An wenigen Beispielen kann man besser das grundlegende Wesen der Dialektik studieren: Ohne Begrenzung durch Regeln gibt es keine Freiheit im Spiel, sondern alle plantschen nur in einem zwar buntem, aber völlig sinnfreiem Bällebad. Die Regeln werden vielmehr innerhalb der Grenzen des Spiels freiwillig von den Spielteilnehmern beachtet, und das erst ist ein Akt wahrer Freiheit! Umso erstaunlicher ist es, dass der Begriff des ‚Spielverderbers‘ in der Philosophie erst bei Friedrich Nietzsche gelegentlich auftaucht. Allerdings hat sich die traditionelle Philosophiegeschichte auch nicht direkt als Freuden-Haus oder Spiel-Anstalt verstanden, und erst ein All-Zertrümmerer wie Nietzsche hat ihre vielen Spiele entlarvt (nicht alle von ihnen fanden nach fairen Regeln statt). Und die Philosophie ist mit dieser Abstinenz auch nicht allein, es gibt nämlich auch keinen Wikipedia-Artikel zum ‚Spielverderber‘ (auch nicht zum ‚spoilsport‘ in der englischen Version): Offensichtlich ist das Wort so wenig sexy, dass sich niemand die Hände daran schmutzig machen möchte.
Außer dem blauen reiter mit seinem etwas anderen Lexikon! Auch ein Lexikon ist nämlich in gewisser Weise ein Spiel, ein Sprach- und/oder Begriffsspiel nämlich (das ist nicht das Gleiche und schon gar nicht das Selbe!). Als Sprachspiel sind Lexikonartikel nach einem Ordnungsprinzip aufgebaut, der Reihenfolge des Alphabets nämlich; und ein Lexikon, das seine Artikel in völlig beliebiger Reihenfolge durcheinander würfeln würde, wäre ein Spielverderber für jeden Benutzer. Ein Spielverderber wäre auch ein Begriffslexikon, das nicht die Geschichte und den geistigen Gehalt eines Wortes erläutern würde – und zwar möglichst vollständig, in systematischer Gliederung und wiederum am Leitfaden der Chronologie (ist die Chronologie etwa eine anthropologische Regel, ohne die das ganze Menschheits-Spiel mit Namen „Geschichte“ keinen Spaß macht?). Deshalb folgt nun auch hier, nach der ordentlich-regelgemäßen Definition des Wortes ‚Spielverderber‘ samt einiger fremdsprachiger Äquivalente die systematische Herleitung eines genuin nicht-philosophischen, aber anthropologisch grundlegenden, alltagsweltlich weitverbreiteten und moralisch aufgeladenen, ontologisch-erkenntnistheoretisch nicht unrelevanten und schließlich: in der informellen Logik nicht unspannenden Begriffs, alles in lexikongemäßer Kürze!
Anthropologisch grundlegend und gleichzeitig alltagsweltlich weitverbreitet ist der Begriff ‚Spielverderber‘, weil er ein Phänomen benennt, das ein grundlegendes Prinzip des geselligen Zusammenlebens der Menschen deutlich macht ( „Der Mensch spielt nur, wo er in voller Bedeutung des Wortes Mensch ist, und er ist nur da ganz Mensch, wo er spielt“; Friedrich Schiller in Über die ästhetische Erziehung des Menschen; dort kann man auch alles zur Dialektik von Freiheit und Regeln nachlesen): Es braucht gute, und das heißt genauer: differenzierte, nicht zu sehr einengende, sondern kreative Auslegung und Gestaltung ermöglichende Regeln als Rahmen. Spiele ohne Grenzen waren schon immer dumm (sie heißen auch: „Krieg“ oder „whatever it takes“). Natürlich müssen die Regeln gelegentlich angepasst werden, am besten in einem kontinuierlichen, durchaus streitlustigen, aber ergebnisorientierten Prozess (völliger Regelumstoß heißt ‚Revolution‘, und wer da ein Spielverderber ist und auf Regeln besteht, endet regelmäßig an Laternenpfählen). Man kann dabei sogar den immens moralisch aufgeladenen Begriff, der wie alle geladenen Dinge nicht ungefährlich ist, ab und zu umpolen, man muss es sogar: Es gibt Spiele, die einen so verderben beim Mitmachen, dass es moralisch verantwortungsvoller ist, nicht mitzuspielen (die social media sind voll von ihnen, eine grenzenlose Spielwiese des anything goes, und also: des dummen, regellosen Spiels).
Ontologisch bzw. erkenntnistheoretisch nicht unrelevant ist der Begriff, weil das Wesen des Spiels in der Anerkennung von Regeln durch die Teilnehmer liegt. Wer aber hält sich, vom Wesen her, seiner Natur gemäß, in seinem ganzen Sein, niemals an Regeln? Nicht etwa die Natur, die schön nach Naturgesetzen funktioniert, auch wenn das nicht immer fair aussieht; so sah das schon Aristoteles (jeder Lexikonartikel, der auf sich hält, zitiert mindestens einmal einen antiken Autor, so wie jede Studiosus-Studienreise irgendwann einmal Ruinen streifen muss): „Denn alle Wissenschaft ist Wissenschaft von dem was immer oder was in der Regel ist. Wie sollte man sonst etwas lernen, wie einen anderen etwas lehren? Es muß eine feste Bestimmung sein, die gelernt oder gelehrt wird, entweder als das was immer, oder als das was in der Regel geschieht; z.B. als Regel dies, dass ein Getränk aus Honig und Milch demjenigen, der Fieber hat, heilsam ist. Was gegen die Regel ist, davon wird sich nicht sagen lassen, wann es nicht zutrifft. Sagt man z.B. bei Neumond trifft es nicht zu, dann bedeutet auch dies ‚bei Neumond‘ wieder ein immer oder ein In-der-Regel. Das Zufällige aber durchbricht jede Regel und läuft nebenher“. Anders gewendet: Der Zufall ist der Urtyp eines Spielverderbers, deshalb zähmt ihn jedes ordentliche Spiel (im Unterschied zu reinen Glücksspielen, aber die kann man auch nicht mehr weiter verderben). Jeder Würfel hat zum Beispiel sechs Seiten, und jedes einzelne Wurfereignis ist zwar zufällig; es hat aber, zumindest mit einem idealen Würfel, die gleiche Wahrscheinlichkeit, nämlich 1/6 – aber ist das nicht eine Regel? Und schon hat uns die Dialektik wieder eingeholt! Gibt es nun einen Zufall, der sich nicht an die Regeln hält und deshalb der ewige Spielverderber im Reich der Natur und der Zwecke ist? Genauso gut könnte man fragen, ob es einen Gott gibt; es ist eigentlich die gleiche Frage, und man sieht gleich, warum der Teufel als Spielverderber begriffen werden kann. Oder auch nicht, denn schließlich hält sich der Teufel ziemlich gut an seine eigenen Regeln, und er ist den Freuden und den Spielen gar nicht abgeneigt, während sich die Freudenstörer traditionell eher im religiösen Lager herumtreiben.
Schließlich, letzter Punkt: Ein klassischer Fall von Spielverderberei, der für die informelle Logik nicht unspannend ist, ist dasjenige Phänomen, das man mit einer besonders schönen Metapher aus dem Sportbereich (Sport ist ein Spiel, das regelmäßig gute Metaphern generiert, hingegen niemals gute Interviews, auch nicht zufällig) „Moving the Goalpost“ nennt und das zu den verbreiteten Trugschlüssen der natürlichen (also: alltäglichen) Sprache (fallacies of natural language) gehört. Man stelle sich dazu folgendes Szenario vor: Ein Fußballspieler soll das perfekte Tor schießen, und zwar von einem beliebig zu bestimmenden Punkt aus; er schafft es. Anschließend wird das Tor ein Stück weiter weggerückt (oder auch der Punkt verschoben), nun soll er aus dieser Entfernung das perfekte Tor schießen. Er schießt, und es ist eigentlich egal, ob er trifft oder nicht; denn immer wieder wird das Tor in weitere Ferne für den nächsten Schuss gerückt. Übersetzt in die Sprache der Logik: Ein Beweis für A wird gefordert, er wird erbracht. Nun wird ein Beweis von A‘ erfordert und erbracht; und so weiter bis ins Unendliche. Das besonders Tückische an dieser argumentativen Spielverderberei ist, dass die Regeln während des Spiels selbst geändert werden; was nicht nur einen Ausgang, ein Ergebnis, irgendeinen Abschluss verhindert, sondern das Spiel in sich selbst völlig sinnlos macht, weil es kein definiertes Ziel mehr hat.
Erinnert das den einen Leser oder die andere Leserin vielleicht an irgendetwas? Etwa an das eine oder andere Beziehungsgespräch, wo die Schuld weiterwandert, von einem liegengelassenen Socken bis hin zur Beziehungs-Klimakatastrophe? An den einen oder anderen Krieg, der als „Polizeiaktion“ begann und kurz vor dem Weltkrieg – mit etwas Glück und eher zufällig endete? Oder gar an den Fortgang des Lebens selbst, der einen gelegentlich anmuten mag wie Sisyphos: Er schob mal wieder seinen Stein den Berg hoch, und als er oben war, rollte der Ball diesmal nicht wie erwartet wieder herunter (denn das war die Spielregel der allmächtigen und allweisen Götter) – womit Sisyphos gut hätte leben können, er wäre dann gemütlich den Berg wieder heruntergeschlendert und hätte erst einmal ein Bier getrunken und davon gesprochen, dass morgen auch noch ein Tag sei. Aber nein, hinter dem Berg kam noch ein Berg, und dann und noch einer und noch einer! Aber niemand wird gefragt, ob er an diesem Spiel teilnehmen möchte, das sich Leben nennt. Frau kann nur – mitspielen, wenn sie keine Spielverderberin sein will. Oder, wie eine Figur mit dem absurden (aber symbolträchtigen) Namen Buridan in Frank Wedekinds Die Zensur (mit dem wunderbaren Untertitel “Theodizee in einem Akt“) auf den Punkt bringt: „“Aber welche Kurzweil bereitet uns denn das Leben, wenn wir es nicht ernst nehmen?! Ein Spieler, der das Spiel nicht ernst nimmt, ist ein Spielverderber! Ich möchte mein Leben so ernst nehmen, wie einer meiner Bekannten das Kegelschieben. Mein Bekannter sowohl wie ich, wir möchten beide um unseren höchsten Genuß nicht betrogen sein. Sobald wir uns über die Gesetze des Spieles hinwegsetzen, ist die Freude am Spiel dahin. Mißverständnisse, Schimpfreden, Schlägereien, wüster Aberglaube und dumpfe Verzweiflung sind die Früchte – alles Ergebnisse, um derentwillen das Leben nicht lebenswert ist“.
          
TAMAGOTCHI, Kunstwort aus japan. „Tamago“ (Ei) und „wotchi“ (von engl. „watch“, Uhr). Das Tamagotchi ist eines der ersten Cyber-Spielzeuge, erfunden von der Japanerin Aki Maita im Jahr 1996. Das eiförmige, quietschbunte Mini-Plastik-Küken, das mit seinem Besitzer über einen begrenzten Satz von Symbolen auf seinem Display kommuniziert, eroberte nicht nur die Herzen der technikbesessenen Japaner, sondern wurde schnell weltweit populär. Der ursprüngliche Hype direkt nach Erscheinen flachte jedoch bald ab. Einen neuen Aufschwung nahmen die Verkaufszahlen erst wieder mit der Einführung des „Tamagotchi Plus“ im Jahr 2004. Die verbesserte Version konnte nun nicht nur essen, verdauen, spielen und schlafen, sondern hatte auch ein Geschlecht, konnte mit anderen Tamagotchis spielen und kämpfen, sich verlieben und Kinder bekommen. Alle Tamagotchis aber müssen am Ende eines: sterben. Wenn es soweit ist, verabschiedet sich Tamagotchi mit einem Engelchen auf dem Display von seinem Beschützer (zumindest die Versionen im christlichen Kulturraum) und kehrt in einem UFO zu seinem Heimatplaneten zurück, wo alle Tamagotchis in einer Art platonischer Ideenwelt leben – außer natürlich, man drückt den Reset-Knopf, und es ersteht ein neues Tamagotchi in der alten Hülle.
Zwar ist das Tamatgotchi vom Namen und vom Marketing-Konzept her ein virtuelles Haustier, aber schon ein kurzer Blick auf seine Funktionen zeigt, dass es eigentlich eher menschlich-allzumenschliche Züge trägt. Tamagotchi schlüpft zwar, wenn man es einschaltet; aber danach will es nicht nur Körner picken und einmal selbst Eier legen, sondern es will schier grenzenlose menschliche Aufmerksamkeit. Tamagotchi will, wie jedes Baby, regelmäßig gefüttert werden (Symbol „Messer und Gabel“); da seine allzumenschlichen Programmierer ihre eigenen Vorlieben, auch ihren künstlichen Geschöpfen beigelegt haben, bekommt es entweder eine ordentliche Mahlzeit oder einen zuckerhaltigen Snack. Essen macht Tamagotchi glücklich (das zeigt der „Glücksmeter“ mit vielen niedlichen Herzchen), zu viel Candy macht es krank (das zeigt der „Gesundheitsmeter“). Anschließend will Tamagotchi spielen; Computerspielen mit seinem Besitzer macht Tamagotchi sehr glücklich! Zwischendurch macht Tamagotchi Häufchen; wenn man sie nicht entsorgt (Symbol „Ente“), wird Tamagotchi irgendwann krank (Symbol „Totenkopf“). Ab und zu muss Tamagotchi schlafen, dazu sollte es besser dunkel sein (Symbol „Glühlampe“). Und schließlich ist Tamagotchi auch mal unleidlich: Es piepst einfach so und ohne Grund, es ist nämlich eigentlich glücklich (sagt der Glücksmeter) und will weder essen noch spielen. Dann sollten es gewissenhafte Pflegeeltern bestrafen, damit es in seinen nächsten Entwicklungszyklen ein wohlerzogenes Tamagotchi wird. Wenn „Tamagotchi Plus“ sich später verliebt, muss natürlich zuerst der „Beziehungsmeter“ ordentlich aufgefüllt werden, bevor es an den virtuellen Traualtar geht. Um die Mühen der Partnersuche zu umgehen, kann aber auch einfach den „Heiratsvermittler“ fragen! Das glückliche Paar produziert nun zwei neue Tamagotchis, die gerecht zwischen den Eltern aufgeteilt werden. Das ist eigentlich nicht von besonderer Bedeutung, denn kurz nach der Geburt verschwinden die elektronischen Eltern und überlassen den Nachwuchs den menschlichen Pflegeeltern zur Aufzucht der neuen Generation. So einfach und wunderschön ist das Tamagotchi-Leben! (♥♥♥♥♥)
Wenn es denn so einfach wäre. Denn tatsächlich wurde schon bald beklagt, dass die kleinen Biester ihre menschlichen Besitzer gar unmenschlich tyrannisieren: Ständig musste man auf der Hut sein, damit sie nicht zu viel oder nicht zu wenig aßen. Einmal vergessen, abends das Licht auszumachen, und die Nervensäge entwickelte einen Hang zur Schlaflosigkeit; und man hat ja auch nicht immer Lust auf hirnlose Computerspiele, nur weil das Balg mal wieder schreit (ob die übermäßige Anwendung disziplinierender elterlicher Gewalt zu späteren Traumata führte, wurde übrigens von den Besitzern nicht berichtet). Und schließlich mussten die (meist jugendlichen) Pflegeeltern ja auch noch zur Schule gehen, von anderen virtuellen und nicht-virtuellen Aktivitäten zur eigenen Entwicklung ganz zu schweigen (spätere Versionen hatten eine Pausentaste, die leider bei realen Babys immer noch nicht gefunden wurde). Der Philosoph Slavoj Žižek hat das Tamagotchi deshalb als „technosoziales Training“ für das Handy-Zeitalter bezeichnet: Beide, Handy und Tamagotchi, absorbierten die Aufmerksamkeitsressourcen ihrer Eigentümer auf ähnlich unersättliche Weise; sie verführten ihn dazu, ein rein virtuelles Leben mittels einer handlichen Apparatur mit abgerundeten Ecken zu führen, die je nach Wohlverhalten ihren Benutzer mit Zuwendung (belangloser Kommunikation, Like-Buttons, albernen Videos) belohnt oder mit Funkstille (also sozialer Nichtexistenz) bestraft.
Warum aber lassen sich junge Menschen willig von einem nicht einmal besonders niedlichen, hysterisch piepsenden Plastik-Ei mit schlechter Grafik und einem sehr restringierten Kommunikations-Code verführen? Immerhin, es ist ein Ei. Das Ei wird in vielen Kulturen als Ursprung aller Dinge angesehen, und selbst die Philosophen kommen schon seit der Antike immer wieder auf die nur scheinbar simple Frage zurück, was denn nun zuerst da war: die Henne oder das Ei? Wendet man diese Frage auf das virtuelle Ei und seinen menschlichen Besitzer, müsste man also fragen: Hat der Mensch das Tamagotchi erzeugt, weil es ein grundlegendes und auf keine andere Weise zu befriedigendes Bedürfnis nun endlich befriedigt? War das Tamagotchi notwendig im großen Gang der Dinge, eine Synthese nach der These (dem lebendigen Ei) und der Antithese (den Legefabriken und Hähnchenfarmen)? Oder ist das Tamagotchi von seinem fernen platonischen Planeten gekommen, um den Menschen zu strafen – sei für das Hähnchenschreddern, für seine ewige Zerstreutheit oder seinen permanenten Unwillen, endlich erwachsen zu werden?
Für Ersteres, die metaphysische Notwendigkeit des Tamagotchi, spricht der von Psychologen beobachtete „Tamagotchi-Effekt“. Gar nicht so wenige Menschen sind geneigt, Emotionen auf leblose Dinge, Maschinen oder sogar auf Software-Produkte zu projizieren. Beinahe beliebige Dinge werden einfach dadurch lebendig für uns, dass wir sie als lebendig empfinden. Das kann durchaus ein emotionales Bedürfnis sein, das in der realen Welt nicht hinreichend befriedigt werden kann: Die Lebensumstände in der unendlich flexibilisierten Arbeitswelt erlauben das Halten eines pflegebedürftigen Haustiers nicht, die Karriere springt dem Kinderwunsch immer wieder in den Weg, die realen Freunde stellen zu große oder die falschen Ansprüche. Programme und technische Geräte funktionieren, im Großen und Ganzen gesehen, einfach besser und zuverlässiger als Leute. Unsichtbare Freunde gab es schon immer, und nun haben sie eben Ei-Gestalt angenommen – und nur der, der sein Herz noch nie an Dinge gehängt hat, an Knuddeltiere, Autos, Pullover, Bücher, was auch immer, werfe das erste Tamagotchi! Immerhin, so sagen die Psychologen und Psychotherapeuten, können die Plastik-Küken und andere virtuell-lebendige Zwitter dem heutigen globalen Nomaden mit seiner chronischen Beziehungsangst und Unsicherheit in den einfachsten menschlichen Fragen zu Trainingszwecken dienen. Wer allerdings noch nicht einmal dazu in der Lage ist, ein Tamagotchi eine gewisse Zeitlang am Leben zu erhalten und dabei eine emotionale Bindung zu entwickeln, die über den egoistischen Besitzerstolz oder die technische Neugierde hinausgeht, sollte es vielleicht doch besser nicht mit einem Haustier – von einem Kleinkind ganz zu schweigen – probieren (auch der „Beziehungsmeter“ könnte in der Therapie noch durchaus sinnvolle Anwendungen finden!).
Dass das Zähmen von Haustieren eine eminente zivilisatorische Bedeutung hat – und zudem gleichzeitig eine Zähmung des wilden Menschen selbst bewirkte (so ist das nämlich mit Henne-Ei-Problemen) –, hat schon Johann Gottfried Herder in seiner vierbändigen Kulturgeschichte, den Ideen zur Philosophie zur Geschichte der Menschheit (1784-1791), ausgeführt. Mehr noch wirkte für ihn jedoch die biologische wie kulturelle Erfahrung von Elternschaft unmittelbar humanisierend auf eine Art und Weise, die kein Erziehungsratgeber der Welt lehren kann: „Den größten Unmenschen zähmt die väterliche und häusliche Liebe; denn auch eine Löwenmutter ist gegen ihre Jungen freundlich. Im väterlichen Hause entstand die erste Gesellschaft, durch Bande des Bluts, des Zutrauens und der Liebe verbunden. Also auch um die Wildheit der Menschen zu brechen und sie zum häuslichen Umgange zu gewöhnen, sollte die Kindheit unsres Geschlechts lange Jahre dauren; die Natur zwang und hielt es durch zarte Bande zusammen, daß es sich nicht, wie die bald ausgebildeten Tiere, zerstreuen und vergessen konnte. Nun ward der Vater der Erzieher seines Sohns, wie die Mutter seine Säugerin gewesen war, und so ward ein neues Glied der Humanität geknüpfet. Hier lag nämlich der Grund zu einer notwendigen menschlichen Gesellschaft, ohne die kein Mensch aufwachsen, keine Mehrheit von Menschen sein könnte“. Wenn also die Aufzucht eines mechanisch piepsenden Tamagotchi eine auch nur mindere, bescheiden ei-förmig zivilisierende und humanisierende Wirkung auf irgendjemand gehabt hat, dem das Schicksal oder krude Ideologien oder schlechte Eltern andere und bessere Möglichkeiten der Zivilisierung und Humanisierung versagt haben, könnte man seine Existenz im großen Lauf der Dinge durchaus für berechtigt halten. Wenn das Tamagotchi aber doch nur eine Erfindung des Marketing und der Computer- und Unterhaltungs-Industrie war, um buntes Plastik möglichst teuer zu verkaufen, die Batterie-Erzeugung anzukurbeln und die Konsumenten auf ihre zukünftige Abhängigkeit vom Handy zu konditionieren – dann ist es eine gerechte Strafe für eine Menschheit, die zwar die alte philosophische Tugend der Aufmerksamkeit als sogenannte „Schlüsselkompetenz“ in Studienplänen, Coaching-Seminaren und Lebenshilfe-Büchern peppig aufgehübscht feiert, sich aber in einem Maße der allgegenwärtigen hirnlosen Zerstreuung durch virtuelle Unterhaltungsangebote hingibt, die daran zweifeln lässt, ob sie selbst jemals über das Anfangsstadium eines Tamagotchis hinausgekommen ist.
          
TWITTER, (von engl. to twitter: zwitschern, schnattern) Nachrichtenmedium im Internet, eine Mischung aus sozialem Netzwerk und öffentlichem Tagebuch (vgl. Blog). Über Twitter können angemeldete Nutzer beliebige Textnachrichten (Tweets) verbreiten; die einzige Regel ist, dass sie eine Länge von 140 Zeichen nicht überschreiten dürfen. Das entspricht exakt einem Satz wie: „Mit 140 Zeichen, auf elegante Art und Weise, wie hier, nichts zu sagen, muss eine kulturelle Leistung von ziemlich unabschätzbarem Wert sein“ (eine Definition aus PONS Twitter, und exakt 140 Zeichen). In diesen 140 Zeichen können private Erlebnisse, spontane Meinungsäußerungen, fundierte Lebensweisheiten, medizinische Ratschläge, aktuelle Nachrichten, Gerüchte über Promis oder Veranstaltungsankündigungen (vgl. Event und Flash mob) verbreitet werden. Der Tweet eines Twitterers geht zunächst an all diejenige, die diesem Benutzer „folgen“, also seine Nachrichten abonniert haben (seine followers), Wenn man eine erhaltene Nachricht dann selbst weiterleitet, um so für ihre schnellere Verbreitung zu sorgen, ist dies ein ReTweet. Um die Orientierung im weltweiten Gezwitscher einfacher zu machen, kann man den Tweet auch mit einem Schlagwort, dem Hashtag, in Form eines Doppelkreuzes einleiten: „#Wörterbuch: Wenn beim Twittern tatsächlich hörbares Geschnatter erzeugt würde, trügen alle Gänse der Welt längst einen Gehörschutz“ (133 Zeichen; und: Entschuldigung an die Gänse!).
Twitter wurde 2006 von einer kalifornischen Firma zur Verbesserung der internen Kommunikation entwickelt und gewann schon im März 2007 einen Preis für den besten „Blog“ (Abkürzung für Web Log, Tagebuch im Internet). Der Erfinder bedankte sich mit dem Satz: „Wir würden uns gern mit 140 Zeichen oder weniger bedanken. Was wir hiermit getan haben!“ (im Deutschen sogar nur 89 Zeichen). Der Internet-Dienst wuchs kontinuierlich und entwickelte weitere Sprachversionen. Längst haben nicht nur Popstars, sondern auch Politiker den popularitätssteigernden Wert von Tweets entdeckt („#Wahlkampf: Wer braucht schon mehr als 140 Zeichen für eine politische Botschaft? Ich twittere, also bin ich wählbar!“ – ganze 117 Zeichen, wahlweise in schwarz, gelb, rot oder grün). Die meisten Follower haben regelmäßig Teenie-Stars wie Lady Gaga oder Justin Bieber; immerhin kann sich Barack Obama mit knapp sieben Millionen recht konstant unter den Top Ten halten (aber halb so viel kann beispielsweise auch Paris Hilton aufweisen: „#Celebrity: Ich habe wirklich nichts zu sagen, aber ist meine neue Handtasche nicht spannender als Barack Obamas Haltung zur Nahostfrage?“ – fiktiv, 137 Zeichen, und schon zu lang für das, was gesagt wird).
Der altehrwürdige Vorläufer des intergalaktischen Gezwitschers ist der Aphorismus (von griech. aphorismos, genau bestimmen, abgrenzen): „Ein Aphorismus ist etwas, was dem Schreibenden einen Essay als Kommentar erspart, den Lesenden jedoch infolgedessen aufs höchste schockiert“ (exakt 140 Zeichen, als hätte der österreichische Dichter Peter Altenberg es gewusst, als er diese launige Definition verfasste!). Tatsächlich darf der klassische Aphorismus natürlich länger als 140 Zeichen sein; seine zugespitzte, auf eine Pointe haarscharf zulaufende Kürze ist jedoch sein besonderes Markenzeichen – neben seinem gedanklichen Gehalt allerdings, der ja gerade kein Merkmal eines ordentlichen Dahingezwitschers sein muss („Erkältet. Mache mir warmes Bier mit Honig. Allerdings kein Honig da. Und das Bier ist kalt. Aber ich werde diese bittere Pille schlucken!“  anonym aus dem Internet gefischt und mit wiederum exakt 140 Zeichen ein Volltreffer in Sachen Lebensweisheit). Tatsächlich haben die ersten Aphorismen sogar einen konkreten medizinischen Hintergrund: Der griechische Arzt Hippokrates entwickelte kurze Lehrsprüche, in denen er seine Lehre konzentrierte. Als Lehrform – die Formeln war dabei vom Lehrenden in der Vorlesung durch einen freien Vortrag zu ergänzen – hielten sich die Aphorismen bis ins 18. Jahrhundert. Daneben gibt es aber seit dem 17. Jahrhundert auch den philosophischen Aphorismus, der einen geistreichen Gedanken in eine überzeugende, persönlich geprägte Formulierung bringt. Meister dieser Kleinform waren die französischen Moralisten („#Moral: Moralische Lehren können gar nicht kurz genug sein“ – dafür reichen mal eben 58 Zeichen!), in Deutschland wurde im 18. Jahrhundert Georg Christoph Lichtenberg zu dessen Großmeister: „Der Gedanke hat in dem Ausdruck noch zuviel Spielraum; ich habe mit dem Stockknopf hingewiesen, wo ich mit der Nadelspitze hätte hinweisen sollen“ (der Mann hat recht, es sind 145 Zeichen!).
In der Philosophie hat Kürze prinzipiell einen guten Ruf; so befindet bereits Lukrez in seinem (allerdings sechs Bücher langen) Lehrgedicht de rerum natura: „Nein, es ist besser in Kürze mit wenigem viel zu umspannen“ (58 Zeichen, und damit noch unter dem folgenden biblischen Rekord). Und auch in der Bibel heißt es bereits, mit einem Muster an Lakonik: „eure Rede aber sei: Ja, ja; nein, nein. Was darüber ist, das ist vom Übel“ (Jakobus 5, 12, und mit nur 73 Zeichen wahrlich knapp gezwitschert). Die Bezeichnung für die steinerne Kürze ist übrigens von den wortkargen Spartanern abgeleitet, die die antike Region der Landschaft Lakonien auf dem Peloponnes bewohnten (dazu ein antiker Twitter, abgesetzt nach der Niederlage vom Spartaner Kyzikos: „Boote verloren. Mindaros tot. Männer haben Hunger. Wissen nicht, was tun“ – 72 Zeichen in der deutschen Fassung; für das griechische Alphabet gibt es bis heute wahrscheinlich noch keine Twitter-Version).
In der antiken Rhetorik gibt es ein eigenes Wort, um die lobenswerte Eigenschaft der Kürze zu bezeichnen: Es ist die brevitas, für den Leittheoretiker Quintilian eine der fünf „Tugenden“ des Redners schlechthin, die nicht nur dafür sorgen soll, dass die Hörer sich nicht zu Tode langweilen, sondern durch Prägnanz auch bessere Verständlichkeit gewährleisten. Über die Gewichtigkeit des Inhalts ist damit noch nichts gesagt; und ein doch eher dem Ideal der Ausführlichkeit und systematischen Vollständigkeit verpflichteter philosophischer Großautor wie Hegel wäre angesichts der meisten Tweets da wohl eher skeptisch gewesen: „Wenn in dem Charakter der ausgezeichneten Individuen einer Periode sich der allgemeine Geist einer Zeit überhaupt abdrückt und auch ihre Partikularitäten die entfernteren und trüberen Medien sind, in welchen er noch in geschwächten Farben spielt, sogar oft Einzelheiten eines kleinen Ereignisses, eines Wortes nicht eine subjektive Besonderheit, sondern eine Zeit, Volk, Bildung in schlagender Anschaulichkeit und Kürze aussprechen, dergleichen auszuwählen nur die Sache eines geistreichen Geschichtsschreibers ist, so ist dagegen die Masse der sonstigen Einzelheiten eine überflüssige Masse, durch deren getreue Aufsammlung die der Geschichte würdigen Gegenstände gedrückt und verdunkelt werden; die wesentliche Charakteristik des Geistes und seiner Zeit ist immer in den großen Begebenheiten enthalten“ (alles klar? 830 Zeichen, hier die Kurzfassung: „Manche Tweets sind kurz und charakteristisch, die meisten allerdings sind kurz und belanglos und verhindern den Blick auf das wirklich Große“ = exakt 140 Zeichen!).
Ausführlich mit der „Sprachkürze“ hat sich auch Jean Paul in seiner Vorschule der Ästhetik befasst. Als Theoretiker des Witzes, einer exemplarischen Kurzform, befand er: „Kürze ist der Körper und die Seele des Witzes“ (45 Zeichen, ein neuer Knappheitsrekord). Dabei unterscheidet er verschiedene Arten der Kürze: Die erste, sozusagen natürliche Variante ist die Kürze des „Wilden“ und des „Kindes“, aber auch des „Landmannes“ und des „Bürgers“: Sie alle sprechen mehr zur Sache denn zum Schmucke, sie „ordnen die Darstellung dem Gegenstande unter und machen ungern Worte“. Gern ins Weite schweift demgegenüber der „Gebildete“, „welcher, weniger vom Gegenstande getroffen und überwältigt, sich freier und länger den Worten überläßt“ (die Hörer akademischer Vorträge werden leidgeprüft nicken und sich eine Twitter-Fassung so mancher Vorlesung wünschen). Daneben gibt es allerdings auch eine zweite, sozusagen elaborierte Version der Kürze, die eine erlernte Kunstfertigkeit ist und für die man am besten bei den römischen Rednern und Geschichtsschreibern in die Lehre geht. Sie vereint die sprachliche Kunstfertigkeit mit der Sachorientierung, ist aber leider, so Jean Paul, den Deutschen am wenigsten von allen gegeben: „Der Deutsche näht gern jeden Gedanken in ein zierliches Schleppkleid ein, und ihr zieht gern als Schleppenträger hinterher“ (122 Zeichen, und ein hübsches Bild eines unfreiwilligen Followers gratis dazu). Da jedoch, so Jean Paul in einer originellen mathematischen Konstruktion, die Zahl der jeweils gedachten Gedanken pro Zeiteinheit eigentlich immer gleich ist, ihre sprachliche Vermittlung jedoch unterschiedlich umfangreich ausfallen kann, wird Kürze meist als reizvoller empfunden, nämlich „dadurch, daß sie uns statt der grammatisch leeren Gedanken sofort den wichtigern vorführt und uns mit einem Regenbache trifft statt mit dem Staubregen“ (leider schon zu lang durch die grammatisch komplizierte Konstruktion: 159 Zeichen, mittlerer Landregen, um im Bilde zu bleiben).
Ein kulturkritischer Einwand gegen Twitter könnte natürlich sein, dass der Leser auf 140-Zeichen-Sätze abgerichtet wird, ab dem 141. Zeichen gewohnheitsmäßig den Verstand abschaltet und damit jeglichen komplizierteren Satzbau, der dann und wann ja auch einen komplizierteren Gedanken transportieren mag, der sich eben nicht in 140 Zeichen mitteilen lässt, unmöglich, weil unverständlich macht (336 Zeichen, aber noch eine recht einfache grammatische Konstruktion mit Relativsätzen und Einschüben). Aber schon Nietzsche hat darauf hingewiesen, dass Kürze allein noch nicht leichte Verdaulichkeit garantiert und schnelles Lesen nicht gleich schnellem Verständnis ist: „In andern Fällen macht die aphoristische Form Schwierigkeit: sie liegt darin, daß man diese Form heute nicht schwer genug nimmt. Ein Aphorismus, rechtschaffen geprägt und ausgegossen, ist damit, daß er abgelesen ist, noch nicht ‚entziffert‘“. Zur Tiefenentzifferung jedoch müsse man nicht nur lesen können, ja mehr noch, das Lesen als Kunst eingeübt haben; man müsse vielmehr, „beinahe Kuh und jedenfalls nicht ‚moderner Mensch‘ sein“; man müsse „Wiederkäuen“. Deshalb also kehre der folgsame Leser zum Anfang des Artikels zurück (siehe auch Monopoly): „Twitter, (aus engl. „to twitter“ : zwitschern, schnattern) Nachrichtenmedium im Internet, eine Mischung zwischen Sozialem Netzwerk und öffentlichem Tagebuch (vgl. Blog). Über Twitter können angemeldete Nutzer kurze Textnachrichten von einer Länge bis zu 140 Zeichen im Internet verbreitet werden; das entspricht exakt einem Satz wie: „Mit 140 Zeichen, auf elegante Art und Weise, wie hier, nichts zu sagen, muss eine kulturelle Leistung von ziemlich unabschätzbarem Wert sein“ (eine Definition aus PONS Twitter, exakt 140 Zeichen).“ Und so weiter gezwitschert…
          
UMFRAGE, Erhebung und statistische Auswertung von Meinungen eines repräsentativen Querschnitts der Bevölkerung zu einem bestimmten Thema (auch: Demoskopie, von griech. demos: Volk, und skopein: spähen). Meinungsumfragen werden persönlich, schriftlich, am Telefon oder über das Internet mittels eines Fragebogens durchgeführt. Sie sollen die „öffentliche Meinung“ entweder über einen längeren Zeitraum (Längsschnittstudien) oder punktuell zu einem bestimmten Zeitpunkt (Querschnittstudien) dokumentieren. Dazu bedienen sie sich etablierter Methoden der empirischen Sozialforschung und der mathematischen Statistik. Bereits die erste überlieferte Meinungsumfrage war eine Variante der bis heute beliebten „Sonntagsfrage“: 1824 wollte eine Lokalzeitung im amerikanischen Harrisburg von ihren Lesern wissen, wer die anstehende Wahl zum Präsidenten der Vereinigten Staaten gewinnen würde. Die Methodik wurde im Laufe der Zeit vor allem durch George Gallup weiterentwickelt; noch heute ist eines der weltweit größten professionellen Meinungsforschungsinstitute nach ihm benannt, in Deutschland galt lange Zeit Elisabeth Noelle-Neumann (Institut für Demoskopie Allensbach) als Mutter der Meinungsforschung.
Ein wichtiges Anwendungsgebiet ist neben der Politik inzwischen die wirtschaftliche Marktforschung im engeren Sinn (vgl. Marketing): Keine neue Zahnpasta kommt mehr auf den Markt, ohne dass zuvor die Einstellungen der Verbraucher zu Farbe, Verpackung, Größe der Tube, Konsistenz und Geschmack und vor allem Markenimage (siehe auch Design) eingehend erforscht wurden. Zunehmend problematisch hingegen erscheint, dass die Politik sich diesem Trend anpasst und ihre Kandidaten mehr nach den Präferenzen der öffentlichen Meinung über Frisur, Sex Appeal, Kleidungs- und Lebensgewohnheiten, Kommunikationsstil und Markenpräferenzen als nach altmodischen Kategorien wie Sachkompetenz, Vertrauenswürdigkeit oder gar politischen Überzeugungen auswählt.
Meinungsumfragen gehören zweifellos nicht zum Methodenarsenal der traditionellen Philosophie („Wenn Sie nächsten Sonntag den neuen deutschen Leitphilosophen wählen sollten, wem würden Sie Ihre Stimme geben? A) Peter Sloterdijk; B) Richard David Precht; C) dem Papst; D) Hape Kerkeling?“). Das mag mit der Geringschätzung von Mehrheit als genuin philosophischem Wert zusammenhängen; Philosophen sind zudem zumeist Einzelkämpfer, vertreten intellektualistische Minderheitenpositionen und gründen keine Parteien, sondern allenfalls Schulen. Vor allem jedoch verachten sie traditionell dasjenige, was nun einmal im Zentrum jeder Meinungsumfrage steht, die persönliche Meinung nämlich im Allgemeinen und das Konstrukt der „öffentlichen Meinung“ im Besonderen. Das beginnt schon, wie so oft, bei Platon, der seinen Sokrates den unwissenden Kriton über den Wert philosophischer Expertenmeinungen belehren lässt: „Nämlich doch die guten Meinungen soll man ehren, die schlechten nicht?“ – Natürlich, gibt Kriton zu. – „Und die guten, sind das nicht die der Vernünftigen, die schlechten aber die der Unvernünftigen?“ – Wie anders, nickt Kriton brav. – Wie jedoch unterscheidet man die vernünftigen von unvernünftigen Meinungen?
Das wüssten auch die Meinungsforscher gern. Immerhin entwickelt Platon in der Politeia ein recht modern wirkendes, graduelles Modell der Unterscheidung von Wahrheitsansprüchen. Zunächst werden subjektive Meinungen ein- für allemal als haltlos erklärt: „Hast du dir denn von den Meinungen ohne Wissenschaftlichkeit noch nicht gemerkt, wie verabscheuenswert sie alle sind? Denn die besten davon sind blind. Oder scheinen dir die, welche ohne wissenschaftliche Vernunft einmal durch bloßes Meinen eine Wahrheit ertappen, von Blinden sich zu unterscheiden, die einmal auf dem richtigen Pfade wandeln?“ Wissenschaftlichkeit, genaue Kenntnis desjenigen, über das geurteilt wird, ist also das Hauptkriterium; sie allein bezieht sich auf das wahre Sein der Dinge, ihren ideellen Wert, nicht auf den äußeren sinnlichen Schein wie das bloße Meinen: „Es genügt also“, so der platonische Sprecher weiter, „den ersten und obersten Abschnitt des Erkennens Wissenschaft zu nennen, den zweiten Verstandeseinsicht, den dritten Glauben an die Sinne, den vierten bloßen Schein von Wahrheit, und einerseits die beiden letzten zusammen Meinung, andererseits die ersten zusammen Vernunfteinsicht; dabei bezieht sich Meinung auf das wandelbare Werden, Vernunfteinsicht auf das unwandelbare Sein, so daß wie Sein zum Werden, so Vernunfteinsicht zu Meinung, und wie Wissenschaft zu Glauben an die Sinne, so Verstandeseinsicht zu Scheinwissen sich verhält“. Meinungsumfragen können demnach nur „Scheinwissen“, bloßes Meinen, wandelbare Momentaufnahmen geben; das platonische Ideenreich ist Meinungsumfragen eben so wenig zugänglich wie andere rein geistige Konstrukte (Was ist eine Idee? A) ein nicht sichtbares ideales Urbild alles Seienden; B) eine Investition in geistiges Eigentum; C) meist etwas Schlechtes; D) keine Ahnung, habe noch nie eine gehabt“).
Wissenschaft als Gegenentwurf zum bloßen Meinen ist jedoch nach Platon nicht einfach einseitiges Spezialistentum, sondern vernunftgeleitete Erkenntnis nach Prinzipien, eine Art philosophischer Sachkunde. Was jedoch soll der philosophische Laie tun, wenn es auf seine allzu persönliche Meinung nicht ankommt? Kann er sich einfach auf die Experten verlassen und deren güldenen Erkenntnisse in die kleine Alltagsmünze einer bescheidenen, aber begründeten Meinung umsetzen? Gegen diese traditionelle Zuschreibung von „Autorität“ an die Besserwissenden setzen sich die Empiristen des 18. Jahrhunderts im Zuge der Aufklärung jedoch strikt zur Wehr. Um sich über den „Almosenkorb“ und den „Brosamen erbettelter Meinungen“ zu erheben, hilft für John Locke nur die strikte Verpflichtung zum Selbstdenken: „Es ist ebenso verkehrt, mit Anderer Augen sehen, wie mittelst Anderer Verstände erkennen zu wollen. Nur so weit man selbst betrachtet und selbst die Wahrheit und Vernunft auffasst, besitzt man eine wahre und wirkliche Erkenntniss. Wenn Anderer Meinungen in unserm Gehirn umherziehen, so macht uns dies um kein Jota klüger, selbst, wenn sie wahr sind. Was bei Jenen Wissenschaft ist, ist dann bei uns nur ein Meinen; man giebt die Zustimmung dann nur berühmten Namen, aber gebraucht nicht, wie Jene, seine Vernunft, um diese Wahrheiten, welche Jene berühmt gemacht haben, zu verstehen“. Fremde Autorität oder auch Stimmenmehrheit sind also niemals ein hinreichender Grund dafür, eine fremde Meinung zu übernehmen, auch wenn es sich bei den Meinungsvertretern um „ehrlich, oder gelehrte, oder zahlreiche Personen“ handelt; denn wer könne garantieren, dass es wirklich die Wahrheit und nichts als die Wahrheit sei, „welche berühmte und gelehrte Männer und die Führer der Partei“ bestimmen? Ein Trost bei all dem ist nur, so Locke mit einem gewissen Pragmatismus der Erfahrung, dass die Mehrheit der Menschen eigentlich überhaupt keine Meinungen hat, sondern den politischen Ideologen oder den religiösen Sektenführern genauso blind folge wie einem Feldherren, der ja schließlich auch nicht vor jedem Manöver in der Schlacht eine Meinungsumfrage durchführen könne („Sollen wir die Römer angreifen? A) von vorn; B) von den Seiten; C) nur diejenigen, die Lust dazu haben; D) lieber erst morgen?“).
Ein weiteres verbreitetes philosophisches Argument gegen das bloße Meinen ist im Übrigen die schon von Platon beklagte Wankelmütigkeit der Menschen: Heute meint man das, morgen jenes, und übermorgen hat man schon vergessen, dass man überhaupt jemals eine Meinung wozu auch immer hatte. In diesem Zusammenhang macht Gottfried Wilhelm Leibniz einen interessanten Vorschlag: Eigentlich genüge es ja, wenn man eine Sache einmal „aufrichtig und sorgfältig durchdacht und sozusagen die Rechnung gezogen habe“; dann habe man nämlich keine bloße Meinung mehr, sondern eine gegründete Vernunfteinsicht. Die Erfahrung zeige allerdings, dass gewöhnlich „diejenigen, welche ihre Meinung am wenigsten geprüft haben, denselben am meisten zugetan sind“. Und selbst diejenigen, die guten Willens sind, hätten häufig einfach nicht die Zeit und das Geld und den Überblick (vgl. Burn-out); „die Sorge für unseren Lebensunterhalt und unsere wichtigsten Interessen leidet indessen keinen Aufschub“. Deshalb, nun der konstruktive Vorschlag von Leibniz: „Indessen wäre es zu wünschen, daß die Menschen in manchen Fällen schriftliche Entwürfe (in Form von Gedächtnisbüchern) der Gründe besäßen, welche sie zu irgend einer bedeutsamen Ansicht veranlaßt haben, und welche sie in der Folge noch oft vor sich oder anderen zu rechtfertigen genötigt sind“. Da könnte leicht eine ganze Bibliothek zusammen kommen, besonders bei den Deutschen, die nach Johann Gottlieb Fichte eine Art Meinungsbildungs-Weltmeister sind: „Tiefer unter uns eingewurzelt, fast zur andern Natur geworden, und das Gegentheil beinahe unerhört, war unter den Deutschen die Sitte, dass man alles, was auf die Bahn gebracht wurde, betrachtete als eine Aufforderung an jeden, der einen Mund hätte, nur geschwind und auf der Stelle sein Wort auch dazuzugeben und uns zu berichten, ob er auch derselben Meinung sey, oder nicht; nach welcher Abstimmung denn die ganze Sache vorbei sey, und das öffentliche Gespräch zu einem neuen Gegenstande eilen müsse“. Die Katastrophe von heute ist der Schnee von gestern; aber gemeint wird fröhlich weiter, sei es zur globalen Erwärmung, dem radioaktiven Fall-Out, der Weltrevolution oder auch nur zur Modefarbe für den nächsten Sommer, den soeben frisch gekürten Superstar (vgl. Casting), das neue Outfit von Paris Hilton (vgl. It-Girl).
Meinungen sind jedoch nicht nur von Übel, weil sie das Selbstdenken behindern, die richtige Erkenntnis herabwürdigen und nicht die gleiche Standfestigkeit wie eine selbst durchdachte und im Gedächtnisbuch notierte Überzeugung aufweisen, sondern insbesondere im Blick auf das Leben selbst. Schon der frühe Lebenshilfe-Philosoph Epiktet befand unter dem vielversprechenden Titel „Der schrecklichste der Schrecken“: „Nicht die Dinge selbst, sondern die Meinungen von den Dingen beunruhigen die Menschen. So ist z. B. der Tod nichts Schreckliches, sonst wäre er auch dem Sokrates so erschienen; sondern die Meinung von dem Tod, daß er etwas Schreckliches sei, das ist das Schreckliche“ (Handbüchlein der stoischen Moral). Der Tod hat tatsächlich einen schlechten Ruf in der öffentlichen Meinung („Wollen Sie lieber A) sterben, B) weiterleben, C) keines von beiden, D) darüber diskutieren?“); dem konnte auch das sokratische Beispiel allein kaum abhelfen. Die Inkarnation der bloßen Meinung jedoch, die sozusagen allgemeinteste aller Meinungen, ist für den Philosophen die „öffentliche Meinung“ mit ihrer inzwischen medial ins schier Unendliche gesteigerten Willkür, die heute Helden aus dem Nichts des Alltags kürt, um sie morgen im Dschungel-Camp zu verbrauchen (siehe auch Reality TV, Hype). Arthur Schopenhauer wies in diesem Zusammenhang bereits auf die unheilvolle Komplizenschaft von Möchtegern-Helden und der Meinungsmacherbranche hin: „Während jeder sich schämen würde, in einem geborgten Rock, Hut oder Mantel umherzugehn, haben sie Alle keine andern, als geborgte Meinungen, die sie begierig aufraffen, wo sie ihrer habhaft werden, und dann, sie für eigen ausgebend, damit herumstolziren. Andere borgen sie wieder von ihnen und machen es damit eben so. Dies erklärt die schnelle und weite Verbreitung der Irrthümer, wie auch den Ruhm des Schlechten: denn die Meinungsverleiher von Profession, also Journalisten u. dgl., geben in der Regel nur falsche Waare aus, wie die Ausleiher der Maskenanzüge nur falsche Juwelen“. Gegen die Herrschaft der „öffentlich meinenden Scheinmenschen“ helfe, so auch Nietzsche, letztlich nur die gezielte geistige wie körperliche Absonderung des Philosophen vom „Geschlecht der öffentlich Meinenden“ nach dem Muster seines Zarathustra („Wer ist ihr philosophisches Ideal? A) Sokrates; B) Kant; C) Zarathustra; D) Bernd das Brot?“)  sei es in die Einsamkeit der Berge, auf den Pilgerweg oder vielleicht doch nur in die handy-freie Zone eines ICE der Deutschen Bahn?
Gleichwohl könnte die Philosophie vielleicht doch einiges von den Meinungsforschern lernen, deren Prognosen in vielen Fällen der Realität ganz erstaunlich nahekommen; als „Schwarm“ (vgl. Schwarm-Intelligenz) sind die Menschen offensichtlich berechenbarer, als sie gemeinhin meinen und als ihnen lieb ist. Die vielgeschätzte Individualität hingegen, gerade im Blick auf die „ganz persönlichen“ Meinungen, entblößt sich bei genauerem Hinschauen häufig als die von Schopenhauer diagnostizierte Leih-Identität, zumal im Zeitalter globalisierter Informationsströme und breit diversifizierter Meinungsangebote (siehe auch Netzwerke, soziale und Twitter). Hätte Schopenhauer allerdings auch Recht mit seiner Vermutung über den eigentlichen Grund dieses immerwährenden Karnevals der Meinungen, läge hier die eigentliche Aufgabe für eine zeitgemäße Philosophie der nimmer endenden Aufklärung: „Bei den meisten Menschen ist die Urtheilskraft bloß nominell vorhanden; es ist eine Art Ironie, daß man sie den normalen Geisteskräften beizählt, statt sie allein den monstris per excessum zuzuschreiben“. Oder ist das vielleicht doch nur eine persönliche Meinung, gesteuert von Schopenhauers unbestreitbarem sehr persönlichem Geltungsdrang, der ihm hier den Blick auf die Wahrheit verstellt? Machen wir doch einfach eine Umfrage, diesmal vielleicht nach einem anderen beliebten Muster: „Wie oft praktizieren Sie durchschnittlich Ihre Urteilskraft, allein oder mit anderen? A) regelmäßig; B) selten; C) nur unter dem Schutz der öffentlichen Meinung; D) bin philosophisch abstinent“?
          
VISUALISIERUNG, (von lat. videre: sehen) das Sichtbarmachen von abstrakten Daten, Sachverhalten oder Zusammenhängen, indem man sie in eine optisch erfassbare Form bringt (zum Beispiel als Fotos, Filme, Grafiken, Diagramme, Tabellen, Modelle, Simulationen). Visualisierung kann sich auf reine Abbildungs- oder Illustrationsfunktionen beschränken; sie kann auch für Modellierungs- und Konstruktionszwecke eingesetzt werden (z. B. CAD-Programme). Häufig ist eine Übersetzung oder Deutung der darzustellenden Daten mit ihrer visuellen Umsetzung verbunden: Indem bestimmte Zusammenhänge hervorgehoben, einzelne Elemente weggelassen oder die Daten bearbeitet werden, entsteht ein selektives und auf das Wesentliche reduziertes Bild eines ursprünglich komplexen und vollständigen Sachverhaltes; indem bestimmte Verfahren der Darstellung ausgewählt werden (z. B. eine Einfärbung), wird eine Deutung für den Betrachter nahegelegt. Visualisierungsverfahren können deshalb auch gut zu Manipulationszwecken eingesetzt werden: Bilder wirken schneller und direkter als umständliche, womöglich differenzierte und immer missverständliche sprachliche Äußerungen. Deshalb finden sie vor allem Anwendung in der PR- und Öffentlichkeitsarbeit, beim Marketing, für Produktpräsentationen (vgl. Powerpoint). Aber auch die gesamte Wahrnehmung der Politik ist durch die immer leichtere Verfügbarkeit und die technischen Vervielfältigungs- (wie Manipulations!-) Möglichkeiten von Bildmaterial stark verändert worden; „Bildmedien“ sind heutzutage beinahe alle Print- und Internet-Medien bis auf das gute alte Radio. Und auch in der Didaktik verzichtet kaum ein Lehrer, sei es an der bodenständigen Grund- oder der exzellenten Hochschule (siehe auch Leuchtturm), auf die einprägsamen und verständnisfördernden Wirkungen bunter Bilder.
Eher technischen Zwecken im engeren Sinne hingegen dienen „bildgebende Verfahren“. Dabei werden physikalische Daten – wie sie zum Beispiel bei medizinischen Untersuchungen in großen Mengen anfallen – ausgewertet, anschließend in Form von Helligkeitswerten oder Falschfarben codiert und damit wichtige Zusammenhänge sichtbar gemacht. Bildgebende Verfahren werden überall dort angewendet, wo die menschliche Wahrnehmung sich als defizient erweist – Dinge also entweder zu klein sind (das Mikroskop) oder zu groß und zu weit entfernt (das Fernrohr, das Teleskop) oder zu komplex (das MRT). Sie sind damit sozusagen die technische Lösung zur „Reduktion von Komplexität“ (nach dem Soziologen Niklas Luhmann das Weltproblem des modernen Menschen schlechthin): Was in eine übersichtliche farbige Darstellung übersetzt werden kann, ist schon fast verstanden und auf jeden Fall besser technisch beherrschbar (Luhmann hingegen hat auf eine Bebilderung seiner hochkomplexen systematischen Gesellschaftsanalyse leider verzichtet).
Die Philosophie hingegen war von ihren Anfängen an eine eher bilderfeindliche Wissenschaft („du sollst dir kein Bild machen von meiner Philosophie!“, könnte eine ihrer heimlichen Maximen lauten). Bis heute entzieht sie sich weitgehend dem allgegenwärtigen Zwang zum Bild, auch wenn Vorträge auf Philosophenkongressen inzwischen dem Powerpoint-Standard gemäß immergleiche bärtige Philosophen-Porträts neben mehr oder weniger unverständliche Texte stellen. So sind die platonischen Ideen zwar „Urbilder“, aber gerade dadurch definiert, dass sie dem sinnlichen Auge nicht sichtbar sind; allerdings könnte man immerhin Platons berühmte Gleichnisse als eine Art sprachlichen Visualisierungsversuch verstehen, auch wenn sie nicht immer zur größeren Deutlichkeit seiner Philosophie beigetragen haben. Ähnliches gilt für alle mystischen Erscheinungen religiöser oder sonstiger Visionäre über die Jahrhunderte hinweg, die zwar zumeist diffusen Bildcharakter haben, aber leider sprachlich nicht kommuniziert, sondern nur erlebt werden können; bezeichnenderweise taucht der Terminus „bildgebend“ das erste Mal in der Vita das Mystikers Heinrich Seuse zu Beginn des 13. Jahrhunderts auf.
Als philosophische Schwundform der Visualisierung, ihr innerliches Wahrnehmungs-Äquivalent sozusagen, könnte man allenfalls die „Anschauung“ bzw. die „Anschaulichkeit“ betrachten. Für den Empiristen John Locke ist immerhin das unmittelbar anschauliche Wissen an Klarheit durch nichts zu überbieten: „Denn beobachtet man sein eigenes Denken, so bemerkt man, dass die Seele diese Uebereinstimmung zweier Vorstellungen manchmal unmittelbar durch diese selbst erfasst, ohne dass eine dritte dabei vermittelt; dies kann man das anschauliche Wissen nennen. Hier braucht sich die Seele nicht mit Beweisen und Prüfen zu bemühen, sondern sie erkennt die Wahrheit, wie das Auge das Licht, blos dadurch, dass sie darauf sich richtet. In dieser Weise weiss die Seele, dass schwarz nicht weiss ist, dass ein Kreis kein Dreieck ist, dass drei mehr als zwei sind, und dass drei gleich ist zweien und eins. Solche Wahrheiten erfasst die Seele bei dem ersten Ueberblick der Vorstellungen, durch reines Anschauen, ohne Zwischenkunft einer andern Vorstellung; es ist das klarste und sicherste Wissen, dessen wir schwache Menschen fähig sind“. Leider haben jedoch nur einige wenige und eher einfach gestrickte Wahrheiten diese besondere Evidenz, die Locke wohl nicht zufällig mit der Bedeutung des Lichtes für das menschliche Sehen vergleicht: „Es werde Licht“ ist insofern eine Grundformel der Visualisierung.
Ein besonders weit getriebenes Modell der Anschauung hat die Philosophie des deutschen Idealismus vorgelegt. Sie wollte die anschauliche Erkennbarkeit nicht nur auf sinnlich gegebene Gegenstände begrenzt sehen, sondern auch auf das „Absolute“ ausdehnen (eines engen Verwandten der platonischen Ideen); diese Forderung war strategisch nötig, um der eigenen Philosophie den gleichen Geltungsanspruch wie einer Religion zu verschaffen. Friedrich Wilhelm Joseph Schelling bedauert deshalb: „Ich wünschte mir Platons Sprache oder die seines Geistesverwandten, Jacobis, [eines zeitgenössischen idealistischen Philosophen] um das absolute, unwandelbare Sein von jeder bedingten, wandelbaren Existenz unterscheiden zu können. Aber ich sehe, daß diese Männer selbst, wenn sie vom Unwandelbaren, Übersinnlichen sprechen wollten, mit ihrer Sprache kämpften – und ich denke, daß jenes Absolute in uns durch kein bloßes Wort einer menschlichen Sprache gefesselt wird, und daß nur selbsterrungenes Anschauen des Intellektualen in uns dem Stückwerk unsrer Sprache zu Hilfe kommt“. „Intellektuale Anschauung“ ist der Zauberbegriff für Schelling wie für Fichte; für Kant wie die meisten anderen Philosophen ist das aber leider ein Widerspruch in sich selbst und letztlich eine Form von Wunschdenken: Das absolut gesetzte Ich möchte mit aller Gewalt zugleich sinnlich und übersinnlich erfahrbar sein und damit der Vergänglichkeit alles Nur-Sinnlichen enthoben werden. Ein bildgebendes Verfahren dafür wurde bisher abseits der Esoterik (die sehr von der Visualisierung des Übersinnlichen lebt) noch nicht entwickelt.
Erst mit den revolutionären technischen Entdeckungen und wissenschaftlichen Erfindungen des 19. Jahrhunderts wächst auch in der Philosophie ein Bewusstsein für die erweiterten Erkenntnismöglichkeiten durch gezielte Visualisierung. Der Wiener Mediziner und Philosoph Ernst Mach reflektiert die Anschauung ganz neu im Blick auf den technischen Fortschritt seiner Zeit: „Die Anschauung ist organisch älter und stärker fundiert, als das begriffliche Denken. Wir übersehen mit einem Blick die Plastik eines Terrains, bewegen uns ohne weiteres dem entsprechend, weichen einem rollenden Stein aus, reichen einem fallenden Gefährten die Hand, ergreifen einen uns interessierenden Gegenstand, ohne daß wir nötig haben, dies alles zu überlegen. An dem Anschaulichen entwickeln sich die ersten klaren Vorstellungen, die ersten Begriffe, das erste Denken. Wo es also immer möglich ist, das begriffliche Denken durch die Anschauung zu stärken, da wird dies mit Vorteil geschehen.“ Diese Möglichkeit sieht Mach nun vor allem in den bildgebenden Verfahren seiner Zeit gegeben: „Die graphischen Künste, insbesondere die Photographie und Stereoskopie ermöglichen heute einen Reichtum von Anschauungen zu gewinnen, welcher vor einem halben Jahrhundert nur mit dem größten Aufwand zu erlangen war. Ferne Länder, deren Völkertypen und Architekturen, Scenen des tropischen Urwaldes und der eisigen Polargegenden treten mit gleicher Lebendigkeit vor unsere Augen. Die Farbenphotographie, der Kinematograph werden die Natürlichkeit noch steigern und der Phonograph wird auf akustischem Gebiete mit seinen optischen Vorbildern wetteifern. Die Wissenschaft hat auch die Mittel gefunden, Objekte, welche der natürlichen Anschauung unzugänglich sind, dennoch in das Gebiet derselben zu ziehen“. Allerdings, so Mach, sei es auch mit noch so guter Technik allein nicht getan; der Forscher benötige, ebenso wie der Künstler, auch eine ausgebildete Phantasie, um in „genialen Anordnungen“ die entscheidenden Experimente zu imaginieren und ihre Ergebnisse zu visualisieren; ein technisch noch so gutes Abbild allein macht noch keine neue Erkenntnis.
Georg Wilhelm Friedrich Hegel hingegen hielt weiterhin mit aller Kraft am Begriff als Zentralmedium für die Philosophie fest, wohingegen er den „Schematismus“ und „Formalismus“ der sinnlichen Anschauung und des „tabellarischen Verstandes“ in seiner Phänomenologie des Geistes aufs schärfste verurteilt: „Das Instrument dieses gleichtönigen Formalismus ist nicht schwerer zu handhaben als die Palette eines Malers, auf der sich nur zwei Farben befinden würden, etwa Rot und Grün, um mit jener eine Fläche anzufärben, wenn ein historisches Stück, mit dieser, wenn eine Landschaft verlangt wäre. – Es würde schwer zu entscheiden sein, was dabei größer ist, die Behaglichkeit, mit der alles, was im Himmel, auf Erden und unter der Erden ist, mit solcher Farbenbrühe angetüncht wird, oder die Einbildung auf die Vortrefflichkeit dieses Universalmittels; die eine unterstützt die andere. Was diese Methode, allem Himmlischen und Irdischen, allen natürlichen und geistigen Gestalten die paar Bestimmungen des allgemeinen Schemas aufzukleben und auf diese Weise alles einzurangieren, hervorbringt, ist nichts Geringeres als ein sonnenklarer Bericht über den Organismus des Universums, nämlich eine Tabelle, die einem Skelette mit angeklebten Zettelchen oder den Reihen verschlossener Büchsen mit ihren aufgehefteten Etiketten in einer Gewürzkrämerbude gleicht, die so deutlich als das eine und das andere ist und die, wie dort von den Knochen Fleisch und Blut weggenommen, hier aber die eben auch nicht lebendige Sache in den Büchsen verborgen ist, auch das lebendige Wesen der Sache weggelassen oder verborgen hat“. Das Beispiel vom Einfärben erinnert lebhaft an heutige „bildgebende Verfahren“, die häufig mit eben diesem Mittel arbeiten; die Polemik richtet sich aber davon unabhängig vor allem gegen zu stark reduktionistische Verfahren, die das „eigene Leben des Begriffs“, das für Hegel das Wesen aller Philosophie ausmacht, nicht mehr in Bewegung setzen. Lebendigkeit wird hier also gerade nicht für das anschaulich-vereinfachende Vorstellen in Anspruch genommen, ein lebendiger Begriff lässt sich für Hegel nur denken, nicht aber visualisieren, und wenn er dadurch komplizierter wird, ist das nicht eben schlechter.
Geradezu umgekehrt sieht die Sache Arthur Schopenhauer: Für ihn ist der gesamte menschliche Körper, der lebendige Organismus, eine Art Visualisierung des eigentlichen und letzten universellen Lebensprinzips, des Willens nämlich: „Der Wille, als das Ding an sich, macht das innere, wahre und unzerstörbare Wesen des Menschen aus: an sich selbst ist er jedoch bewußtlos. Denn das Bewußtseyn ist bedingt durch den Intellekt, und dieser ist ein bloßes Accidenz unsers Wesens: denn er ist eine Funktion des Gehirns, welches, nebst den ihm anhängenden Nerven und Rückenmark, eine bloße Frucht, ein Produkt, ja, insofern ein Parasit des übrigen Organismus ist, als es nicht direkt eingreift in dessen inneres Getriebe, sondern dem Zweck der Selbsterhaltung bloß dadurch dient, daß es die Verhältnisse desselben zur Außenwelt regulirt. Der Organismus selbst hingegen ist die Sichtbarkeit, Objektität, des individuellen Willens, das Bild desselben, wie es sich darstellt in eben jenem Gehirn“. Hätte der Mensch keinen sichtbaren Körper, könnte der unsichtbare Wille sich nicht selbst ausdrücken; so agiert er mit Hilfe des Nervensystems und des Gehirns, die für ihn eine Art Spiegel bilden, in dem er sich selbst beschauen kann. Letztlich ist das nicht so weit entfernt von dem alten mystischen Gedanken, dass die Welt ein Spiegelbild des allmächtigen Gottes ist, in dem dieser sich seiner Allmacht und seiner Allwissenheit entäußert hat und damit gleichzeitig sichtbar geworden ist wie sich selbst spiegeln kann: Die Welt als universaler Organismus gedacht visualisiert den allmächtigen Schöpfergott wie bei Schopenhauer das Nervensystem und das Gehirn den alles Leben bestimmenden Willen.
Einen der seltenen Versuche jedoch, ein wirklich im engeren Sinne bild- bzw. in diesem Fall tongebendes Verfahren für die philosophische Erkenntnis nützlich zu machen, hat ausgerechnet ein Dichter vorgelegt, und zwar ebenfalls angeregt durch neue technische Erfindungen. In einem kleinen Vortrag mit dem vielversprechenden Titel Das Ur-Geräusch (1919) stellt Rainer Maria Rilke sich folgende Versuchs-Anordnung am menschlichen Gehirn vor: „Die Kronen-Naht des Schädels hat – nehmen wirs an – eine gewisse Ähnlichkeit mit der dicht gewundenen Linie, die der Stift eines Phonographen in den empfangenden rotierenden Cylinder des Apparates eingrabt. Wie nun, wenn man diesen Stift täuschte und ihn, wo er zurückzuleiten hat, über eine Spur lenkte, die nicht aus der graphischen Übersetzung eines Tones stammte, sondern ein an sich und natürlich Bestehendes –, gut: sprechen wirs nur aus: eben (z. B.) die Kronen- Naht wäre –: Was würde geschehen? Ein Ton müßte entstehen, eine Ton-Folge, eine Musik...“. Es geht also darum, aus einem zwar sichtbaren, aber nicht verständlichen Muster im menschlichen Gehirn mithilfe eines „tongebenden Verfahrens“ ein künstlerisches Geräusch zu erzeugen, dass die Essenz des Menschen hörbar macht – ein „Urgeräusch“ als Variante des platonischen „Urbildes“ sozusagen. Denn, so Rilke, das eigentliche Problem des Künstlers (und auch des Philosophen) ist die äußerst mangelhafte sinnliche Wahrnehmbarkeit der Welt im Allgemeinen, und zwar vor allem derjenigen Bereiche, die sich einer Visualisierung ebenso wie einer sinnlichen Erfassung durch den Gehör- oder Tastsinn entziehen, sei es wegen ihrer Komplexität, ihrer Unzugänglichkeit (wie die Kronennaht) oder ihres transzendenten Charakters: „Stellt man sich das gesamte Erfahrungsbereich der Welt, auch seine uns übertreffenden Gebiete, in einem vollen Kreise dar, so wird es sofort augenscheinlich, um wieviel größer die schwarzen Sektoren sind, die das uns Unerfahrbare bezeichnen, gemessen an den ungleichen lichten Ausschnitten, die den Scheinwerfern der Sensualität entsprechen“ (wobei hier auch die Scheinwerfer als bildgebende Instrumente betrachtet werden könnten). Um diese schwarzen Sektoren zu erhellen, sie einer sinnlichen Wahrnehmung zugänglich zu machen, bietet sich nach Rilke die Kunst eher als die Wissenschaft an, die immer auf die Krücken ihrer technischen bildgebenden Verfahren angewiesen bleibt: „Die Frage entsteht hier, ob die Arbeit des Forschers die Ausdehnung dieser Sektoren in der von uns angenommenen Ebene wesentlich zu erweitern vermag? Ob nicht die Erwerbung des Mikroskops, des Fernrohrs und so vieler, die Sinne nach oben oder unten verschiebender Vorrichtungen in eine andere Schichtung zu liegen kommen, da doch der meiste, so gewonnene Zuwachs sinnlich nicht durchdrungen, also nicht eigentlich »erlebt« werden kann.“ Die Kunst hingegen mit all ihrer Sichtbar-, Hörbar- und Fühlbarkeit wäre so gesehen das historisch älteste und vielleicht wichtigste bildgebende Verfahren ist, dass die Menschheit je entwickelt hat.
Das könnte am Ende auch für diejenigen Philosophen ein Trost sein, die sich eher als Verwandte der Künstler und Meister der Darstellung denn als Oberaufseher der Wissenschaften und Gralshüter des Begriffs verstanden haben. Eine moderne Philosophie der „Denkbilder“ für ein bilderversessenes Zeitalter wäre auf jeden Fall vorstellbar; und Peter Sloterdijks Philosophie der Sphären, Blasen und Schäume beruht nicht nur auf einer aufgeblasenen sprachlichen Metaphorik, sondern gibt mit ihrem umfangreichen Bildmaterial auch ein Beispiel eines ambitionierten philosophiegeschichtlichen Visualisierungsprojekts. Philosophie könnte insofern, abseits von Powerpoint-Illustrationen und didaktischen Schaubildchen in philosophischen Einführungswerken, zu einer neben „begriffsgenerierenden“ auch „bildgebenden“ Praxis werden, am besten nach einem berühmten Satz von Immanuel Kant aus der Kritik der reinen Vernunft, wenn man ihn denn in einem etwas erweiterten Sinne auch als Visualisierungsmaxime verstehen mag: „Gedanken ohne Inhalt sind leer, Anschauungen ohne Begriffe sind blind“.
          
WIKIPEDIA (von hawaiisch wiki, oder gesteigert wikiwiki: schnell und griech. paideia: Bildung), ein weltweit in über 260 verschiedenen Sprachen verbreitetes Online-Wörterbuch. Der Name spielt auf die außerordentlich schnelle Verfügbarkeit der Informationen in inzwischen mehr als einer Million Artikeln (von „@cetera“ bis „Ziya'-ud-Din Barani“) allein in der deutschen Version an. Wikipedia ist ein nicht-kommerzielles Unternehmen: Die Benutzung ist kostenlos, die Autoren der Artikel erhalten kein Honorar, es gibt keine Werbung – finanziert wird das Wörterbuch allein durch die Spenden seiner Benutzer. Die Benutzer bestimmen auch den Inhalt der Artikel: Jeder angemeldete Nutzer kann einen Beitrag verfassen, der dann einer internen Qualitätskontrolle durch die Autorengemeinschaft unterzogen wird; besonders erfahrene Schreiber steigen irgendwann zu Administratoren auf, die erweiterte Rechte und Kontrollpflichten haben (u. a. die Lizenz zum Löschen). Alle Diskussionen und Änderungen jedes Eintrags werden dokumentiert, so dass die Artikel eine Art von work-in-progress darstellen. Es gibt keine strengen Richtlinien zum Aufbau der Beiträge, jedoch vier eiserne Grundsätze: Wikipedia ist eine Enzyklopädie (und nicht ein Wörterbuch oder eine Zitatensammlung); die Beiträge sollen einen neutralen Standpunkt einnehmen und nachprüfbar sein; das geltende Recht, besonders Urheberrechtsfragen, sind strikt zu beachten; es gilt im Übrigen die Wikiquette (Grundsatz: „Gehe von guten Absichten aus!“  und beleidige zum Beispiel keinen anderen Nutzer; siehe auch Korrekt, politisch).
Wikipedia erscheint insofern als eine basisdemokratische Variante der Vision einer „Gelehrtenrepublik“, wo jeder einmal Fachmann auf seinem wie auch immer begrenzten Gebiet sein darf (und sei es nur, indem er einen Artikel über sich selbst verfasst, der dann aber  siehe Grundsatz 1  ein Minimum an „enzyklopädischer Relevanz“ aufweisen sollte); über den Beitritt zur community der Nutzer entscheiden (zumindest theoretisch) nur die Qualität der Beiträge, nicht akademische Titel oder sonstige Autoritätsargumente. Allen Unkenrufen bezüglich der mangelhaften Qualität und Zuverlässigkeit einzelner Artikel zum Trotz hat sich Wikipedia inzwischen in mehreren Tests als traditionellen Enzyklopädien zumindest gleichwertig, wenn nicht gar überlegen erwiesen, z. B. in puncto Anzahl und Aktualität der Einträge. Das zeigt Wirkung, zumal in der jüngsten, internet-sozialisierten Schüler- und Studentengeneration: Wo früher der Bildungsbürger zum Brockhaus griff – am besten in ledergebundenen Prachtbänden mit goldgeschnittenen Buchstaben , packt der digitale Weltbürger nun sein superschlankes IPad aus oder ruft sich den gesuchten Wikipedia-Eintrag jederzeit und überall auf das Smartphone: Bildung instant, zum Mitnehmen, wikiwiki eben.
Wikipedia entstand, wie vergleichbare Erfolgsgeschichten der digitalen Welt (siehe auch Netzwerke, soziale), zunächst als eine Art Jux, als ein fun project des ehemaligen Doktoranden der Philosophie Larry Singer. Die technische Basis ist recht einfach. Der Inhalt des Lexikons ist, wie das gesamte WorldWideWeb, auf dem Prinzip des Hypertextes (HTML) aufgebaut: Die Einträge sind durch Verweise – die in den einzelnen Artikel graphisch hervorgehoben erscheinen  dicht miteinander vernetzt, so dass man von einem Artikel zum anderen springen oder „surfen“ kann. Die Lektüre verläuft damit nicht mehr linear von Seite zu Seite, vom Anfang über die Mitte bis zum Schluss eines Textes also. Der Benutzer kann vielmehr quer durch die Texte springen und sich von einem thematischen Ast zum nächsten hangeln  natürlich auch auf die Gefahr hin, sich dabei hoffnungslos im virtuellen Informationsdschungel zu verheddern. Durch die reiche Bebilderung der meisten Artikel (siehe auch Visualisierung) ist auch für optische Anregungen gesorgt; im Unterschied zur traditionellen Enzyklopädie profitiert Wikipedia dabei vom nahezu unbegrenzten (Speicher-)platz des WWW. Zudem sind inzwischen eine ganze Reihe nützlicher Schwesterprojekte entstanden wie das Wörterbuch Wiktionary, die Zitatensammlung Wikiquote oder die Bilddatenbank Wikipedia Commons. Beliebt und verbreitet sind auch Fanwikis zu den Klassikern der Unterhaltungsindustrie wie Duckipedia, One Wiki to rule them all (zu Tolkiens Monumentalepos Herr der Ringe; siehe auch Star Trek); größere Unternehmen haben eigene, firmeninterne Wikis. Für den flächendeckende Durchsetzung des Wiki-Gedankens spricht nicht zuletzt schließlich die Zahl der satirischen Wikis wie Uncyclopedia („der content-freien satirischen Enzyklopädie, in der jeder des Schreibens mächtige Benutzer editieren darf – es sei denn, der Server ist gerade wieder abgeraucht“), Stupidedia („Wissen Sie Bescheid? Nein? Wir auch nicht!“) oder Kamelopedia („eine unikate Enzyklopädie, deren Inhalte zwar gemeinfrei sind, nicht immer aber frei von Gemeinheiten“).
Wikipedia ist damit die aktuellste Variante der altehrwürdigen Enzyklopädie – dem Versuch, das Wissen einer Zeit in seiner Gesamtheit wiederzugeben. Bereits in der Antike entstanden die ersten Enzyklopädien, auch wenn die Wortzusammensetzung aus den griechischen Wörtern enkyklios (alltäglich, wiederkehrend, üblich) und paideia (Bildung, Lehre) eher eine Art allgemeinem Grundkurs, einem studium generale oder, neubildungsdeutsch, einem bachelor of arts entsprach. Sie waren nicht alphabetisch geordnet, sondern enthielten einen systematischen Überblick über ein möglichst großes Gebiet, wie beispielsweise die Naturalis historia von Plinius dem Älteren aus dem ersten nachchristlichen Jahrhundert: „zwanzigtausend merkwürdige Gegenstände, gesammelt durch das Lesen von etwa zweitausend Büchern, unter welchen erst wenige ihres schwierigen Inhalts wegen von den Gelehrten benutzt sind, von Hundert der besten Schriftsteller, habe ich in 36 Büchern zusammengefasst, dazu aber noch vieles gefügt, wovon entweder unsere Vorfahren nichts wußten oder was das Leben erst später ermittelt hat“, so prahlt der Verfasser in seiner Widmung an den späteren römischen Kaiser Titus. In 2.493 Einzelkapiteln enthält das Werk einen Überblick über die belebte und unbelebte Welt, vom Tiefseefisch bis hin zum exotischen Fruchtbaum, von Ländern, Nationen und Seen und Bergen bis hin zu Metallen, Farben und Edelsteinen. Die Grenzen des Werkes sind die der Arbeitskraft eines einzelnen Mannes: Trotz kontinuierlicher Nachtarbeit und seiner außerordentlichen Verehrung für den Kaiser sei auch er nur ein „bloßer Sterblicher“, zumal einer der „viele Pflichten“ (vgl. burnout) habe, entschuldigt sich Plinius.
Die eigentliche Blütezeit der Enzyklopädie jedoch wird das 18. Jahrhundert, die Zeit der Aufklärung mit ihrem Vertrauen in den Fortschritt der Menschheit durch immer mehr Wissen. 1728 erscheint in England die Cylopedia (von „Abactor“ bis „Zythum“), herausgegeben und zu großen Teilen geschrieben immer noch von einem einzelnen Mann, Ephraim Chambers. Sie war die erste alphabetisch geordnete Enzyklopädie, die als Ersatz für die bisherige systematische Struktur den Querverweis erfand, der in der Wikipedia dann als Hyperlink zu seiner Vollendung gelangen wird. Den universalen Anspruch markiert bereits der Titel: „Cyclopedia [sehr großgedruckt!]: or, an universal dictionary, of Arts and Sciences; containing the Definitions of the Terms [eine Nummer kleiner]; and Accounts of the Things signify’d thereby, in the several Arts, both liberal and mechanical, and the several sciences, human and divine; [und nun geht es ans Kleingedruckte] The Figures, Kinds, Prosperties, Productions, Preparations, and Uses, of Things Natural and Artificial” [und nun lassen wir ein paar immer kleinere und kleinere Zeilen aus] – endend bei einem Zitat aus den Klassikern, natürlich einer antiken Enzyklopädie, nämlich Lukrez: „Wie auf blumiger Trift die Bienen alles benaschen, / genauso wir“  der Enzyklopäde als Honigsammler im unendlichen Reich des Wissens und der Technik.
Während Chambers bescheiden mit nur zwei dicken Bänden auskam, folgte kaum 30 Jahre später das wohl berühmteste enzyklopädische Großprojekt vor Wikipedia, die französische Encyclopédie ou Dictionnaire raisonné des sciences, des art et des métiers (von „A decouvertes“ bis „Zzuéné“), herausgegeben von den französischen Philosophien Denis Diderot und Jean d’Alembert. Ursprünglich begonnen als eine Übersetzung von Chambers Cyclopedia, wuchs sich das Projekt innerhalb von zwanzig Jahren auf siebzehn Textbände mit rund 18.000 Seiten, 71.818 Artikeln und elf eigenen Bildbänden aus; später folgten noch sieben Ergänzungsbände. Der Herausgeber Diderot selbst hat neben vielen anderen den umfangreichen Artikel „Enzyklopädie“ verfasst, in dem er das Unternehmen gegen seine Kritiker und mögliche Einwürfe rechtfertigt. Nach der obligatorischen Begriffserklärung kommt deshalb sogleich ein Absatz, der auf den zeitüberschreitenden Nutzen des universalen Unternehmens hinweist: „Tatsächlich zielt eine Enzyklopädie darauf ab, die auf der Erdoberfläche verstreuten Kenntnisse zu sammeln, das allgemeine System dieser Kenntnisse den Menschen darzulegen, mit denen wir zusammen leben, und es den nach uns kommenden Menschen zu überliefern, damit die Arbeit der vergangenen Jahrhunderte nicht nutzlos für die kommenden Jahrhunderte gewesen sei; damit unsere Enkel nicht nur gebildeter, sondern gleichzeitig auch tugendhafter und glücklicher werden, und damit wir nicht sterben, ohne uns um die Menschheit verdient gemacht zu haben“. Große Worte, die aber auch entsprechende Taten und eine umfangreiche Organisation (vgl. Zeitmanagement) verlangen: „Ein allumfassendes und wohldurchdachtes Wörterbuch der Wissenschaften und Künste kann also nicht das Werk eines einzigen Menschen sein“. Die Encyclopédie ist die erste Enzyklopädie, die von einem Autorenkollektiv verfasst wurde; zu ihren Autoren gehörten die berühmtesten Philosophen und Wissenschaftler der Zeit (z. B. die Philosophen Montesquieu, Voltaire und Rousseau). Der größte Teil der Fußarbeit wurde jedoch von eher unbekannten Autoren der zweiten Reihe erledigt – in dieser Hinsicht ist die Encyclopédie bereits ein würdiger Vorfahre der „gemeinfreien“ Wikipedia.
Zwar versucht die Encyclopédie noch, den Zusammenhang des menschlichen Wissens beispielsweise in Form von Stammbäumen darzustellen (siehe auch Visualisierung); berühmter und einflussreicher wurde sie jedoch durch ihre sehr detaillierten Darstellungen des technischen Wissens ihrer Zeit sowie ihre starke meinungsbildende Wirkung – schon die Zeitgenossen sahen sie als eine der geistigen Quellen, aus denen sich die Französische Revolution wenig später speisen sollte. Insofern waren viele, und zwar gerade die philosophischen Artikel, nicht dem Wikipedia-Gesetz des „neutralen Standpunkts“ verpflichtet, sondern nahmen eine häufig materialistische, auf jeden Fall jedoch strikt aufklärerische Haltung ein. So weist auch Diderot im Enzyklopädie-Artikel eigens darauf hin, dass die Gemeinschaft der Gelehrten, die an diesem Menschheits-Projekt arbeitet, letztlich nicht durch Könige belohnt – „eine Enzyklopädie läßt sich nicht befehlen“  oder durch Akademien befördert, sondern nur durch eine Art „intrinsische Motivation“ zusammengehalten werden kann: „das allgemeine Interesse der Menschheit und das Gefühl des gegenseitigen Wohlwollens“ (was man wiederum beinahe bruchlos in das Wikipedia-Prinzip der vorauszusetzenden „guten Absichten“ übersetzen kann). Das größte Problem sieht er dabei im letztlich unbeherrschbaren Anwachsen des Wissens bei seinen Zeitgenossen – „es gibt jetzt keine einigermaßen gebildete Frau, die nicht alle Fachausdrücke der Malerei, Bildhauerei, Architektur und schönen Literatur richtig anwendet“ , und zwar nicht nur in technischer und wissenschaftlicher Hinsicht. Vielmehr geht es ihm vor allem um geistige und philosophische Entwicklungen im engeren Sinne: „Was ein solches Werk veraltet erscheinen läßt und es der Mißachtung preisgibt, ist aber vor allem die Umwälzung, die im Geist der Menschen stattfindet. Heute, da die Philosophie mit großen Schritten vorwärtsschreitet und ihrer Herrschaft alle Gegenstände in ihrem Bereich unterwirft, da sie tonangebend ist und da man das Joch der Autorität und des Vorbilds abzuwerfen beginnt, um sich an die Gesetze der Vernunft zu halten, gibt es kaum noch ein elementares Lehrbuch, von dem man völlig befriedigt ist“ (siehe auch Umfrage). Die Revolution ist schon auf dem Wege, und die Philosophie trägt ihren Teil dazu bei.
Mit dem heroischen Akt der französische Encyclopédie schien jedoch das Potential der Idee zunächst erschöpft, auch wenn in Deutschland die Frühromantiker noch den einen oder anderen enzyklopädischen Einzelentwurf wagten (Novalis, Allgemeines Brouillon) und Hegel sich an einer Enzyklopädie der philosophischen Wissenschaften im Grundrisse versuchte. Jean Paul bekrittelte hingegen: „In allen Wissenschaften stehen jetzo dicke Enzyklopädien, denn diese sind eben ins Enge geschraubte Bibliotheken, mobil gemachte Feldbibliotheken“ (was durchaus an die mobil gemachte Wissensvermittlung aus dem Netz erinnert, „wikiwiki!“). Nietzsche schlägt in die gleiche Kerbe: Enzyklopädien als reine Sammlungen von Wissen sind ein Zeichen der Dekadenz  „denn aus uns haben wir Modernen gar nichts; nur dadurch, daß wir uns mit fremden Zeiten, Sitten, Künsten, Philosophien, Religionen, Erkenntnissen anfallen und überfüllen, werden wir zu etwas Beachtenswertem, nämlich zu wandelnden Enzyklopädien, als welche uns vielleicht ein in unsere Zeit verschlagener Alt-Hellene ansprechen würde“. Derjenige, der den Vogel abschießt, ist jedoch wiederum ein Franzose, und zwar diesmal ein Literat: Für sein Sottisier hat Gustave Flaubert in über dreißig Jahren 3.800 Seiten mit Exzerpten aus wissenschaftlicher und sonstiger Literatur gesammelt, wörtliche Zitate, ausgewählt allein nach dem Kriterium besonderer Sinnlosigkeit und ungeordnet nebeneinandergestellt, eine Art früher Stupidedia sozusagen. In seinem Wörterbuch der Gemeinplätze (von „Abälard“ bis „Zypresse“), einem Teil daraus, heißt es denn auch unter dem Stichwort „Encyclopedie“: „Dagegen wettern. Mitleidig darüber lächeln, als ob es sich um einen alten Zopf handelt“. Eine Enzyklopädie kann für Flaubert nur noch ein immens lächerliches Projekt sein, so überflüssig wie ein Zopf an einer alten Allonge-Perücke–und er „wettert“ dagegen mit seiner „Universalenzyklopädie der menschlichen Dummheit“ (so Flaubert selbst über seine Textsammlung).
Man findet in jedem Augenblick, daß die Ausdrücke, die man am wenigsten versteht, zugleich die Ausdrücke sind, die man am häufigsten gebraucht“ (Diderot).
          
WINNETOU, literarische Figur aus der Winnetou-Trilogie (1893) und anderen Wildwest-Romanen von Karl May (1842-1912). Winnetou ist der fiktive Häuptling der im Nordosten von Mexico lebenden Mescalero-Apachen, sein Name bedeutet "Brennendes Wasser". Bei seinem ersten Auftreten ist er, genauso wie sein späterer Blutsbruder Old Shatterhand, etwas älter als fünfzig Jahre. Unzertrennlich mit ihm sind sein Pferd Iltschi, sein Gewehr, die "Silberbüchse", sowie seine Schwester Nscho-Tschi ("Schöner Tag"); erwähnt werden ebenso sein Vater Intschu-Schuna ("Gute Sonne"), niemals aber eine Mutter oder Geliebte oder Ehegattin. Das verwundert vor allem, weil Winnetou als außerordentlich schöner Mann beschrieben wird: breitschultrig und durchtrainiert, ein perfekter Kämpfer, Reiter und Schütze; mit langem schwarzem, schimmerndem Haar, immer wieder als "edel" und einmal sogar als "fast römisch" bezeichneten Gesichtszügen und nur matt hellbrauner Gesichtsfarbe, "küßlichen" (!) Lippen und "dunklen, sammetartigen Augen". Winnetou ist kein Mann vieler Worte (obwohl er neben mehreren indianischen Dialekten auch Englisch spricht, aber meistens sagt er nur "Howgh"!), aber edelmütig, tapfer, aufrichtig und opferbereit im Übermaß – im Verlauf der Romane wird er von seinem Erfinder immer mehr vom einfachen Indianerhäuptling zur deutlich europäisierten Ideal- und Lichtgestalt stilisiert. Und als er in der Erzählung Winnetous Tod schließlich sterben muss, bekennt er mit den letzten Atemzügen seinem Blutsbruder: "Schar-Iih, ich glaube an den Heiland. Winnetou ist ein Christ. Lebe wohl!"
Winnetou ist damit eine späte Verkörperung der Figur des "edlen Wilden". Der "noble savage" taucht als Wortprägung wahrscheinlich erstmals in John Drydens The Conquest of Granada (1672) für einen heldenhaften afrikanischen Mauren auf; im Französischen entspricht ihm der "bon sauvage". Doch bereits die Antike kannte die Idee eines idealen, unverdorbenen Naturzustandes der Menschheit, eines "goldenen Zeitalters", das in Arkadien angesiedelt wurde; ein extremes Kontrastmodell dazu bot die christliche Religion mit ihrem Konzept der Erbsünde und der Verdorbenheit des Menschen seit seiner Vertreibung aus dem Paradies. Die Idee eines "edlen Wilden" im engeren Sinne jedoch kam erst mit den Reiseberichten aus dem soeben (wieder-)entdeckten Amerika und anderen entfernten Weltgegenden ab dem 16. Jahrhundert auf. Sie steht also schon in ihrem Ursprung in engem Zusammenhang mit der Ausbreitung des europäischen Kolonialismus. So verfasste der spanische Soldat, Edelmann und Schriftsteller Alonso de Ercilla y Zúñiga (1533-1594) sein Hauptwerk La Araucana, das als Gründungsschrift der modernen Kolonialismuskritik gilt, nach seiner Teilnahme an einem Eroberungszug nach Peru, wo er persönlich Zeuge der dort verübten Gräueltaten an den Mapuche-Indianern wurde. Und der Held seines auf diesen Erlebnissen und Aufzeichnungen basierenden Romans ist ein früher Vorfahr Winnetous, der Indianerhäuptling Caupolican nämlich, der bereits zum edlen Wilden stilisiert wird. Ähnliche Berühmtheit erlangten dann im 18. Jahrhundert die Reiseberichte von James Cook über seine Südseereisen, die besonders Tahiti zum neuen Arkadien verklärten. Sogar in Europa selbst fand man ein Volk "edler Wilder": Es lebte in den entlegenen Bergtälern der Schweiz und war seit Wilhelm Tell autonom, frei und von den Gefahren der Zivilisation unkorrumpiert geblieben.
Schon diese wenigen Beispiele zeigen, dass der "edle Wilde" im Einzelnen durchaus unterschiedliche Gestalt annehmen kann. Sein wichtigster Grundzug ist allerdings seit der Antike festgelegt: Er lebt im unbewussten Einklang mit der Natur, die Gott (bzw. die Götter) geschaffen hat und die deshalb nicht anders als gut sein kann; sie bildet seine Lebensgrundlage, die er mit Ehrfurcht behandelt, pflegt und erhält, nicht aber beherrschen oder ausnutzen will. Da er keinerlei Zivilisationskrankheiten ausgesetzt ist, ist er nicht nur physisch gesund, kräftig und fruchtbar, sondern auch von natürlicher Schönheit. Er kennt weder soziale noch politische Zwänge, sondern lebt in völliger Freiheit und Selbstbestimmung in den Tag hinein; dazu kommt manchmal die sexuelle Freizügigkeit, wie sie Cook für die Bewohnerinnen von Tahiti beschrieb (nicht aber Karl May für Winnetou!). Als Kind der Natur hat der edle Wilde schließlich, und erst das macht ihn zu einem wirklich "edlen" Menschen, einen eingeborenen moralischen Sinn. Er ist unfähig zu Lüge und Verstellung, gerecht, großzügig, mitfühlend; mit seinesgleichen lebt er in einer großen Familie, frei von Hierarchien und Standesunterschieden (außer er ist ein Indianerhäuptling), Gesetze oder gar Strafen sind völlig unnötig. Bei all dem ist er zufrieden mit seinem Zustand und erstrebt keinerlei Verbesserung oder Veränderung.
Die philosophische Ausformulierung dieses Menschheits-Ideals wurde bereits seit dem Ende des 18. Jahrhunderts Jean-Jacques Rousseau zugeschrieben, was aber nur zum Teil richtig ist. Zwar ist die Grundlage der Rousseauschen Anthropologie tatsächlich der von der Zivilisation unverdorbene Wilde, der völlig autonom von der Gesellschaft in der Natur lebt und nur seinen eigenen Instinkten folgt; dieser jedoch ist jenseits von gut noch böse. Und auch die Natur ist hier nicht die christliche der gütigen Vorsehung, sondern bereits die darwinsche des täglichen Kampfes ums Überleben, und zum Überleben muss man eher stark und grausam denn edelmütig und mitfühlend sein. Der Wilde ist bei Rousseau also nicht edel, sondern einfach wild – aber ohne dass das im Mindesten abwertend gemeint ist.
Reüssiert hat der edle Wilde auch weniger als philosophisches Modell, sondern eher als literarisches. Neben Zuñigas und Mays edelmütige Indianerhäuptlinge tritt Oronooko, or the Royal Slave (Aphra Behn, 1688), ein heldenhafter afrikanischer Königssohn, der einen Sklavenaufstand anführt, nach dessen Scheitern er nicht nur im Einverständnis mit ihr seine Geliebte Imoinda tötet, sondern sich selbst ein Stück Fleisch aus dem eigenen Hals schneidet und, als das immer noch nicht zum Sterben reicht, unter der Folter pfeife rauchend und ohne Schmerzenslaut sein Leben aushaucht. Die sanftmütigere und ungleich bekanntere weibliche Variante ist Pocahontas, ebenfalls eine literarische Gestalt mit einem realen Vorbild: Sie war eine Häuptlingstochter aus Virginia (1595-1617), die während der Kämpfe zwischen den Indianern und den Engländern dem englischen Soldaten John Smith das Leben rettete, indem sie ihrem Vater ihr eigenes im Austausch anbot. Von den Engländern später gefangengenommen, konvertierte sie während ihrer Gefangenschaft zum Christentum, nahm den Namen Rebecca an, heiratete einen Tabakpflanzer und bekam einen Sohn mit ihm. Auf ihrer gemeinsamen Reise nach London wurde sie der englischen Gesellschaft als vorbildliche edle Wilde vorgeführt und erlangte Berühmtheit; vor ihrer Rückkehr nach Amerika starb sie jedoch aus ungeklärten Ursachen. Unsterblich wurde sie nach unzähligen literarischen Adaptionen endgültig mit dem Disney-Pocahontas-Film aus dem Jahr 1995, der jedoch ihre Geschichte nur bis zu ihrer heldenmütigen Aufopferung für John Smith erzählt; sie bleibt danach bei ihrem Stamm und lehnt den Heiratsantrag von Smith ab.
Die Aussparung des Schlusses der wahren Geschichte in der Disney-Version ist kein Zufall. Denn inzwischen hatte der Postkolonialismus den Mythos vom edlen Wilden gründlich dekonstruiert: Es handele sich dabei um ein verzerrtes Bild, das sich die überlegen dünkende europäische Zivilisation bewusst und hinterlistig von ihrem vermeintlichen Gegenteil, dem "Wilden", zurechtgebastelt habe, um sich selbst für überlegen zu deklarieren und damit die Verbrechen des Kolonialismus zu rechtfertigen (und falls die reale Pocahontas sich wirklich freiwillig diesem Muster angepasst hätte und eine brave christliche Ehefrau geworden wäre, hätte das gar nicht schön ins Bild gepasst). Im "edlen Wilden" konzentriert sich für die Postkolonialisten der europäische Ethnozentrismus: Mit der Zuschreibung des Attributes "wild" an das Andere, Fremde, Nicht-Europäische verstecke und veräußerliche der vermeintlich Zivilisierte nur seine eigene Wildheit. Und das "Edle" der Wilden setze der Konstruktion noch die Spitze auf, weil sie anderen Kulturen ihnen fremde Normen aufzwinge und die eigene Werthaltung zum Maß aller Dinge erkläre: Ein "Wilder" konnte demnach nur gut sein, wenn er hinreichend europäisiert, christianisiert und ästhetisiert wurde.
Tatsächlich hat die Ethnologie bisher noch kein Naturvolk gefunden, das allen Aspekten des Idealbildes entsprechen würde, und es ist auch nicht zu erwarten: Es hat ihn nie gegeben, den edlen Wilden, und noch nicht einmal in der neueren Science-Fiction-Literatur hat er noch Erben gefunden (aber vielleicht zehrt eine zweifellos rührend edelmütige Gestalt wie E.T. noch von fern von ihm?). Allerdings war das den meisten Autoren, die über ihn geschrieben haben, ziemlich sicher bewusst, und seinem vermeintlichen philosophischen Ahnherren Rousseau ganz sicher. Er war von Anfang an nicht als Realitätsabbild, sondern als konstruiertes Gegenbild gedacht, als eine Fiktion, die die Kritik an der eigenen Zivilisation, die Defizite der eigenen Gesellschaft, die Legitimationsprobleme der eigenen Normen, die Schwächen der eigenen sozialen und politischen Institutionen veranschaulichen sollte – und eine Identitätskonstruktion ohne jegliche Gegenbilder, ohne Abgrenzung gegen Fremdes und Anderes (das dadurch ja nicht automatisch abgewertet wird!), bleibt notwendig unscharf, diffus, schwankend und damit letztlich wenig zur Identitätsstiftung tauglich. Zudem ist es zwar sicherlich zu verkraften, dass es keine Wilden mehr gibt (auch wenn es für die Literatur ziemlich schade ist). Aber ob der Verlust des "Edlen", durchaus als Bewertungsmaßstab im hohen moralischen Sinne verstanden, eine zivilisatorische Errungenschaft ist, erscheint angesichts der zunehmenden Brutalisierung aller gesellschaftlichen und politischen Konflikte doch sehr viel problematischer.


XXL (von lat. extra: außerhalb, besonders; engl. large: groß), Abkürzung für „extra extra large“. Ursprünglich verwendet für Konfektionsgrößen (Sondergrößen), wurde der Begriff in die Alltags- und Werbesprache übernommen und bezeichnet nun auch übergroße Restaurants, Möbelhäuser, Witzseiten, Fahrradhändler oder Dessousgeschäfte (besonders dicht ist die Google-Trefferquote im Bereich der Porno-Industrie). Dabei ist die Übergröße immer positiv konnotiert, was bei Konfektionsgrößen ja nicht unbedingt der Fall sein muss, wo als Ideal- und Modelgröße (vgl. Casting) vielmehr XXS (extra extra small) gilt. Trotzdem scheint eine gewisse Bewunderung von schierer Größe im Menschen angelegt zu sein – davon zeugen bereits die berühmten „Sieben Weltwunder“ der Antike mit dem übergroßen Koloss von Rhodos (siehe auch Leuchtturm) ebenso wie die angeblich zwölf Meter hohe und den Betrachter damit wahrlich einschüchternde Zeus-Statue des Phidias in Olympia (siehe auch Jogging). Heute frönt die Menschheit ihrem Größen-Wahn nicht nur in immer höheren und größeren Bauten, sondern auch den bisweilen bizarren Rekorden, die das Guinness-Buch der Rekorde seit 1955 aufzeichnet – das sich im Übrigen selbst ein kräftiges XXL verdient hat, ist es doch, nach Bibel und Koran, das weltweit am häufigsten verkaufte Buch. Und auch sprachlich hat sich unsere Bevorzugung der Größe vor ihrem unbeliebteren Gegenteil, der Kleinheit, deutlich niedergeschlagen: Wir bewundern Großartigkeit, Großherzigkeit, Großmütigkeit, Großzügigkeit – und verachten Kleinlichkeit, Kleingeistigkeit, Kleinbürgerlichkeit und alles Kleinkarierte (XXK, sozusagen).
Das Urbild aller Größe, ja der XXXX-L-Größe schlechthin, war lange Zeit selbstverständlich Gott, zu dessen bevorzugten physischen Attributen schon immer eine unendliche Ausdehnung gehörte; so preist z. B. Nikolas von Cues: „Bei dieser so bewundernswürdigen, verschiedenartigen Ordnung der Welt sehen wir durch unser System, daß wir von allen Werken Gottes keine rationelle Einsicht erlangen, sondern nur staunen können, weil Gott groß und seiner Größe keine Grenze ist. Als die absolute Größe ist er von allen seinen Werken wie Urheber und Verständniß, so auch das Ziel. In ihm ist Alles, außer ihm nichts, er ist Anfang, Mitte und Ende von Allem, Centrum und Umkreis des Universums, und in Allem wird nur er gesucht, weil ohne ihn Alles nichts ist, mit ihm haben wir Alles, in ihm wissen wir Alles“ (siehe auch All-inclusive). Die Philosophie hingegen zeigte sich von Anfang an eher kritisch gegenüber schierer Größe – eben wegen der mit ihr verbundenen, primär materiellen Konnotationen; demgegenüber betonte man feinsinnig gern die Relativität von Größenbezeichnungen jeglicher Art. Zwar gibt beispielsweise Boethius zunächst zu, dass der Alltagsverstand Größe durchaus zu schätzen wisse: „Körperliche Kraft und Größe scheint nämlich Macht zu gewährleisten, Schönheit und Zierlichkeit scheint Ansehen und Beliebtheit zu gewinnen, Gesundheit aber den vollsten Genuß des Lebens zu ermöglichen. Und in allen diesen Dingen, in Macht, Beliebtheit und Genuß erstrebt man eben die höchste Glückseligkeit“. Andererseits jedoch seien all diese Attribute denn doch sehr vergänglich und vor allem nicht das, was den Menschen eigentlich auszeichnet: „Wie klein und vergänglich ist endlich der Besitz desjenigen, der sich mit körperlichen Vorzügen brüstet! Kann er etwa den Elefanten an Größe, an Kraft den Stier und an Schnelligkeit den Tiger übertreffen?“ Und Seneca breitet ein besonders hübsches Beispiel in seiner Trostschrift an seine Mutter Helvia aus, die Geschichte vom berühmten Feinschmecker Apicius (der sehr wahrscheinlich eine maßgeschneiderte XXL-Toga trug), „welcher in derselben Stadt, aus der man einst die Philosophen als Verderber der Jugend hatte wegziehen heißen, als Lehrer der Kochkunst auftrat und mit seiner Wissenschaft den Zeitgeist ansteckte. Es lohnt der Mühe sein Ende kennen zu lernen. Nachdem er hundert Millionen Sesterzien auf die Küche verwendet, nachdem er so viele Geschenke der Großen und eine so ungeheure Summe, wie das Capitol erfordert, für jedes einzelne Gelage verschwendet hatte, übersah er, von Schulden erdrückt, nothgedrungen zum ersten Male seinen Haushalt, und da er herausrechnete, daß ihm [nur] zehn Millionen Sesterzien übrig blieben, so endete er sein Leben selbst mit Gift, als ob er nun ein äußerst hungriges Leben führen müßte, wenn er von zehn Millionen leben sollte. Wie groß war die Ueppigkeit eines Menschen, für den zehn Millionen Sesterzien Bettelarmuth waren! Nun glaube noch, daß es auf die Größe des Vermögens, nicht des Geistes ankomme“!
Die Relativität von Größenbegriffen führt auch eine zu Recht weltberühmte literarische Parabel des irischen Satirikers Jonathan Swift vor Augen: die Geschichte von Gulliver, dem englischen Schiffsarzt, den es zunächst in die Miniaturwelt der Liliputaner und dann in die Riesenwelt von Brobdingnag verschlägt. Wahrhaft ins Nachdenken kommt er dabei erst, als er selbst gegenüber den Riesen zum Liliputaner geworden ist: „Ich dachte, wie drückend es für mich sein müsse, diesem Volke so unbedeutend zu erscheinen wie ein Liliputaner den Engländern“. Was die Philosophen mit ihrem Relativitätsgenörgel bestätigt: „Sicherlich ist die Behauptung der Philosophen, groß und klein seien nur Begriffe, die sich durch Vergleichung ergeben, vollkommen wahr. Das Schicksal kann vielleicht die Liliputaner irgendein Land auffinden lassen, wo die Menschen im Verhältnis zu ihnen ebensolche Diminutivgestalten sind wie sie im Vergleich mit mir“. Zudem wird Gulliver im Land der Riesen immer wieder damit konfrontiert, dass diese aus dem eigenen Vorzug der schieren Größe einen moralischen Wert ableiten und dieses Vorgehen gar wissenschaftlich untermauern: „Der Autor behandelte alle die gewöhnlichen Gemeinplätze europäischer Moralisten und zeigte, welch ein kleines, hilfloses und verächtliches Tier der Mensch, seiner eigenen Natur überlassen, sei, wie er sich nicht in einem rauhen Klima schützen und gegen die Wut wilder Tiere verteidigen könne; wie sehr ihn das eine Geschöpf an Kraft, das andere an Schnelligkeit, das dritte an Vorsicht, das vierte im Fleiße übertreffe. Er fügte hinzu: Die Natur sei in diesem letzten Zeitalter ganz entartet und könne jetzt, in Vergleich mit alten Zeiten, nur kleine Mißgeburten hervorbringen. Man müsse vernünftigerweise annehmen, das Menschengeschlecht sei nicht allein ursprünglich weit größer gewesen, sondern es habe in alten Zeiten auch Riesen gegeben; so wie dies durch Geschichte und Tradition behauptet werde, so sei es durch die ungeheuren Knochen und Schädel erwiesen, die man durch Zufall in den verschiedenen Teilen des Königreichs ausgrabe und deren Größe das gewöhnliche zusammengeschrumpfte Menschengeschlecht unserer Tage bei weitem übersteige. Der Verfasser glaubte, sogar die Naturgesetze erforderten, daß wir im Anfange größer und stärker gebaut und dem Untergange bei jedem Zufalle nicht so ausgesetzt gewesen wären, zum Beispiel durch einen vom Dache herunterfallenden Ziegel, durch kleine, von bösen Buben geworfene Steine oder durch Hineinfallen in ein Loch“. Demgegenüber argumentiert Gulliver nun selbst, aus Erfahrung klug geworden, mit der Relativität der Begriffe von Groß und Klein, die er ebenfalls durch Beispiele aus der Tierwelt illustriert: „Eines Tages nahm ich mir die Freiheit, Seiner Majestät zu sagen, die Verachtung, die er gegen Europa und die übrige Welt hege, entspreche nicht den ausgezeichneten Geisteseigenschaften, die er besitze. Vernunft vermehre sich nicht durch die Größe des Körpers; wir bemerkten im Gegenteil, daß Personen von hohem Wuchse am wenigsten Verstand besitzen; unter allen Tieren ständen die Bienen und Ameisen im Rufe eines größeren Fleißes und Scharfsinns als manche der größeren Geschlechter“ (siehe auch . Der König lässt sich gar ein wenig überzeugen von dieser nicht ganz interesselosen Argumentation seines Hofzwergs; gleichwohl kann Gulliver letztlich sowohl im Land der Zwerge als auch in dem der Riesen nur als eine Monstrosität für das Kuriositätenkabinett, ein „Spiel der Natur“, existieren: Ein allzu großes XXL ist ebenso wenig lebenstauglich wie ein allzu kleines XXS.
Eine Sonderrolle spielt die Größe allerdings in der Ästhetik: Dort heißt sie seit Immanuel Kant „das Erhabene“ und ist ein positives ästhetisches Urteil. In der Kritik der Urteilskraft erläutert Kant zunächst sein Konzept des sogenannten „Mathematisch-Erhabenen“. Man könne zum einen von Dingen sagen, sie seien „groß“ – damit verwende man aber, siehe oben, einen Vergleichsbegriff: „Wie groß es aber sei, erfordert jederzeit etwas anderes, welches auch Größe ist, zu seinem Maße“. Man könne zum anderen aber auch sagen, etwas sei „schlechthin groß“: Dann meinen wir keinen mathematisch-relativen Begriff der Größe, sondern einen ästhetischen, der aus unserem subjektiven Urteil resultiert und das große Objekt zu einem erhabenen Gegenstand macht. Das erläutert Kant vor allem an großen Phänomenen der Natur: der Weite des Meeres, dem wilden Hochgebirge. Ihnen gegenüber empfinden wir nach Kant nicht nur instinktiv Bewunderung, sondern sie führen uns – gullivermäßig sozusagen – auch unsere eigene Kleinheit vor Augen, demütigen uns also in unserer physischen Existenz als Kleinlebewesen. Dadurch allerdings, dass wir diese uns übersteigende Größe als solche in einem freien Vernunftakt überhaupt erkennen können, fühlen wir uns geistig und ästhetisch wieder erhoben: Um ein XXL zu erkennen und nicht davor in die Knie zu sinken wie vor dem Zeus des Phidias, muss man ihm etwas Entsprechendes entgegensetzen können. Das in dieser Dynamik entstandene Mischgefühl von physischer Unterlegenheit bei geistiger Gleichwertigkeit kennzeichnet das „Erhabene“; und es ist nach Kant eben keine reine Wirkung schierer, nicht relativer-Größe, sondern ein Produkt unserer eigenen ästhetischen Urteilskraft: „Man sieht hieraus auch, daß die wahre Erhabenheit nur im Gemüte des Urteilenden, nicht in dem Naturobjekte, dessen Beurteilung diese Stimmung desselben veranlaßt, müsse gesucht werden. Wer wollte auch ungestalte Gebirgsmassen, in wilder Unordnung über einander getürmt, mit ihren Eispyramiden, oder die düstere tobende See, u. s. w. erhaben nennen? Aber das Gemüt fühlt sich in seiner eigenen Beurteilung gehoben“. Big is beautiful – aber nur dann, wenn wir es in einem ästhetischen Bewusstseinsakt so bewerten. Bekanntlich empfand Kant für genau zwei Dinge unendliche Bewunderung, nämlich den „bestirnten Himmel über mir, und das moralische Gesetz in mir“ (und damit sozusagen für ein rein physisches und ein rein geistiges XXL).
Die das Normalmass übersteigende moralische Größe, das XXL-Heldentum sozusagen, ist natürlich ebenfalls ein bleibender Gegenstand der Bewunderung. Friedrich Schiller, ein großer Anhänger der Theorie des Erhabenen und Gestalter einiger XXL-Helden im Guten wie im Bösen, machte eine Art Rechnung zwischen dem Prototyp des moralisch und charakterlich Großen – dem „Idealisten“ – und dem auf Normalgröße bestehenden, die Größe skeptisch beäugenden „Realisten“ auf: „Wenn sich der Realist, auch in seinem moralischen Handeln, einer physischen Notwendigkeit ruhig und gleichförmig unterordnet, so muß der Idealist einen Schwung nehmen, er muß augenblicklich seine Natur exaltieren, und er vermag nichts, als insofern er begeistert ist. Alsdann freilich vermag er auch desto mehr, und sein Betragen wird einen Charakter der Hoheit und Größe zeigen, den man in den Handlungen des Realisten vergeblich sucht. Aber das wirkliche Leben ist keineswegs geschickt, jene Begeisterung in ihm zu wecken, und noch viel weniger, sie gleichförmig zu nähren. Gegen das Absolutgroße, von dem er jedesmal ausgeht, macht das Absolutkleine des einzelnen Falles, auf den er es anzuwenden hat, einen gar zu starken Absatz“. Wir sympathisieren deshalb mit dem „Großen“, dem XXL-Charakter, mit seiner Begeisterung, seinem Überschwang, seiner Verachtung des kleinlichen Alltags und der kleinkarierten Normalität (XXK). Aber wir halten es im Leben dann doch meist lieber mit dem Realisten, denn der Idealist ist wenig zuverlässig und kann gelegentlich vor lauter Größe das Kleine nicht mehr sehen, dass doch in unserem Leben so häufig dominiert: „So geschieht es denn nicht selten, daß er über dem unbegrenzten Ideale den begrenzten Fall der Anwendung übersiehet und, von einem Maximum erfüllt, das Minimum verabsäumt, aus dem allein doch alles Große in der Wirklichkeit erwächst“. Das Kleine kann das Große sein, das Große kann das Kleine sein – letztlich, so Schiller unterm Schlussstrich, brauchen wir beides, im Leben und in der Kunst. Das ist jedoch nicht, wie so oft missverstanden, ein Plädoyer für den gefahrlosen Mittelweg, der jeden, egal ob es passt oder nicht, in Konfektionsgröße „M“ (lat. für medium) stecken will (siehe auch Cool). Vielmehr kommt es darauf an abzuwägen, wann man idealistische Größe XXL zeigen muss, und wann vielleicht doch besser realistisches Normalmass M – es muss ja schließlich nicht jeder mit einem eigenen Größen-Längen-Breiten-Höhen-Rekord im Guinness-Buch der Rekorde vertreten sein, und angesichts der größten Seifenblase oder des allergrößten BigMac besinnt sich der Philosoph dann vielleicht doch lieber auf seine eigene, nicht-messbare, innere Größe (den XXPh-Wert, sozusagen).


YETI, (tibetanisch) ein Fabelwesen im Himalaya-Gebirge; den meisten Berichten zufolge soll es etwa zwei bis drei Meter groß, von menschenähnlicher Gestalt, mit dunklen Zotteln behaart und mit besonders großen Füßen ausgestattet sein (gemessen wurden Fußabdrücke bis zu 43 cm Länge; siehe auch XXL). Die ersten Berichte über einen angeblichen „Schneemenschen“ stammen von einem Reisenden aus dem Jahr 1832; im Jahr 1889 wurden erstmals die berühmten Fußabdrücke festgehalten. Seitdem mehren sich die Sichtungen proportional zur Anzahl der Himalaya-Trekking-Touristen (siehe auch All-inclusive), unter ihnen so berühmte wie Sir Edmund Hilary (1953) und Reinhold Messner (1986). Messner verfasste auch ein vielgelesenes Buch über den Yeti, in dem er die These vertrat, dass es sich um den Ursus arktos handelt, eine scheue, nachtaktive und akut vom Aussterben bedrohte Bärenart (vgl. Artenvielfalt), die offensichtlich extrem kontaktscheu ist, aber auf großem Fuß lebt. Andere Wissenschaftler vermuten nach der DANN-Analyse eines angeblichen Yeti-Haares eine Mischgattung von Orang-Utan und Mensch.
Der Yeti könnte demnach eines der berühmten missing links zwischen verschiedenen Gattungen in der großen chain of being sein: Von einer „Kette der Wesen“, einer scala natura, sprach schon Aristoteles in seiner Zoologie (siehe auch Quantensprung). Mit deren exotischeren Seitenarmen beschäftigt sich heute die sogenannte „Kryptozoologie“ (von kryptos, griech. verborgen, und zoon, Lebewesen). Kryptozoologen gehen davon aus, dass es neben den etwa 1,5 Millionen bekannten Tierarten noch viele weitere unententdeckte gibt; sie interessieren sich dabei aber nicht so sehr für die unendlichen Käfervariationen im sechsfüßigen Insektenreich oder die gänzlich fußlosen Geschöpfe der Tiefsee (die auch nach Meinung seriöser Zoologen wahrscheinlich noch Millionen unentdeckter Arten bergen), sondern für unbekannte Großtiere. Als ordentliche Biologen haben sie auch eine Klassifikation für das Kryptische entwickelt: Man unterscheidet zwischen (1) schlechthin bisher unbekannten Tieren, von denen allenfalls die diversen Mythologien Spuren überliefern (ein reales Einhorn, beispielsweise, vielleicht mit besonders großen Hufen); potentiell ausgestorbenen Tieren (2) (Flugsauriern, von denen man ja vielleicht doch noch einen entdecken könnte, schließlich hat man den Quastenflosser oder den Komodowaran ja auch erst ziemlich spät gefunden); Tieren, die bekannten Arten zwar ähneln, aber sich auch durch wesentliche Merkmale von ihnen unterscheiden (3) (den Waldelefant beispielsweise, ein weiterer Großfüßler); bekannten Tieren in untypischen Gegenden, out of place“, wie der Kryptozoologe sagt (4) (also Tigern in London, von denen der urban myth häufig berichtet), und schließlich den allerreinsten Kryptiden schlechthin (5): Tieren, die bekannt und gesichtet und klassifiziert sind, aber derer man bisher allen Anstrengungen zum Trotz nicht habhaft werden konnte (dazu zählte eine Zeit lang ein so apartes Tier wie das Okapi, von dem man zwar Fotos hatte, aber kein lebendes Exemplar). Beim Yeti handelt es sich also um ein Wesen zwischen (1), (3) und (5); je nachdem, wieviel Glauben man den überlieferten Spuren schenkt: Es könnte sich um reine tibetanische Dämonologie handeln (1); oder um ein Wesen, das zwar affen- , bären- oder menschenähnlich ist, sich aber von allen drei Spezies durch wichtige Merkmale unterscheidet (aufrechter Gang, Fell, Schuhgröße; 3) oder eben um ein Wesen, von dem Spuren überliefert sind (Fußabdrücke, Haare), das sich aber der ordentlichen wissenschaftlichen Klassifikation auf seinen großen Füßen bisher heimtückisch entzogen hat (5). Out of place wäre der Yeti hingegen außerhalb der eisigen Höhenwelt des Himalayas so ziemlich überall, außer vielleicht bei einem Besuch bei Reinhold Messner in seinem Südtiroler Schloss.
Ähnliche Fabel- und Mischwesen wie der Yeti bevölkern alle volkstümlichen Mythologien von Urzeiten an und im Volksglauben bis heute: Vom bocksfüßigen Satyr bis zu den Pferdemenschen der Zentauren, vom bayerischen Wolpertinger bis zum norddeutschen Meermann Ekke Nekkepenn, vom leichenfressenden Dämon Ghul bis zum bei Vollmond sich verwandelnden Werwolf, vom amerikanischen Yeti-Verwandten Bigfoot bis zur japanischen Schneefrau Yuki Onna (nicht zu verwechseln mit Yoko Ono, vgl. Kult). In ihren bedrohlicheren Formen, von denen seit langem eine ganze Unterhaltungsbranche gut lebt, treten sie auf als Drachen und Lindwürmer, Vampire und Zombies, Golem oder Dschinn; die freundlichen Formen hingegen sind zahlenmäßig deutlich unterlegen, was einiges über die menschliche Phantasie aussagt. Die Berichte über Fabelwesen wie den Yeti scheinen jedoch eine anthropologische Konstante zu sein; von ihnen berichten seit der Antike die diversen Berichte von Reisenden in fremde und exotische Länder mit besonderer Vorliebe. Sie bedienen damit natürlich in erster Linie die Sensationslust ihrer Leser, die von jeher nicht so sehr an den kulturellen Errungenschaften fremder Zivilisationen (siehe auch Star Trek) interessiert waren als vielmehr an Grusel- und Gespenstergeschichten, was schon Thomas Morus beklagt: „Nach den Ungeheuern fragten wir nicht weiter, die nichts Neues mehr an sich hatten. Denn Schrecknisse wie die Scylla, menschenfresserische Lästrygonen [ersteres ein Unterwasserungeheuer, letzteres ein Riesenvolk, beide aus der homerischen Odyssee] und derlei unglaubliche Monstra findet man fast überall, heilsame und weise Satzungen der Bürger jedoch durchaus nicht so“ (Utopia).
Besonders für die Denker des 18. Jahrhunderts waren die Erfindungen der Mythologie zwar eine notwendige Stufe der menschlichen Frühentwicklung; durch die Aufklärung jedoch sollten sie ein- für allemal überwunden werden. Johann Gottfried Herder, der sich im Rahmen seiner umfangreichen kulturgeschichtlichen und ethnologischen Studien intensiv mit den Mythologien der Völker, überliefert in den diversen Reiseberichten aufklärerischer Forschungsreisender, auseinander gesetzt hat, resümiert: „Wie viele Fabeln der Alten von menschlichen Ungeheuern und Mißgestalten haben sich durch das Licht der Geschichte bereits verloren! Und wo irgend die Sage noch Reste davon wiederholet, bin ich gewiß, daß auch diese bei hellerm Licht der Untersuchung sich zur schönern Wahrheit aufklären werden“. Vom großfüßigen Yeti hat er zwar nichts gehört, besondere Aufmerksamkeit widmet aber auch er dem missing link vom Affen zum Menschen: „Den Orang-Utang kennet man jetzt und weiß, daß er weder zur Menschheit noch zur Sprache ein Recht hat; durch eine sorgfältigere Nachricht von den Orang-Kubub und Orang-Guhu auf Borneo, Sumatra und den Nikobar-Inseln werden sich auch die geschwänzten Waldmenschen verlieren. Die Menschen mit den verkehrten Füßen auf Malakka, die wahrscheinlich rachitische Zwergnation auf Madagaskar, die weiblich gekleideten Männer in Florida u. f. verdienen eine gleiche Berichtigung, wie solche bisher schon die Albinos, die Dondos, die Patagonen, die Schürzen der Hottentottinnen erhalten haben. Männer, denen es gelingt, Mängel aus der Schöpfung, Lügen aus unserm Gedächtnis und Entehrungen aus unsrer Natur zu vertreiben, sind im Reich der Wahrheit das, was die Heroen der Fabel für die erste Welt waren: sie vermindern die Ungeheuer auf Erden“. Zu ihrer jeweiligen Zeit und im richtigen kulturellen Kontext (vgl. Multikulti) allerdings haben die diversen Fabelwesen der Weltkulturen für Herder durchaus ihre Berechtigung: „die Mythologie jedes Volks ist ein Abdruck der eigentlichen Art, wie es die Natur ansah, insonderheit ob es, seinem Klima und Genius nach, mehr Gutes oder Übel in derselben fand und wie es sich etwa das eine durch das andre zu erklären suchte. Auch in den wildesten Strichen also und in den mißratensten Zügen ist sie ein philosophischer Versuch der menschlichen Seele, die, ehe sie aufwacht, träumt und gern in ihrer Kindheit bleibet“. Insofern steht auch Reinhold Messner noch in dieser altehrwürdigen, kulturell aufgeklärten Tradition, die jedem Volk seine eigenen Dämonen zugesteht und damit auch dem Yeti ein Lebensrecht verschafft – sofern er ordnungsgemäß im Reich der tibetanischen Mythologie bleibt jedenfalls, dort seine psychohygienischen Wirkungen auf die Volksseele ausübt und nicht versehentlich einem Heroen der Aufklärung oder einem Kryptozoologen in die Arme läuft.
Problematisch sind nämlich bereits für die aufklärerischen Philosophen Grenzüberschreitungen, besonders zum Menschen: Was wäre denn, wenn der Yeti nun doch mit seinen bekanntermaßen großen Füssen durch das Mount-Everest-Basislager trampelte und dabei den ein oder anderen Trekker in den Boden stampfte? Gehörte er unter Artenschutz? Oder ist er gar so menschenähnlich, dass man über seine Menschenrechte nachdenken müsste? John Locke erwägt in Vertretung überparteilicher Ethikkommissionen: „Wer möchte die Art bestimmen, zu der das bei Licetus, Buch I., Kap. 3, erwähnte Ungeheuer mit einem Menschenkopf und einem Schweinsleib gehörte? oder jene mit dem Leib eines Menschen und dem Kopf eines Hundes oder Pferdes, oder eines andern Thieres? Hätte ein solches Geschöpf noch überdem leben und sprechen können, so wäre diese Frage noch weit schwieriger geworden. Wäre das Obertheil bis zur Mitte von menschlicher Gestalt, und das Untere wie bei einem Schwein gewesen, würde da dessen Tödtung ein Mord gewesen sein? Und hätte man da den Bischof fragen müssen, ob es zur Taufe zu verstatten sei? Etwas Aehnliches ereignete sich, wie man mir erzählt hat, vor einigen Jahren in Frankreich. So unsicher sind für uns die Grenzen der Arten der Geschöpfe; sie können nur nach den von uns verbundenen Vorstellungen bemessen werden, und man ist weit von der sichern Kenntniss, was der Mensch ist, entfernt“. Wann wäre der Yeti also ein Mensch? Wenn er eine „vernünftige Seele“ hat, das ist für John Locke als Vertreter der Aufklärung ziemlich klar; aber woran erkennt man nun eine vernünftige Seele? Locke führt das Gedankenexperiment sozusagen umgekehrt weiter: „Der wohlgestaltete Wechselbalg [der Abkömmling einer Hexe und des Teufels] ist ein Mensch, hat eine vernünftige Seele, wenn sie auch sich nicht zeigt; dies ist unzweifelhaft, sagt man. Machen wir aber die Ohren ein wenig länger und spitzer und die Nase etwas flacher als gewöhnlich, beginnt man zu stutzen; wird das Gesicht noch schmäler, platter und länger, so ist man in Zweifel; fügt man nun noch mehr und mehr hinzu, was ihn dem Thiere ähnlicher macht, und wird der Kopf genau der eines Thieres, dann ist es auf einmal ein Ungeheuer, und es ist erwiesen, dass es keine vernünftige Seele hat und zerstört werden muss. Wo ist hier (frage ich) die Grenze, bei der die Gestalt keine vernünftige Seele mehr hat?“ Ist sie vielleicht bei einer Schuhgröße von 43 Zentimetern? (die europäische Schuhgrößenskala endet bei Größe 49 und 32 Zentimetern, auch wenn sich die durchschnittliche Fußgröße unserer Nachkömmlinge inzwischen rasant den Yeti-Maßen annähert).
Der Yeti wirft jedoch nicht nur biologische und moralische Fragen auf, sondern auch im engeren geschichtsphilosophische. So entwirft Friedrich Wilhelm Joseph Schelling auf den Spuren der Herderschen Kulturgeschichte eine eigene „Philosophie der Mythologie“, die sich auf die menschliche Frühgeschichte vor aller historischen Überlieferung bezieht: „Nimmt man Geschichte im weitesten Sinn, so ist die Philosophie der Mythologie selbst der erste, also notwendigste und unumgänglichste Teil einer Philosophie der Geschichte“. Die Dämonen, Misch- und Fabelwesen stehen damit  sei es großfüßig auf eisigen Bergen, katzenäugig in der ägyptischen Wüste oder lindwurmgeringelt bei den germanischen Heiden  am Beginn aller auch menschlichen Geschichte; sie bilden zwar einen „dunklen Raum“, der jedoch vom mutigen Geschichtsphilosophen betreten werden kann und nach Schelling auch betreten werden muss, um der menschlichen Geschichte einen definitiven Anfang setzen zu können.
Die Jugendfreunde Schelling, Hegel und Hölderlin waren auf ihrem Stübchen im Tübinger Stift, fern von Yeti, Sphinx und Lindwurm sogar noch weiter gegangen: Die zukünftige Philosophie des Geistes, die sie in ihrer gemeinsamen Jugendschrift, dem Ältesten Systemprogramm des deutschen Idealismus, entwarfen, könne überhaupt nur eine „ästhetische Philosophie“ sein. Deren Vorbild ist die „sinnliche Religion“, die auch für diejenigen Menschen zugänglich ist, die zum Reich der Ideen gemeinhin keinen Zugang finden, weil „ihnen alles dunkel ist, sobald es über Tabellen und Register hinausgeht“. So, wie der „große Haufe“ eine anschauliche, handgreifliche Religion brauche, benötige der Philosoph der Zukunft, auch und gerade als Idealist Philosoph, eine sinnlich-anschauliche Philosophie (siehe auch Visualisierung). Diese jedoch könne nur eine „neue Mythologie“ sein, eine „Mythologie der Vernunft“ nämlich: „Ehe wir die Ideen ästhetisch, d. h. mythologisch machen, haben sie für das Volk kein Interesse; und umgekehrt, ehe die Mythologie vernünftig ist, muß sich der Philosoph ihrer schämen. So müssen endlich Aufgeklärte und Unaufgeklärte sich die Hand reichen, die Mythologie muß philosophisch werden und das Volk vernünftig, und die Philosophie muß mythologisch werden, um die Philosophen sinnlich zu machen. Dann herrscht ewige Einheit unter uns“. Eine schöne Vision, zweifelsohne, und das einzige, was fehlt, ist ihr Messias: „Ein höherer Geist, vom Himmel gesandt, muß diese neue Religion unter uns stiften, sie wird das letzte, größte Werk der Menschheit sein“. Offensichtlich ist dieser neue Messias bisher jedoch noch nicht eingetroffen, und die „Mythologie der Vernunft“ wurde derweil durch eine „Mythologie des Konsums“ für die meisten im Fußvolk mehr als hinreichend ersetzt. Könnte aber der Yeti wohl gar der gesuchte neue Messias sein? Seine großen Füße würden dann auf den Fortschritt der philosophischen Ideen, seine aufrechte Gestalt auf seinen starken Geist, sein zotteliges Fell auf die innerliche Wärme, seine Übergröße insgesamt auf eine über sich selbst hinausgewachsene Menschheit hindeuten, die auch in den eisigsten Regionen des Geistes (siehe auch Cool) heimisch ist. Vielleicht aber ist er auch nur eine Projektion unaussprechlicher menschlicher Urängste, und der einsame Bergwanderer mag besser an Nietzsche denn an Schelling denken, wenn er den großen Fußabdrücken zu weit folgt: „Wer mit Ungeheuern kämpft, mag zusehn, daß er nicht dabei zum Ungeheuer wird. Und wenn du lange in einen Abgrund blickst, blickt der Abgrund auch in dich hinein“ (Jenseits von Gut und Böse).


ZEHN GEBOTE, DIE: Gebote und Verbote des Gottes JHWH an sein auserwähltes Volk, die Israeliten, die er Moses auf dem Berg Sinai auf zwei Steintafeln diktiert hat (die genaue Überlieferungsgeschichte wie auch der Wortlaut unterscheiden sich geringfügig, da es zwei Quellen im Alten Testament gibt, nämlich Exodus 20, 2-17, und Deuteronium 5, 6-21). Historisch gesehen markieren die Zehn Gebote den Beginn des Monotheismus als prinzipiell neues Religionsmodell nach den antiken und frühkulturellen Polytheismen: Wie JHWH gleich einleitend deutlich macht, ist er nicht nur der einzige Gott, sondern auch ein „eifersüchtiger“ Gott, der keine anderen Götter neben sich duldet. Juristisch gesehen bilden die Zehn Gebote eine Art Gründungsurkunde Israels durch einen Vertrag, den JHWH mit seinem auserwählten Volk abschließt, und der darauf basiert, dass er allein die Israeliten aus der Sklaverei in Ägypten befreit hat und nun ins gelobte Land führt, wo fortan die von ihm verkündeten Gesetze gelten sollen. Als moralischer Kompass sind sie in die christlichen Tugend- und Lasterkataloge eingegangen, und Generationen haben sie im Konfirmationsunterricht auswendig gelernt. Und sie waren und sind bis heute kulturprägend: Berühmte Maler und Bildhauer haben dargestellt, wie ein imponierender Moses mit zwei bizarren Hörnern auf der zorngeschwellten Stirn massive Steintafeln stemmt; im 20. Jahrhundert sind sie mehrfach filmisch umgesetzt worden, und auch Vertonungen gibt es, von Bach bis hin zu den Toten Hosen (Die zehn Gebote auf der Sammlungen Opium fürs Volk).
Dass die Zehn Gebote ausgerechnet zehn sind, wird gemeinhin entweder zahlenmystisch oder mnemotechnisch begründet: Was man an seinen zehn Fingern abzählen kann, prägt sich einfach besser ein, und mehr kann sich sowieso keiner merken. Symbolisch steht die Zahl 10 für die Vollkommenheit: Sie ist die Basis des Dezimalsystems; sie ist die Summe aus den ersten vier Zahlen sowie die Summe der ersten Primzahlen. Zehn an der Zahl waren die Plagen, die der zornige Gott JHWH über die Ägypter kommen ließ, damit sie sein auserwähltes Volk endlich gehen ließen; das römische Zeichen X für zehn ist gleichzeitig der griechische Buchstabe chi (Χ), der gemeinsam mit dem rho (Ρ) das sogenannte Christus-Monogramm bildet. Die Reihe ließe sich fortsetzen, das Ergebnis bleibt das gleiche: Zehn ist die perfekte Zahl schlechthin.
Dass die Zehn Gebote darüber hinaus eigentlich in der Mehrzahl Verbote sind, macht spätestens die massive „du-sollst-nicht“-Reihung der zweiten Hälfte des Dekalogs, die sogenannte „Sozialtafel“, deutlich: nicht töten, nicht ehebrechen, nicht stehlen, nicht falsch Zeugnis reden, nicht verlangen nach des Nächsten diversen Gütern. Demgegenüber beziehen sich die ersten Gebote, die sogenannte „Kulttafel“, nicht weniger streng auf das Verhältnis des Gläubigen zu Gott und die genaue Art, wie er zu ehren ist: nämlich allein und einzig, ohne Abbildung und durch die Ruhe am siebten Tag, an dem auch Gott selbst bekanntlich von seiner Schöpfung ausruhte. Ansonsten macht der sprachlich rigide Charakter hinreichend deutlich, was Gott von seinem auserwählten Volk forthin erwartet: absoluten Gehorsam und eisernes moralisches Durchhaltevermögen gegenüber den offensichtlich schon damals allgegenwärtigen Versuchungen von Vielgötterei, Respektlosigkeit, Gewalt, Betrug, Neid und Wollust.
Die Zehn Gebote sind insofern eine Art moralisches ABC des Juden- und des Christentums bis heute, auch wenn man sie heute sicherlich anders formulieren müsste. Da wäre zum ersten das Problem mit dem Gottesbild: Hier spricht unüberhörbar ein autoritärer Herrscher mit massivem Alleinvertretungsanspruch, also kein multikulturell toleranter, womöglich gar weiblicher Gott. Als erstes erteilt er ein Bilderverbot – was zum Glück von der Tradition frühzeitig und massiv missachtet wurde, da es im Kern kreativitäts- und kulturfeindlich ist. Zudem vertritt er ein überholtes Konzept von kleinbürgerlicher Kernfamilie, das weiterhin rein autoritär begründet ist (immerhin ist aber auch die Mutter und nicht nur der Familienpatriarch zu ehren). Das Sabbatgebot wird zwar allgemein gern angenommen, dient aber weithin nur noch der Heiligung des ungestörten Ausschlafens. Wenn wir kategorisch nicht mehr „des Nächsten Gut“ begehren würden, würde die Wirtschaft zumindest in den wachstumshörigen Industriestaaten wohl ziemlich schnell kollabieren. Und das wahrscheinlich konsensfähigste und historisch scheinbar am wenigsten wandelbare Gebot, das fünfte, wird gemeinhin leider falsch überliefert und memoriert: Im Hebräischen ist nämlich gar nicht davon die Rede, dass man nicht „töten“ solle, was unerwünschte pazifistische Nebenwirkungen hätte, die der zornige und rach- nicht weniger als eifersüchtige Gott JHWH kaum gebilligt hätte. Es heißt vielmehr, man solle nicht hinterrücks morden (worunter heutzutage, auch wenn sie von oben und nicht von hinten kommen, immerhin ziemlich sicher Drohnen fallen). Unabhängig von allen Feinheiten der theologischen Auslegung und den inzwischen jahrtausendelangen Streitigkeiten darüber hat es deshalb seinen guten Grund, dass schon im Neuen Testament von den Zehn Geboten als ehernen Gesetzestafeln nicht mehr die Rede ist, sondern die eher allgemeinen und dem Zeitgeist flexibler anzupassenden Werte der Gottes- und Nächstenliebe an ihre Stelle treten.
Angesichts der zeitlichen und kulturellen Distanz, die unsere Zeit von dem zornigen und eifersüchtigen Gott der Israeliten, eines einfachen, nomadischen Hirtenvolkes im Orient, trennt, sind inzwischen zahllose Varianten der Zehn Gebote entstanden. Sie alle zehren von der quasi-magischen Aura der Zehnzahl ebenso wie von der seit Kindesbeinen vertrauten Vorstellung von steinernen, bedeutungsschweren Tafeln. Als historisch wenig erfolgreich haben sich allerdings die „Zehn Gebote für den neuen sozialistischen Menschen“ (verkündet von Walter Ulbricht im Jahr 1958; Motto: Die sozialistische Internationale ist unser Gott) erwiesen, die immerhin auch konservative Werte wie Vaterlandsliebe, Schutz des Volkseigentums, Arbeitsdisziplin, Sauberkeit und Anständigkeit in der Familie predigen. Am beliebtesten sind vielmehr die diversen humanistischen Varianten mit meist agnostischem Einschlag. Dazu gehören z.B. die pazifistisch inspirierten Zehn Gebote des Philosophen Bertrand Russell, die vor allem selbständiges Denken, universalen Zweifel, Kritik von Autoritäten und Orientierung an der Wahrheit fordern (Motto: das Denken ist unser Gott); oder die „Zehn Angebote“ des Evolutionären Humanismus (propagiert werden Fairness, Aufklärung, Humanität, Kritik, aber auch Lebensgenuss; Motto: das Ideal der Humanität ist unser Gott). Andere Kataloge beziehen stärker ökologische Aspekte ein, wie beispielsweise die in mehreren Sprachen in große Granitblöcke gemeißelten Zehn Gebote der sogenannten Georgia Guidestones (Motto: das Ökosystem ist unser Gott), die nicht nur eine weise Regelung der Fortpflanzung fordern, orientiert am Gleichgewicht der Natur, sondern auch - bisher leider ebenso erfolglos wie die Regulierung des ungehinderten Bevölkerungswachstums: „Vermeide belanglose Gesetze und unnütze Beamte!“
Am besten trifft den Geist der Neuzeit aber vielleicht die ironische Variante, nämlich die Acht Gebote des Fliegenden Spaghettimonsters in der Religion des Pastafarianismus (eine Schöpfung des amerikanischen Physikers Bobby Henderson; Motto: Niemand ist Gott). Sie beginnen nicht mit dem erhobenen „Du-Sollst“-Zeigefinger des eifersüchtigen JHWH, sondern nuscheln daher: „Mir wär’s wirklich lieber“ – niemand auf die „nudlige Güte“ als einzige Religion zu verpflichten (1); Religion als Vorwand für Unterdrückung zu benutzen (2); Menschen anhand ihres Äußeren zu beurteilen (3); bei sexuellen Praktiken eine Peinlichkeitsgrenze zu respektieren (4); nicht frauenfeindlich zu sein (5); Geld besser für humanitäre Projekte als zum Bau von kirchlichen Palästen zu verwenden (6); nicht damit zu prahlen, dass Gott zu einem persönlich gesprochen hat („Nimm dich mal zurück!“; 7); andere nicht so zu behandeln, wie man selbst nicht behandelt werden möchte (mit der Ausnahme von im Konsens vereinbarten Sexualpraktiken; 8).
Aber warum eigentlich nur acht? Dafür hat schon Monty Pythons „Moses“-Film eine Erklärung vorgeschlagen: Wenn man sich mit Gesetzestafeln überlädt, zerdeppern sie halt leicht (ursprünglich waren es nach Monty Python nämlich drei Tafel damals auf dem Sinai, also 15 Gebote, aber das konnte nicht mal der athletische Moses stemmen). Die ernsthaft-ironische Erklärung wäre aber wohl: um sich gezielt von der überhöhten Zehnzahl zu distanzieren (das Spaghettimonster würde sagen: „Mir wärs echt lieber, wenn ihr nicht immer so auf runde Zahlen fixiert wärt!“). Und nicht ganz zufällig formuliert das achte Gebot eine der unzähligen Varianten der uralten „Goldenen Regel“ (deren etwas kompliziertere Fassung beispielsweise Kant in seinen „Kategorischen Imperativ“ gegossen hat): Was du nicht willst, das man dir tu, das füg’ auch keinem anderen zu. Das jedoch wäre letztlich auch die bessere, genauer: universalere Begründung für die Ur-Zehn-Gebote: Da wir alle selbst nicht verachtet, getötet, bestohlen, betrogen, belogen werden wollen, lassen wir es einfach auch bei unseren Mitmenschen sein. Aus Eigennutz. Oder Gemeinnutz (der Witz der „Goldenen Regel“ ist: Beides ist das gleiche, jedenfalls wenn wir nicht Robinson Crusoe sind). Oder damit das Spaghettimonster sich über uns freut. Und für alle diejenigen, die weder bis zehn noch bis acht zählen können und denen die „Goldene Regel“ immer noch zu schwierig ist, möge gelten, was Thomas Mann in seiner Erzählung „Das Gesetz“ Moses sagen lässt: „Ich weiß wohl, und Gott weiß es im voraus, daß seine Gebote nicht werden gehalten werden; und wird verstoßen werden gegen die Worte immer und überall. Doch eiskalt ums Herz soll es wenigstens jedem werden, der eines bricht, weil sie doch auch in sein Fleisch und Blut geschrieben sind und er wohl weiß, die Worte gelten“.



ZICKENKRIEG, seit den 90er Jahren des 20. Jahrhunderts gebräuchliche Beschreibung für die öffentliche Auseinandersetzung zweier Frauen, die ihre jeweilige Position lautstark mit verbaler (und nur im Extremfall auch körperlicher) Gewalt verteidigen, abgeleitet von der älteren Beschimpfung eigensinniger, überspannter oder arroganter Frauen als „Zicken“ („Zimtzicke“, „Meckerziege“), wohl unter Bezug auf das allgemein als unangenehm empfundene Meckern von Ziegen. Der Begriff hat sich vor allem wegen der zunehmenden Beliebtheit von Model-Shows (siehe auch Reality TV) verbreitet, bei der vermeintlich „sachkundige“ Gutachter oder Publikums-Jurys die Kandidatinnen aufeinanderhetzen, um die niederen Instinkte des Publikums und die Lust an der Bosheit zu bedienen und damit die Einschaltquoten (vgl. Quote) zu steigern. Das männliche Äquivalent dazu ist der „Hahnenkampf“, der sich von der natürlichen Aggressionsbereitschaft junger Hähne ableitet. Um es kurz zu fassen: Aufgeplusterte, selbstverliebte und auf vor allem gleichaltrige Artgenossen aggressiv reagierende Männer sind Hähne; aufgeputzte, launische und auf wiederum vor allem gleichaltrige Artgenossinnen aggressiv reagierende Frauen sind Zicken. Eine Paarung zwischen beiden scheint schwer vorstellbar und evolutionär wenig erfolgversprechend – weshalb sich das geschlechterspezifische Revierverhalten auch sinnvollerweise nur auf gleichgeschlechtliche Konkurrenzverhältnisse bezieht.
Die Vorgängerin der „Neuen Zicke“ zu Beginn des 21. Jahrhunderts ist das zänkische Weib, dessen Urmodell in einer Nebenrolle der antiken Philosophie überliefert ist: Sokrates’ Eheweib Xanthippe ist zum Kollektivnamen für eine ganze Gattung von Frauen geworden. Ihr Name setzt sich aus den griechischen Bestandteilen xanthos (gelblich, blond) und hippos (Pferd) zusammen: Xanthippe könnte also gleichzeitig auch das Vorbild für Blondinenwitze und für Stutenbissigkeit (siehe unten) gewesen sein. Leider sind aus dem Athen des 5. vorchristlichen Jahrhunderts keine Videos überliefert, die Xanthippe in Aktion zeigen („Athen sucht das Supermodel“); ihr übler Leumund geht allein auf die schriftliche Überlieferung – natürlich von Männern – zurück, beispielsweise des Xenophon, eines Schülers des Sokrates. In dessen Symposion wird Sokrates, nachdem er ein energisches Plädoyer für die Frauenerziehung abgegeben hat, gefragt: „Wenn du dieser Meinung bist, Sokrates, sagte Antisthenes, wie kommt es daß du die Probe nicht an deiner Xanthippe machst, sondern dich mit einer Frau behilfst, die unter allen lebenden, ja, meines Bedünkens, unter allen die ehemals gelebt haben und künftig leben werden, die unerträglichste ist. Das geschieht aus der nämlichen Ursache, versetzte Sokrates, warum diejenigen, welche gute Reiter werden wollen, sich nicht die sanftesten und lenksamsten Pferde, sondern lieber wilde und unbändige anschaffen; denn sie denken, wenn sie diese im Zaum zu halten vermöchten, werde es ihnen ein leichtes sein, mit allen andern fertig zu werden. Gerade so machte ichs auch, da ich die Kunst mit den Menschen umzugehen zu meinem Hauptgeschäfte machen wollte: ich legte mir diese Frau zu, weil ich gewiß war, wenn ich sie ertragen könnte, würde ich mich leicht in alle anderen Menschen finden können.“ Dass hier wieder von Pferden die Rede ist, mag nur ein Zufall sein; der Kern der Aussage jedoch ist durchaus produktiv: Vom Umgang mit Zicken kann Mann fürs Leben nur lernen. Insofern ist Sokrates’ Verhältnis zu seiner Xanthippe weit entfernt von jener Weiberfeindschaft, die spätere Philosophen auch im Zickenkrieg eine Bestätigung ihrer prinzipiellen Ablehnung aller Weiblichkeit sehen ließen– so der notorische Frauenhasser Friedrich Nietzsche in Jenseits von Gut und Böse: „Zuletzt stelle ich die Frage: hat jemals ein Weib selber schon einem Weibskopfe Tiefe, einem Weibsherzen Gerechtigkeit zugestanden? Und ist es nicht wahr, daß, im Großen gerechnet, ‚das Weib’ bisher vom Weibe selbst am meisten mißachtet wurde – und ganz und gar nicht von uns? – Wir Männer wünschen, daß das Weib nicht fortfahre, sich durch Aufklärung zu kompromittieren“. Die Zicke schweige, wo auch immer.
Ein weiteres Beispiel aus der Antike zeigt, dass einer der Gründe für den Zickenkrieg schon immer das leidige Thema der Schönheitskonkurrenz war. Als der griechische Götterverein wieder einmal zu einer Hochzeit eingeladen ist, wurde versehentlich – oder vielleicht auch nicht? – Eris, die Göttin der Zwietracht, nicht eingeladen. Sie rächte sich als echte Zicke, indem sie einen goldenen Apfel mit der Aufschrift kallisti (der schönsten) in die gesellige Runde warf – und prompt stürzen sich Venus (die allseits bekannte Göttin der Liebe), Pallas Athene (die jungfräuliche Lieblingstochter des Jupiters und die Göttin der Weisheit sowie des Kampfes) und Hera (die leidgeprüfte Gemahlin des Jupiter und Schutzherrin aller Ehefrauen) gleichzeitig darauf. Der Göttervater Jupiter, zickenerprobt, zieht sich aus der Affäre, indem er den schönen Paris, einen unschuldigen Menschenjüngling, zum Richter macht. Und schon beginnt das schönste Casting, begleitet von den üblichen Verbalinjurien, die der griechische Satiriker Lukian in seinem 20. Göttergespräch folgendermaßen wiedergibt:
PARIS. Wie ich's haben will? Wenn das ist, so will ich sie nackend sehen.
MERKUR. Die Damen werden sich also gefallen lassen, die Kleider abzulegen: ich will indes anderswohin sehen.
VENUS. Recht schön, Paris! – Ich bin gleich die erste, die sich ohne Bedenken entkleidet, damit du sehest, daß ich nicht bloß ‚weiße Ellenbogen’ habe oder mir auf ein ‚paar große Augen’ viel einbilde, sondern daß ich überall gleich schön bin.
PALLAS. Vor allem andern, o Paris, laß sie ihren Gürtel ablegen, denn sie ist eine Zauberin und könnte dir leicht mit Hülfe desselben ein Blendwerk vor die Augen machen; auch hätte sie sich nicht so mächtig verschönern und so viel Weiß und Rot auflegen sollen, daß sie einer wirklichen Kurtisane gleichsieht, sondern ihre Schönheit ungekünstelt und natürlich lassen sollen wie sie ist.
PARIS. Sie haben recht, was den Gürtel betrifft; also weg damit!
VENUS. Und warum legst denn du, Minerva, nicht auch deine Sturmhaube ab und zeigst dich mit bloßem Kopfe, sondern schüttelst den Federbusch so, als ob du den Richter schrecken wolltest? Fürchtest du etwa, deine wasserblauen Augen möchten ohne das Furchtbare, das sie von deinem Helm entlehnen, keine sonderliche Wirkung tun?
PALLAS den Helm ablegend. Da siehst du mich ohne diesen Helm!
VENUS den Gürtel ablegend. Da siehst du mich ohne den Gürtel.
JUNO. Nun, so zaudern wir nicht länger! Sie entkleiden sich.
Leider geht es auch bei diesem antiken Casting nicht ganz mit rechten Dingen zu: Jede der drei Damen verspricht dem Richter eine andere Belohnung, und Paris entscheidet sich natürlich für die Liebe, nämlich die Schönste aller Sterblichen, Helena (leider schon anderweitig verheiratet) – mit den bekannten Folgen für Troja, die griechische Zivilisation und die Weltliteratur.
Zwei weitere Zickenkriege haben es zu Ruhm in ihren jeweiligen Nationalliteraturen gebracht. Der eine entstammt der germanischen Mythologie: Kriemhild, die schöne Gattin Siegfrieds, zankt sich mit Brunhild, der nicht nur schönen, sondern auch starken Gattin von Gunther. Man trifft sich beim Kirchgang vor dem Wormser Dom, und man streitet sich, wer zuerst die Kirche betreten darf, wie es das unbestreitbare Vorrecht der Ranghöheren ist (eigentlich geht es natürlich darum, wer den besten, schönsten und stärksten Mann hat). Die Auseinandersetzung führt erst zu empfindlichen persönlichen Beleidigungen – „Kebsweib“, „Mannweib“ – und wird schließlich handgreiflich; der düstere Hagen kommentiert abschließend (so in Friedrich Hebbels Version des germanischen Zickenkriegs, dem Nibelungen-Drama):
Jetzt bringe nur
Die Weiber auseinander, die noch immer
Die Schlangenkämme wieder sträuben können,
Wenn sie zu früh sich in die Augen sehn.
Wie das Ganze endet, ist ebenfalls bekannt: Die beleidigte Brunhild fordert den Tod Siegfrieds; die Nibelungen gehen unter, und der Schatz ist für immer verloren. Man sollte Zickenkriege in ihren welthistorischen Konsequenzen nicht unterschätzen.
Das beweist auch das englische Äquivalent, der Streit der beiden Halbschwestern Maria Stuart (Königin von Schottland) und Elisabeth Tudor (Königin von England) nämlich, wie ihn Friedrich Schiller in seiner Tragödie Maria Stuart schildert. Das Muster ist wiederum ganz ähnlich: Vordergründig geht es um nichts weniger als die Königskrone; ausgetragen wird der Kampf aber, als sich die beiden Rivalinnen im dritten Akt endlich gegenüberstehen, über persönliche Argumente. Die „jungfräuliche Königin“ Elisabeth I. wirft der attraktiveren Nebenbuhlerin ihre Liebesgeschichten vor und wird dann im Wortsinn „gemein“:
ELISABETH sieht sie lange mit einem Blick stolzer Verachtung an.
Das also sind die Reizungen, Lord Leicester,
Die ungestraft kein Mann erblickt, daneben
Kein andres Weib sich wagen darf zu stellen!
Fürwahr! Der Ruhm war wohlfeil zu erlangen,
Es kostet nichts, die allgemeine Schönheit
Zu sein, als die gemeine sein für alle!
MARIA.
Das ist zuviel!
Auch hier führt das Ganze zu keinem guten Ende, zumindest für die eine der beiden: Maria Stuart wird wegen Hochverrats geköpft. Ihre Halbschwester Elisabeth überlebt sie zwar um 16 Jahre, am Ende wird sie jedoch neben Maria in Westminster Abbey begraben, der (im Original lateinische) Grabspruch verbindet die beiden feindlichen Schwestern endgültig für die Ewigkeit:
Partner beide in Thron und Grab,
hier ruhen wir zwei Schwestern,
Elisabeth und Maria,
in der Hoffnung auf die Auferstehung.
Und der Sohn Maria Stuarts wird als König Jakob I. der erste gemeinsame König von England und Schottland – ein später schottischer Sieg im britischen Zickenkrieg.
Gekrönte Zicken findet man heute nur noch wenige – was aber eher mit der schwindenden Anzahl an Königinnen als grundlegenden anthropologischen Veränderungen in der Bewertung von kämpferischer Weiblichkeit zu tun hat; an ihre Stellen sind die eher kurzlebigen Quotenköniginnen getreten. Zunehmend öffentliche Beachtung findet hingegen das dem Zickenkrieg verwandte Phänomen der „Stutenbissigkeit“: Die Leitstute, die ihre führende Position in der Herde gegen andere Stuten mit Bissen verteidigt – konkurrierende Hengste pflegen hingegen zu treten –, ist zum Spiegelbild der Karriere-Zicke geworden, die ihre führende Position im Wirtschaftsleben mit allen Mitteln vor allem gegen weibliche Konkurrentinnen durchsetzen will. Mit ihren streitbaren Vorgängerinnen verbindet sie, wie auch die Geschichte der Zickenkriege zeigt, vor allem ein Wahrnehmungsproblem: Streitende Frauen sind nicht sexy – außer es handelt sich um Schlammcatchen, die im Wortsinn schmutzige Variante des Zickenkriegs. Neues weibliches Selbstbewusstsein zeigt sich hingegen in der Adaptation des Geschlechter-Klischees nach dem Motto: „Ich bin eine Zicke – und das ist auch gut so!“

Zuhause