Der Betrug der algebraischen Kausalität

Die Unterscheidung, welche Newton zwischen Bewegungsgesetzen oder Axiomen und Hypothesen macht, scheint mir nicht haltbar. Das Trägheitsgesetz ist die Hypothese: Wenn ein materieller Punkt allein in der Welt vorhanden wäre und sich im Raum mit einer bestimmten Geschwindigkeit bewegte, so würde er diese Geschwindigkeit beständig behalten. – Bernhard Riemann((Bernhard Riemanns gesammelte Schriften, Hg. Heinrich Weber, Sändig Reprint Verlag Hans R. Wohlwend, Liechtenstein, S. 525.))

Der Kern des Betrugs in der heute allgemein anerkannten Schulmathematik läßt sich am treffendsten durch die Tatsache verdeutlichen, daß die Galileischen und Newtonschen algebraischen Formeln für die Schwerkraft unmittelbar aus dem dritten Keplerschen Gesetz ableitbar sind und deshalb in allen formalen Aspekten mit diesem dritten Gesetz der Planetenbewegung algebraisch übereinstimmen.((Lyndon H. LaRouche jr., „The Science of Christian Economy“ (Christentum und Wirtschaft), in The Science of Christian Economy and Other Prison Writings (Schiller-Institute, Washington, D.C., 1991), Appendix V, „How Newton Parodied Kepler’s Discovery“, S. 374–377.))

Der entscheidende Punkt ist der folgende: Trotz dieser formalen Übereinstimmung hat der Begriff der Ursache (causa), der im Zentrum der mathematischen Physik von Aristoteles, Galileo Galilei und Isaac Newton steht, in Keplers ursprünglicher Entdeckung dieses Prinzips der universellen Gravitation keine ontologische Existenz. Trotz der algebraischen Übereinstimmung, die den beiden Formeln für die Gravitation zugrundezuliegen scheint, besteht ein axiomatisch unüberbrückbarer ontologischer Unterschied bezüglich ihrer physikalischen Bedeutung.

Wegen dieses axiomatischen Unterschieds tritt bei Galileo und Newton die rein mechanische Vorstellung der Reaktion – ausgedrückt durch den Begriff „Kausalursache“ – an die Stelle dessen, was Kepler unter dem Begriff des „Vernunftgrundes“ faßt.

Wenn wir dieses Paradox untersuchen, dann führt uns das unmittelbar zum tiefliegendsten und hartnäckigsten Konflikt innerhalb der mathematischen Physik, wie sie in den letzten vier Jahrhunderten gelehrt wurde. Eine genaue Untersuchung dieses Paradoxes wird zeigen, daß der Ursprung dieser Auseinandersetzung darin liegt, daß alle modernen Aristoteliker und andere philosophischen Materialisten1 entweder die Existenz der Kreativität gänzlich leugnen oder dieser – wie René Descartes oder Immanuel Kant – nur eine Existenz in der dem Verstand unzugänglichen Domäne des Aberglaubens einräumen: Entweder als Kantschen „Intuitionismus“ oder, ganz extrem im Gefolge des Orphischen Kults, als gnostischen deus ex machina.

Der entscheidende Punkt, den es zu betrachten gilt, ist Galileos zweifacher Verstoß gegen die grundlegendsten Prinzipien wissenschaftlicher Methode, die von allen führenden Entdeckern der vergangenen zwei Jahrtausenden angewandt wurden. Erstens verletzte Galileo das Prinzip der wissenschaftlichen Strenge, wie es von der platonischen Akademie in Athen etabliert wurde: Das Prinzip, mit dessen Hilfe Platon und seine Schüler und Mitarbeiter Eudoxus und Theatetus die Existenz einer Klasse von Größen demonstrierten, die nicht von den Brüchen abgeleitet werden können und „inkommensurabel“ genannt werden. Zweitens verfällt Galileo in den Fehler der „wissenschaftlichen Objektivität“. er mißachtet geradezu borniert das wesentliche Prinzip der sokratischen Methode Platons: Es kann keine kompetente Methode des Wissens vom Universum geben, die nicht adäquat Rechenschaft von der Existenz gültiger Entdeckungsakte bei der Entdeckung neuer Prinzipien durch den Wissenden ablegt.((Dies ist auch die Methode der belehrten Unwissenheit der christlichen Platoniker, die mit Die belehrte Unwissenheit von Nikolaus von Kues und späteren Schriften verbunden ist.))

Diese beiden fundamentalen, axiomatisch-methodischen Fehler der beiden Schützlinge des Paolo Sarpi, Galileo und Francis Bacon, durchzieht alle einzelnen Aspekte der Arbeiten von Galileo, Descartes und Newton. Dies sind die charakteristischen, immer wieder weitervererbten Fehler, an denen die heute allgemein anerkannte Schulmathematik krankt. Von der Grundlage dieser beiden allgemein verbreiteten Fehler in der anerkannten Schulmathematik und Lehrbuchpraxis wollen wir im folgenden bei der Untersuchung des falschen, aber populären Begriffs der „Kausalität“ ausgehen.

Die Prinzipien der wissenschaftlichen Methode

In der Geschichte der Wissenschaft gibt es bis zum heutigen Tag drei Typen axiomatischer Ausgangspunkte, welche bei der Gegenüberstellung von Kepler und Galileo bezüglich des Begriffs der Kausalität deutlich werden:

  1. Die axiomatischen Ausgangspunkte der Methode, welche in das Gebiet der formalen Mathematik (Geometrie) gehören.
  2. Die axiomatischen Ausgangspunkte der Platonischen Methode, welche in Bernhard Riemanns berühmter Habilitationsschrift über die „Hypothesen, welche der Geometrie zugrundeliegen“, zum Vorschein kommen.((Bernhard Riemann, „Über die Hypothesen, welche der Geometrie zu Grunde liegen“, in: Gesammelte Werke, a. a. O., S. 272–287.))
  3. Die epistemologischen Fragen, welche der Autor in den Jahren 1951-1952 ausgehend vom Standpunkt der physikalischen Ökonomie gelöst hat.((Lyndon H. LaRouche jr., „The Truth About Temporal Eternity“ (Die Wahrheit über die zeitliche Ewigkeit), in: Fidelio, 3.Jg., Nr. 2, Sommer 1994, S. 19–23.))

Wir stellen nun der Reihe nach jeden dieser drei Typen von Ausgangspunkten so kurz wie möglich dar.

Für unsere Zwecke wird der relevante axiomatische Ausgangspunkt der formalen (d.h. mathematischen) Methode durch die Auswahl zweier berühmter Beispiele aus der klassischen griechischen Geometrie an Platons Schule von Athen illustriert: Erstens, die Hypotenuse eine Dreiecks mit den Seiten 3, 4, 5; und zweitens, die Ableitung des Goldenen Schnittes aus der Konstruktion eines Beweises für Platons Behauptung, daß nur fünf regelmäßige Körper in die Kugelschale einbeschrieben werden können.((Lyndon H. LaRouche jr., „An Economist’s View of Gauss’s ,Pentagramma Mirificum'“ (Ansichten eines Ökonomen über Gauß‘ ,Pentagramma Mirificum‘), In: 21st Century Science & Technology, 7. Jg., Nr. 2, Sommer 1994, S. 44–45.))

Ein Dreieck, dessen Seiten das Verhältnis 3 ,4 ,5 haben, ist ein rechtwinkliges Dreieck, dessen längste Seite die Hypotenuse ist. Ist die Länge der Hypotenuse eine Bruchzahl oder eine Quadratzahl? Die Antwort ist implizit durch folgende Neuformulierung gegeben: Vom Standpunkt der Algebra ist die Hypotenuse ein Mitglied der Zahlenklasse |a|i mit der Bedingung:

[ (bi2 + ci2)1/2, |a| < (|b| + |c|) ]

Sie gehört zu der Klasse der quadratischen Größen, welche die Griechen zu den „Inkommensurablen“ zählten.

Das ist vom Standpunkt der Geometrie völlig klar; vom Standpunkt der modernistischen Zahlentheorie oder der Algebra ist es hingegen nicht ganz so deutlich zu sehen.((Nachdem die Akademie von Athen das Werk der Pythagoreer bis zu dem Punkt weiterentwickelt hatte, daß sie die Existenz der „Inkommensurablen“ schlüssig beweisen konnte, war der Versuch, eine Mathematik allein aus den sogenannten „natürlichen Zahlen“ abzuleiten, professionelle Inkompetenz. Jede formale Mathematik muß als ein Produkt einer Reihe von axiomatischen Annahmen der Geometrie definiert werden; deshalb ist es immer, wenn ein Fachmann die Pflicht mißachtet, Beweise in geometrischer Form darzulegen, ein Betrug an der Wissenschaft, ein vorsätzlicher Kompositionsfehler.)) Vom Standpunkt der Methoden der Geometrie können zwei Größen nicht schon deshalb als „kongruent“ bezeichnet werden, weil es Anzeichen dafür gibt, daß für eine vorgegebene Fehlerabweichung eine Übereinstimmung vorliegt. In der Geometrie sind zwei Objekte nur kongruent, wenn es Übereinstimmung in der Art und Weise gibt, in der diese beiden Objekte jeweils erzeugt werden; genau wie wir in der Biologie bei den Säugetieren Beuteltiere und Plazenta-Tiere unterscheiden. Mit anderen Worten, das „Gleichheitszeichen“ der formalen Algebra und das Zeichen für „Kongruenz“ in der Geometrie kann nicht miteinander vertauscht werden.

Nun zu unserem zweiten Beispiel der Mathematik an sich.

Der berechnete algebraische Wert, der gewöhnlich für den Goldenen Schnitt angegeben wird, ist annähernd das Doppelte des Cosinus (des Verhältnisses zwischen den beiden Seiten) des eingeschlossenen spitzen Winkels eines rechtwinkligen Dreiecks, dessen Hypotenuse die Seite eines gleichseitigen Fünfecks ist.((Ziehen Sie eine gerade Linie, welche die erste und die letzte von drei nebeneinander liegenden Ecken eines regelmäßigen Fünfecks miteinander verbindet. Betrachten Sie den spitzen Winkel, den die beiden Seiten des Fünfecks mit dieser geraden Linie bilden: [Pi]/5 (also 36ų). Die halbe Länge der so konstruierten Linie wird mit Cos 36ų angegeben.)) Oberflächlich betrachtet scheint das gleich oder annähernd gleich dem Wert zu sein, den man bei der algebraischen Berechnung des Goldenen Schnitts erhält. Der weit verbreitete Irrtum liegt nicht in der Berechnung als solcher, sondern in der Annahme, daß diese Zahl ein Koeffizient ist, der die harmonische Ordnung definiert, die Leonardo da Vinci u.a. mit lebenden Prozessen und Kepler sowohl mit lebenden Prozessen als auch mit dem Sonnensystem verbanden. Die verbreitet falsche Annahme, welche dabei gemacht wird, ist paradigmatisch für den Fehler der algebraischen Darstellung der Kausalität durch Galileo und Newton.

Man beachte den gleichen prinzipiellen Punkt, der sich bei der Betrachtung der Hypotenuse des 3,-4,-5-Dreiecks stellte. In der Mathematik (d. h. der Geometrie) ist ein Phänomen das, was seine Erzeugung es bestimmt hat zu sein. Wie erzeugen Pacioli, Leonardo da Vinci und Kepler das Pentagon, aus dem die angedeutete Berechnung des Goldenen Schnitts abgeleitet wird? Sie erzeugen es genau, wie Platon es tat. Weil die anderen vier regelmäßigen Platonischen Körper sich der Reihe nach aus dem Dodekaeder ableiten, ist dieser Dodekaeder die spezifische Charakteristik eines transfiniten Konstruktionsprozesses, durch welchen demonstriert wird, daß nur fünf Arten von regelmäßigen Körpern in die Kugelschale einbeschrieben werden können.

Da die Seiten des Dodekaeders regelmäßige Fünfecke sind, erhält der Goldene Schnitt die entsprechende Bedeutung für den Prozeß der geometrischen Konstruktion, durch welche das Einzigartige des von regelmäßigen Fünfeckseiten begrenzten Dodekaeders demonstriert wird. Deshalb ist die Bestimmung des Goldenen Schnittes nicht einfach etwas Algebraisches; es ist vielmehr der Konstruktionsprozeß, durch den die Einzigartigkeit des in die Kugel einbeschriebenen Dodekaeders demonstriert wird.

Es ist nicht der Zahlenwert des Goldenen Schnittes, der die harmonische Ordnung von Lebensprozessen und Planetenbahnen definiert. Vielmehr reflektiert dieses harmonische Verhältnis die Tatsache, daß wir in einem Universum leben, welches durch eine bestimmte Krümmung der „physikalischen Raumzeit“ begrenzt ist. Die harmonischen Ordnungen der Lebensprozesse, der Planetenbahnen usw. sind nicht Funktionen eines dem Goldenen Schnitt algebraisch zugeordneten Wertes; sie sind Reflexionen der Begrenztheit, der „Krümmung“ der „physikalischen Raumzeit“, in der wir leben.

Platon betonte, und Cusa, Pacioli, Leonardo da Vinci und Kepler taten das gleiche nach ihm, daß das Gebiet der Raumzeit-Geometrie eine bestimmte „von außen“ auferlegte axiomatische Charakteristik hat, welche nur dadurch erklärt werden kann, daß diese Geometrie (wie wir selbst) in einer begrenzten „physikalischen Raumzeit“ mit einer bestimmten Krümmung existiert. Es ist die Konstruktion, durch die wir Platons Konzept der Einzigartigkeit der fünf Platonischen Körper rekonstruieren, welche die abgeleitete notwendige Bedeutung des Goldenen Schnitts definiert, und zwar nicht als eine algebraische Annäherung, sondern vielmehr in seinem Ursprung als Element einer in bestimmter Weise erzeugten Menge.

Dieses methodische Prinzip der klassischen Mathematik liegt dem Begriff der „nichtrationalen“ Größen zugrunde, welche in der Schule von Athen als „Inkommensurable“ bezeichnet wurden. Diese beinhalten die algebraischen (euklidischen) Größen, die nichtalgebraischen (transzendenten) Größen und die Transfiniten höherer Ordnung (d. h. Georg Cantors Alef-Folgen). In dieser Reihenfolge sind sie durch die relative Kardinalität oder Mächtigkeit angeordnet, so daß der Typus von höherer Kardinalität jeweils formal alle Typen von geringerer Kardinalität umfaßt, aber keiner von relativ niederer Kardinalität mit einem Typus höherer Kardinalität kongruent sein kann. In letzterem Typus, der Alef-Folge (von virtueller nulldimensionaler Größe), ist nur die relative Kardinalität abzählbar: und zwar in erster Annäherung als Potenzreihe. In gleicher Weise wird es bereits bei Nikolaus von Kues, dem ursprünglichen Entdecker des transzendenten Wertes für [pi], deutlich, daß keine algebraische Zahl jemals mit [pi] kongruent sein kann.((Nikolaus von Kues, De docta Ignorantia und De Circuli Quadratura.))

Das bringt uns zu dem zweifach bedeutungsvollen Punkt in Bernhard Riemanns Hypothesen-Dissertation von 1854.((Riemann, Gesammelte Werke, a. a. O.)) Das Dokument spricht für sich selbst, deshalb beschränken wir uns hier darauf, die wesentlichen Folgerungen daraus zu skizzieren.

Geometrie und Physik

Die menschlichen Sinnesorgane stellen uns die Welt der Sinneseindrücke vor allem durch das Sehen und das Hören dar.

Die Geometrie des Euklid ist ein Versuch, bestimmte Annahmen festzuschreiben, zu denen wir tendieren könnten, wenn wir die Natur des von uns mit den Augen wahrnehmbaren Raumes anerkennen, ohne die ontologischen Implikationen der physischen Vorgänge, die wir als in diesem visuellen Raum ablaufende Vorgänge betrachten, adäquat zu berücksichtigen.

Im Gegensatz dazu wird zum Beispiel bei der Untersuchung der Sprache und des Gehörs deutlich, daß unser physischer Sprech- und Hörapparat eine Welt der vokalisierten Sprache und des Gesangs erfahrbar macht, die nach harmonischen Prinzipien geordnet und mit den naiven axiomatischen Annahmen der euklidischen Geometrie unvereinbar ist.((Zu Ableitung und Beweis des wohltemperierten Systems von J. S. Bach u. a. siehe A Manual on the Rudiments of Tuning and Registration, Bd.I (Handbuch über die Grundlagen der Stimmung und der Register), hg. von John Sigerson und Kathy Wolfe (Schiller-Institute, Washington, D.C., 1992). So, wie die Choräle J. S. Bachs beweisen, daß der Helmholtz-Apologet Alexander J. Ellis in der empirischen Stimmung ein Betrüger war [siehe Hermann Helmholtz, The Sensations of Tone, hg. von Alexander J. Ellis, Dover Publications, New York, 1954], so zeigt die Untersuchung der natürlichen Genotypen erwachsener Singstimmen, ihrer natürlich festgelegten Register und der Probleme, diese Singstimmen in der Vokalpolyphonie zu kombinieren, daß diese wohltemperierte Stimmung die einzige „natürliche“ ist. Der Bau des menschlichen Ohrs entspricht ebenfalls dieser wohltemperierten Stimmung, die auf c = 256 und a = 430–432 Hz aufbaut, wodurch Bernhard Riemann [„Mechanik des Ohres“, in Gesammelte Werke, a. a. O., S. 338–350] im Gegensatz zu Helmholtz‘ Betrug in dieser Frage bestätigt wird.))

Platon ist der erste bekannte Entdecker, der uns die wißbare Einheit des Sehens und der natürlich festgelegten harmonischen Ordnung der vokalisierten Sprache erklärt. Platon zeigt uns, indem er sich auf die platonischen Körper bezieht, daß es harmonische Ordnungen der Phänomene im visuellen Raum gibt, die mit der natürlich festgelegten wohltemperierten Oktavtonleiter der Harmonie im Bereich des Hörens zusammenhängen.

Riemann betont an entsprechender Stelle, daß er der erste war, der die Implikationen dieses platonischen Standpunktes aufs Neue darstellte. Diese Entdeckung, die er selbst auf den 1. März 1853 datiert, ist der Gegenstand seiner Habilitationsschrift vom 10. Juni 1854. Diese sorgfältig komponierte kurze Schrift gehört zu den klarsten und tiefgründigsten Schriften der gesamten wissenschaftlichen Literatur. Dennoch vollführen fast alle anerkannten Autoritäten, die sich in dieser Frage äußerten, die seltsamsten Windungen, um bestimmte wesentliche Aspekte der offenkundigen Bedeutung dieses Textes zu vermeiden. Man muß deshalb erst einmal vergessen, was alle anerkannten Autoritäten über diese Dissertation sagen; das gilt auch für die teilweise Mißdeutung durch Albert Einstein. Nehmen Sie einfach Riemanns Originaltext beim Wort!

Beginnen wir, genau wie Riemann, mit der euklidischen Darstellung von Raum und Zeit.((The Thirteen Books of Euclid’s Elements (Die dreizehn Bücher der euklidischen Elemente), übers. von Thomas L. Heath (1925), (Dover Publications, New York, 1956), Riemann, Gesammelte Werke, a. a. O., S. 272–273.)) Es ist ein verständlicher Irrtum, sich anfänglich den visuellen Raum als in geraden Linien unendlich ausgedehnt vorzustellen – vorwärts und rückwärts, zu den beiden Seiten und nach oben und unten – und Vorgänge an bestimmten Orten mit Hilfe dieser geraden Linien zu beschreiben. Wir würden unvermeidlich Schiffbruch erleiden, wenn wir versuchten, solche Eigenschaften der physischen Raumzeit wie Masse, chemische Reaktionen usw. in Betracht zu ziehen und die entsprechenden physischen Prozesse als System von Vorgängen, die sich innerhalb des euklidischen Modells der Raumzeit abspielen, darzustellen.

Es sollte uns dann auffallen, daß unsere Versuche, physikalische Prozesse im begrifflichen Rahmen der Raumzeit darzustellen, nur Schatten liefern, welche von den realen physischen Prozessen auf unser geistiges Bild dieser (in Euklids Elementen abgehandelten) „leeren Raumzeit“ geworfen werden. Wir befinden uns also in Platons berühmter „Höhle“, wie er sie in seiner Republik beschrieben hat.

Wo gibt es ein Hilfsmittel, das uns erlaubt, die Grenzen dieses nominalistischen Alptraums, unseres Abhängigseins von den Schatten unserer geistigen Vorstellung zu überwinden? Riemann stellt fest, daß er in der gesamten Geschichte der Mathematik nur drei Hinweise darauf gefunden hat, wie dieses Problem des visuellen Vorstellungsraumes überwunden werden könne. Zwei dieser Hinweise stammen von Carl F. Gauß, der die entsprechenden Arbeiten aufgreift, welche die platonische Akademie von Athen in den beiden Jahrhunderten vor 200 v. Chr. durchführte. Der dritte und letzte Hinweis stammt aus Riemanns eigenen Reflexionen über die Arbeit des Philosophen und Kantgegners Johann Friedrich Herbart.((Riemann, Gesammelte Werke, a. a. O., S. 273, 276, 507–520.)) Dieser dritte Punkt leitet Riemann in die Richtung, in welche er gehen muß, um eine Lösung zu finden; eine Lösung, welche ihre endgültige Form erst durch die Entdeckungen des Verfassers dieses Artikels in den Jahren 1951 und 1952 gefunden hat.((Lyndon H. LaRouche jr. „On LaRouche’s Discovery“ (Über LaRouches Entdeckung), in: Fidelio, 3. Jg., Nr.1, Frühjahr 1994.))

Gehen wir zurück ins dritte vorchristliche Jahrhundert, zum bedeutenden Mitglied der Akademie Eratosthenes, der den Erdumfang durch Messungen auf 50 Meilen genau bestimmte.((Im Vergleich zum Durchmesser der Erde von Pol zu Pol.)) Auf ähnliche Weise machte man im Altertum verläßliche Messungen((„Verläßlich“ in Anbetracht der damals zur Verfügung stehenden Instrumente.)) für die Entfernung des Mondes von der Erde und der Erde von der Sonne.((Die solare Hypothese war unter den griechischen Astronomen jener Zeit, Jahrhunderte vor dem Betrüger Claudius Ptolemäus, weit verbreitet.)) Wir sollten diese Leistungen der Mathematiker des klassischen Griechenland als Antwort auf die Schatten-Paradoxe verstehen, die bei Platon und in Riemanns Habilitationsschrift aufgezeigt werden. Wir stehen auf einer Oberfläche, die uns flach wie der Spiegel eines Meeres oder eines ruhigen Sees vorkommt, und doch sind wir in der Lage, die Schattenbilder zu messen, in denen sich die Wirklichkeit der kugelförmigen Gestalt unseres Planeten zeigt sowie die Entfernungen zum Mond und der Sonne.

Riemann formulierte die Herausforderung, dies zu tun, in allgemeinerer, modernerer Form: Entschlüsseln wir die Schatten, welche die Physik auf unseren visuellen Vorstellungsraum wirft. Mit anderen Worten geht es darum, die Methode des Schließens, wie sie die Astronomie oder die Geodäsie anwendet, im erweiterten Sinne auf physikalische Erscheinungen allgemein anzuwenden. Etwa 2000 Jahre nach den alten Griechen brachte Carl Friedrich Gauß deren Methoden zur Verbesserung der astronomischen und geodätischen Messungen in eine mathematisch elegante Form. Wir müssen Riemanns Erwähnung von Gauß in diesem historischen Licht sehen. Gauß‘ fortgeschrittene Arbeiten in der Astronomie, der Geodäsie und zum Erdmagnetismus enthalten Hinweise für die Behandlung des Schattenparadoxes der Sinneswahrnehmungen.

Riemanns Arbeit kann diesbezüglich in zwei funktionell voneinander abhängige Schritte unterteilt werden. Der erste untersucht die Meßmethoden, die auf die Geodäsie des paradoxen Schattenreiches angewendet werden. Dies kann man der Einfachheit halber als die Aufgabe bezeichnen, die „Krümmung“ der physischen Raumzeit zu messen, d.h. ein Abbild der physikalischen Prozesse durch das Studium der Veränderungen der Schatten zu konstruieren, welche der physikalische Prozeß auf die Schattenwelt der visuell wahrgenommenen Raumzeit werfen. Es ist nützlich, dieses mathematische Problem als „die Geodäsie der physischen Raumzeit“ zu bezeichnen. In einem zweiten Schritt betrachten wir die „subjektiven Fragen“, die Riemann bei seiner Kritik an Herbarts Arbeiten identifiziert, d.h. die Mittel, durch die der menschliche Geist sich selbst jene Methoden des Entdeckens verständlich macht, mit der sich die Macht der Menschheit über die Natur pro Kopf und pro Quadratkilometer vergrößert. Im zweiten Schritt behandeln wir die paradoxe Frage: „Was ist menschliches Wissen.“

Der vielleicht einfachste Ausgangspunkt, von dem man Riemanns Konzept einer allgemeinen Geodäsie der physischen Raumzeit verstehen kann, ist, die bereits erwähnte, scheinbare algebraische Übereinstimmung der Formeln von Kepler und Newton bezüglich der Schwerkraft zu betrachten.

Nehmen wir Newtons Version der Formel und fragen: Was ist die Krümmung der physischen Raumzeit, in der diese algebraische Formel anwendbar ist? Die Antwort sollte offensichtlich sein: In erster Annäherung setzt Newtons Formel ein Universum voraus, welches von den harmonischen Verhältnissen bestimmt ist, die Kepler ausgehend von dem Prinzip der fünf Platonischen Körper und dem Prinzip Paciolis und Leonardo da Vincis ableitete. Man sollte dies als Fortsetzung der Erfolge verstehen, welche Griechen wie Eratosthenes bei der Entdeckung der meßbaren Geometrie des Sonnensystems mittels der Messungen von Schatten an verschiedenen Stellen der Erdoberfläche machten.

Wir müssen uns unsere Sinnesorgane, das Sehen und Hören, im wesentlichen als Flächen vorstellen, auf welche die physische Wirklichkeit ihre Schatten wirft. Dann werden uns nämlich die Absurditäten offensichtlich, die sich daraus ergeben müssen, wenn wir das nominalistische Dogma tolerieren, wonach wir uns einfach auf unsere Sinneswahrnehmungen verlassen können; wie es die Empiristen und andere Materialisten und alle Aristoteliker im weitesten Sinne tun. Durch angemessene „geodätische“ Kartierung der wirkenden Verhältnisse („Wirkung“. zwischen den physischen Phänomenen können wir auf eine Geometrie mit einer Krümmung schließen, welche sich von der ungekrümmten Raumzeit der Anhänger Euklids, Galileos, Descartes‘ und Newtons grundlegend unterscheidet. Das Resultat nennen wir „physische Geometrie“ oder die „Geometrie der physischen Raumzeit“, welche nicht mit der einfachen Sinneswahrnehmungen identisch ist; es ist eine „physische Raumzeit“, deren „Geometrie“ nicht die lineare (deduktive) Geometrie der visuellen Wahrnehmung ist, von der Euklids Elemente oder die Dogmen von Galileo, Fludd, Bacon und Newton fälschlicherweise ausgehen.

Dies erhellt deutlich die Tatsache, daß die wirkende Substanz der physischen Realität für den Menschen nur in Form einer Gattung von Ideen existiert, die von der Art der Ideen, die wir mit den Sinneseindrücken verbinden, grundlegend verschieden ist.

Genau diese Idee der Riemannschen „Krümmung“ der „physischen Raumzeit“, so behaupten die venezianischen, aristotelischen Philosophen und ihre Schüler wie Pietro Pompanazzi, Francesco Zorzi („Giorgi“., Paolo Sarpi, Francis Bacon, Galileo Galilei, Antonio Conti, Isaac Newton, Giammaria Ortes, Lord Kelvin und alle modernen Empiristen und Positivisten, müsse aus der Wissenschaft verbannt werden. Diese Meinung vertraten Paolo Sarpi und seine Schützlinge Fludd, Galileo und Francis Bacon bezüglich der Werke Leonardo da Vincis und Keplers. Dieselbe Forderung stellten der Venezianer Conti und seine Marionetten wie Voltaire, Giammaria Ortes, Francesco Algarotti, David Hume, Algarottis Schachfigur Leonhard Euler u. a.((Die Mitglieder der Berliner Akademie Friedrichs des Großen, Voltaire, Maupertuis und Algarotti wurden allesamt vom Führer des venezianischen Geheimdienstes, dem Abt Antonio Conti, kontrolliert. Letzterer führte den Newton-Mythos ein und koordinierte die europaweite Verleumdung und andere Sabotageoperationen gegen Gottfried Wilhelm Leibniz und dessen wissenschaftliche Autorität. Voltaire arbeitete, wie Maupertuis und Algarotti, mit Abt Guido Grandi aus Pisa und mit Giammaria Ortes an dem Projekt, die Rehabilitierung Galileo Galileis durchzusetzen und den Mythos von Newton als dem „britischem Galileo“ zu verbreiten. Auch Leonhard Euler war 25 Jahre lang Mitglied dieser Akademie, wo er als „Mathematiker“ und Handlanger der Anti-Leibniz-Kampagne den „Favoriten“ Friedrichs des Großen, Voltaire, Maupertuis und Algarotti diente.)) bezüglich Leibnizens Theodizee und der Monadologie.((Siehe Lyndon H. LaRouche jr., Christian Economy, a. a. O., Appendix XI, „Euler’s Fallacies On The Subject of Infinite Divisibility and Leibniz’s Monads“ (Eulers Fehler in bezug auf die unendliche Teilbarkeit und Leibniz‘ Monaden), S. 407–425.)) Dies ist der Schlüssel des unüberbrückbaren Unterschieds zwischen Galileos und Newtons Begriff der Kausalität und Platons, Nikolaus von Kues‘, Leonardo da Vincis und Keplers Begriffs des Vernunftgrundes.

Riemann erwähnt als dritten konzeptionellen Ausgangspunkt seiner Dissertation seinen Kommentar zu Herbarts Werk. Wir gehen nun darauf ein und müssen dabei das von den aristotelischen Empirikern bevorzugte Gebiet der einfachen Sinneswahrnehmungen verlassen und in ein Reich eintreten, das Platon mit „Idee“, Leibniz mit „Monade“, Riemann mit Geistesmasse und der Verfasser mit „Metapher“ oder „Gedankending“ bezeichnet.

Das Prinzip der höheren Hypothese

Die Prinzipien des menschlichen Wissens können nicht davon abgeleitet werden, was heute als „mathematische Physik“ bekannt ist, sondern das kann nur vom Standpunkt der klassischen Dichtung, Tragödie, Musik und der bildenden Kunst (beispielsweise von der Leonardo da Vincis oder Raffaels) geschehen. Dennoch ist es nicht nur nützlich, sondern auch notwendig, die Reflexion der Kreativität auf den Bereich der formalen Mathematik zu untersuchen. Wir stellen folgende Frage: Wie läßt sich in der Mathematik das wahre und wirkende Prinzip der Metapher ausdrücken, welches in der Dichtkunst, der Tragödie und der klassischen Form der musikalischen Komposition auftritt?

Vom Standpunkt der formalen Mathematik betrachtet, wie etwa einer auf Euklid aufbauenden Geometrie, erscheint alles menschliche Wissen als Ergebnis einer Kombination aus vier Entdeckungsmethoden auf jeweils höherem Niveau.

Auf dem unterstem Niveau der Entwicklung des menschlichen Wissens steht die formale Logik. Hier liegt einer erweiterungsfähigen Liste untereinander konsistenter Sätze eine Gruppe gemeinsamer, feststehender axiomatischer Annahmen zugrunde, wie beispielsweise die Axiome und Postulate der euklidischen Geometrie. (Es ist hier nicht notwendig auszuführen, warum eine solche Gruppe auch als „Theoremgitter“ bezeichnet wird.) Auf dieser Ebene drücken sich „Entdeckungen“ durch den Beweis der Konsistenz eines neuen Satzes aus, dem Beweis, der diesen Satz zu einem neuen Element des gesamten Theoremgitters macht.

Alle darüber hinausgehenden Ebenen der Entdeckung gültiger neuer Prinzipien des menschlichen Wissens liegen im Bereich der Hypothesen, wie sie Platon definierte.

Gehen wir von einem klar definierten Phänomen aus, etwa einem experimentellen Ergebnis, welches einem existierenden Theoremgitter widerspricht. Dieses anormale oder besser paradoxe Ergebnis kann nur „gelöst“ werden, wenn diejenige Axiomen- und Postulatenmenge des Theoremgitters revidiert wird, welche durch das formale „Vererbungsprinzip“ des Theoremgitters gerade jene Sätze erzeugt hat, die durch das paradoxe Ereignis widerlegt wurden.

Sobald diese Korrektur der Menge von Axiomen und Postulaten vorgenommen ist und diese Änderung formal auf alle Sätze des Theoremgitters „weitervererbt“ wurde, muß dieses neu entstandene Theoremgitter mit den Beweisen des alten, zuvor etablierten und durch das paradoxe Ergebnis widerlegten Theoremgitters in Übereinstimmung gebracht werden.((Beispielsweise die Entwicklung der sogenannten „nichteuklidischen Geometrien“ durch Gauß, Bolyai, Lobatschevski und Riemann, durch die der „euklidische“ Formalismus überwunden wurde.)) Eine derart als gültig bestätigte axiomatische Revolution, die ein neues, dem alten Theoremgitter überlegenes Theoremgitter hervorbringt, ist eine einfache Hypothese.

Betrachten wir die nächsthöhere Ebene der Entdeckung.

Wir verdeutlichen die Bedeutung des Begriffs der höheren Hypothese anhand der genannten Liste der vier generellen Ebenen der Kardinalität („Mächtigkeit“. in der Mathematik. Verfolgt man die Entwicklungsgeschichte der Mathematik, indem man sie rückblickend vom Standpunkt der transfiniten Ordnungen Cantors aus betrachtet, so kann man die Folge der axiomatisch-revolutionären Änderungen, welche die Folge mathematischer Typen der Kardinalitäten der rationalen Zahlen, irrationalen Zahlen, der transzendenten Zahlen und der Alefs durch eine gleichbleibende Methode der Hypothesenbildung erzeugt, denken. In den Worten des Parmenides-Dialogs von Platon wird dieser Typus der gleichbleibenden Methode der Hypothesenbildung durch das Eine ausgedrückt, zu dem die vier Vielen, die vier Typen der Kardinalität, ins Verhältnis gesetzt sind.((So wie eine einfache Hypothese, dargestellt als Gruppe miteinander verbundener Axiome und Postulate, das Prinzip deduktiver Konsistenz definiert, so definiert ein Generationsprinzip eines Typs von Hypothesen – die höhere Hypothese – eine höhere, dominierende „Konsistenz“ unter allen Mitgliedern einer Gruppe (eines Gitters) dieses Typs. Die Kombination der euklidischen und aller nichteuklidischen Geometrien ist also ein Vieles, das durch eine gemeinsames Prinzip rein konstruktiver Geometrie zusammengefaßt ist, ein Prinzip, welches alle möglichen formalen Geometrien, die auf dieselbe axiomatisch-revolutionäre Weise erzeugt werden, umfaßt.))

Im Laufe der Zeit und der Entwicklung wurden gültige Typen der Verbesserung der Methode der Hypothesenbildung entdeckt. Diese Verbesserungen machen die früheren Methoden nicht nutzlos; vielmehr eröffnen sie neue Dimensionen der Mächtigkeit und des Umfangs der menschlichen Entdeckungsfähigkeit. Platon identifiziert das Prinzip, welches solche schrittweise Verbesserungen der Qualität der Bildung höherer Hypothesen beschreibt, als Hypothese der höheren Hypothesen. Dieses Prinzip der Hypothese der höheren Hypothesen ordnet die höheren Hypothesen nach ihrer Kardinalität (d. h. ihrer relativen Mächtigkeit); dieses Prinzip ist wiederum ein Eines im Verhältnis zu den Vielen der geordneten Folgen höherer Hypothesen.

Man muß diese Begriffe über den Umfang der angeführten mathematischen Beispiele hinaus ausweiten, so daß sie den höheren Bereich der „physikalischen Geometrie“ – die „physische Raumzeit“ – mit einschließen, d. h. den Bereich der Physik, der sich als Schatten auf der Fläche der visuellen Vorstellung unserer mathematischen Vorstellung reflektiert. Wie uns Platon durch seine Pionierarbeiten gezeigt hat, befreit die Untersuchung der hypothetischen Bedingungen einer geometrischen Mathematik als solcher unseren Geist von den Regeln des logischen Formalismus und versetzt uns in die Lage, die Mathematik als ein Werkzeug zu benutzen, um die Geodäsie der Schatten, welche die physische Raumzeit auf die visuelle Vorstellung wirft, zu entwickeln.

Der übliche Fehler im Unterricht (und auch anderswo) besteht in dem Argument, ein Lehrsatz werde durch ein isoliertes Experiment bewiesen. Eine verbreitete Abart dieser pseudowissenschaftlichen Unbildung behauptet, der Beweis liege in der „Wiederholbarkeit“ des Phänomens. Die Funktion solcher Experimente ist bestenfalls eine negative: Durch solch ein einzelnes experimentelles Ergebnis wird nichts für ein bestimmtes Theorem bewiesen; vielmehr helfen uns Experimente Irrtümer aufzudecken, aber nicht nur das. Von noch größerer Bedeutung ist, daß sie uns helfen, die Art von Anomalien zu finden, welche genau die Paradoxe in unseren Annahmen erzeugen, die für die „anomale“ Interpretation des Experiments oder einer vergleichbaren, z. B. einer astronomischen Beobachtung verantwortlich sind.

Die relevante Qualität eines Beweises liegt auf keiner geringeren Ebene als der des Konzeptionalisierens der höheren Hypothese. Am leichtesten läßt sich dieser entscheidende Punkt anhand eines historischen Überblicks der physischen Ökonomie erklären.

Der einzige experimentelle Beweis für die Richtigkeit einer Änderung der wissenschaftlichen Methode der axiomatisch-revolutionären Formen des Entdeckens ist der daraus resultierende Anstieg der potentiellen Bevölkerungsdichte der menschlichen Gattung. Diese wird statistisch als Korrelation der Änderung des Niveaus des realisierten wissenschaftlichen Fortschritts und analoger Formen des Fortschritts gemessen.

Dabei muß das Schwergewicht auf zwei leicht festzustellende Gruppen von Tatsachen gelegt werden: Erstens, Verbesserungen der Lebenserwartung, der Gesundheit und der reproduktiven Demographie pro Kopf, pro Haushalt und pro Quadratkilometer. Zweitens, Verbesserungen der Produktivität der Arbeitskraft, ebenfalls pro Kopf, pro Haushalt und pro Quadratkilometer. Diese beiden zu beobachtenden Gruppen von Bedingungen werden mit dem Vorhandensein oder Nichtvorhandensein jener Änderungen in der Kultur verglichen, die durch die Anwendung (z. B. in Form neuer Technologien) der betreffenden Entdeckungen verursacht werden.((Siehe auch Lyndon H. LaRouche jr., „The Truth About Temporal Eternity“ (Die Wahrheit über die zeitliche Ewigkeit), Fidelio, 3. Jg., Nr. 2, Sommer 1994, Abschnitte IV und V, S. 15–23.))

Die beiden folgenden Einschränkungen müssen dabei gemacht werden. Genauso wie die intellektuelle Autorität der Entdeckung eines neuen Satzes innerhalb eines Theoremgitters von der Bedingung seiner Konsistenz mit den axiomatischen „Vererbungs“.Prinzipien dieses Theoremgitters abhängt, so beruht die Autorität einer bestimmten neuen Hypothese auf dem besonderen Typus der höheren Hypothese, dem diese neue Hypothese angehört. Die angenommene intellektuelle Autorität aller solcher Entdeckungen hängt also von der Gültigkeit des Typus der höheren Hypothese ab, welcher sie umschließt.

Damit soll betont werden, daß jedem formalistischen Theoremgitter eine bestimmte Gruppe voneinander abhängiger Annahmen zugrundeliegt: das dem Gitter eigene „Vererbungsprinzip“. Jedes solche Prinzip ist also eine Hypothese, eine Hypothese, die eines der individuellen Elemente der vielen Hypothesen ist, die allesamt in einem bestimmten Typus einer höheren Hypothese zusammengefaßt sind (d. h. von ihr erzeugt werden).

Das Konzept der „höheren Hypothese“ wiederum ist durch den Begriff des Hypothesenbildungsprozesses der „Hypothese der höheren Hypothese“ als des Einen der vielen höheren Hypothesen zu verstehen. Diese gerichtete Einheit der vielen höheren Hypothesen ist durch ein Prinzip der Änderung((Die Verwendung des groß geschriebenen Einen und Vielen wird hier dazu benutzt, die in Platons Parmenides implizierten Paradoxe und Lösungs-Prinzipien zu unterstreichen.)) geordnet. Und es manifestiert sich dieses Prinzip der Änderung als Ordnung aufeinanderfolgender relativ höherer Anstiegsraten der potentiellen Bevölkerungsdichte, welche von der Wahl der jeweiligen höheren Hypothese (verglichen mit anderen möglichen höheren Hypothesen) abhängig sind. Darin ist die primäre Existenzform wissenschaftlicher Wahrheit des menschlichen Wissens lokalisiert.((Wie schon in dem genannten Aufsatz „Die Wahrheit über die zeitliche Ewigkeit“ bemerkt, entspricht der verallgemeinerte Begriff der Hypothese der höheren Hypothese der Idee des Werdens bei Platon. Dieser Begriff existiert in zwei Formen. In der ersten, niederen Form existierte er als transfiniter Begriff, als Werden. In der zweiten, absoluten Form entspricht er dem Guten bei Platon. Diese Gleichsetzung des „Transfiniten“ und des „Absoluten“ bei Cantor mit dem „Werden“ bzw. dem „Guten“ bei Platon wird an der genannten Stelle dargelegt. Der Unterschied zwischen den transfiniten und den absoluten Begriffen ist der zwischen der „physischen Raumzeit“ und der gleichen Universalität aller möglichen „physischen Raumzeiten“, die frei von den Unterscheidungen sind, die durch die Einführung der Begriffe Raum und Zeit entstehen. In der physischen Raumzeit ist Entwicklung durch ihre Lage im Raum und in der Zeit definiert; im Absoluten ist Entwicklung das Eine, was alle Räume und Zeiten umfaßt. Dieses letztere Eine ist ein Prinzip reiner, wirkender, kreativer Intelligenz.))

Eine „Reaktion“ auf eine „Aktion“ erfolgt daher nicht nach einem konstanten mechanischen Prinzip, nicht entsprechend der Kausalität, wie Galileo, Newton u. a. es bei ihrer mathematischen Darstellung der sogenannten „Bewegungsgesetze“ behaupten. Vielmehr ist es die Regel, daß die Reaktion einem universellen Entwicklungsgesetz entsprechen muß, durch welche das göttliche Gesetz zum Ausdruck kommt oder der wahre Vernunftgrund der betreffenden Reaktion.

Was ist die Form des göttlichen Gesetzes? Es wäre blasphemisch zu behaupten, daß Gottes Gesetze in der Art aristotelischer Vorschriften nach einer festgelegten Liste von „Geboten“ und „Verboten“ festgeschrieben sei. Wir müssen bei dieser Frage die Unterscheidung beachten, die Platon zwischen dem Werden und dem Guten macht: Wie Georg Cantor pädagogisch geschickt verdeutlicht, indem er die entsprechenden Begriffe des Transfiniten und des Absoluten gegenüberstellt. Das Höchste des Werdens ist, wie das Eine, eine Verallgemeinerung der Transfinität, die alles mögliche Hypothetisieren der höheren Hypothese umschließt; darin enthalten ist der Begriff eines zeitlosen und universellen Prinzips der höheren schöpferischen Intelligenz, deren aus sich selbst heraus schöpfende Veränderung den Vielen, entsprechend ihrer jeweiligen Mächtigkeit, eine Rangordnung gibt und so alle möglichen höheren Hypothesen ordnet. Gott der Schöpfer ist nicht weniger als dies, und sein Handeln, sein Gesetz ist Vernunft, welche mit diesem Prinzip der Veränderung (Hypothese der höhere Hypothese) übereinstimmt; das verstehen Kepler und Leibniz unter Vernunftgrund.

Die physischen Implikationen dieses Unterschiedes

Um diesen Unterschied zu verdeutlichen, betrachten wir den Fall der Entwicklung des universellen Prinzips der kleinsten Wirkung bei Leibniz und Johann Bernoulli.((Zum Problem der „Brachystochrone“ siehe Johann Bernoulli in A Source Book in Mathematics (Quellen zur Mathematik), hg. von David Eugene Smith (Dover Publications, New York, 1959, S. 644–655. Ebenso A Source Book in Mathematics, 1200–1800 (Quellen zur Mathematik 1200–1800), hg. von Dirk J. Struik, Princeton University Press, Princeton, N.J., 1986, S. 391–399.)) Bernoullis Arbeiten über die Brechung des Lichts in einem Medium mit konstant zunehmender Dichte zeigten, daß sich die verschiedenen Krümmungen bezüglich der primär gegebenen isochronischen Krümmung, der Zykloide, ausdrücken lassen. Dies ist ein Beispiel für eine „ausgezeichnete“ Messung im Riemannschen Sinne, wodurch die Krümmung der physischen Raumzeit anhand der Schatten gemessen wird, welche das tatsächliche Universum auf den Bereich unserer visuellen Vorstellung wirft.

Dieses Beispiel beantwortete sowohl die Frage der „kürzesten Zeit“ (Brachystochrone) als auch die der „konstanten Zeit“ (Isochrone). Es zeigte, bezogen auf die vorangegangenen Arbeiten von Christian Huyghens und Ole Römer,((Christian Huyghens, A Treatise on Light (Abhandlung über das Licht), Dover Publications, New York, 1962.)) daß die Behandlung der Bewegung nach den algebraischen Methoden Galileos, Descartes‘ und Newtons von der höheren Geometrie des transzendenten Bereichs abgelöst werden muß.

Mehr brauchen wir für die Zwecke dieses Artikels zur Brachystochrone nicht zu sagen. Der entscheidende Punkt ist die Beziehung zwischen Leibniz‘ Begriff der kleinsten Wirkung((Leibniz‘ Begriff darf nicht mit den späteren Versuchen der Empiriker verwechselt werden, ein kontrastierendes, mechanistisches universelles Prinzip der „kleinsten Wirkung“ zu konstruieren. Um dieser Verwechselung vorzubeugen, sollte man eigentlich vom „Prinzip der geringsten Beschränkung“ sprechen. Der erste Fall einer solchen betrügerischen Erfindung war Maupertuis‘ Behauptung, er habe als erster ein Prinzip der kleinsten Wirkung gefunden. Diese Behauptung von Maupertuis war ein so offensichtlicher Betrug, daß selbst dessen früherer Patron Voltaire gezwungen war, sich öffentlich gegen ihn auszusprechen. Außer dem berühmten aristotelischen Fanatiker und Leibniz-Gegner Christian Wolff protestierten auch andere seiner unmittelbaren Mitarbeiter an der Berliner Akademie gegen die Eselei Maupertuis‘, mit seiner wissenschaftlichen Unbildung zu prahlen. Es ist im Zusammenhang des Treibens des berüchtigten „Primaten der Parasiten“ in den letzten Jahrzehnten nützlich zu wissen, daß der gleiche Maupertuis das von Giammaria Ortes kopierte Dogma etablierte [Riflessioni sulla popolazione delle nazioni per rapporto all’economia nazionale (Reflexionen über die Bevölkerung der Nationen in bezug auf die Nationalökonomie), 1790], welches später wiederum von Thomas Malthus abgeschrieben wurde [An Essay On Population (Ein Aufsatz über die Bevölkerung), 1798] und dann Grundlage der Methoden wurde, welche Charles Darwin in Biologie und Sozialpolitik einführte und der Huxley-Clan mit Erfolg zu einem Axiom der modernen empirischen Biologie und Soziologie machte.)) und Keplers Verwendung des Begriffs Grund, dort wo die Empiriker statt dessen von Kausalursache sprechen.

Formal bedeutet Vernunftgrund, wie diesen Begriff beispielsweise Platon, Nikolaus von Kues, Leonardo da Vinci, Kepler oder Leibniz verwenden, die strenge Anwendung jeder Fähigkeit zur Entdeckung gültiger Prinzipien, die dem entsprechen, was wir hier und in anderen Veröffentlichungen als „Hypothesen“ bezeichnen.

Dieses Prinzip ermöglicht es, annähernd die Kraft einzuschätzen, welcher der im Universum vorhandene Impuls zur Wirkung entsprechend dem göttlichen Gesetze [dem Naturgesetz] gehorchen muß. Das Prinzip des Naturgesetzes wirkt auf den Impuls zur Wirkung als Beschränkung; die durch diese Beschränkung bewirkte Ablenkung des Impulses kann man ganz analog als „Abbiegung“ der Wirkung vorstellen, wie sie sich in unserer visuellen Raumvorstellung als Krümmung der physischen Raumzeit darstellt. Die Vorstellung des „Verbiegens“ der Schatten der Wirklichkeit dient uns zur mathematischen Darstellung unseres Wissens von der auf diese Weise reflektierten Wirklichkeit.

Deshalb gehören zu den wichtigsten Vorarbeiten von Riemanns Dissertation über die Hypothesen die Arbeiten von Johann Bernoulli und Leibniz, sie benutzen nämlich die Charakteristika des allgemeinen Prinzips der Brechung des Lichts, um Leibnizens Prinzip der universellen kleinsten Wirkung zu demonstrieren.((Siehe Fußnote 26.)) Die Tatsache, daß die zeitlich kürzeste Entfernung einem isochronischen Weg entspricht, nämlich der einfachen Zykloide, reicht als Beweis dafür aus, daß selbst der visuelle Raum mit den Raumbegriff von Galileo und Newton und der ihm zugrundeliegenden algebraischen Kausalität nicht umfassend beschrieben werden kann.

Leibniz, Bernoulli u.a. benutzten dieses ausgezeichnete Experiment, um die angeblich so sichere Grundlage der algebraischen Methoden, auf welche sich die Cartesianer und Newtonianer berufen, zu widerlegen und statt dessen die Bedeutung des nichtalgebraischen (transzendenten) Bereichs zu betonen. So wichtig und gerechtfertigt diese Korrektur auch war (und ist), so darf sie nicht dahingehend mißverstanden werden, daß die Kausalität aus dem algebraischen nun in den transzendenten Bereich verlagert werden müßte. Man darf nicht vergessen, daß es die kreative Vernunft war, durch die der Aufstieg vom algebraischen zum transzendenten Bereich gelang: Man muß sich auf den Akt der Entdeckung konzentrieren, der diese axiomatisch-revolutionäre Veränderung hin zu einem mathematischen Bereich höherer Kardinalität bewirkte. Die Wirkung der Folgerungen, die sich aus diesen beiden eng zusammenhängenden Überlegungen ergeben – die Überlegungen bezüglich der Krümmung und des Aktes der Entdeckung – ist für die heute anerkannte Schulmathematik und die anmaßende Autorität ihrer Hohenpriester verheerend.

Das bringt uns nun zum letzten Schritt unseres wesentlichen Arguments: Der ontologischen Bedeutung des wirtschaftlichen Beweises für das Prinzip der Hypothese der höheren Hypothese. Werfen wir vor diesem Schritt nochmals einen Blick auf den Entwurf unseres Beweisgangs.

  1. Die Methode, die bei der Erzeugung einer Entdeckung verwendet wurde, ob es sich nur um einen neuen Satz oder ein neues Naturprinzip (eine Hypothese platonischer Qualität) handelt, verwirklicht ihre ontologische Existenz. Im Fall der konsistenten Einfügung eines neuen Satzes in ein Theoremgitter ist diese Methode die Hypothese, welche die Methode dieses Theoremgitters ist. Im Fall des Ersetzens eines Theoremgitters durch ein anderes mit vergleichsweise höherer Kardinalität haben wir eine Folge von Hypothesen-Mannigfaltigkeiten, welche untereinander ihrer Kardinalität entsprechend geordnet sind. Sie folgen alle einer gleichbleibenden Methode der Erzeugung von Folgen solcher Hypothesen-Mannigfaltigkeiten.
  2. In beiden Beispielen stellt jede neue Entdeckung die Frage nach der Wahrheit des bisherigen Wissens. (a) Im untergeordneten Fall, dem eines neuen Satzes in einem Theoremgitter, haftet an dem bisherigen Wissen, wenn es an den Lehrsätzen gemessen wird, ein erwiesener Kompositionsfehler, wobei der Kompositionsfehler darin besteht, daß die Sätze des alten Theoremgitters zwar in sich stimmig, aber relativ unvollständig und untereinander falsch angeordnet und gewichtet waren. Jedoch das Prinzip (die Hypothese), welches der Erzeugung aller gültigen Satze dieser Systeme zugrundeliegt, der alten und der neuen Theoremgitter, ist relativ wahr, es ist transfinit wahr. (b) Im zweiten Fall widerlegt die Entdeckung einer neuen Hypothese den Wahrheitsanspruch der bisher existierenden Hypothese; jede frühere Hypothese erweist sich im Vergleich zu der neuen als Kompositionsfehler. Jedoch die Aufeinanderfolge solcher neuer Entdeckungen erweist sich – sofern es sich um Entdeckungen des transfiniten Typus handelt – als relativ wahr.
  3. In beiden Fällen ist es das transfinite relative Eine, welches relativ wahr ist, und die Begriffe der darin enthaltenen Vielen erweisen sich jeder für sich betrachtet als relativer Kompositionsfehler. Immer liegt die Wahrheit einzig und allein im transfiniten Werden, dem Typus des verwendeten Prinzips der axiomatisch-revolutionären Entdeckung, und nicht in den experimentellen Daten, die mit dem jeweiligen Fall verbunden sind. Dieser Typus des Prinzips der Entdeckung (d. h. der höheren Hypothese) ist immer der ontologische Ort der relativen Wahrheit, und nicht irgendeine einzelne Hypothese.
  4. Damit stellt sich die formale Frage: Ist die relative Wahrheit der höheren Hypothese nur die Wahrheit des Beobachters (d. h. eines korrekten Kommentators), oder ist dieses Wissen im ontologischen Sinne effiziente Wahrheit? Wenn das verwendete Prinzip der höheren Hypothese nachweislich mit etwas korreliert, was die Phänomene der Veränderung in natürlichen Prozessen von außen beschränkt, wie das etwa die scheinbaren Bewegungsgesetze tun, dann belegt dieser Zusammenhang die relative Wahrheit des Wissensprinzips, und zwar als ontologisch wirksame Wahrheit und nicht nur als kontemplative.

Es ist nun eine Tatsache, daß der technologische Fortschritt der produktiven Arbeitskraft die Erhöhung der potentiellen Bevölkerungsdichte der menschlichen Bevölkerung – meßbar durch den Konsum und die Produktivität pro Kopf, pro Haushalt und pro Quadratkilometer – den Prozeß des wissenschaftlichen Fortschritts reflektiert, welcher auf Platons Akademie in Athen zurückgeht und, beginnend mit der goldenen Renaissance in der Mitte des fünfzehnten Jahrhunderts, auf breiter Basis verwirklicht wurde. Diese Tatsache, daß der Anstieg der (Re-)Produktionskräfte der Menschheit mit einem meßbaren Anstieg der Mächtigkeit (Kardinalität) der geometrisch-mathematisch darstellbaren Folge von technisch realisierten Entdeckungen korreliert, zeigt, daß das antiaristotelische, platonische Prinzip der kreativen Entdeckung, welches auch der Renaissance und den aus ihrer hervorgegangenen Entwicklungen zugrundeliegt, das entscheidende Maß für die Gültigkeit der ontologischen Wahrheit ist; und es belegt andererseits die relative Falschheit der Argumente, die von der Aufklärung und den Gegnern der Renaissance ganz allgemein vorgebracht wurden.

Man darf nicht annehmen, daß dieser Fortschritt allein oder zumindest fast ausschließlich das Ergebnis des Fortschritts in den sogenannten Naturwissenschaften war. Was wir formal in mathematischen Begriffen darstellen können, spiegelt ein Prinzip wider, welches ebenfalls der kreativen Komposition in den klassischen (d. h. antiromantischen, antimodernistischen) Formen der Dichtung, des Schauspiels, der Musik und der Malerei zugrundeliegt. Der Motor des Fortschritts ist die gesamte Entwicklung des Geistes, wie sie Dichtung, Schauspiel, Musik und Malerei gleichermaßen charakterisieren, denn die kreativen Formen der klassischen Komposition sind das wichtigste Mittel, mit denen das Individuum die Fähigkeit zu kreativer wissenschaftlicher Arbeit entwickeln kann.

Die Funktion der mathematischen Physik ist formal richtig definiert, wenn es so geschieht, wie Riemann das in seiner Hypothesen-Dissertation tat. Wir wirken auf ein Universum ein (und dieses wirkt auf uns), welches unsere Sinnesorgane nicht sehen können, ein Universum, dessen vorstellbare Reflexionen Schatten sind, welche das wirkliche Universum auf unser miteinander verbundenes visuelles und auditorisches Vorstellungsvermögen wirft. Die Aufgabe der mathematischen Physik ist es, mit Hilfe des wissenschaftlichen Tricks einer höheren Art von „Geodäsie“ die Wirkungen zu entschlüsseln, welche sich uns als sensorische Schatten darstellen, um dadurch die Realität des wirklichen Universums, das nur außerhalb des Raumes unserer einfachen Sinneseindrücke existiert, abzuleiten.

Wenn wir auf diese Art beweisen können, daß es Änderungen im Verhalten der „Schatten-Wirkungen“ gibt, die nicht durch die „Wirkung“ der Schatten als Schatten auf Schatten erklärt werden können, sondern daß dieses Verhalten einem Universum angehört, welches eine andere Krümmung hat als unsere visuelle Vorstellung, haben wir bewiesen, daß Platon in dieser Frage recht hatte und alle seine Kritiker grundlegend irrten.

In diesem Fall entfernt sich der ontologisch primäre Ausdruck der Existenz von Aristoteles und seinen geschwätzigen „trotzkistischen“ Nachahmern. Das ontologisch Primäre ist die Änderung, worauf die geodätische Messung der physischen Raumzeit beruht.((Dies ist Heraklits Wandel, und auch die Veränderung, die als Lösung des Paradoxes in Platons Parmenides angedeutet wird.))

In diesem Fall können wir nicht „Bewegungsgesetze“ von Annahmen über die stoßende oder strahlende Wechselwirkung zwischen gesehenen oder vermuteten((„vermuteten“, wegen der Annahme der Existenz unsichtbarer, diskreter Objekte im Sinne sinnlich wahrnehmbarer Objekte, z. B. im subatomaren Bereich.)) Schatten projizieren. Vielmehr müssen wir zeigen, daß die Bewegungsgesetze oder analoge verändernde Wirkungen die Form von Gesetzen haben, die als Bedingungen „von außen“ auf die Bewegung der Schatten wirken. In ihrem tiefsten Verständnis eröffnen uns diese Gesetze Prinzipien in der Form höherer Hypothesen, die durch kreative Entdeckung hervorgebracht werden und unseren gegenwärtigen Wissensstand charakterisieren. Wir müssen daher die Universalität der „kleinsten Wirkung“ – beschränkt durch das Gesetz, das wir als höhere Hypothese reflektieren – an die Stelle der von Galileo und Newton verkündeten mechanistischen Hypothesen über die Bewegung der Materie setzen.

Wir müssen die Entwicklung der ersten umfassenden mathematischen Physik durch Kepler betrachten, die von der Einzigartigkeit der fünf regelmäßigen platonischen Körper ausging, und darin ein wesentliches Beispiel für die Anwendung dieses Prinzips der kleinsten Wirkung von Leibniz erkennen. Deshalb benutzt Kepler den Begriff „Vernunftgrund“, wogegen seine Plagiatoren Galileo und Newton den mechanistischen Begriff „Ursache“ verwenden.

Wenn wir einmal die relevante Anwendung eines solchen Prinzips der kleinsten Wirkung hergeleitet haben, werden wir die Beziehungen zwischen den Wirkungen, die sich uns als Schatten darstellen, nach den gemeinsamen Beschränkungen beurteilen, welchen diese aufeinander einwirkenden Aktionen gehorchen müssen. Deshalb ist der Begriff einer bestimmten, von null verschiedenen Krümmung der physischen Raumzeit, welche durch die Schatten unserer visuellen Vorstellung reflektiert wird, das wichtigste Arbeitskonzept der mathematischen Physik.

Zum Abschluß: die Metapher

Der zweite Kernpunkt, der bezüglich dieser Frage von Bedeutung ist, wurde von mir kürzlich an anderer Stelle recht ausführlich abgehandelt (über das hinaus, was ich zu diesem Thema in den letzten Jahrzehnten in Vorträgen oder Schriften gesagt habe). Nichtsdestoweniger muß in dem hier dargestellten Zusammenhang mit besonderem Nachdruck auf die Frage der Metapher eingegangen werden.

Alles Wissen über die menschliche Vernunft muß zuerst von einer strengen Definition des diametralen Unterschieds zwischen einem geistigen Akt der schöpferischen Entdeckung und einer einfachen deduktiven Meinung, die sich auf irgendeine Autorität beruft, ausgehen. Ohne diese Grundlage ist alles, was im Namen der Philosophie im allgemeinen oder der Wissenschaft im besonderen gesagt wird, nichts als unbewiesene Behauptung. Ich habe es immer wieder betont: Der platonische Begriff der höheren Hypothese im beweisbaren (regenerierbaren) Sinn des Begriffs ist Voraussetzung für die kompetente Beantwortung der Frage der grundlegenden philosophischen Prinzipien im allgemeinen und in der Wissenschaft im besonderen. Hierin, in dem expliziten Konzept der so verstandenen höheren Hypothese, liegt die Wurzel des gesamten wahrhaften Wissens der Menschheit, und hierin gründet sich jeder Begriff der ontologischen Realität.

Das Hauptproblem der heutigen europäischen Zivilisation läßt sich treffend als das Problem der falschen Meinung beschreiben, welches sich aus dem Venedig des 16. Jahrhunderts und der Wiederherstellung der Autorität der aristotelischen Methode ableitet. Dieses bloße Meinen verdammt die menschliche Seele, und in das Zentrum dieser venezianischen Verdammung der menschlichen Seele führen uns Pompanazzi, Zorzi, der einflußreiche Bellarmin und sein Zeitgenosse Paolo Sarpi. Der gemeinsame Nenner, den wir bei diesen Machenschaften zur Verdammung der menschlichen Seele immer wieder feststellen, ist der Kampf gegen die Methode, welche Kardinal Nikolaus von Kues in der docta ignorantia (der belehrten Unwissenheit) entwickelte, wogegen immer wieder das venezianische Argument gesetzt wird, daß die Grundlage des Wissens allein aus der Interpretation von Sinneseindrücken erfolge, und zwar unter Ausschluß jener Art von Ideen, welche axiomatisch-revolutionäre Entdeckungen des Wissens herbeiführen.

Aus diesem Grund kann z. B. kein Anhänger der Methode des Aristoteles ein Christ oder ein gläubiger Jude in der Nachfolge von Moses sein. Denn das, was den Menschen von den Tieren unterscheidet, ist seine Fähigkeit zu kreativer Vernunft; es ist diese Qualität der kreativen Vernunft, welche den Menschen zum Abbild Gottes des Schöpfers macht. Die kreative Vernunft ist die Substanz der menschlichen Seele. Aber genau diese Seele spricht der Aristoteliker Pompanazzi dem Menschen ab; er versichert, so etwas gäbe es nicht, höchstens in der Art, wie Orpheus eine Seele verliehen wurde, als er in den Hades eintrat. Die kreative Vernunft ist das imago Dei, ist die capax Dei; ohne sie gibt es weder imago Dei noch capax Dei.

Genau in dieser Frage, in der Frage, ob auch die Armen kreative Vernunft besitzen, das heißt eine Seele haben, lehnt die venezianischen Oligarchie das Christentum grundsätzlich ab. Heute gilt das für die internationale venezianische Oligarchie, die von dem regierenden „Primaten unter den Parasiten“ unserer Zeit, der britischen Königsfamilie des „Dogen von Edinburgh“, angeführt wird.((Oder sollten wir vielleicht unter bezug auf Prinz Philips langjährigen Vorsitz im antichristlichen, antihumanen Worldwide Fund for Nature sagen, die „Brutish Royal family“.)) Für diese Oligarchen, wie schon für die bösartigen Tyrannen des kanaanitischen Thalassiarchen Tyrus, dem sie nacheifern, dürfen die niederen Klassen nicht “über Gebühr“ gebildet oder zu gut ernährt werden, damit diese niederen Klassen nicht zahlreicher werden, als es die besseren Klassen für erträglich halten, und damit keiner verleitet wird zu glauben, daß die Angehörigen der niederen Klassen mindestens ebensosehr Abbild des Schöpfers seien wie jene dekadenten – man könnte sogar „degenerierten“ sagen – königlichen Familien und die restlichen oligarchischen Familien von heute.

Kurz gesagt, wenn sich die Einsicht verbreitete, daß jeder einzelne von uns bei seiner Geburt gleichermaßen Abbild des Schöpfers ist, weil er im Gegensatz zum Tier kreative Fähigkeiten besitzt, würde sich der Zeitraum, in dem Wucher, Malthusianismus und andere Ausdrücke oligarchischer Degeneration auf diesem Planeten noch zu existieren vergönnt sind, stark verkürzen. Das kann und will die Oligarchie dieses Planeten nicht zulassen, und die venezianische Partei besteht in der Tat noch. Man kann als ihr gegenwärtiges Hauptquartier das Londoner Finanzzentrum ansehen, die Monarchie und die Lakaien, die diesen ehrenwerten Potentaten dienen.

Etwas einfacher (aber nicht falsch) formuliert: Der Anstieg der potentiellen Bevölkerungsdichte der menschlichen Gattung über die der höheren Affen hinaus beruht völlig auf dem, was etwas ungenau als Verbesserung der Kultur bezeichnet wird, eine Verbesserung, die ihrerseits Produkt neuer Ideen ist; sie beruht also auf der Fähigkeit der Menschheit, Ideen in einer Art und Weise zu ändern, welche die Formallogik als „axiomatisch-revolutionär“ ansehen muß. Der Mensch ist – und das unterscheidet ihn von allen anderen Gattungen – diejenige Gattung, welche sich durch die Erzeugung von Ideen reproduziert; es ist die einzige Gattung, deren Existenz auf dieser besonderen Fähigkeit beruht, einer Fähigkeit, die – wie verstümmelt auch immer – selbst in jenen Oligarchen existiert, und das, obwohl sie das Vorhandensein dieser Fähigkeit für sich selbst abstreiten. Die Geschichte der Menschheit ist die Geschichte von Ideen, eine Geschichte, die ohne Bezug auf jene geistige Instanz nicht kompetent beurteilt werden kann, deren Existenz alle aristotelischen und analogen Methoden bestreiten: Die Existenz kreativer Vernunft, das, was den Menschen über die Tiere erhebt.

Nur wenn sich ein Individuum dieses entscheidenden Unterschieds der Qualität seiner Fähigkeit bewußt ist, kann es einen richtigen Begriff seiner persönlichen Identität entwickeln. Immer wenn man entweder eine axiomatisch-revolutionäre Entdeckung macht, wie im Fall der Hypothesen, oder etwas Vergleichbares in der Kunst erreicht, oder, falls dieses nicht gelingt, zumindest den Akt einer derartigen Entdeckung nachvollzieht, den wissenschaftliche Entdecker oder kreative klassische Künstler bereits machten, dann partizipiert man an einer Idee, einem Prinzip, das in sich selbst von „welthistorischer“ Bedeutung ist und für die gesamte Menschheit von Nutzen ist. Auf diese Weise, und nur auf diese Weise, kann das Individuum die Arbeit der früheren Generationen fortführen und zum Fortschritt der gesamten Menschheit in der Gegenwart und der Zukunft beitragen.

Eine Person, die sich über ihre Teilnahme an der Geschichte mittels ihrer individuellen Fähigkeit zur kreativen Vernunft bewußt wird, hört auf, in ihrem unmittelbaren und lokalen Hier und Jetzt Teil einer menschlichen Herde zu sein, eine solche Person wird ein bewußtes Mitglied der ganzen Menschheit. Sie ist kein Sklave und kein Knecht. Diese Person ist qualifiziert, intelligent zu wählen, im Rat der Selbstregierung mitzureden und im Rahmen dieser Selbstregierung in ein verantwortliches Amt oder eine andere leitende Funktion der Gesellschaft gewählt zu werden. In einer klugen Gesellschaft wird für die Ausübung solcher Funktionen von den Individuen keine geringere Qualifikation verlangt. Ohne diese Qualifikation ist das Individuum ein armer Teufel, einem Don Quixote gleich, der in einer Phantasiewelt lebt, oder einem Sancho Pansa, der nicht einmal eine Insel regieren konnte, weil sein Kopf nicht in der Lage war, die Leidenschaften unterhalb der Gürtellinie zu kontrollieren.

Paolo Sarpi und seine venezianische Fraktion meinten, es sei geschickter, die damals neuen Institutionen der Wissenschaft zu korrumpieren und zu kontrollieren, statt zu versuchen, sie mit Gewalt zu unterdrücken. Deshalb legten Sarpi und seine Anhänger ihr Hauptaugenmerk auf die allgemeine „Verdummung“ der menschlichen Gattung, indem sie möglichst alle Aspekte des kreativen Entdeckungsprinzips aus der mathematischen Darstellung der Wissenschaft ausschlossen. Sarpi spielte bei der Einführung dieser Praxis eine ganz entscheidende Rolle, wobei er sich Galileos, Robert Fludds und Francis Bacons bediente. Descartes und Newton sind typische Repräsentanten der in ihrem Denken korrumpierten, venezianisch kontrollierten Figuren in der Geschichte der wissenschaftlichen Institutionen. Im achtzehnten Jahrhundert waren Voltaire, Maupertuis, Algarotti, Euler, Lagrange und Lambert von der Berliner Akademie und die französischen Enzyklopädisten typisch für jene korrumpierten, einflußreichen Personen, die in den wissenschaftlichen Institutionen unter der unmittelbaren Kontrolle venezianischer Geheimdienstagenten wie Conti und Algarotti arbeiteten, um das Erbe Cusas, Leonardo da Vincis, Keplers und Leibnizens aus der Wissenschaft zu verbannen. Immanuel Kant, der Marquis de LaPlace, Augustin Cauchy und Zirkel unter der Kontrolle des Briten Lord Kelvin setzten diese venezianische Tradition im neunzehnten Jahrhundert fort.

Diese Wirkung von Paolo Sarpis Kult des Empirismus und ähnliche Einflüsse sind deshalb ein Markenzeichen der pseudowissenschaftlichen Praxis, welche der immer jugendliche idiot savant John von Neumann in dem von ihm und Oskar Morgenstern verfaßten Buch Die Theorie der Spiele und das wirtschaftliche Verhalten an den Tag legen. Dort bauen die Autoren nämlich das gesamte von Neumannsche Dogma auf den Axiomen eines „Robinson-Crusoe-Modells“ auf.((John von Neumann und Oskar Morgenstern: The Theory of Games and Economic Behaviour (Theorie der Spiele und des wirtschaftlichen Verhaltens), 3. Ausgabe, Princeton University Press, Princeton N.J., 1953, 1. Kapitel, „Formulierung des wirtschaftlichen Problems“, S. 1–43.)) Ähnlich ist es mit dem naiven oder verbildeten Studenten, der glaubt, die „Wiederholbarkeit“ eines Naturphänomens sei ein wissenschaftlicher Beweis, oder gar annimmt, Wissenschaft sei im wesentlichen Statistik. Wer es versäumt, sich selbst als Imago Dei und Capax Dei im Sinne kreativer geistiger Akte zur bewußten Erzeugung von Hypothesen zu sehen, gerät in die unglückliche Lage eines Menschen, der ein Wissenschaftler hätte werden können, hätte er nur die Grundvoraussetzung dafür erfüllt, nämlich sich selbst durch bewußten Einsatz seiner kreativen Fähigkeit zur Hypothesenbildung als lebendiges Abbild des Schöpfers zu erkennen.

Im „Robinson-Crusoe-Modell“ reflektiert sich unmittelbar der Einfluß des aristotelischen Empirismus der Sarpi-Schule und der Dogmen von Francis Bacon, Galileo Galilei, Thomas Hobbes, René Descartes, John Locke, David Hume, Adam Smith, Jeremy Bentham u. a. Dieses Modell geht vom Menschen als einem individuellen Tier aus, von einer einzelnen Person, die von einem Gemisch innerer Triebe bewegt wird, was Adam Smith folgendermaßen beschreibt: „Die Natur hat uns dazu weitgehend durch diese ursprünglichen und unmittelbaren Instinkte gebracht. Hunger, Durst, die Leidenschaft, welche die beiden Geschlechter vereinigt, die Liebe zur Lust und die Furcht vor Schmerzen veranlassen uns, diese Mittel um ihrer selbst Willen einzusetzen, ganz ohne irgendwelche Rücksicht auf ihre Tendenz zu jenen wohltätigen Zielen, welche der große Lenker der Natur durch sie herbeiführen wollte.((Adam Smith: The Theory of Moral Sentiments (Die Theorie der moralischen Gefühle), 1759 (Hervorhebung vom Verfasser).))

Dieses 1759 von Smith in seinem Buch Die Theorie der moralischen Gefühle formulierte Argument, das direkt von venezianischen Agenten wie Maupertuis und Giammaria Ortes übernommen ist, ist auch die Grundlage seines 1776 veröffentlichen antiamerikanischen Traktats über den Reichtum der Nationen((Dieses Werk aus dem Jahr 1776 war das Ergebnis eines Auftrags, den Smith von Lord Shelburne erhielt, der seit 1763 sein Arbeitgeber bei der britischen Ostindiengesellschaft war. Die Aufgabe lautete, ein Werk vorzubereiten, das Shelburnes britischen Venezianern dabei helfen würde, sowohl Londons Kriege mit dem schließlich 1815 erreichten Ziel, Frankreich zu unterwerfen, voranzutreiben, als auch dem Verlangen der aufstrebenden amerikanischen Kolonisten nach wirtschaftlicher Unabhängigkeit und Selbstregierung entgegenzutreten. Smith wurde beauftragt, mit den Netzwerken des Abts Antonio Conti, mit Voltaire und den Physiokraten in Frankreich und der burgundischen Schweiz zusammenzuarbeiten, um ein Dogma der politischen Ökonomie zu formulieren, welches die Dogmen der französischen Physiokraten den neuen merkantilen und finanziellen Gegebenheiten des britischen philosophischen Radikalismus des 18. Jahrhunderts anpaßte. Vom Standpunkt der Ökonomie richtete sich Smiths Aufgabe vor allem gegen die kontinentalen Kameralisten im allgemeinen und insbesondere gegen Colbert und Leibniz. Die moderne „Chaostheorie“ ist nichts anderes als leeres, aus der Gosse des mathematischen Formalismus gezogenes ideologisches Geschwätz in einer neuen Verpackung, um den moralischen Indifferentismus der zitierten Passage aus Smiths Theorie der moralischen Gefühle aufs Neue zu verbreiten.)), worin er sein notorisches Dogma von der „unsichtbaren Hand“ verkündete.

Die geschichtliche Wirklichkeit beweist, daß die menschliche Existenz das Resultat des Bildens (und eigenständigen Nachvollziehens) richtiger neuer höherer Hypothesen ist, Hypothesen und Theoreme, welche nur durch die Entwicklung und die Anwendung jener kreativen Fähigkeit des menschlichen Geistes realisiert werden können, welcher Aristoteliker wie Pompanazzi und die Empiriker die Existenz absprechen und von der agnostische Aristoteliker wie Immanuel Kant in seinen Kritiken ebenso wie der orphische Gasparo Contarini versichern, niemand auf dieser Seite des Hades könne davon etwas wissen. Die soziale Rolle der kreativen Geisteskräfte des Individuums zum Bilden und eigenständigen Nachvollziehen von Ideen, auf denen die fortgesetzte Existenz der Gesellschaft als Ganzer beruht, ist also für die menschliche Gattung von lebenswichtigem Interesse. Deshalb ist nur ein Individuum moralisch, das als sein Eigeninteresse nicht wie Smith „ursprüngliche und unmittelbare Instinkte“ gelten läßt, sondern sich vor allem mit jener Art von Ideen beschäftigt, die in „Rücksicht auf ihre Tendenz zu jenen wohltätigen Zielen“ formuliert und angewandt werden, wie es im jüdisch-christlichen Buch Moses, Genesis 1 : 26–28, genauestens dargelegt ist.

Die Methode der Empiriker und der Aufklärung des siebzehnten und achtzehnten Jahrhunderts beruht auf dem gleichen irrationalen Prinzip, welches Smith in der zitierten, eigentlich gnostischen((Offensichtlich predigen Adam Smith mit seiner „unsichtbaren Hand“, US-Senator Phil Gramm, dessen bemerkenswerte Leistung darin besteht, sogar den vulgären Professor Milton Friedman zu vulgarisieren, und die modernen „Chaostheoretiker“ allesamt eine weltliche Abart der „Mysterienreligion“ aus dem delphischen Erbe des Kults von Apollo, Dionysos und Orpheus.)) Version zur Schau stellt. Die empirische Methode kehrt immer wieder zu zwei Grundannahmen zurück. Erstens der Annahme von Hobbes und Locke – die Smith wie zitiert beschreibt –, welche den Menschen als einen von seinen ursprünglichen Instinkten getriebenen Akteur und Beobachter zur „Zelle“ aller erkennbaren Realität macht. Daher gilt Robinson Crusoe als eingeborener Begründer der politischen Ökonomie und der „Chaostheorie“. Zweitens das Dogma der Methode des aristotelischen deduktiven Irrationalismus: Das Bestreiten der Existenz des „göttlichen Funkens der Vernunft“ im Individuum, das Bestreiten einer Qualität der kreativen Vernunft, welche immer wieder auf revolutionierende Weise die Dogmen widerlegt, welche Aristoteles bezüglich der Existenz und Interpretation von Phänomenen aufgestellten hat.

Seit über 2000 Jahren war Aristoteles der einflußreichste Widersacher der Vernunft und der wahren Wissenschaft sowie die Kraft, welche das Christentum durch seine korrumpierende Methode am stärksten schwächte. Hätte es nicht den zersetzenden Einfluß Sarpis und anderer Empiristen gegeben, wäre die Korruption der Wissenschaft durch Sarpis venezianische Methode, für die Galileo und Newton so typisch sind, durchschaut worden und hätte sich nie in den führenden Institutionen der Wissenschaft festsetzen können.

Ein typisches Beispiel für dieses institutionalisierte Problem unserer heutigen dekadenten Zivilisation ist die „politische Wissenschaft“, sie ist eine Pseudowissenschaft, erfunden von der berüchtigten Madame de Staël, der „Madame Blavatsky“ der französischen und deutschen Aufklärung.((Siehe Michael J. Minnicino (unveröffentlichtes Manuskript))) Entfernen wir diese verlogene Ungeheuerlichkeit aus unseren Universitäten und tun sie dahin, wo sie hingehören, zu Astrologie, Hexenkunst, Malthusianismus und Schädelforschung, d.h. zu jenen Formen des Aberglaubens, bei denen sich arme, unwissende Schelme von vernünftigen Männern und Frauen scheiden. Die Stellen, die auf diese Weise an Universitäten und Akademien frei werden, sollten wir ersetzen durch Forschungsprojekte, welche die venezianische Politik und ähnliche Politiken in der Geschichte der Wissenschaft aufs genaueste untersuchen. Denn nur dadurch, daß von den höchsten politischen Autoritäten in den Institutionen der Wissenschaft (und den „wohltätigen“ Oligarchen, welche die Wissenschaft finanzieren und auf diese Weise kontrollieren) eine so schmutzige Politik betrieben wurde, konnte der mechanistische Kausalitätsbegriff das Prinzip des Vernunftgrundes, auf dem sich Platon, Kues, Leonardo, Kepler und Leibniz gegründet haben, in den Hintergrund drängen.

  1. Man muß richtigerweise Aristoteles, den Verfasser des Organon, zu den Materialisten zu zählen. Zum philosophischen Materialismus gehören sämtliche Dogmen, welche in der axiomatischen Annahme übereinstimmen, daß das ontologische Wissen über die Welt auf der formalen Übereinstimmung von nominellen Definitionen von Sinneswahrnehmungen – und nicht auf Ideen – beruht. Daher sind eigentlich alle Antiplatoniker Materialisten: Die Eleaten, Sophisten, Aristoteliker, Empiristen, Positivisten etc. []

Diese Seite verwendet Cookies, um die Nutzerfreundlichkeit zu verbessern. Mit der weiteren Verwendung stimmen Sie dem zu.

Unsere Datenschutzerklärung