Die Primzahl-Irritation (math-fiction)

Trestone

Großmeister
Registriert
12. April 2002
Beiträge
887
Die Primzahl-Irritation

Am Anfang stand eine kleine Irritation:
Der Supercoputer HAL 9009 schien einen Fehler gemacht zu haben. Bei der Berechnung der Primzahlzerlegung einer dezimal 300-stelligen Zahl ergab sich ein widersprüchliches Ergebnis. Denn bei der nach einem Monat wiederholten Berechnung ergaben sich andere Primfaktoren als beim ersten Lauf.
Natürlich vermutete man einen Berechnungsfehler, denn die Eindeutigkeit der Primfaktorzerlegung ist ein mathematisches Gesetz (schon Euklid bekannt) und wurde vor ca. 200 Jahren von Carl Friedrich Gauß bewiesen.
Aber es ließ sich weder am Computer noch am Programm ein Fehler finden.

Jahre später ist das Phänomen sich verändernder Primzahlzerlegungen wohlbekannt.
Einige Kryptographiefirmen mussten Konkurs anmelden, denn ihre Algorithmen funktionierten nicht mehr.
Schlimmer war der Vertrauensverlust für die Wissenschaften:
Gerade den Mathematikern hatten viele quasi blind vertraut – und die Zeitlosigkeit ihres Wissens wurde vorausgesetzt. Dass Wissen nur vorläufig ist war von vielen verdrängt worden.

Nun standen Grundprinzipien des Wissens zur Disposition.
Nur weil etwas gestern und heute galt muss es morgen nicht mehr so sein.

Auch die schon weit verbreitete KI wurde nun wieder kritischer gesehen.

Verschwörungstheoretiker erhielten Auftrieb und wurden zur Mathematik schnell fündig:
Die Eindeutigkeit der Primzahlzerlegung wird klassisch mit einem Widerspruchsbeweis bewiesen. Die mathematísche Richtung des Konstruktivismus hat einst solche Beweise abgelehnt, allerdings nicht für die Arithmetik sondern für die Mengenlehre (Grundlagenstreit). Hier hat die Mathematik eine “Leiche im Keller”, denn diese (vielen unbequeme) Richtung wurde weniger durch Argumente als durch Machtpolitik erledigt (David Hilbert).

Unschön war auch, dass zuletzt wenig alternative Mathematiken verfolgt wurden, denn gerade das Hochschulprinzip förderte vor allem den Mainstream.

Und so wuchs sich diese Arithmetik-Irritation langsam zu einer Wissenschaftskrise aus.

Ansätze zur Bewältigung mussten mühsam von Grund auf erarbeitet werden,
dabei auch manch heilige Kuh geschlachtet werden.

Ob das Ganze mit Reformen zu bewältigen sein wird oder die Wissenschaften - wie einst die Religion - in die zweite Reihe zurücktreten müssen, bleibt abzuwarten.

Phantasie, Intuition, Kreativität und Dummheit stehen als alte Konkurrenten schon bereit,
ob konstruktiv oder zerstörend muss sich noch weisen.


Und hier ein zugehöriges Gedicht von mir:


Mathedämmerung

Lange setzten sie auf Wahrheit
bis Gödel sie verdrängt,
dann veränderten sich die Primzahlen,
das hat Realität und Zeit
ihnen geschenkt.

Auch Beweise können irren
ist die Logik nicht ganz rund
und so kamen sie vom Hohenpriester
ziemlich runter auf den Hund.

Wir sind und bleiben Menschen
und Wahrheit ein Ideal
nach der wir gerne suchen
doch der Grat ist schmal.


Gruß
Trestone
 

Trestone

Großmeister
Registriert
12. April 2002
Beiträge
887
Hallo,

hier eine überarbeitete Version:



Die Primzahl-Irritation 2.0 (math-fiction)

Am Anfang stand eine kleine Irritation:
Der Supercoputer HAL 9009 schien einen Fehler gemacht zu haben. Bei der Berechnung der Primzahlzerlegung einer dezimal 300-stelligen ganzen Zahl ergab sich ein widersprüchliches Ergebnis. Denn bei der nach einem Monat wiederholten Berechnung ergaben sich andere Primfaktoren als beim ersten Lauf.
Natürlich vermutete man einen Berechnungsfehler, denn die Eindeutigkeit der Primfaktorzerlegung ist ein mathematisches Gesetz und wurde vor ca. 200 Jahren von Carl Friedrich Gauß bewiesen, ja sie war wohl schon Euklid bekannt.
Aber es ließ sich weder am Computer noch am Programm ein Fehler finden.

Die Irritation vergrößerte sich, als Jahre später immer mehr veränderte Primzahlzerlegungen auftauchten. Nicht nur Kryptographiefirmen fragten sich,
was aus der Zeitlosigkeit von Logik und Mathematik geworden war – und etliche gingen pleite.

Verschwörungstheoretiker gruben in der Geschichte der Mathematik nach. Beim sogenannten Grundlagenstreit zwischen Formalisten und Intuitionisten war es unter anderem auch um die Zulässigkeit von indirekten Beweisen gegangen, und genau einen solchen hatte Gauß eingesetzt. Hier fanden sie die “Leiche im Keller” der Mathematik: David Hilbert hatte seinen Kontrahenten Brouwer, der u.a. indirekte Beweise ablehnte, weniger mit mathematischen Argumenten besiegt, als mit Machtpolitik, indem er ihn aus dem Herausgebergremium der “Mathematischen Annalen” ausschloss. Danach verstummte der Intuitionismus weitgehend und es wurden weniger alternative Wege in der Mathematik beschritten.

Hatten die Verschwörungstheoretiker recht und man hatte auf das falsch Pferd gesetzt?

Der nächste Schlag folgte schnell: Jetzt ging es gar nicht mehr um Mathematik, auch grundlegende physikalische Eigenschaften zeigten sich plötzlich als zeitabhängig.
Es schien als ob die Zeit wie ein schlafender Riese plötzlich erwacht wäre und alles durcheinander warf. Unser Wissen und unsere Regeln von gestern waren für heute und morgen nicht mehr brauchbar, und wenn auch immer gemahnt worden war, dass unser Wissen nur vorläufig ist, hatte das praktisch kaum jemand geglaubt.

Obwohl sich die Zeit gar nicht anders bewegte, bürgerte sich der Begriff “Zeitbeben” für diese Phänomene ein, denn er drückte die Ohnmacht vor diesen Phänomenen gut aus.

War die Physik das letzte Opfer, oder würde der Riese auch noch unser Bewusstsein und unsere Identität verschlingen, die sich ja beide “nahe am Zeitstrom” bewegen? Das wäre dann wohl eine “Menschendämmerung”.

Die Zeit wird es weisen ...


Gruß
Trestone
 

Giacomo_S

Ehrenmitglied
Registriert
13. August 2003
Beiträge
2.835
Die Primzahl-Irritation

Am Anfang stand eine kleine Irritation:
Der Supercoputer HAL 9009 schien einen Fehler gemacht zu haben.

Für eine Berechnung von 300stelligen Zahlen braucht man natürlich ohnehin eine eigens programmierte Arithmetik.

Unser Vertrauen in die Verlässlichkeit von Computern ist manchmal zu groß.
Vor einigen Jahren fand ein amerikanischer Student mehr oder weniger zufällig, ein Integral o.ä., welches die Zahl Pi involvierte, sowas wie x*Pi + Y*Pi + Z*Pi + .... = 4 (nur symbolisches Beispiel).
Das schockierte die mathematische Szene, denn es hätte zur Folge gehabt, dass Pi, entgegen aller mathematischen Beweise, eben doch nicht transzendental, sondern ab irgendeiner noch unbekannten Stelle endlich oder periodisch gewesen wäre, sprich: Eine Rationale Zahl.

Eine Reihe von Mathematikern programmierte die Folge und bestätigte das Ergebnis: 4! Eine glatte, saubere 4!
Ein kritischer Zeitgenosse analysierte das Problem genauer und verwendete eine spezielle Langstellen-Arithmetik ... und fand heraus:

Das Ergebnis war: 4,0000 ... es folgen 20 Stellen mit 0 ... 51298347315984453...

Eine gewöhnliche CPU berechnet aber Dezimalstellen in der höchsten Genauigkeit Double Precision "nur" mit 18 Stellen. Danach rundet sie, und da war sie dann, die glatte 4!

Es gibt eine Reihe grundlegender mathematischen Probleme, die sich aus der Zahlendarstellung ergeben, mit der Computer arbeiten. Wir vergessen das gern ... und übersehen die Fehler, die sich daraus ergeben können (ausgenommen Spezialprogramme):

1. Computer arbeiten grundsätzlich nur mit rationalen und endlichen Zahlen. Jedes Schulkind rechnet richtig 1/3 * 3 = 1, ein Computer macht daraus aber 0,333 x 3 = 0,999.

2. Die übliche Zahlendarstellung von Computern ist Stellen + Exponent. Beide Werte, die Stellen wie der Exponent, werden binär dargestellt. Die Stellengenauigkeit kann bis zu 18 Stellen betragen und der Exponent bis +- 1063, und dennoch ergeben sich aus dieser Zahlendarstellung Fehler ...

a) Diese Art der Berechnung stimmt nur dann, wenn man Zahlen ähnlicher Dimensionen miteinander verrechnet. Dieser Fehler spielt normalerweise keine Rolle, denn das kommt praktisch nicht vor. Denn niemand berechnet das Sonnensystem mit der Genauigkeit von subatomaren Dimensionen, entweder man rechnet mit astronomischen Werten herum, oder mit subatomaren. Verechnet man aber sehr große Werte mit sehr kleinen, dann funktionieren solche Berechnungen nicht mehr, weil Stellen links oder rechts hinausgeschoben werden.

b) Bestimmte Berechnungen führen durch die binäre Darstellung der Stellen nur zu genäherten, aber grundsätzlich falschen Ergebnissen, weil die Ergebnisse binär nicht korrekt dargestellt werden können. Es ist (wiederum symbolisch dargestellt) so, dass man für eine Berechnung
Korrektes Ergebnis: 4,5
Digitales Ergebnis: 4,4999999999521487
erhält.
Das mag jetzt banal erscheinen, da man Ergebnisse am Ende irgendwann rundet, und dann das Ergebnis natürlich auch weit außerhalb einer vernünftigen Rechengenauigkeit stimmt.
Aber: Ein unerfahrener Programmierer kann hier auf einen Fallstrick hereinfallen, dann nämlich, wenn man an einer Stelle des Programms eine Art Erwartungswert hat, an dem eine Entscheidung getroffen wird:

Denn ein IF 4,5 = 4,4999999999521487 THEN tue dies oder jenes

wird ein Mensch als wahr entscheiden, der Computer entscheidet dies aber (richtigerweise) als falsch.
Genau das ist mir selbst in einem Programm schon mehr als einmal passiert, und es dauert einige Zeit, bis man dann herausfindet, warum eine Routine nicht in der gewünschten Weise funktioniert. Denn üblicherweise geht man von eigenen Programmierfehlern aus (und sucht nach diesen) und nicht von den Grenzen einer Zahlendarstellung.

c) Bestimmte Aufgaben kann man mit dieser Zahlendarstellung überhaupt nicht berechnen. Dazu gehören Probleme der Kombinatorik, die viele Stellen aufweisen, aber die nur ganzzahlig. Dafür braucht man die ganze Dezimalstellen-Darstellung ohnehin nicht, dafür aber viele Stellen (= HAL 9009s 300stellige Primzahlenzerlegung). Dafür braucht man dann eine eigene Zahlendarstellung und eigene Berechnungsmethoden, die sich praktisch nicht vom Grundschulrechnen mit Stift und Papier unterscheiden, nur eben mit vielen Stellen.
Allerdings ist das Ganze dann auch vergleichsweise langsam, da man nicht mehr die implementierte Arithmetik der CPU selbst nutzen kann.
Außerdem steht man vor dem Problem, die Plausibilität erzielter Ergebnisse praktisch nicht mehr überprüfen zu können.
Auch das ist nichts Neues. Ein arabischer Mathematiker hat im Mittelalter in einer lebenslangen Fleißarbeit die Zahl Pi auf mehr als 500 Stellen berechnet ... aber eben auch ab der 250. Stelle falsch.

Zu Primzahlen:
Man kann sie einfach in praktisch beliebiger Größe erzeugen und genauso einfach kann man - die Basis jeder Kryptografie - zwei Primzahlen miteinander multiplizieren. Beides sind Aufgaben, die man schnell und in linear wachsender Zeit durchführen kann.
Der Aufwand aber, die zwei Primfaktoren einer unbekannten Multiplikation zu finden, ist beträchtlich. Die dazu benutzten Verfahren beruhen, mehr oder weniger, auf einer Methode Fermats aus dem 18. Jh. unter Verwendung der binomischen Sätze.
Es gibt heutzutage ein paar Programmiertricks, die das Problem etwas verkürzen können, und manche von ihnen beruhen nur auf Annahmen. Grundsätzlich steigt der Rechenaufwand aber exponentiell schnell an. Und man kann ohne Probleme eine Multiplikation zweier Primfaktoren konstruieren, die in angemessener Zeit nicht zu rekonstruieren ist. Mit den besten und schnellsten einzelnen Rechnern nicht, mit Großrechnern nicht und auch über verteiltes Rechnen nicht - zumal letzteres schnell vor dem Problem 2b steht, wo unterschiedliche Rechenergebnisse einen Valididator aus dem Tritt bringen.

Es ist bis heute unbekannt, ob die Primzahlenzerlegung ein grundsätzlich mathematisches Problem ist, oder ob eine vergleichsweise einfache Lösung bis heute ihrer Entdeckung harrt. Da man aber schon seit den Anfangszeiten der Mathematik - Jahrtausende - daran forscht, ist eher von Ersterem auszugehen.
 

Giacomo_S

Ehrenmitglied
Registriert
13. August 2003
Beiträge
2.835
Die Eindeutigkeit der Primzahlzerlegung wird klassisch mit einem Widerspruchsbeweis bewiesen. Die mathematísche Richtung des Konstruktivismus hat einst solche Beweise abgelehnt, allerdings nicht für die Arithmetik sondern für die Mengenlehre (Grundlagenstreit). Hier hat die Mathematik eine “Leiche im Keller”, denn diese (vielen unbequeme) Richtung wurde weniger durch Argumente als durch Machtpolitik erledigt (David Hilbert).

Der Konstruktivismus ist eine Reaktion auf Georg Cantors Mengentheorie.
Am Beweis oder der Widerlegung seiner Kontinuitätshypothese ist Cantor gescheitert und sie hat ihn immer wieder mal in die Nervenheilanstalt gebracht (er war aber ohnehin anfällig für Psychosen). Aber auch der Mathematiker Bertrand Russel erlitt Nervenzusammenbrüche und Kurt Gödel hungerte sich zu Tode, da er an dem Verfolgungswahn litt, man wolle ihn im amerikanischen Exil vergiften (und die einzige Person, der er vertraute, seine Frau - aber auch nicht immer - sich längere Zeit im KKH befand).

Nach Kurt Gödel und einem amerikanischen Mathematiker der 1960er Jahre steht Cantors Kontiunitätshypothese nicht im Widerspruch zur Mathematik, ihr Gegenteil aber auch nicht. Man hat daraus den Schluss gezogen, dass sie mit unserer Mathematik als nicht entscheidbar gilt.
Wenn es also nicht entscheidbare Fragen gibt, dann kann möglicherweise die klassische Methode des Widerspruchsbeweises ungültig sein. Denn sie basiert darauf, dass es nur zwei Zustände (in der Logik, Mathematik) geben kann, wahr und falsch.

Anderseits brachte ein mir befreundeter Mathematiker die Frage ins Spiel, ob möglicherweise diese Problematik eben auch nur für die Kontinuitätshypothese gilt, für andere aber nicht. Die Konstruktivisten haben versucht, alle mathematischen Beweise konstruktiv zu führen, sind aber daran gescheitert und außerdem stellen sie unter den Mathematikern eher eine Minderheit dar.
Bis heute gibt es Fragen der Mathematik, die man bis Heute nicht konstruktiv lösen konnte, darunter diejenigen aus der Frühzeit der Mathematik, die später die ganze Diskussion überhaupt erst ausgelöst haben (die Irrationalität der Diagonale im Quadrat).
 

Trestone

Großmeister
Registriert
12. April 2002
Beiträge
887
Hallo Giacomo_S,

danke für die interessanten Informationen!

Mit meiner Stufenlogik (und Stufenmengenlehre) habe ich einen Weg
zwischen formal/klassischer Mathematik und konstruktivistischer Mathmatik gefunden:
Dort sind z.B. indirekte Beweise elaubt, aber nur anwendbar, wenn sie sich innerhalb einer Stufe abspielen.
Fast alle klassischen indirekten Beweise enthalten in Stufenlogik übersetzt aber Stufenwechsel
und sind daher nicht mehr gültig.
Die Irrationalität von Wurzel 2 lässt sich daher in Stufenmathematik nicht mehr zeigen,
dafür könnte sie in verschiedenen Stufen ein jeweils anderer ganzzahliger Bruch sein,
was ja auch ziemlich exotisch ist.
Und überabzählbare Mengn gibt es mit Stufen auch nicht mehr.

Was mich zu dieser Geschichte anregte ist, dass der Beweis zur Eindeutigkeit der Primzahlzerlegungen
mit Stufen auch nicht mehr funktioniert.

Die große Preisfrage ist, was Stufen eigentlich sind?

Nur ein neuer Parameter in der Logik?
Ein Zähler für Meta-/Reflexionsebenen (vgl. Prof. Ulrich Blau)?
Ich selbst favorisiere neuerdings eine Koppelung an die physikalischen Grundwechselwirkungen
(außer Gravitation): Bei jeder Wechselwirkung seit dem Urknall wird die Stufe aller möglichen
Wechselwirkungspartner simultan erhöht.
Dadurch sind die Stufen an eine Art Zeitpfeil gekoppelt,
in der Praxis genügt bloßes Abwarten um die Stufe zu erhöhen.

Mehr Details zur (zugegeben sehr exotischen) Stufenlogik und ihrem Umfeld unter:
https://www.ask1.org/threads/stufenlogik-trestone-reloaded-vortrag-apc.17951/

Gruß
Trestone
 
Oben