Validierungs- & Plattform-Report

Von der Hypothese zur überprüfbaren Abbildung

Vier Tests. Zwei Plattformen. Zwei Entscheidungspunkte.

Die φ-Hypothese steht oder fällt mit einem einzigen Satz, der messbar sein muss: Ein Drift vom parafermionischen Selbstdualpunkt erzeugt ein verlässliches, hinreichend wenig invasives Proxy-Signal in einer AA-artigen Probe, das für Closed-Loop-Stabilisierung taugt. Das ist keine Gewissheit — es ist eine präzise formulierte, überprüfbare Behauptung.

Update-Hinweis: Die aktuellen Anpassungen des Validierungspfads (inkl. Pivots) sind im Forschungsverlauf chronologisch dokumentiert.

Tests A–D: Software-first Gate 1: Monat 5 Hardware-PoC: Monat 7 Gate 2: Monat 9

I — Priorisierte Validierungstests

Vier Tests — eine Kernfrage

Jeder Test hat ein klar definiertes Ziel, eine messbare Erfolgsbedingung und ein explizites Kill-Kriterium. Die Reihenfolge ist nicht verhandelbar — Test B beginnt erst, wenn Test A eine plausible Observable liefert.

Methodische Grundhaltung: Aubry-André-Physik liefert den Reiz eines analytisch scharfen Übergangs am Self-Dual-Kritikum (Δc ≈ 2J). Das ist zunächst jedoch nur Sensor-Inspiration, keine automatisch gültige Abbildung auf stark wechselwirkende parafermionische Ketten. Diese Lücke ist der Gegenstand von Test A — sie zu schließen ist die Voraussetzung für alles Weitere.

A
Formalisierung der Hypothese als überprüfbare Abbildung Höchste Priorität
Software-only · 1–2 Wochen · 5–25k EUR

Präzise Definition von vier Elementen: (i) Selbstdualpunkt im Zielsystem — Kontrollparameter δ = (g_pair − g_bs)/(g_pair + g_bs); (ii) AA-Probe als Standard-Quasiperiodik-Kette mit Inkommensurabilität (goldener Schnitt); (iii) Kopplungsmechanismus Probe↔Ziel; (iv) reales Drift-Modell (Gate-Offset, Temperatur-/Charge-Noise, lokale Inhomogenität).

Ohne diese Definition hat kein nachfolgender Test eine belastbare Grundlage. Die parafermionische Selbstdualität ist in der Literatur an eine Balance konkurrierender Kopplungen gebunden — diese Balance muss formal auf eine messbare Größe der AA-Probe abgebildet werden.

Weiterführen wenn Eine eindeutige Kandidaten-Observable O_probe (z.B. IPR, Level-Statistiken, Transport-Marker) existiert, die sich plausibel messen lässt, ohne das Zielsystem zu beeinträchtigen.
Abbruchkriterium Keine plausible Observable, oder jede plausible Observable ist offensichtlich invasiv und würde das Zielregime per Konstruktion zerstören.
Python/Julia Symbolische Checks Reproduzierbare Notebooks 0.5–1 FTE Senior-Theorie
B
Minimal-Numerik: Zielkette + AA-Probe in Toy-Größe Sehr hoch
ED + DMRG · 8–16 Wochen · 20–80k EUR

Erster harter empirischer Filter: Zeigt ein Drift in δ ein robustes, monotones O_probe(δ), das als Feedback-Signal taugt? Exact Diagonalization auf kleinen Ketten — Scan über δ und Kopplungsstärke Probe↔Ziel. Berechne Inverse Participation Ratio, Level-Statistiken, lokale Spektralfunktionen und Leitwert-Surrogate in Tight-Binding-Geometrie.

DMRG/TEBD für größere 1D-Systeme bei Relevanz von Wechselwirkungen. Realistische Planung: quasiperiodische, wechselwirkende Systeme brechen Translationssymmetrie und erhöhen die Verschränkungsentropie am kritischen Punkt stark; deshalb ist die Laufzeit eher monats- als wochengetrieben. Ressourcenanforderung: 32–256 CPU-Kerne, 128–512 GB RAM für ernsthafte DMRG-Scans.

Weiterführen wenn ∂O_probe/∂δ ist groß genug (sinnvolle Sensitivität) und die Relation ist monoton in der Nähe des Wunschpunkts.
Abbruchkriterium O_probe hängt schwach, nichtmonoton oder stark nicht-robust von δ ab — oder die Kopplung, die Sensitivität erzeugt, ist so groß, dass sie das Zielregime durch Backaction zerstört.
QuSpin (ED) TeNPy / ITensor (DMRG) Kwant (Transport) 1 FTE Numerik
C
Robustheit: Interaktionen, Temperatur, Disorder, Backaction Hoch
Software-first · 4–8 Wochen · 25–120k EUR

Ein Signal, das nur im idealisierten Modell existiert, hat keinen praktischen Wert. Many-Body-Versionen (interaktives AA/Harper-ähnlich) mit stochastischem Drift. Explizit: inhomogene Moiré-Gitterkonstante und Band-Edge-Offsets als Disorder-Parameter, weil sie experimentell in Moiré-FCIs dominieren. Kernfrage: bleibt der Übergang unter Wechselwirkungen hinreichend scharf, oder driftet das System in ein MBL-/stark verschmiertes Regime?

Readout-Modell: Messung erzeugt effektive Dephasierungsrate — Prüfung, wann die Probe als Sensor ihr eigenes Signal durch Rückkopplung zerstört. Das ist die methodisch heikelste Frage des gesamten Programms.

Weiterführen wenn Die Signal-Monotonie bleibt in einem breiten Parameterband erhalten; SNR-Anforderungen sind mit realistischer Messtechnik erreichbar.
Abbruchkriterium Schon moderate Inhomogenität zerstört die Korrelation, oder die erforderlichen Messbedingungen sind technologisch unrealistisch.
Many-Body-Numerik Stochastische Drift-Modelle Moiré-Disorder-Profile 0.7–1 FTE
D
Closed-Loop-Stabilisierung in Simulation Hoch
Control-Sim + Hardware-Realismus · 3–6 Wochen · 15–60k EUR

Die Brücke von Papierphysik zu Technologie. Zeigt ein Feedback-Loop mit realistischen Latenzen und Mess-Noise, dass er den Zielparameter δ in einem Toleranzband halten kann? System + Probe + Mess-Noise + Drift als Zustandsraummodell. Vergleich der Controller-Klassen: PID/Kalman gegen Bayesian Optimization gegen Reinforcement Learning.

Konkrete Anforderungen: Loop-Bandbreite muss technologisch erreichbar sein (z.B. ms-Latenz, nicht µs bei einem Setup, das nur ms-Readout erlaubt); der Controller darf nicht zu viele Messungen benötigen.

Weiterführen wenn Stabilisierung erreicht (z.B. 10× kleinere Drift-Varianz oder >90% Zeit im Toleranzfenster) mit realistischen Loop-Anforderungen.
Abbruchkriterium Benötigte Loop-Bandbreite ist technologisch unrealistisch, oder der Controller braucht so viele Messungen, dass er das System invasiv beeinflusst.
PyTorch / JAX (RL) PID/Kalman-Simulation 0.5 FTE Control/ML 0.3 FTE Physik-Numerik

Numerik-Werkzeugkasten

Konkrete Tool-Empfehlungen für Tests A–D. Alle Open-Source, in reproduzierbaren Notebook-Umgebungen.

QuSpin
Exact Diagonalization und Zeitentwicklung für 1D/2D viele-Körper-Systeme
Test B — ED
TeNPy / ITensor
DMRG und TEBD für MPS/MPO-Tensor-Netzwerk-Rechnungen bei größeren Systemen
Test B/C — DMRG
Kwant
Tight-Binding-Transport und Leitwert-Surrogat in Gitter-Geometrien
Test B — Transport
PyTorch / JAX
Reinforcement Learning für model-free quantum control und Feedback-Loop-Optimierung
Test D — Control

Strategische Pivot-Pfade (falls AA-Proxy nicht robust genug ist):

1) Floquet-Fibonacci-Driving: φ-Struktur in die Zeitdomäne verlagern (quasiperiodische Drive-Sequenzen), um Stabilisierung aktiv zu erzwingen statt nur passiv zu messen.

2) Dispersives cQED-Readout: Suszeptibilitäts-Readout über Resonator-Phasenverschiebung statt DC-Transport, um Backaction und Messinvasivität zu reduzieren.

3) Rydberg-Analogsimulator: Gekoppelten Hamiltonian zuerst in einem disorder-armen Atomsystem testen, bevor materialdominierte Komplexität in Moiré-Heterostrukturen adressiert wird.


II — Plattformanalyse

Graphen vs MoTe₂ — nüchtern betrachtet

Beide Plattformen haben genuine Stärken und reale Grenzen. Die Entscheidung für einen Pfad sollte auf der Platform-Scorecard basieren, nicht auf Verfügbarkeit oder Gewohnheit.

Graphen (QH-Edge + SC) Experimentell belegt
Topologische Ordnung
FCI, FQAH, magic-angle
SC-Proximity-Kopplung
NbSe₂/NbN, CAR bis FQH
B-Feld-Kompatibilität
Konflikt SC vs. hohe B-Felder
Gate-Tuning-Kontrolle
Elektrostatisch sehr flexibel
Disorder-Kontrolle
Interface-Engineering entscheidend
Zero-Field FCI
Rhombohedral Graphen: aktiv

Graphen ist plausibel, nicht bequem. CAR im fraktionalen QH-Regime ist real nachgewiesen. Aber CAR allein beweist keine Parafermionen — und Interface-Realitäten dominieren. Robuste 1D-Proximity-Superströme über Domain Walls zeigen den Weg, aber der Weg ist steinig.

Twisted MoTe₂ / NbSe₂ Zero-Field-Vorteil
Topologische Ordnung
FQAH bei ν=−2/3, −3/5 bei B=0
SC-Proximity-Kopplung
NbSe₂ direkt: Interface-kritisch
B-Feld-Kompatibilität
Zero-Field FCI — massiver Vorteil
Gate-Tuning-Kontrolle
Twist-Winkel ist Schlüssel
Disorder-Kontrolle
Inhomogenes Disorder-Landscape dominant
Zero-Field FCI
Experimentell berichtet, robust

MoTe₂ löst den SC-vs-B-Feld-Konflikt elegant. Aber das inhomogene Disorder-Landscape ist experimentell dominant und in der Literatur explizit als größtes Hindernis beschrieben. Reproduzierbarkeit über Proben hinweg bleibt eine offene Frage.


III — Pfadvergleich

Software vs Hardware — vier Wege

Nicht jeder Pfad eignet sich für denselben Erkenntnisgewinn. Die Tabelle trennt, was welcher Ansatz leisten kann — und was er grundsätzlich nicht leisten kann.

Pfad Methoden Zeitrahmen Ressourcen Was gezeigt werden kann Strukturelle Grenze
Reiner Software-Pfad A–D Theorie + ED + DMRG + Control-Sim 6–14 Wochen 40–250k EUR Reproduzierbares numerisches Signal + Feedback-Stabilisierung + Go/No-Go-Report „Mapping" bleibt Modellartefakt ohne Hardware-Nachweis; Nicht-Invasivität nur behauptet, nicht gezeigt
Photonik-AA PoC (F2) Quasiperiodische photonische Gitter + Feedback 3–9 Monate 50–300k EUR AA-Kritikum als Sensor/Regler funktioniert physikalisch; Locking-Qualität messbar Keine Aussage zur parafermionischen Relevanz — nur Konzeptvalidierung des Sensor-Prinzips
Graphen-Hybrid (G1 QH+SC) Nanofab + Kryo-Transport + Andreev/CAR 6–18 Monate 250k–2.5M EUR SC-Korrelationen an (fraktionalen) Edges + Gate-Tuning-Fenster; CAR-Nachweis CAR ≠ Parafermionen; Interface-Yield und Hochfeld-Kompatibilität schwer kontrollierbar
Zero-Field FCI (MoTe₂ oder rhomb. Graphen) Moiré-Device + Transport + SC-Integration 9–24 Monate 300k–3M EUR Zero-Field topologische Ordnung + SC-Proximity-Tests; nächster Schritt zu Parafermionen Disorder-Landscapes dominieren; Reproduzierbarkeit über Proben fraglich; extrem lange Laufzeit

Ressourcenrahmen je Pfad

Pfad A–D
Software-Validierung
40 – 250k EUR
Sofort startbar · Kein Hardware-Zugang nötig · Kürzeste Time-to-Signal
Option F2
Photonik-PoC
50 – 300k EUR
Partnerabhängig · Belegt AA-Sensor-Prinzip · Kein Parafermion-Nachweis
Option G1
Graphen QH+SC
250k – 2.5M EUR
Infrastruktur-intensiv · Kooperationsmodell erforderlich · Größtes Hardware-Risiko
Zero-Field FCI
MoTe₂ / rhomb. Graphen
300k – 3M EUR
Längste Laufzeit · Disorder-dominiert · Nur als Kooperationspfad realistisch

IV — Forschungsfahrplan

Validierungsplan Monat 1 – Monat 10

Nach spätestens 10–14 Wochen liegt ein klares Go/No-Go für den AA-Sensor-Kern vor. Erst danach wird in Hardware eskaliert. Jeder Schritt ist an ein messbares Ergebnis gebunden.

Monat 1 Woche 1–4
Test A — Grundlegung
Kickstart: Hypothese formal fassen
Repo + Modell-Spezifikation aufsetzen. Falsifikationskriterien schriftlich fixieren, bevor die erste Simulation startet. Observable O_probe definieren — nicht danach. Ziel-Hamiltonian, Probe-Hamiltonian, Kopplungsmechanismus, reales Drift-Modell als Dokument.
Monat 2 Woche 5–10
Test B — ED-Scan
Erstes Proxy-Observable, Sensitivitätskurven
Exact Diagonalization auf kleinen Ketten. Scan δ und Kopplungsstärke. Ergebnis: IPR, Level-Statistiken, lokale Spektralfunktionen. Erste quantitative Sensitivitätskurven ∂O_probe/∂δ mit Fehlerschranken. Reproduzierbares Code-Paket ab dieser Phase.
Monat 3 Woche 11–18
Test C — Robustheit
Noise / Disorder / Backaction-Analyse
Many-Body-Versionen unter realistischen Störern. Moiré-FCI-spezifische Disorder-Profile. Readout-Modell: Wann zerstört die Probe durch Messung ihr eigenes Signal? Ergebnis: Robustheitsfenster mit quantifizierten SNR-Anforderungen — oder dokumentiertes Abbruchkriterium.
Monat 4 Woche 19–24
Test D — Closed Loop
Controller-Benchmark, Messbudget & Latenzanforderungen
System + Probe + Mess-Noise + Drift als Zustandsraummodell. Vergleich PID/Kalman vs. Bayesian vs. RL. Benchmark: Drift-Varianz, Zeit im Toleranzfenster, Loop-Latenzanforderung. Das Latenz- und Messbudget entscheidet, welche Hardware überhaupt in Frage kommt.
Monat 5 Entscheidungspunkt 1
Decision Gate 1
Go / No-Go: „AA-Sensor ist real"
"La ciencia dice: 'No sé lo que hay más allá'; y la fe dice: 'Sé lo que hay más allá de lo que sé'."
"Die Wissenschaft sagt: Ich weiß nicht, was dahinter liegt. Der Glaube sagt: Ich weiß, was jenseits meines Wissens liegt."
— Miguel de Unamuno

Go-Kriterium: Tests B + C + D zeigen gemeinsam ein robustes, monotones O_probe(δ) das unter realistischen Störern bestehen bleibt und per Feedback in einer Simulation stabilisiert werden kann.

No-Go / Pivot: Wenn nicht — Fokus auf „Control-first": ML/Bayes-Autotuning ohne AA-Mapping als Alternative, oder Formulierung eines stärker begrenzten theoretischen Ergebnisses.

Monat 6 Plattform-Entscheid
Test E — Plattform-Screening
Graphen vs. MoTe₂ — Pfad festlegen
Platform-Scorecard abschließen: B-Feld-Kompatibilität, Disorder, Edge-Kontrolle, SC-Integration. Entscheid auf Basis der Latenz- und Messbudget-Anforderungen aus Test D. Keine neun Monate in die falsche Plattform investieren — dieser Entscheid ist bindend für Phase 2.
Monat 7 Hardware-Vorbereitung
Hardware-PoC Design
F2 Photonik oder G1 Graphen-CAR · Partner-MoU
PoC-Design: entweder Photonik-AA-Windkanal (F2 — schneller, kein Parafermion-Nachweis) oder Graphen-QH+SC-Hybrid (G1 — direktere Relevanz, größeres Fabrikationsrisiko). 1-Pager-Pitch für Partnerlabore. MoU-Entwurf oder Forschungsantrag-Skizze vorbereiten.
Monat 8 Erste Messdaten
PoC — Messrunde 1
Experimentelles Datenpaket + Preprint-Outline
Erste Messdaten aus PoC-Plattform. Vergleich mit numerischen Vorhersagen aus Tests B/C/D. Ob die Daten die Hypothese stützen oder nicht — beides ist ein wissenschaftlich wertvolles Ergebnis. Preprint-Outline als strukturierter Bericht, unabhängig vom Ausgang.
Monat 9 Entscheidungspunkt 2
Decision Gate 2
Skalierung zum integrierten Device-Prototyp oder Pivot

Go-Kriterium: Ein Hardware-PoC (Photonik oder Graphen-QH-SC) zeigt, dass Feedback-Stabilisierung am kritischen Punkt praktisch erreichbar ist. Daten stimmen mit Vorhersagen in den wesentlichen Zügen überein.

Pivot wenn nicht: Fokus zurück auf Paper/Methodik — die theoretischen Befunde aus Phase 1 sind eigenständig publizierbar und wissenschaftlich wertvoll, unabhängig von der Hardware-Frage.

Monat 10 Abschluss
Deliverable
Preprint / Paper · Tech-Memo · Nächste Schritte
Wissenschaftliche Veröffentlichung (arXiv/Einreichung), vollständiges reproduzierbares Code-Repository, technisches Memo mit Plattformempfehlung und offenen Fragen. Formale Dokumentation der Entscheidungsgrundlage für weitere Forschung — unabhängig vom Ergebnis der Hardware-Tests.

V — Nächste Schritte

Theoretische Weiterführung der Validierung

Neun priorisierte Arbeitspakete, die den Übergang von der Hypothese zur belastbaren wissenschaftlichen Evidenz strukturieren. Fokus ist methodische Schärfung, nicht operativer Aktionismus.

01
Formale Modell-Spezifikation abschließen: Ziel-Hamiltonian, Probe-Hamiltonian, Kopplungsmechanismus, Drift-Parameter, Observable O_probe und Falsifikationskriterien in einer konsistenten Referenzdefinition zusammenführen. Diese Spezifikation bildet den methodischen Fixpunkt für alle Folgetests.
02
Reproduzierbare Numerik-Basis etablieren: Docker- oder Conda-Umgebung mit dokumentierten Abhängigkeiten und Referenznotebooks (z. B. QuSpin) als wissenschaftlich nachvollziehbare Ausgangsbasis. Reproduzierbarkeit ist hier eine Kernanforderung an die Aussagekraft.
03
Skalierungspfad ED → DMRG definieren: Übergangskriterien für TeNPy/ITensor formal festlegen, damit Modellkomplexität und numerische Ressourcen (HPC-Zugang, Speicher, Laufzeiten) konsistent mit den wissenschaftlichen Fragestellungen wachsen. Zeitplanung explizit konservativ halten (Monate statt Wochen in der kritischen Many-Body-Region).
04
PoC-Hardwarepfade theoretisch rahmen: Photonik-AA (F2) und Graphen-CAR (G1) über dieselben Vergleichskriterien bewerten (Messinvasivität, Latenz, Signal-Robustheit, technologische Reife), damit ein späterer Hardwareentscheid aus der Theorie konsistent ableitbar ist.
05
Plattform-Scorecard methodisch schärfen: Graphen vs. MoTe₂ anhand definierter Kriterien (B-Feld-Kompatibilität, Disorder-Kontrolle, Edge-Kontrolle, SC-Integration) mit belastbaren Literaturreferenzen quantifizieren, um Phase-2-Entscheidungen wissenschaftlich zu fundieren.
06
Prior-Art und Begriffsraum kartieren: Systematische Suche nach verwandten AA-basierten Probe- und Tuning-Konzepten in Publikations- und Patentdatenbanken, um die eigene Hypothese präzise gegenüber bestehender Literatur abzugrenzen und argumentativ zu schärfen.
07
Floquet-Alternative theoretisch ausarbeiten: Zweifrequenz- bzw. Fibonacci-Driving (ω₁/ω₂ ≈ φ) als Kontrollansatz formal modellieren und gegen den räumlichen Probe-Ansatz benchmarken (Robustheit, Implementierbarkeit, Kontrollbandbreite).
08
Dispersiven Readout-Pfad quantifizieren: cQED-Resonator-Kopplung als QND-nahe Messroute modellieren (Phasenrauschen, Dephasierung, Latenz), um die Backaction-Frage unabhängig vom DC-Transport zu prüfen.
09
Rydberg-Vorprüfung als Kontrollumgebung prüfen: Mapping des gekoppelten Hamiltonians auf ein Rydberg-Array skizzieren, um Kernmechanismen in einer disorder-armen Plattform vor der materialphysikalischen Umsetzung zu validieren.

VI — Abschlussbild

Wissenschaftlich entscheidende Kriterien

Der wissenschaftliche Wert der Hypothese hängt davon ab, ob Tests B, C und D in ihrer Gesamtheit drei klar definierte Kriterien erfüllen.

Bedingung 1 — Signal

Ein robustes Proxy-Signal existiert: O_probe(δ) ist monoton, sensitiv und reproduzierbar. Aubry-André-Physik liefert einen analytisch scharfen Kritikpunkt — aber das ist Sensor-Inspiration, noch keine gültige Abbildung auf stark wechselwirkende Systeme. Diese Abbildung muss Test B zeigen.

Bedingung 2 — Robustheit

Das Signal übersteht reale Störbedingungen: moderate Inhomogenität, Gate-Noise, thermische Quasipartikel. Test C entscheidet, ob die Hypothese ein Laborartefakt oder ein physikalisch belastbares Konzept ist. Graphen ist plausibel, aber nicht bequem — Disorder dominiert experimentell.

Bedingung 3 — Feedback

Das Signal stabilisiert sich per Feedback ohne unpraktische Mess-Invasivität. Test D zeigt, ob die Physik sich in ein technisch umsetzbares Regelungsproblem übersetzen lässt. Die Latenz- und Messbudget-Anforderungen aus Test D bestimmen, welche Hardware-Plattform überhaupt in Frage kommt.

Wenn alle drei Bedingungen erfüllt sind, steht ein neuartiger analytischer Beitrag zur Stabilitätsfrage im topologischen Quantenrechnen. Wenn nicht — auch das ist ein wissenschaftlich präzises und publizierbar formuliertes Ergebnis. Die Methodik entscheidet, nicht der Ausgang.

"Obra de tal modo que merezcas la eternidad."
"Handle so, dass du die Ewigkeit verdienst."
— Miguel de Unamuno