Finanzprognosen brauchen heute mehr als reine Statistik. Märkte verlangen skalierbare, erklärbare Werkzeuge, die sowohl klassische Methoden als auch moderne neuronale Bausteine verbinden.
In dieser How‑To‑Anleitung erfahren Sie im Detail, wie Sie das package installieren, Daten vorbereiten, Modelle trainieren und Forecasts interpretieren. Titel und Beschreibung (title, description) der Anleitung geben klare Schritte von Minimalbeispielen bis zu fortgeschrittenen Topics.
Der Hybrid‑Charakter kombiniert bewährte Zeitreihen‑Komponenten mit neural networks auf PyTorch‑Basis. Das macht das Framework besonders relevant für Finance, weil es Interpretierbarkeit und iterative Modellpflege ermöglicht.
Erwartungsmanagement: Das Tool liefert solide Forecasts und ist auf Human‑in‑the‑loop ausgelegt. Out‑of‑the‑box ist nicht immer maximale Accuracy garantiert, dafür hohe Anpassbarkeit.
Hinweis: Das Projekt ist noch in der Beta‑Phase. Prüfen Sie Releases, nutzen Sie Docstrings und setzen Sie reproduzierbare Umgebungen ein.
Begriffe wie Forecast vs. Forecasts, Zeitreihe / time series, Komponenten und Regressors werden kurz definiert und später vertieft. Der Aufbau führt von „get started“ zu Advanced Topics wie global modeling und Quantile Regression.
Wesentliche Erkenntnisse
- Finanz‑Forecasts brauchen Erklärung und Skalierbarkeit.
- Die Anleitung deckt Installation, Training und Interpretation ab.
- Hybrid‑Ansatz verbindet klassische Komponenten mit PyTorch‑Netzen.
- Fokus auf Iteration: hohe Anpassbarkeit statt sofortiger Höchstleistung.
- Beta‑Status erfordert Version‑Checks und reproduzierbare Setups.
Warum NeuralProphet für Finanzprognosen und Time Series Forecasting relevant ist
Für Finanzmärkte zählt bei Prognosen nicht nur Genauigkeit, sondern auch Nachvollziehbarkeit und Kontrolle. Gerade in Bereichen wie Risiko, Liquidität, Pricing oder Portfolio‑Steuerung profitieren Teams von Forecasts, die Treiber und Werte klar ausweisen.
Hybrid‑Ansatz: klassische Komponenten trifft auf neural networks
Der Ansatz kombiniert interpretierbare components wie Trend, Seasonality und Events mit lernfähigen Teilen. Lokale Dynamiken werden durch Autoregression und lagged covariates modelliert, während die neuronalen Teile komplexe Muster erfassen.
Abgrenzung zu ARIMA/ETS und Nähe zu facebook prophet
Im Gegensatz zu ARIMA/ETS vermeidet das Modell strikte parametrische Annahmen und skaliert besser bei nicht‑normalen, volatilen Finanzdaten. Es fühlt sich vertraut an wie facebook prophet, bietet aber mehr features und Extensibilität durch PyTorch‑backends.
Interpretable Forecasting: warum Erklärbarkeit zählt
Stakeholder aus Risk, Compliance oder Treasury verlangen Nachvollziehbarkeit der Treiber. Ein erklärbares model schafft Vertrauen und erlaubt gezielte Anpassungen durch users. Erwarten Sie realistische results: kein Wunder, sondern ein kontrollierbares, ausbaubares tool mit klarem Learning‑Pfad.
Voraussetzungen und wann sich das Modell besonders eignet
Prüfen Sie früh, ob Frequenz und Länge Ihrer Serie zu einem iterativen Forecast‑Workflow passen. Für viele Finanzfälle ist das entscheidend: Sub‑daily‑Kurse, Minuten‑ oder Stundenwerte und Intraday‑Volumen profitieren am meisten. Auch tägliche Kennzahlen mit langer Historie sind geeignet.
Welche Daten‑typen passen am besten?
Bevorzugte type von time series data sind hochfrequente Marktpreise, Order‑Book‑Summen und Intraday‑Volumen. Solche series zeigen kurzperiodische Muster, die das package gut nutzen kann.
Länge und Perioden
Mindestens zwei volle Perioden (z. B. zwei Jahre bei Jahres‑Saisonalität) helfen, Seasonality robust zu erkennen. Kürzere Reihen führen oft zu instabilen Saisonalitäts‑Schätzungen.
Datenrealität & Produktionsreife
Finance‑daten enthalten Feiertage, fehlende Tage und Regimewechsel. Ein kurzer Daten‑audit (Granularität, Lücken, Ausreißer, Stabilität) reduziert späteres Debugging.
- Notification: Das Projekt ist noch in Beta—APIs und Defaults können sich ändern.
- Pinnen Sie Versionen und pflegen Sie ein requirements file.
- Prüfen Sie Releases und Changelogs auf new features und API‑Änderungen.
Docstrings dienen oft als verlässliche Quelle bei Dokumentationslücken. Planen Sie die Nutzung des package als iterativen use‑Workflow, nicht als „einmal klicken“-Lösung.
NeuralProphet installieren und Entwicklungsumgebung aufsetzen
Richten Sie zuerst eine isolierte Python‑Umgebung ein, bevor Sie das package installieren. Das schafft control über Abhängigkeiten und erleichtert späteres Debugging.
Basis: get started mit venv/conda und pip
Empfohlen ist Python 3.8–3.11 in einem venv oder conda‑Environment. So bleibt Ihr System sauber und reproduzierbar.
Standard-Installation: pip install neuralprophet. Dokumentieren Sie die Version in einem requirements file oder Lockfile für Auditzwecke.
Jupyter: Live‑Monitoring aktivieren
Für interaktives Training installieren Sie die Erweiterung via pip install neuralprophet[live]. Das Paket liefert plot_live_loss, um Trainingsverläufe in Notebooks zu beobachten.
Neuere Funktionen per GitHub
Wenn Sie frühe Bugfixes oder new features brauchen, klonen Sie das Repo und installieren lokal:
git clone https://github.com/ourown/repo.gitpip install .- Version per Commit‑Hash dokumentieren.
Windows‑Hinweis: WSL2 als Best Practice
Auf Windows reduziert WSL2 typische Build‑ und Dependency‑Probleme. Nutzen Sie WSL2 für konsistente Linux‑Toolchains und weniger Hürden beim Kompilieren nativer Abhängigkeiten.
Governance & Preflight
- Standardisieren: Lockfiles, CI‑Jobs und eine klare title/description in Deploy‑Scripts sichern Reproduzierbarkeit.
- Preflight: Nach Installation kurz importieren:
from neuralprophet import NeuralProphet– so entdecken Sie fehlende Pakete früh. - Team: Protokollieren Sie Name und Version des verwendeten package im Projekt‑file.
neuralprophet ai in Python importieren und ein Minimalbeispiel ausführen
Starten Sie schnell mit einem lauffähigen Python‑Snippet, das das package importiert und den ersten Forecast liefert. So prüfen Sie Environment, Datenfluss und grundsätzliche Ergebnisse in wenigen Minuten.
Typische Imports und zentrale Klasse
Ein typischer Einstieg:
import pandas as pd
from neuralprophet import NeuralProphet
Die Klasse NeuralProphet ist das zentrale model-Objekt. Ergänzend nutzen Sie pandas für das dataframe.
Wenige lines code: Minimal‑Workflow
Das minimalste example laut Doku:
m = NeuralProphet()
metrics = m.fit(df)
forecast = m.predict(df)
Danach visualisieren: m.plot(forecast), m.plot_components(forecast), m.plot_parameters(). In wenigen lines code sehen Sie erste results.
Stolpersteine und erste Best Practices
- Prüfen Sie Kernel/Environment und die Versionen im requirements file.
- Setzen Sie einen seed für reproduzierbare Läufe und protokollieren Modell‑ und Dataversionen.
- Wenn der import fehlschlägt: virtuelle Umgebung, pip reinstall oder Commit‑Hash aus dem Repo prüfen.
Ausblick: Dieses example ist ein Startpunkt. Nutzer können später Regressors, Frequency‑Settings und erweiterte Optionen hinzufügen, um die forecasting‑Qualität zu erhöhen.
Time-Series-Data vorbereiten: DataFrame, Zeitindex, Frequenz und Zielvariable
Gute Vorbereitung der Zeitreihen‑daten entscheidet oft, ob ein forecast verlässlich wird. Prüfen Sie zuerst Format und Pflichtspalten des dataframe: ein Timestamp‑Feld (z. B. ds) und die Zielvariable (y) müssen sauber benannt und korrekt typisiert sein.
Pflichtspalten und saubere Timestamps
Stellen Sie Zeitzonen, Handelszeiten und nicht‑handelbare Tage einheitlich dar. Dokumentieren Sie die Herkunft jeder file, damit Audit und Reproduzierbarkeit gewährleistet sind.
Fehlende Values, Ausreißer und Resampling
Fehlende values behandeln Sie je nach Ursache: Forward‑fill für kleine Lücken, explizite NaNs lassen das Modell Robustheit lernen.
Ausreißer durch Corporate Actions oder Datenfehler sollten markiert und, falls nötig, bereinigt werden. Prüfen Sie Flash Crashes separat.
Beim Resampling von Intraday auf Daily wählen Sie Aggregations‑Type bewusst (OHLCV vs. Mean). Die Aggregationslogik beeinflusst die Modellinterpretation stark.
Train/Validation-Split und Forecast-Horizonte
Trennen Sie Daten zeitlich, um Leakage zu vermeiden. Nutzen Sie Rolling oder Expanding Windows für robuste Validierung.
Definieren Sie das Horizon anhand des Use‑Cases: 1–5 Tage für operative Steuerung, 30/90 Tage für strategische Planung. Legen Sie früh die settings fest: freq, Horizon und Vergleichsmetriken.
„Saubere Zeitindizes und dokumentiertes file‑Handling sind die Grundlage zuverlässiger forecasting‑Pipelines.“
Das Modell konfigurieren: Komponenten gezielt für Finanzdaten einsetzen
Konfigurationslogik: Starten Sie mit einem einfachen Baseline‑model und aktivieren Komponenten schrittweise. So isolieren Sie Effekte und behalten control über Änderungen. Priorität haben Trend, Seasonality und Autoregression bei Finanz‑series.
Trend
Nutzen Sie einen piecewise linear Trend mit automatischer Changepoint‑Detection für Regimewechsel wie Zinswenden oder Krisen. Für begrenzte Werte ist logistic growth optional sinnvoll.
Seasonality
Modellieren Sie wiederkehrende Muster mit Fourier Terms. Wählen Sie jährliche, monatliche, wöchentliche oder stündliche Komponenten nach Frequenz. Begrenzen Sie die Anzahl der Termpaare, um Komplexität zu kontrollieren.
Autoregression (AR‑Net)
Kurze Momentum‑ oder Mean‑Reversion‑Effekte fängt Autoregression ab. Starten linear; wechseln Sie zu neural networks nur, wenn die lineare Variante die kurzfristigen Muster nicht erfasst.
Regularisierung & Interpretierbarkeit
- Reguläre Penalitäten für Komponenten reduzieren Overfitting.
- Begrenzen Sie Freiheitsgrade und dokumentieren alle settings.
- Die Priorität liegt auf erklärbaren Forecasts statt unnötiger Komplexität.
„Iteratives learning: erst Baseline, dann Erweiterungen.“
Regressors und Events: externe Treiber und Kalender-Effekte modellieren
Externe Treiber stärken Forecasts, weil sie reale Markteinflüsse direkt abbilden. In Finance sind Makro‑Größen wie Zinsen oder Volatilität oft erklärende Faktoren. Regressors helfen, solche Effekte sauber zu trennen und die Komponenten‑Analyse zu verbessern.
Lagged Regressors
Lagged regressors fangen verzögerte Effekte ein. Typische Beispiele sind Zinssätze oder Volatilitätsindizes.
Einfaches didaktisches Beispiel: temperature als verzögerter Input zeigt, wie externe Einflüsse mit Delay wirken. Achten Sie auf Alignment und fehlende Werte.
Future Regressors
Future regressors sind vorab bekannte features wie Feiertagskalender oder geplante Kampagnen. Sie machen forecasts konsistenter, weil das Modell künftige Strukturen kennt.
Events & Holidays
Events umfassen länderspezifische Feiertage, Quartalsberichte oder Index‑Rebalancing. Solche events beeinflussen Handelsvolumen und Preise klar.
Saubere, alignte data und strikte Trennung von Training und Zukunftsinfos verhindern Leakage.
- Datenanforderungen: Frequenz‑Konsistenz, Lags dokumentieren.
- Modellwahl: Linear vs. neural je nach Datenmenge und Interpretierbarkeit.
- Nutzen: Stakeholder verstehen, welche Treiber Forecasts beeinflussen.
Training, Validierung und Model-Checkpointing in der Praxis
Beim Modelltraining entscheidet die richtige Frequenz oft über stabile Ergebnisse. Setzen Sie beim Fitten explizit die Frequency, z. B. m = NeuralProphet().fit(df, freq="D"). Das stabilisiert die Zeitlogik und verhindert Fehlinterpretationen von Saisonalität und Lagged‑Regressoren.
fit mit freq: Training sauber aufsetzen und Metriken interpretieren
Lesen Sie die zurückgegebenen values nach jedem Fit sorgfältig. Typische results enthalten Loss‑Kurven, Validierungsfehler und Metriken wie MAE oder MAPE.
Im Finance‑Kontext priorisieren Sie Business‑relevante Fehlermaße: z. B. Kosten pro Fehler und Tail‑Risiken statt nur RMSE.
Live Loss Monitoring
Nutzen Sie plot_live_loss aus dem package‑Addon neuralprophet[live], um Overfitting, Lernraten‑Probleme oder Divergenzen früh zu erkennen.
Live‑Plots helfen in Notebooks beim schnellen Debugging und bei Entscheidungen für Early Stopping.
Validation und Checkpointing
Verwenden Sie time‑series‑spezifische Validation (rolling windows) statt zufälliger Splits. Das liefert realistische forecasts‑Evaluationen.
- Rolling CV für robuste Fehlerabschätzung.
- Automatisiertes Checkpointing für Audit und Repro: Version, Weights, Config speichern.
- Dokumentation als notification: Version pinnen und Trainings‑Settings protokollieren.
„Training als wiederholbarer Prozess: Pipeline statt Einzelnotebook.“
In die Zukunft prognostizieren: Forecast-Horizont, make_future_dataframe und Predict-Workflow
Der Predict‑Workflow verbindet saubere Datenhygiene mit einem reproduzierbaren Ablauf für zukünftige Prognosen. So reduzieren Sie Fehler und behalten Kontrollpunkte im Prozess.
DataFrame in die Zukunft erweitern und Forecast erzeugen
Ein klares example: m = NeuralProphet().fit(df, freq="D"); df_future = m.make_future_dataframe(df, periods=30); forecast = m.predict(df_future); fig_forecast = m.plot(forecast).
Das make_future_dataframe erweitert das original‑dataframe sauber um 30 future‑Zeilen. Das ist konsistenter als manuelles Anfügen und bewahrt Index‑ und Frequency‑Metadaten.
Umgang mit future Regressors und Events
Im df_future müssen alle future regressors und Event‑Spalten vorhanden und korrekt aligned sein. Fehlen Werte, führen sie zu inkonsistenten forecasts oder Fehlern beim Predict‑Call.
Backtesting‑Denkweise
Denken Sie in zeitlich geschobenen Simulationen: erstellen Sie mehrere df_future für vergangene Zeitpunkte und vergleichen Sie forecasts gegen echte data. So entdecken Sie Strukturbrüche, Kalenderwechsel und Revisionen.
„Testen Sie Forecasts systematisch, nicht als einmaligen Lauf.“
- Erzeugen: make_future_dataframe(periods).
- Predict: m.predict(df_future).
- Validieren: rolling backtesting und Fehleranalyse.
Operationalisierung: speichern Sie Forecast‑outputs als file, planen Sie tägliche Jobs und kommunizieren Unsicherheit immer zusammen mit den forecasts.
Ergebnisse verstehen und kommunizieren: Plots, Komponenten und Modellparameter
Gute Visualisierungen verwandeln rohe Modellzahlen in handlungsfähige Aussagen. Hier erklären wir, wie Sie die eingebaute Visualisierung gezielt für Finance‑Stakeholder nutzen.
Forecast-Plot: Verlauf, Saisonalität und Trend auf einen Blick
Rufen Sie m.plot(forecast) auf, um Trend, kurzfristige Dynamik und Unsicherheit zusammen zu sehen.
Achten Sie auf Ausreißer, Changepoints und Perioden mit hoher Varianz. Beschriften Sie die Achsen mit title und description, damit das Diagramm sofort interpretierbar ist.
plot_components: Treiberanalyse für Finance-Stakeholder
Mit m.plot_components(forecast) zerlegen Sie die Zeitreihe in einzelne components. So erkennen Risk, Trading‑ und FP&A‑Teams, welche values von Trend oder Seasonality erklärt werden.
- Kommunikationsziel definieren: Welche Entscheidung stützt dieser Plot?
- Formulieren Sie ein kurzes Narrativ: z. B. „Der forecast steigt primär wegen Trend‑Changepoint; Monatsultimo verstärkt den Anstieg.“
- Dokumentieren Sie name und description jeder Komponente für Auditzwecke.
plot_parameters: Koeffizienten, Regularisierung und Modelllogik nachvollziehen
Nutzen Sie m.plot_parameters(), um Koeffizienten und Regularisierung sichtbar zu machen. Das hilft, Overfitting zu erkennen und die Modell‑Logik zu erklären.
- Prüfen Sie ungewöhnlich hohe Koeffizienten als Overfitting‑Indikatoren.
- Notieren Sie alle settings und die Entscheidungsmatrix für spätere Reviews.
- Fassen Sie Ergebnisse als kurze results-Zusammenfassung für Stakeholder zusammen.
Transparente Plots plus klare Titel und Beschriftungen schaffen Vertrauen und erleichtern Review/Approval.
Skalierung und fortgeschrittene Features: Global Modeling, Multiple Time Series und Unsicherheit
Skalierung ist oft der Engpass, wenn hunderte Assets gleichzeitig sauber prognostiziert werden müssen. Global modeling reduziert Rechenzeit, weil gemeinsame Muster über viele series gelernt werden. Gleichzeitig erlaubt ein glocal Ansatz lokale Anpassungen durch regularisierte, asset‑spezifische Parameter.
Global, Local und „Glocal“ Modelle
Global Modelle teilen Parameter für Seasonality oder Trend, wenn viele Time‑Series ähnliche Muster zeigen. Lokale Modelle bleiben nötig bei asset‑spezifischer Volatilität. Glocal kombiniert beides: globale Basis, lokale Regularisierung für Feinabstimmung.
Multiple Time Series und Static Metadata Regression
Für mehrere series nutzen Sie eine ID‑Spalte und teilweise geteilte Parameter. Static metadata wie Asset‑Klasse oder Region werden als Regressoren eingebracht. Das stärkt organisationsweite Forecasting‑Standards und erleichtert Governance.
Uncertainty via Quantile Regression
Bandbreiten statt nur ein forecast sind in Finance entscheidend. Quantile Regression liefert z. B. 10/50/90%‑Bänder, die Risikoentscheidungen und Stress‑Szenarien unterstützen.
Crossvalidation und robuste Modellwahl
Nutzen Sie time series crossvalidation utility mit rollenden Fenstern. So vermeiden Sie Overfitting auf eine Marktphase und treffen robustere Modellentscheidungen.
Cross‑relation of lagged regressors
Komplexe Ketteneffekte (z. B. Zins → Spread → Preis) modellieren Sie durch strukturierte Lag‑Kombinationen. Geteilte Parameter und kontrollierte Lags zeigen Wechselwirkungen klarer und verbessern das learning.
Die vertraute Decomposition‑Idee aus prophet bleibt, ergänzt durch Funktionen für Skalierung und lokale Dynamik.
Fazit
Zum Schluss geben wir klare Handlungsempfehlungen, damit Ihr Modell in Finance zuverlässig liefert.
Sie haben ein get started‑Example installiert, die data vorbereitet, ein erstes dataframe trainiert und den ersten forecast erzeugt sowie die Ergebnisse interpretiert. Diese Schritte schaffen eine reproduzierbare Basis für weitere Iterationen.
Starten Sie stets mit einer einfachen Baseline und erweitern Sie schrittweise: Seasonality, AR‑Net, regressors und Events. So erkennen Sie Wirkung und behalten Kontrolle über die Forecasts.
Beachten Sie den Beta‑Status des package: Releases prüfen, Versionen pinnen und Checkpoints speichern. Das schützt Ihre forecasts vor unerwarteten API‑Änderungen.
Als nächste Schritte erweitern Sie Backtesting, fügen Quantile/Unsicherheit hinzu und skalieren auf mehrere series data via global modeling. Berichten Sie Ergebnisse mit klarer title, description und name, damit Stakeholder die Datenlage verstehen.
neuralprophet verbindet Interpretierbarkeit und moderne Lernverfahren und liefert so eine belastbare Grundlage für Finance‑Entscheidungen.
