Entwicklung und Einsatz eines LSTM-Modells, das die optimale Sharpe Ratio eines bestimmten Aktienuniversums vorhersagt

Anwendungsfall: Vorhersage der optimalen, auf den Sharpe-Index maximierten Aktienauswahl für Vios Investing

Kunde: Vios Investing (Taiwan)

Überblick:

Vios Investing, eine führende Investmentfirma in Taiwan, strebte an, ihre Aktienauswahlstrategie zu verbessern, indem sie die optimale, auf den Sharpe-Index maximierte Auswahl von Aktien vorhersagten, die an der Taiwan Stock Exchange (TWSE) gelistet sind. Durch den Einsatz fortschrittlicher statistischer Techniken und Deep-Learning-Modelle sollte die Rendite der Investitionen verbessert und eine überlegene risikoadjustierte Leistung erzielt werden.

Zielsetzung:

Entwicklung eines prädiktiven Modells unter Verwendung von LSTM (Long Short-Term Memory)-Netzwerken, um zukünftige Aktiengewichte vorherzusagen, die das Sharpe-Verhältnis maximieren, und somit die Investitionsentscheidungen zu verbessern. Die Lösung musste robust, skalierbar und innerhalb der bestehenden Infrastruktur von Vios Investing einsetzbar sein.

Lösungsdesignprozess:

  • Anforderungsanalyse:
    • Zusammenarbeit mit den Finanzanalysten und dem IT-Team von Vios Investing, um deren spezifische Anforderungen und Ziele zu verstehen.
    • Identifizierung der wichtigsten Leistungskennzahlen, einschließlich des Sharpe-Verhältnisses, sowie der Einschränkungen des TWSE-Marktes.
  • Datenvorbereitung:
    • Sammlung historischer Aktienmarktdaten von der TWSE, mit Fokus auf Preisbewegungen, Handelsvolumen und andere relevante Finanzindikatoren.
    • Anwendung statistischer Verbesserungen und Entrauschungstechniken, um die Daten zu bereinigen und vorzubereiten, um hochwertige Eingaben für das Modell sicherzustellen.
  • Modellentwicklung:
    • Entwicklung eines LSTM-Modells zur Vorhersage zukünftiger Aktiengewichte, die darauf abzielen, das Sharpe-Verhältnis zu maximieren.
    • Implementierung des Modells mit Python und Deep-Learning-Bibliotheken, um Robustheit und Genauigkeit sicherzustellen.
  • Backtesting und Validierung:
    • Durchführung umfangreicher Backtests mit historischen Daten zur Validierung der Leistung des Modells.
    • Bewertung der Fähigkeit des Modells, überlegene risikoadjustierte Renditen zu erzielen, mit besonderem Fokus auf die Erreichung eines hohen Alpha im Vergleich zum TWSE-Index.
  • Bereitstellung:
    • Verpackung des finalen Modells in ein Docker-Image zur einfachen Bereitstellung.
    • Bereitstellung des dockerisierten Modells auf einem Kubernetes-Cluster unter Nutzung von GPU-Beschleunigung für effiziente Modellinferenz.
    • Sicherstellung, dass die Lösung skalierbar war und Echtzeitdaten für laufende Vorhersagen verarbeiten konnte.

Implementierung:

  • Infrastrukturaufbau:
    • Einrichtung eines Kubernetes-Clusters mit GPU-Unterstützung, um die notwendige Rechenleistung für das LSTM-Modell bereitzustellen.
    • Bereitstellung des Docker-Images, das das prädiktive Modell enthält, auf dem Kubernetes-Cluster, um eine nahtlose Integration mit der bestehenden Infrastruktur von Vios Investing zu gewährleisten.
  • Modelltraining und -optimierung:
    • Training des LSTM-Modells mit vorverarbeiteten historischen Daten und Feinabstimmung der Hyperparameter zur Optimierung der Leistung.
    • Einbeziehung von Feedback aus ersten Testläufen zur Verfeinerung des Modells und Verbesserung der Vorhersagegenauigkeit.
  • Backtesting-Ergebnisse:
    • Durchführung umfangreicher Backtests mit Demodaten zur Simulation realer Handelszenarien.
    • Erzielung eines Alpha von 22 Punkten pro Jahr über den TWSE-Index, was auf eine vielversprechende Verbesserung der Investmentleistung hinweist.
  • Laufende Tests:
    • Bereitstellung des implementierten Modells für Vios Investing zur weiteren Testung und Validierung mit Live-Daten.
    • Etablierung eines Feedback-Loops zur kontinuierlichen Überwachung der Modellleistung und zur Durchführung notwendiger Anpassungen.

Ergebnisse und Auswirkungen:

  • Alpha-Generierung: Die Backtesting-Ergebnisse zeigten ein beeindruckendes Alpha von 22 Punkten pro Jahr über den TWSE-Index, was das Potenzial des Modells zur signifikanten Verbesserung der Renditen unterstreicht.
  • Optimierung des Sharpe-Verhältnisses: Erfolgreiche Entwicklung eines prädiktiven Modells, das die Aktiengewichte optimiert, um das Sharpe-Verhältnis zu maximieren und überlegene risikoadjustierte Renditen zu bieten.
  • Skalierbare Bereitstellung: Bereitstellung des Modells unter Verwendung von Docker und Kubernetes, um Skalierbarkeit, Zuverlässigkeit und effiziente Nutzung der Rechenressourcen sicherzustellen.
  • Echtzeitvorhersagen: Ermöglichung von Vios Investing, Echtzeitdaten für laufende Vorhersagen zu nutzen, wodurch deren Handelsstrategien und Entscheidungsprozesse verbessert werden.

Fazit:

Das Projekt führte zu einem hochwirksamen prädiktiven Modell für Vios Investing, das fortschrittliche statistische Techniken und Deep Learning nutzt, um die Aktienauswahl an der TWSE zu optimieren. Durch die Erzielung eines signifikanten Alpha über den Index verspricht die Lösung, die Investitionsleistung des Unternehmens zu verbessern. Die skalierbare Bereitstellung auf Kubernetes mit GPU-Unterstützung stellt sicher, dass Vios Investing weiterhin modernste Technologie für überlegene Investmentergebnisse nutzen kann.

    Wussten Sie schon, dass wir alle zwei Wochen einen Newsletter mit den neuesten Tipps aus den Bereichen Data Engineering, DevOps und KI verschicken? Seien Sie der Erste, der erfährt, wie wir ein Problem gelöst haben. Abmeldung jederzeit möglich.

    Planen Sie den Einsatz von maschinellem Lernen zur Vorhersage von Zeitreihenmodellen? Kontaktieren Sie uns jetzt für ein kostenloses Beratungsgespräch.

      Open Source contributions on Github to the Google Research "TimesFM" project.

      https://github.com/google-research/timesfm

      https://research.google/blog/a-decoder-only-foundation-model-for-time-series-forecasting/

      Project Summary: Enhancing the Google Research TimesFM Project with CI/CD and Python Poetry

      Open Source Contribution: Continuous Integration/Continuous Deployment (CI/CD) and Dependency Management for TimesFM

      Project Overview:

      TimesFM is an advanced forecasting model developed by Google Research, pre-trained on a vast corpus of 100 billion real-world time-points. It delivers impressive zero-shot performance across various public benchmarks from multiple domains and granularities. This model stands out in time-series forecasting, which is critical in industries such as retail, finance, manufacturing, healthcare, and natural sciences. TimesFM is particularly impactful in retail, where accurate demand forecasting can significantly reduce inventory costs and boost revenue.

      Despite its robust performance, TimesFM faced challenges common to many deep learning (DL) models: the need for extensive training and validation cycles before deployment. To address this, TimesFM was designed as a foundation model that offers strong out-of-the-box forecasting capabilities on new time-series data without additional training. This allows users to quickly implement and refine forecasts for specific tasks, such as retail demand planning.

      My Contributions:

      To further enhance the usability and accessibility of TimesFM, I contributed to the project by implementing a Continuous Integration/Continuous Deployment (CI/CD) pipeline using GitHub Actions and integrating Python Poetry for dependency management and packaging. These contributions aimed to simplify the installation process and streamline development workflows.

      Key Enhancements:

      1. CI/CD Pipeline with GitHub Actions:
        • Automation: Automated the testing, building, and deployment processes, ensuring that any changes to the codebase are verified through a consistent and reliable workflow.
        • Quality Assurance: Enhanced code quality by running automated tests on each pull request, catching issues early in the development cycle.
        • Deployment: Streamlined the deployment process, allowing for faster and more reliable updates to the TimesFM model.
      2. Python Poetry Integration:
        • Simplified Installation: Enabled users to install TimesFM more easily with a single command (pip install timesfm), reducing the friction for new users and developers.
        • Dependency Management: Improved dependency management by using Poetry, which handles package dependencies more efficiently and ensures that the correct versions are used.
        • Reproducibility: Enhanced the reproducibility of the development environment, making it easier for contributors to set up and maintain their development setups.

      Impact of Contributions:

      • Ease of Use: Lowered the barrier to entry for new users and contributors, making it simpler to get started with TimesFM.
      • Improved Productivity: By automating routine tasks and ensuring a consistent development environment, developers can focus more on innovation and less on setup and maintenance.
      • Enhanced Collaboration: The automated CI/CD pipeline fosters a more collaborative and efficient development process, where code changes are continuously integrated and tested.

      About TimesFM:

      TimesFM represents a significant advancement in time-series forecasting. It is much smaller than the latest large language models (200M parameters) yet achieves near state-of-the-art performance on a variety of unseen datasets. This makes it a powerful tool for industries that rely on accurate time-series predictions.

      For more information and to access the model, please visit the HuggingFace and GitHub repositories.


      Conclusion:

      My contributions to the TimesFM project have significantly enhanced its usability and development efficiency. By implementing a CI/CD pipeline and integrating Python Poetry, I have helped streamline workflows and make the model more accessible to users and developers. These improvements support the ongoing success of TimesFM in providing robust, zero-shot forecasting capabilities across various domains.

        Did you know, that we are sending out a bi-weekly newsletter with the newest Data Engineering, DevOps and AI tips that we are working on? Be the first to be notified of how we have solved a problem. Unsubscribe at any time.

        Contact us for a free 15 minute consultation