• mobile-handy-apps-business-intelligence-big-data-marketing

  • vertrieb-marketing-management-kommunikation-prozesse-business-intelligence

  • accantec-hamburg-frankfurt-koeln-heidelberg-business-intelligence-daten-it-software-consulting

  • sap-ibm-sas-qlikview-microsoft-stas-cubeware-talend-infor-teradata-microstrategy

  • analyse-reporting-planung-kpi-kennzahlen-dashboard-abweichung-business-intelligence

  • Analyse, Reporting und Planung überall: Mobile Business Intelligence liegt stark im Trend.
  • Durckblick im Datendschungel: unser Leben liefert immer mehr Daten und verschlingt immer mehr digitale Zeit.
  • Big-Data, Cloud, Statistik: lokal Handeln und schnelles Anpassen in einem globalen Zusammenhang.
  • Verbindung technischer Systeme: Software, IT, Prozesse, Steuerung und Datenflüsse.
  • Reporting, Analyse, Forecasting, Planung: SAS, SAP, IBM, Microsoft

Big Data im Finanzmarkt

Veröffentlicht in BI- und IT-Markt

Stiftung Universität Hildesheim

Anpassen, statt verschwenden: Große Datenmengen in Echtzeit verarbeiten.

„Im Finanzsektor, in dem an der Börse täglich enorme Datenmengen unmittelbar verarbeitet werden, stößt die Informationstechnologie bei Analysen derzeit noch an ihre Grenzen“, sagt Christian Kröher, Informatiker der Universität Hildesheim.

Beispielsweise werden täglich in Europa und Amerika bis zu 250 Gigabyte an Daten – in etwa 54 DVDs – mit aktuellen Börsenhandelsdaten und Devisenkursen erzeugt.

„Zentralbanken führen Länder- und marktübergreifende Risikoanalysen durch. Dabei spielen auch Daten aus sozialen Netzwerken eine immer größere Rolle: so begann der Untergang von Lehman-Brothers mit dem Gerücht, dass diese Bank ihr tägliches Kapitel nicht beschaffen könne. Bei der Echtzeitanalyse unterschiedlicher Daten fokussieren sich die Banken auch auf solche einzelnen Phänomene. Dann müssen sie in Risikosituationen mehr und detailliertere Daten verarbeiten“, erläutert Kröher.

Aktuell werden die zugehörigen IT-Systeme allerdings auf den Maximalfall ausgelegt. So fließt die maximale Menge an Daten – gleichzeitig wird die maximale Verarbeitungsleistung benötigt. „Das ist weder effektiv noch kostengünstig, da so Kapazitäten zu Zeiten geringerer Datenströme beispielsweise für zusätzliche Detailanalysen ungenutzt bleiben“, sagt Dr. Holger Eichelberger von der Universität Hildesheim. Systeme müssten lernen, sich automatisch und dynamisch an die jeweilige Situation anzupassen, so dass bestehende Kapazitäten – auch durch weitere Analysen – optimal ausgenutzt werden.

Die Hildesheimer Arbeitsgruppe „Software Systems Engineering“ um Prof. Dr. Klaus Schmid arbeitet an Methoden und Techniken, wie Software effizient angepasst und diese Anpassung von der Software eigenständig durchgeführt werden kann.

Aufgrund der langjährigen Erfahrungen sind die Forscher nun Partner in einem EU-Projekt: Die Informatiker entwickeln automatische Konfigurationen und Anpassungen von Mechanismen, um große Datenmengen zu verarbeiten. Kooperationspartner der Uni Hildesheim sind das L3S Research Center Hannover, das „Telecommunication Systems Institute“ der Technischen Universität Kreta und die Unternehmen Maxeler Technologies Ltd in London – ein Spezialist im Bereich Hardware-basierter Echtzeitanalysen von Finanz-Datenströmen – und Spring Techno in Bremen. Das Bremer Unternehmen entwickelt Finanzhandelssysteme, die Analysten und Händler mit Echtzeitinformationen und Visualisierungen unterstützen. Die EU fördert das dreijährige Forschungsprojekt „QualiMaster“ mit etwa 2,9 Millionen Euro.

Das EU-Projekt beschäftigt sich mit Algorithmen, Modellen und Techniken zur Echtzeit-Analyse großer Mengen von Finanzdaten um den möglichen Ausfall von Märkten (besser) vorhersagen zu können. Um dieses Ziel zu erreichen, ist es notwendig, schnell, flexibel und autonom sowohl Analysealgorithmen als auch die unterliegende Infrastruktur an sich ändernde Rahmenbedingungen zu adaptieren.

Bei fast 100 Millionen Nachrichten pro Sekunde an der Börse in Europa und Amerika ist besonders der Faktor Zeit ein wichtiges Qualitätsmerkmal. So darf die Verarbeitung und Analyse dieser Nachrichten nicht den Eingang von Ergebnissen beim jeweiligen Empfänger verzögern – denn Zeit ist Geld. Mit dieser Problemstellung befassen sich die Hildesheimer Forscher.

Ein System, das große Datenmengen in Echtzeit verarbeitet und sich dabei an die jeweilige Datenmenge eigenständig anpasst – also etwa bei kleineren Datenmengen runterfährt oder neue Analysen bei freien Kapazitäten startet – fehlt. In der Sprache der Informatiker heißt das: Die Forscher entwickeln nun ein „konfigurierbares Echtzeit-Datenverarbeitungssystem zur autonomen Qualitätsanpassung“. Langfristig sollen mit einem solchen System Vorhersagen über Entwicklungen im Finanzmarkt – aber auch in anderen Gebieten mit hohem Datenaufkommen, wie zum Beispiel im Bereich der Makroökonomischen Analysen, der Wetteranalysen, der Analyse sozialer Netzwerke oder großer wissenschaftlicher Experimente – effektiv und effizient möglich werden. In dem EU-Projekt geht es vor allem um die Analyse und Voraussage systemischer Risiken. (Quelle: Stiftung Universität Hildesheim)

Tags:, , , ,

Kommentieren Sie diesen Artikel:

DatenDschungel.de © 2014 - Alle Rechte vorbehalten - www.accantec.de - The BI Company - Hamburg, Frankfurt, Köln, Heidelberg

Diese Webseite wird klimaneutral gehostet.