Kennen Sie schon unseren Valuestore?

Erschaffen Sie den digitalen Zwilling Ihrer Organisation und erleben Sie die Kraft der Daten.

Verschaffen Sie sich einen Überblick über Ihre Möglichkeiten mit fLUMEN und besuchen Sie unseren Valuestore

Strategie

Overview

Werte aus Daten

Generating value from data

Gesamteffizienz steigern

Mit Data-Analytics steigern

Transparenz

Datengetriebene Wertströme

Data-Mining

Access-to-Data

Kreislaufwirtschaft

Ressourcen und Energiemanagement

Academy

Overview

Reise

Reise

Alle Termine

Alle Termine

Codes

Codes

Live-Coaching

Live-Coaching

Zertifikate

Zertifikate

Standorte

Standorte

flumina

Overview

Portrait

Über uns und was wir machen.

Produkte

Was wir bieten.

Jetzt

Wo stehen wir heute?

Meilensteine

Erfahrung und Erfolg

Ursprung

Woher wir kommen.

Vision

Wer werden wir sein?

Grundsätze

Sei du selbst.

Karriere News Events
pic

Data-Mining

Zugang zu Daten
aus einer einzigen
Quelle.

In Daten liegen Schätze verborgen. Die Transparenz der Daten enthält große Potentiale und trägt wesentlich zur Performance des gesamten Unternehmens bei. Daten bilden dabei die Grundlage, um bessere unternehmerische Entscheidungen zu treffen, Ist-Situationen transparent zu machen und in vorausschauende Massnahmen zu investieren. Auf dieser Grundlage, lässt sich die Effizienz des gesamten Unternehmens kontinuierlich steigern.

Big-Data

Daten sind heute in großen Mengen verfügbar. Im Unternehmen, auf dem Shopfloor, auf Webseiten, in Foren, Social-Media und vielen mehr. Ein Großteil der Daten liegt dabei in unstrukturierter Form vor.

Um sinnvoll mit den Daten arbeiten zu können hat sich die Vorgehensweise des CRISP-DM bewährt und bildet die Grundlage für datengetriebene Projekte.
> Daten aus vielen Systemen
> Große Mengen an Daten
> Komplexe Zusammenhänge
> Korrelationen der Bereiche
> Übersicht über alle Daten
> Wo sind die Daten?
> Zusammenführen der Daten
> Bereinigen der Daten
> Datenmodell aufbauen
> Use-Case implementieren


CRISP-DM
Cross-Industrial-Process-For-Datamining

Dabei muss zuerst beantwortet werden, wo sich für die Fragestellung relevanten Daten überhaupt befinden? Dann müssen diese geordnet und aufbereitet werden, um sie schließlich in ein passendes Datenmodell überführt zu werden. Auf diesem können jetzt Use-Cases aufgesetzt werden und dienen folgend als Grundlage datengetriebener Projekte und zur besseren Entschwiedungsfindung. Erfahrungsgemäß benötigen das Verstehen, aufbereiten und modellieren der Daten 80% der Zeit. Diese sind häufig verantwortlich für das Scheitern der Datenprojekte weil:



Datenprojekte
scheitern

weil

Mangelndes
Fachwissen

Weil nur wenig Fachwissen über die Datenbasis und den zugrundeliegenden Prozessen bzw. der Korrelation zwischen den für das Projekt notwendigen Daten vorhanden ist.

Technologische hürden

Häufig werden komplexe und große datengetriebene Projekte mit der falschen Technologie (bspw. mit EXCEL) angegangen. Vermeiden Sie Datenengpässe im Projektkontext. Optimierung und Innovation erfordern Datenmaterial und scheitern allzu oft an dessen Verfügbarkeit.

Management

Weil datengetriebene Projekte anders funktionieren. Hier muss IT- und Fachwelt eng zusammen arbeiten. Eine klare Priorität, kurze Sprints und schnelles Feedback sind die Grundlage des Erfolgs.

Komplexität

Häufig werden datengetriebene Projekte zu kompliziert. Um erfolgreich und schnell zu sein, ist es elementar wichtig, die Datenprojekte schlank und einfach zu halten.






Architektur

Um Daten nach dem CRISP-DM Modell verarbeiten zu können benötigt es eine Software-Architektur. Dabei spielen die einzelnen Komponenten, ähnlich wie bei einer Werkzeugmaschine oder einem Automobil, in einem ganzheitlichen System zusammen.

pic

ETL
(Extract-Transform-Load)

Extract-Transform-Load (ETL) ist der Teil des Systems, welcher die Quelldaten extrahiert, formatiert, bereingt & sortiert und dann in eine Zieldatenbank lädt. Jetzt Kann ein Algorithmus mit den aufbereiteten Daten weiter arbeiten und komplexe Berechnungen und Operationen durchführen.

> mehr
pic

Webservices

Der Webservice ist wie der Kellner in einem Restaurant, welcher die Gäste bedient. Er ist also Vermittler zwischen der Datenbank und dem was der User zu sehen bekommt. Der Kellner holt die gewünschten Informationen aus der Datenbank und bringt diese an den Tisch des Nutzers.

pic

Datenquellen

Die Integration von Daten aus sämtlichen Quellen in flumen ist möglich. Out-of-the-Box werden ERP SAP, S4/HANA, SAP One und proALPHA unterstützt. Alle anderen Datenquellen können bequem über eine Schnittstelle angebunden werden.

pic

Datenbanken

Die NO-SQL Datenbank sorgt für eine hohe Performance bei der Abfrage großer Datenmengen. Hier werden die vom ETL-Prozessor vorberechneten Werte und Daten aus anderen Datenquellen vorgehalten, sodass die vom Nutzer getätigten Anfragen möglichst wenig Zeit benötigen.

pic

Frontend

Mit diesem Teil des Systems interagiert der User. Hier werden ihm die Ergebnisse angezeigt, in Form von Zahlen, Graphiken, Dashboards oder Berichten. Hier konfiguriert der User Kennzahlen, Analysen, Simulationen und speichert seine Use-Cases ab.

> mehr im Valuestore

Konfiguration

Entwickeln von eigenen ETL-Prozessoren und Lösungen bzw. die Anbindung sämtlicher Datenquellen ist einfach in flumen möglich. Kontaktieren Sie uns für mehr informationen.

Konfiguration

Die Konfiguration von eigenen Lösungen, die Anbindung von dritten Datenquellen und die Anpassung des Frontendschemas sind unkomplizieert möglich. Kontaktieren Sie uns für mehr Informationen.

flumen
Environment

Die flumina Systemumgebungen laufen in der Cloud, On-Premise oder auf einem leistungsstarken Desktoprechner.

Ressourcen

Eine virtuelle Maschine (VM) in der Cloud, On-Premise oder auf einem leistungsstarken Desktoprechner. Eine genaue Angabe der notwendigen Ressourcen ist abhängig von der Menge der Daten und den Anzahl der User.

Datenschutz

Die flumen Systemumgebung ist mit modernen Schutzmechanismen ausgestattet. Hierzu gehört ein User-Login, eine SSL-Verschlüsselung der Kommunikation und ein umfassendes Rechtemanagement.

Inbetriebnahme

Die Daten werden primär aus dem ERP-System geladen. Hierbei unterstützen autom. Skripte bei der Beschaffung der Rohdaten. Die gesamte Systemumgebung ist innerhalb von wenigen Tagen einsatzbereit.

Konfiguration

Der Valuestore von flumina liefert Blaupausen für eine Vielzahl an Themen und Fragestellungen. So startet jeder Use-Case mit einem höher entwickelten Datenmodell.

Wartung & Pflege

Die Use-Cases und Anwendungsfälle werden kontinuierlich weiterentwickelt und verbessert. Es kommen beständig neue Use-Cases hinzu und stehen ab dann der flumina Community zur Verfügung.

Values

Um datengetriebene Projekte mit wertvollen Informationen zu versorgen, um so bessere Entscheidungen vorzubereiten.

Liegen die Daten gesammelten dann geordnet und strukturiert in einem Datenspeicher, können zielgerichtete Use-Cases oder Anwendungsfälle und Lösungen daraus entwickelt werden.

Carbon Footprint
> mehr
Simulation
> mehr
Fehlteile
> mehr
pic

flumina

Value­store

Begib Dich auf eine Reise in die Welt deiner Daten.

> zum Valuestore

Mehr Strategien

Generating value from data
Werte aus Daten
> mehr
Res­sour­cen- und En­er­gie­ma­na­ge­ment
Kreislaufwirtschaft
> mehr
Transparenz
Datengetriebene Wertströme
> mehr

KONTAKT

Haben Sie Fragen, Anregungen oder benötigen Sie weitere Informationen?
Wir freuen uns auf Ihr Feedback!

NEHMEN SIE
KONTAKT AUF!
Willkommen auf fLUMINA.de
Darf ich dir bei der Orientierung helfen?
Ja
Nein

Kann ich helfen?