Modellierung, Extraktion und Aufbereitung von Daten

Unsere Arbeit hat hier ihren deutlichen Fokus. Denn: ohne Daten geht gar nichts.

Software arbeitet immer mit Informationen. Wenn Information durch Sensoren, wie bspw. Touchscreens, Kameras oder Wifi-Adapter, digitalisiert wird, spricht man von digitalen Daten. Diese Daten können unsortiert, schwer zugänglich und roh sein.

Grundsätzlich gilt: je sauberer die Daten sind, die eine Software benutzt, desto robuster und mächtiger kann die Software sein. In der Regel sind es auch die Daten, die eine Software wertvoll machen. Denken Sie bspw. an ein Google ohne Suchergebnisse, an ein Facebook ohne Nutzer oder erst recht an maschinelles Lernen - Stichwort KI / AI.

Wir stellen uns die Frage, woher wir zuverlässig Daten beziehen können, wie wir diese für die gegebenen Anforderungen optimal strukturieren und wie wir sie so aufbereiten und abspeichern können, dass wir den größtmöglichen Nutzen aus ihnen ziehen können.

Dieses Thema ist uns so wichtig, dass wir sogar ein eigenes ETL Framework entwickelt haben, dass sehr große Datenmengen mit speziellem Augenmerk auf Datenqualität verarbeiten kann.

Gerade in Legacy Software und deren Datenbanken stecken häufig verborgene Datenschätze, die nach einer Aufbereitung und Umformung einen erheblichen Mehrwert liefern können.

Erfahren Sie mehr über Schnittstellen unterAPIs.