Wie kürzlich bei der Gast-Vorlesung von Prof. Dr. Thomas an der Hochschule Heilbronn verabredet, kamen jetzt drei Studenten des Studiengangs „Software Engineering“ zu einem Interview nach Karlsruhe angereist. Für das Studienfach „Business Applications“ galt es, möglichst viele Informationen über das Aufkommen von und den Umgang mit Daten im logistischen Umfeld zu erfragen. Als Interview-Partner stand Mathias Thomas zur Verfügung, der einerseits als Geschäftsführer von TUP aus dem Blickwinkel der Intralogistik berichten konnte, andererseits als Geschäftsführer der gaxsys GmbH die Datenflut des globalen E-Commerce zu interpretieren wusste.
Schnell hatte man sich auf ein zwangloses „Du“ geeinigt, so begann das Interview auch nicht gleich mit dem Abarbeiten des vorbereiteten Fragenkatalogs, sondern mit einem groben Überblick von Mathias Thomas über die Geschichte und Entwicklung von Daten in Projekten, deren Bezug zur Logistik und die Bedeutung für die Hersteller und den Markt selbst. Als Grundlage umriss er kurz das Qualitäts-Management-System „Six Sigma“ mit der DMAIC-Methodik (Define, Measure, Analyse, Improve, Control). Mathias knüpfte so ein direktes Band von der Daten-Entstehung zu den dahinterliegenden Prozessen.
Big Data nur ein Hype?
Es wurde schnell deutlich, dass der junge Geschäftsführer wenig von der Entwicklung hält, wahllos immer mehr Daten von immer mehr Quellen zu sammeln. Speziell bei dem Stichwort „Big Data“ konnte er sich ein Schmunzeln nicht verkneifen. „Immer, wenn Leute nicht wissen was sie tun, fangen Sie an neue Wörter dafür zu erfinden. Letztlich ist Big Data nichts anderes als das, was wir früher unter dem Begriff „Eurologistik“ verstanden haben. Und hart formuliert ist Big Data wieder nur eine neue Sau, die von Tool-Herstellern durchs Dorf getrieben wird. Jeder sammelt Terrabyte-weise Daten ohne zu wissen, was er damit eigentlich machen will.
Das Ergebnis: Systeme mit unterirdischen Reaktionszeiten, ein riesiger Aufwand die wirklich relevanten Daten herauszufiltern und hoffnungslos überfordertes Personal. Wir fahren hier eigentlich genau den gegenteiligen Ansatz: Oberstes Gebot ist die Erarbeitung und Pflege sauberer und klar definierter Prozesse – im Bereich der Intralogistik beispielsweise vom Wareneingang bis zum Warenausgang.“ Laut Thomas ist für jeden einzelnen Prozess bei TUP klar definiert, welche Eingangsdaten für diesen Prozess und welche Ausgangsdaten von diesem Prozess wirklich relevant sind. Diese Informationen sind die Arbeitsgrundlage für alle angeschlossenen Systeme, die um ein vielfaches schneller verarbeitet und interpretiert werden können. „Wichtig ist dabei, immer seine Flexibilität zu behalten und die Prozesse regelmäßig zu hinterfragen“ fügt er noch hinzu.
Business Intelligence ist mit den richtigen Daten kein Hexenwerk
Das Thema Business Intelligence (BI) stand ebenfalls auf dem Zettel der Studenten, da auch die Verknüpfung und Verarbeitung der erfassten Daten eine wesentliche Komponente im Umgang mit Betriebsdaten darstellt. Die Frage nach den benutzten Tools und Datenbanken war schnell geklärt, da es dafür weder eine pauschale Antwort noch ein Patent-Rezept gibt. „Die angeschlossenen Systeme variieren von Projekt zu Projekt und sind oftmals vom Kunden vorgegeben. Uns ist das eigentlich auch ziemlich egal, wichtig ist, dass die relevanten Daten in einer Datenbank konsolidiert werden. Dafür schaffen wir Schnittstellen zu Warenwirtschafts- und ERP-Systemen, deren Daten dann mit den aktuellen Prozessen im Lager zusammengeführt werden. Aber genau um die Flut unnötiger Daten zu vermeiden wenden wir das Hollywood-Prinzip an: Don’t call us, we call you“, führt Thomas weiter fort. „Nur die für den aktuellen Prozess relevanten Daten werden abgefragt. Die eigentliche Intelligenz spielt sich dann im Warehouse-Management-System ab.“ In der weiteren Ausführung wurde klar, dass an dieser Stelle nur eine sinnvolle Verknüpfung der Daten für eine tatsächliche Optimierung sorgt. „Wenn ich beispielsweise weiß, dass ein Business-Kunde 100 T-Shirts bestellt hat und dann zwei Kartons a 50 dieser T-Shirts angeliefert werden, wäre es unnötig diese zuerst einzulagern. Den Weg über das Hochregallager, den Kommissionier- und den Packbereich kann ich einsparen und das Paket direkt zum Weiterversand an den Warenausgang leiten.“
Der Blick in die Glaskugel
Abschließend war ein Ausblick in die Zukunft gewünscht. Gefragt nach seiner Einschätzung, wie sich das Thema Daten seiner Meinung nach in den nächsten Jahren entwickeln werde, sieht Mathias Thomas Chancen und Risiken. „Im Bereich der Lagerlogistik stehen uns sicher spannende Zeiten bevor. Heute oft umschrieben durch weitere Modewörter wie „Industrie 4.0“ oder „Internet der Dinge“, wird die Vernetzung innerhalb von Industrieanlagen drastisch zunehmen. Es ist heute schon möglich, Anlagen so auszustatten, dass der Status jeder Maschine und der Standort jedes Mitarbeiters in Echtzeit abgefragt werden kann. Die Möglichkeiten zur Prozessoptimierung wachsen dadurch natürlich ins quasi unermessliche. Linear dazu allerdings zum einen auch die Menge an Datenmüll, die bei schlechter Filterung unweigerlich zu Verstopfung führt, zum anderen auch das Missbrauchspotenzial. Welcher Mitarbeiter möchte schon auf Schritt und Tritt analysiert werden? Hinzu kommt eine erhöhte Angreifbarkeit von außen, denn wenn alles „in der Cloud“ ist und der Chef vom Golfplatz die aktuellen Daten aus Produktion über das iPad abfragen kann, dann können andere das auch – die aktuellen Entwicklungen zeigen ja, dass absolute Datensicherheit eher was für die großen Optimisten unter uns ist. Meiner Ansicht nach werden wir uns im Business-Bereich auch weg von „der einen Wolke“ bewegen und die brisanten Daten auf private Clouds auslagern.“
Teaserbild: © Ben Chams – Fotolia.com