Process Mining – Datengetriebene Prozessanalyse

Effiziente Abläufe, Prozesstransparenz und Risikoerkennung sind der Schlüsselfaktor für eine erfolgreiche Organisation. Nicht ohne Grund beschäftigen größere Unternehmen eigene Abteilungen mit dem Auftrag zur Prozessoptimierung und der Revision. Die komplette Prozesskette – z. B. im Einkauf von der Bedarfsentstehung bis zur Zahlung – ist auf operativer und strategischer Arbeitsebene regelmäßig zu hinterfragen. Infolge der erhöhten Unterstützung der Prozessverarbeitung durch ERP– und andere IT-Systeme sowie der steigenden Abhängigkeiten inner- und außerbetrieblicher Prozesse, nimmt der Aufwand für das Monitoring von Geschäftsprozessen rasant zu.

→ WEITERLESEN

Benjamin Aunkofer ist Wirtschaftsingenieur und -informatiker. Er arbeitet in den interdisziplinären Themengebieten als Dozent an der HTW Berlin und engagiert sich als Unternehmer insbesondere für Big Data und Industrie 4.0.

Automatisierungspyramide

Bisher hieß es unter Ingenieuren, dass Produktion und IT zwei verschiedene Welten seien, die nicht gut zusammenpassen. Die Informationstechnologie spielt in Zeiten der vierten industriellen Revolution jedoch eine immer bedeutendere Rolle.

→ WEITERLESEN

Benjamin Aunkofer ist Wirtschaftsingenieur und -informatiker. Er arbeitet in den interdisziplinären Themengebieten als Dozent an der HTW Berlin und engagiert sich als Unternehmer insbesondere für Big Data und Industrie 4.0.

Maschinendaten – Treiber für die Smart Factory

Warum sich Wissen über Datenverarbeitung für Wirtschaftsingenieure lohnt.

Big Data Analytics ist gehört zu den Kernkompetenzen für die Industrie 4.0. Vor allem Absolventen der Physik, Informatik und Mathematik profitieren von den vielen neuen Berufen, beispielsweise mit den Bezeichnungen Data Engineer oder Data Scientist. Dabei können auch Wirtschaftsingenieure von diesen neuen Job-Chancen profitieren, wenn sie sich mit den Möglichkeiten der Datenhaltung und -verarbeitung vertraut machen und auch die Grundlagen der Statistik wiederauffrischen, denn im Produktionsumfeld lassen sich neue Wertpotenziale erschließen, die mit den traditionellen Methoden der Produktionsoptimierung unentdeckt blieben.

→ WEITERLESEN

Benjamin Aunkofer ist Wirtschaftsingenieur und -informatiker. Er arbeitet in den interdisziplinären Themengebieten als Dozent an der HTW Berlin und engagiert sich als Unternehmer insbesondere für Big Data und Industrie 4.0.

Das Referenzmodell Industrie 4.0 (RAMI 4.0)

Kubisches Schichtenmodell als Kommunikationsgrundlage für Standardisierungsvorhaben

Als sogenannte Industrie 4.0 wird die aktuelle Evolutionsstufe der internationalen Industrie bezeichnet, die durch eine Vernetzung von Produkten, Maschinen und den Interaktionspartnern der Fabriken alte Strukturen erneuern und somit eine neue Wettbewerbsfähigkeit erreichen soll. Mit der Industrie 4.0 verbinden Industrienationen wie Deutschland, Frankreich, Japan und die USA auch den Wunsch, die Produktionsstätten – und somit die wesentlichen Wertschöpfungsschritte – wieder innerhalb der Grenzen der eigenen Nation zurück zu holen und langfristig zu halten.

→ WEITERLESEN

Benjamin Aunkofer ist Wirtschaftsingenieur und -informatiker. Er arbeitet in den interdisziplinären Themengebieten als Dozent an der HTW Berlin und engagiert sich als Unternehmer insbesondere für Big Data und Industrie 4.0.

NoSQL-Datenbanken im Vergleich zu SQL-Datenbanken [Teil I/II]

Big Data ist ein aktueller Wirtschaftstrend, der zum Kerngeschäft vieler neuer Start-Ups ist und zu gleich den Konzernen der traditionellen Industrie Kopfzerbrechen bereitet, aber auch als Hoffnung auf neue Geschäftsmodelle gesehen wird. Dabei wird Big Data in der Regel nicht von der IT-Abteilung, sondern von Fachbereichen getrieben. Das macht diesen Trend insbesondere für Wirtschaftsinformatiker sehr bedeutend, denn diese können mit technischen Wissen den Fachabteilungen bei der Umsetzung von Big Data Projekten nicht nur behilflich sein, sondern dank des Schnittstellenwissens direkt die Projektleitung übernehmen, wenn Sie über technisches Wissen um die Verarbeitung von sehr großen Datenmengen verfügen.

→ WEITERLESEN

Die 7+ Dimensionen der Logistik

Die Logistik ist eine Kerndisziplin im Wirtschaftsingenieurwesen, doch selbst Wirtschaftsingenieure tun sich mit der Definition der Logistik sehr schwer, obwohl unser Alltag ohne Logistik heute nicht mehr funktionieren würde.

„Zur Logistik gehören alle Tätigkeiten, durch die die raumzeitliche Gütertransformation und die damit zusammenhängenden Transformationen hinsichtlich der Gütermengen, -sorten, der Güterhandhabungseigenschaften sowie der logistischen Determiniertheit der Güter geplant, gesteuert, realisiert und kontrolliert werden.” (Logistiksysteme, Seite 12, Pfohl, Auflage des Jahres 2000)

→ WEITERLESEN

Benjamin Aunkofer ist Wirtschaftsingenieur und -informatiker. Er arbeitet in den interdisziplinären Themengebieten als Dozent an der HTW Berlin und engagiert sich als Unternehmer insbesondere für Big Data und Industrie 4.0.

Planung von Elektroinstallationen

Elektroinstallation planen: Strom im Innen- und Außenbereich

Zur fachgerechten Installation von elektrischen Leitungen und Geräten gehört weitaus mehr als sich nur zu überlegen, wo die Steckdosen platziert werden sollen. Die Planung und vorläufige Skizzierung jeder Installation bezieht auch die Art der Benutzung des jeweiligen Raumes mit ein, ebenso wie berücksichtigt werden muss welche Geräte im Endeffekt tatsächlich verwendet werden, und das sind die ersten Faktoren welche es zu beachten gilt. Auch die persönlichen Ansprüche spielen eine große Rolle. Manche Nutzer wollen schlichtweg Steckdosen zum Betrieb allgemein bekannter Geräte, andere verlangen nach automatischen Schiebetüren mit Bewegungssensor.

→ WEITERLESEN

Benjamin Aunkofer ist Wirtschaftsingenieur und -informatiker. Er arbeitet in den interdisziplinären Themengebieten als Dozent an der HTW Berlin und engagiert sich als Unternehmer insbesondere für Big Data und Industrie 4.0.

Schließkraftmessung – Sicherheit für Türen-/Torsysteme

In unserer modernen Infrastruktur sind automatisch betriebene Türen und Tore nicht mehr wegzudenken, denn diese ermöglichen eine effiziente Logistik, ergonomisches Arbeiten und schnelle Reaktionszeiten von Rettungsdiensten. Automatische Türen und Tore können jedoch auch zur Gefahr werden. Damit die Sicherheit gewährleistet bleibt, sind diese jährlich zu warten und eine Schließkraftmessung durchzuführen.

Wartung von Industrietoren und Türen im Verkehrswesen: Schließkraftmessung bei kraftbetätigten Toren

Damit Unfälle am Arbeitsplatz sich so selten wie möglich ereignen und, sollte es zu einem Unfall kommen, wenigstens allzu schwere Verletzungen vermieden werden, hat der Gesetzgeber einige Regelungen bezüglich des betrieblichen Alltags aufgestellt. Dem Gesetzgeber ist daran gelegen, dass Gefahrenquellen vermieden werden und durch regelmäßige Wartungsarbeiten sichergestellt wird, dass betriebliches Equipment funktionstüchtig und gefahrlos in Betrieb genommen werden kann.


Tore beim Rettungsdienst - Foto: ASSA ABLOY Entrance Systems
Das klingt freilich logisch, nur leider zeigt die Praxis, dass es des Öfteren bei für den Betrieb als selbstverständlich betrachteten Bestandteilen zu Vernachlässigungen hinsichtlich der Wartungspflicht kommen kann. Besonders stiefmütterlich werden beispielsweise Industrietore und Torsysteme behandelt. Die Industrietore vieler Betriebe überschreiten die zugelassenen Werte um ein Vielfaches. Darauf hat der Gesetzgeber reagiert und 2013 in der Arbeitsstättenregel ASR A1.7 neue und strengere Regelungen, was die Schließkräfte von Industrietoren angeht, festgesetzt.

→ WEITERLESEN

Benjamin Aunkofer ist Wirtschaftsingenieur und -informatiker. Er arbeitet in den interdisziplinären Themengebieten als Dozent an der HTW Berlin und engagiert sich als Unternehmer insbesondere für Big Data und Industrie 4.0.

Data Analytics mit R – Buchempfehlung

Big Data Analytics ist der Trend für das Jahr 2015. Im Unterschied zum traditionellen Business Intelligence, bezieht Big Data Analytics alle unternehmensinternen Daten und externe Datenquellen ein. Externe Datenquellen können beispielsweise Social Media Plattformen, Börsen und Handelsplattformen sowie Behörden (Open Data) sein. Auch der aktuelle Trend zur Industrie 4.0 (Smart Factory) bedient sich dieser Analyseverfahren.

Mit diesen Trends erlebt auch die Programmiersprache für statistische Datenanalyse R einen enormen Aufschwung. Mit R lassen sich einfache statistische Datenanalysen durchführen oder automatisierte Analyseverfahren entwickeln, aber auch Predictive Analytics wird häufig mit R als Analysekern realisiert. R ist zudem grundsätzlich kostenlos und Open Source. Übrigens zählen R-Programmierer zu den Entwicklern mit den höchsten Stundensätzen bzw. Gehältern und IT-Experten.

Nachfolgend zwei ausgewählte Buchempfehlungen für den Einstieg in die Programmierung und Analyse mit R und zur Erweiterung von bestehenden R-Kenntnissen.



Programmieren Mit R (Statistik Und Ihre Anwendungen) (German Edition): 3. Auflage

Das Buch Programmieren mit R von Uwe Liges mit einer schrittweisen Einführung in R von Anfang an. Mit der Nutzung von R als Taschenrechner wird leicht verständlich in R eingewiesen. Wer schon weiter ist oder die 225 Seiten des Buches durchgearbeitet hat,  versteht es bereits, objektorientierte Programme in R zu entwickeln, statistische Modelle zu entwickeln, lineare Optimierungen durchzuführen, Effizienzanalysen (z. B. Laufzeitanalysen) zu betreiben und sogar eigene Grafikfunktionen zu definieren. Das Buch umfasst die komplette Mächtigkeit in Bezug auf die Mathematik. Der Autor schafft es dabei, anfangs sehr didaktisch vorzugehen, ab ca. dem ersten Drittel jedoch die Themen klar voneinander zu trennen, so dass das Buch auch als Nachschlagewerk taugt. Eine ganz klare Empfehlung für Einsteiger und auch Fortgeschrittene!

 



Datendesign mit R: 100 Visualisierungsbeispiele

Das Buch Datendesign mit R vom Autor Thomas Rahlf geht die Sache ganz anders an, als das oben genannte allgemeine Einführungs- und Nachschlagewerk für R. Der Autor stellt auf den ersten Seiten die Gestaltungsmöglichkeiten von R für Grafiken und Diagramme vor, wobei die Gestaltungsvorschläge prinzipiell unabhängig von dieser Programmiersprache sind und allgemeine Gestaltungstipps für Analyse-Reporting sind. Das Buch beinhaltet auf wenigen Seiten zwar auch noch eine kleine Einführung in R, diese ist jedoch nur ein kleines Beiwerk. Der Kern des Buches, und der tatsächliche Kaufgrund, sind die 100 Visualisierungsbeispiele, die tatsächlich visuell überzeugen, verständlich aufbereitet und dabei auch noch schön anzusehen sind. Dem Leser werden Möglichkeiten der Datenvisualisierung aufgezeigt, stets mit einem Anwendungsfall und echten (downloadbaren) Daten im Hintergrund. Dies macht nicht nur Statistik verständlicher, sondern der Leser erhält einen Eindruck, welche Diagramme in welchem Kontext die ideale Wahl sind, beispielsweise Balkendiagramme, Säulendiagramme, Kuchendiagramme, Histogramme, Verteilungsdiagramme, Lorenzkurven, Liniendiagramme, Zeitreihen, Radialpolygone oder Heatmaps.

Wer die Visualisierungen aus dem Buch nachbauen möchte, muss nicht unbedingt den Quellcode aus dem Buch abtippen, sondern kann diesen auch aus dem (als Download-Code) beigelegten eBook kopieren.

Benjamin Aunkofer ist Wirtschaftsingenieur und -informatiker. Er arbeitet in den interdisziplinären Themengebieten als Dozent an der HTW Berlin und engagiert sich als Unternehmer insbesondere für Big Data und Industrie 4.0.