Industrie 4.0: Von der Dampfmaschine zur Smart Factory
Die Industrie 4.0 hat in moderne Werkshallen Einzug gehalten. Die IT verschmilzt zunehmend mit Fabriken, Produktionsanlagen und Logistikprozessen. Aufgrund des massiven Bedeutungszuwachses der intelligenten Fabrik (Smart Factory) für den deutschsprachigen Raum hat die tarakos GmbH eine Infografik erstellt, um den Weg von mit Wasser und Dampf betriebenen Produktionsanlagen hin zu zur vierten industriellen Revolution aufzuzeigen.
Während die Internet-Gemeinschaft noch über das sogenannte Web 3.0 diskutieren, versucht die Industrie inzwischen in der Version Nr. 4 anzukommen. Gemeint sind damit neben der fortschreitenden industriellen Entwicklung, auch die Veränderungen und Schwierigkeiten der Produktions- und Arbeitswelt. Die Globalisierung stellt in diesem Zusammenhang die Industrie vor neue Herausforderungen.
Die Infografik finden Sie weiter unten in diesem Artikel!
Big Data ist eines der Buzzwords dieser Jahre und steht für das Potenzial der heranwachsenden Datenmengen für Wirtschaft und Wissenschaft. Das Potenzial ergibt sich aus dem Erfassen und Sammeln dieser Datenmengen aus den unterschiedlichsten Quellen. Die Nutzung des Potenzials erfolgt jedoch erst mit der Datenanalyse, daher wird oftmals zwar von Big Data geredet, jedoch Big Data Analytics gemeint.
Das in der Praxis am häufigsten vorkommende Datenbankmodell ist die relationale Datenbank, die Daten in untereinander verknüpfte Tabellenstrukturen speichert. Relationale Datenbanken sind zwar nicht direkt auf eine bestimmte Größe beschränkt, so begrenzt ausschließlich das Betriebssystem die Größe einer MySQL-Datenbank, dennoch tauchen bei großen Abfragen mit SQL-Queries oftmals schwer nachvollziehbare Fehler auf. Eine fehlgeschlagene SQL-Query lässt sich nur schwer debuggen, wenn sie nach Stunden abbricht.
Abhilfe verspricht Apache Hadoop mit einem verteilten Dateisystem (HDFS) und dem NoSQL-Ansatz und MapReduce-Algorithmus, der auch die Analyse von unstrukturierten Daten ermöglicht. Durch HDFS werden mit Commodity Hardware Datensammlungen und Analysen im Petabyte-Bereich möglich. Für die Auswertung der Datenmengen werden dadurch auch keine backup-kritischen Großrechner mehr benötigt, denn MapReduce-Jobs können auf verschiedener, räumlich getrennter Hardware zeitlich parallel erfolgen, erst die Ergebnisse werden auf einem dafür vorbestimmten Rechner (Server) zusammengetragen und weiterverarbeitet. Dabei werden Daten über die verteilte Hardware redundant gehalten, was als Data Warehouse (unter bestimmten Voraussetzungen) Ausfallsicherheit bedeutet.
Hadoop ist ein freies Open Source Framework, dessen Entwicklung von der Apache Software Foundation vorangetrieben wurde. Es wird auch von den Unternehmen eingesetzt, die heute als Pioniere von Big Data gelten, beispielsweise Facebook, Yahoo!, Twitter, Amazon und Google. Vor allem Google, Facebook und Yahoo! steuerten große Teile zu Hadoop bei.
Das Buch Hadoop – Zuverlässige, verteilte und skalierbare Big-Data-Anwendungen vom Autor Ramon Wartala bietet einen breiten und tiefen Einblick in Hadoop und dessen modulare Nebensysteme:
Datenfluss-Sprachen:
Hive
Pig
CludBase
Spaltenorientierte Datenbanken
HBase
Hypertable
Daten-Serialisierung
Avro
Thrift
Google Protocol Buffer
Sqoop
Workflow-Systeme
Azkaban
Oozie
Cascading
Hue
ZooKeeper
Mahout
Whirr
Das Buch führt ausführlich durch die Installation von Hadoop auf einem Linux-System, leitet die ersten Schritte im Umgang mit dem verteilten Dateisystem von Hadoop (HDFS) sowie zur Implementierung von MapReduce-Algorithmen an. Auch in die empfohlene Entwicklungsumgebung Eclipse (mit Plugin) wird hinreichend eingewiesen. Zum Ende gibt der Autor noch Tipps rund um das Management und die Überwachung der MapReduce-Jobs und des Hadoop-Ökosystems. Ferner werden vier Beispiele des Hadoop-Einsatzes in der Praxis vorgestellt. Wer einen Einstieg in die Praxis von Hadoop finden möchte, kann sich Hadoop als Standalone-Anwendung installieren und die Datenverteilung simulieren, oder sich Linux-Server bei Providern anmieten.
Hadoop besteht im Wesentlichen aus Java Programmcode (von Oracle, vormals Sun Microsystems), daher ist zumindest ein Grundwissen in Java notwendig, um tiefer in Hadoop eintauchen zu können und auch um die Quellcode-Beispiele im Buch verstehen zu können. Außerdem sind Linux-Kenntnisse (insbesondere Ubuntu/Debian) vorteilhaft. Wer kein Freund der Programmiersprache Java ist, kann durch das Hadoop Streaming auch MapReduce-Funktionen in C, Ruby, PHP oder Python realisieren; Hierfür bietet Hadoop eine Standardein/ausgabe-Schnittstelle an.
Die Community rund um Hadoop ist nahezu vollständig englischsprachig, für einen tieferen Einblick in Hadoop ist daher englischsprachige Literatur zu empfehlen, beispielsweise das Buch Hadoop: The Definitive Guide. Für einen ersten Einstieg in das Hadoop-System ist das obige deutschsprachige Buch jedoch absolut empfehlenswert.
Das Lichtbogenhandschweißen (EN ISO 4063: Prozess 111) ist einfach anzuwenden und gilt als eines der ältesten, aber auch immer noch der am häufigsten eingesetzten Schweißverfahren, auch wenn es sich über die Jahrzehnte leicht verändert haben mag. Das Lichtbogenhandschweißen gehört zu den Schmelzschweißverfahren. In der DIN Norm 8580 (Einteilung der Fertigungsverfahren) ist das Lichtbogenschweißen in der Hauptgruppe 4 (Fügen) zu finden, Fügen durch Schweißen DIN 8593 Teil 6.
Das Lichtbogenhandschweißen ist ein Verfahren mit Zusatzhilfstoff in Form von abschmelzender Stabelektrode. Der Anwendungsbereich im Rahmen des Fügens erstreckt sich auf metallische Werkstoffe mit einem maximalen Kohlenstoffanteil von 0,22%, beispielsweise aus dem Grundwerkstoff S235 JRG2 DIN EN 10025.
In den Anfängen des Lichtbogenhandschweißens wurden nackte Metallelektroden oder auch Kohleelektroden als Elektroden verwendet. Heute sind Stabelektroden um den Kernstab herum mit einem mineralischen Stoff ummantelt, welcher ein Schutzgas und Schlacke freisetzen soll.
Das durch die Hitze des Schweißprozesses aus der Hülle entstandene Schutzgas schirmt das aufgeschmolzene Metall des Kernstabendes und die Schweißstelle von der Umgebungsluft ab. Die Schlacke dient der Isolation der Schweißnaht bis zur Erkaltung.
Die Umhüllung erleichtert den Schweißprozess auch aus dem Grund enorm, dass die Umhüllung zur Stabilisierung des Kernstabs und des Lichtbogens beiträgt.
Der Lichtbogen selbst bildet sich vom Kernstab aus zum Werkstück.
Lichtbogenhandschweißen gehört auch heute noch zu den am häufigsten eingesetzten Schweißverfahren, insbesondere im Stahl- und Rohrleitungsbau. Die Anwendung gilt als relativ materialfehlertolerant und ist bei allen Witterungsbedingungen, sogar unter Wasser, einsetzbar. Neben dem Fügen ist auch das Beschichten (Auftragsschweißen) ein Anwendungsgebiet.
Unter dem Begriff Schweißen wird das Fügen bzw. Beschichten von Werkstoffen verstanden. Die Werkstoffe können sich dabei im flüssigen oder plastischen Zustand befinden. Das fügende Schweißen erzielt die Schaffung einer haltbaren Stoffverbindung mit Hilfe von Wärme und/oder Druck mit oder auch ohne zusätzliche Hilfsstoffzuführung. Das Schweißergebnis ist eine unlösbare und stoffschlüssige Verbindung. Schweißhilfsstoffe können Schutzgas, Schweißpulver oder –paste sein.
Schweißverfahren werden weltweit, vor allem im Maschinenbau und Bauwesen eingesetzt, unter Erdatmosphäre, unter Wasser und im luftleeren Raum. Geschweißt wird mit immer kompakter werdenden Handschweißanlagen bis hin zur vollautomatisierten Schweißanlage.
Die Energieträger Strom, Bewegung, Strahlung und Strom können für Schweißverfahren genutzt werden. So kommt Energie durch Gasverbrennung, Plasmalichtbögen, elektrische Lichtbögen, Laser, Druckkraft oder Ultraschall oder eine Kombination aus diesen zum Einsatz. Schweißen ist eines von acht Fügeverfahren in der Fertigungstechnik und konkurriert unter bestimmten Voraussetzungen insbesondere mit dem Löten und Kleben.
ONr.*
HAUPTGRUPPE 4 : FÜGEN
4.1
Zusammensetzen / DIN 8593 Teil 1
4.2
Füllen / DIN 8593 Teil 2
4.3
Anpressen, Einpressen / DIN 8593 Teil 3
4.4
Fügen durch Urformen / DIN 8593 Teil 4
4.5
Fügen durch Umformen / DIN 8593 Teil 5
4.6
Fügen durch Schweißen / DIN 8593 Teil 6
4.7
Fügen durch Löten / DIN 8593 Teil 7
4.8
Fügen durch Kleben / DIN 8593 Teil 8
4.9
Textiles Fügen / DIN 8593 Teil 9
Schweißen kann neben dem Zweck des Fügens auch andere Zwecke erfüllen. Laut Einteilung nach DIN Normen darunter beispielsweise auch das Beschichten durch Schweißen (5.5).
Das Zukunftsprojekt Industrie 4.0 wird unsere Industrie verändern. Produktions- und Lieferzeiten werden durch intelligente Steuerung verkürzt und hinsichtlich des Ressourceneinsatzes optimiert werden. Die virtuelle Realität wird Produkte von noch besserer Qualität schaffen, bei kostengünstigerer Produktentwicklung, die näher an die Fertigungsprozesse rücken wird. Durch das Internet der Dinge wird die Produktion und Logistik zuverlässiger sowie für Kunden transparenter werden. Insgesamt wird die Industrie 4.0 anders als die vorangegangenen Industrierevolutionen nicht nur insgesamt die Produktivität, sondern vor allem die Flexibilität erhöhen, bis hin zur kundenindividuellen Massenproduktion.
Die Fabrik 4.0 soll…
sich selbst digital abbilden und simulieren können und gleichzeitig möglichst mit der Realität verschmelzen,
Produktionssysteme, Produkte und Dienste mit Informationen ausstatten und miteinander kommunizieren lassen,
durch Datenanalysen in ihrer Situation aufgenommen, überwacht und im Generellen optimiert werden,
sich darauf aufbauend durch künstliche Intelligenz selbst steuern und im Speziellen auch selbst optimieren können.
Die TCP/IP ist die Protokollfamilie, über die grundsätzlich jeglicher Datenverkehr auf der Datenautobahn Internetabgewickelt wird. TCP/IP basiert auf einem eigenen Referenzmodell und setzt sich aus den Protokollen Transmission Control Protocol (TCP) und Internet Protocol (IP) zusammen. TCP ist ein Protokoll der Transportschicht im OSI-Referenzmodell und wurde bei der Entwicklung auf zuverlässige bzw. verlustfreie Übertragung von Nutzdaten ausgerichtet.
TCP und IP errichten im Zusammenspiel eine Punkt-zu-Punkt-Verbindung über Sockets. Über IP-Adressen können Endgeräte zum Zeitpunkt der Verbindung eindeutig identifiziert werden. IP-Adressen alleine reichen jedoch nicht aus, da die meisten Endgeräte (z. B. ein Tablet-PC) gleichzeitig eine Vielzahl an Verbindungen (über eine IP-Adresse) aufbauen können. Ein Verbindungspunkt wird als Socket bezeichnet und erst durch weitere Adress-Zusätze definiert: Neben den IP-Adressen (Sender, Empfänger) gehören zu einem Socket auch Portnummern (auf der Anwendungsschicht, z. B. 80 für HTTP-Verbindungen) für Sender und Empfänger sowie Angaben über welches Protokoll kommuniziert werden soll. Ein Socket ist demnach ein Verbindungspunkt, der Sender- und Empfänger-Adressen sowie die Übertragungsform kennt. Die socket-bezogene Kommunikation geschieht auf Ebene der Transportschicht. Dennoch muss TCP nicht zwangsläufig mit IP zusammen in Erscheinung treten, denn TCP-Pakete können auch über andere Netzwerkprotokolle (Vermittlungsschicht) übertragen werden.
Das User Datagram Protocol (UDP) ist ebenfalls wie TCP ein Transportprotokoll für Netzwerkverbindungen, steht jedoch nicht in direkter Konkurrenz zum TCP, da es einen ganz anderen Zweck erfüllt -> Die schnellstmögliche Übertragung von Nutzdaten.
Da sowohl TCP als auch UDP auch mit anderen Protokollen der Vermittlungsschicht zusammenarbeiten können, also nicht nur auf das Netzwerkprotokoll IP angewiesen sind, können TCP und UDP auch als unabhängig von den Protokollfamilien TCP/IP bzw. UDP/IP betrachtet werden.
Das Workflowmanagement (zu Deutsch etwa: Verwaltung von Arbeitsabläufen) steht dem (Geschäfts-)Prozessmanagement sehr nahe. Ziel des Workflowmanagements ist die Koordination von Prozessen über Workflowmanagementsysteme, indem sie die Ausführungsreihenfolge der Prozesse oder der Aktivitäten von Prozessen überwachen, Daten für die Ausführung von Aktivitäten bereitstellen, anstehende Aktivitäten menschlichen oder technischen Bearbeitern zur Ausführung zuordnen und Anwendungssysteme für die Bearbeitung zur Verfügung stellen.
Während die Steigerung der Produktivität im Produktionsbereich durch Prozessmanagement bereits früh erschlossen wurde, blieben Produktivitätssteigerungen im Bürobereich verhältnismäßig lange aus. In den 1980er Jahren begann sich mit der Office Automation und dem Ziel der computergesteuerten Durchführung wiederkehrender Vorgänge auch im Bereich der Büroarbeit Prozessmanagement durchzusetzen. Workflowmanagement ist jedoch nicht nur eine Büroangelegenheit, sondern dringt auch bis tief in die Produktionsplanung und -steuerung vor. Beispielsweise sind Stücklisten, Arbeitspläne, Produktionspläne usw. Arbeitsmittel und Kommunikationsmittel zwischen der Logistik- bzw. Produktionsplanung/-steuerung, die überwiegend als Bürotätigkeit geschieht, und der ausführenden Produktion. Auch die Erfassung der Arbeitszeiten und -tätigkeiten findet zwischen der Personalwirtschaft/Buchhaltung und der Produktion statt. Wann welche Arbeitsmitteln an welchem Ort bzw. bei welcher Person sein müssen und wer wann und wo welche Arbeitsschritte auszuführen hat, entscheiden Workflowmanagementsysteme.
Die Reallayoutplanung ist eine der arbeitsintensivsten Phasen der Fabrikplanung und wurde bis in die 1990er Jahre noch vorwiegend mit technischen Zeichnungen auf Papier umgesetzt. Heute gibt es sehr viel Software, die die Möglichkeit der Nutzung einer virtuellen Realität (VR) für die Fabrik- und Fertigungsplanung schafft. Virtuelle Realität ist in der Produktentwicklung als CAD und digital Mock-Up (digitales Versuchsmodell) bekannt, für die Fabrikplanung wird virtuelle Realität unter dem Konzept einer digitalen Fabrik eingesetzt. Eine digitale Fabrik ist eine virtuelle, zwei- oder drei-dimensionale Darstellung der Fabrik zur Durchführung einer Realplanung und testgetriebenen Simulation, insbesondere für Materialflussanalysen.
Nachfolgende Abbildungen entstammen der Software visTABLE (weitere Informationen zur Software unten im Artikel).
Verteilte Anwendungen sind aus dem Alltag der Industrienationen nicht mehr wegzudenken, auch wenn die meisten Anwender nicht viel davon bemerken. Insbesondere mobile Anwendungen und die immer leistungsfähiger werdenden dienstorientierten Architekturen (Service-Oriented Architecture – SOA) lassen verteilte Anwendungen immer bedeutsamer werden. Verteilte Systeme bestehen aus verteilten Systembausteinen, welche im Netzwerk (z. B. dem Internet) miteinander kommunizieren und zusammenarbeiten. Es gibt heute kaum noch Anwendungen, welche nicht verteilt sind und gerade industrielle Anwendungen sind ohne verteilte Systeme undenkbar. Typische Einsatzfelder sind der Handel, die Büroautomatisierung, PPS-Anwendungen (z. B. Fertigungssteuerung), ERP-Anwendungen, PLM-Anwendungen, Überwachungssysteme und alltägliche Anwendungen (z. B. Browser, Instant-Messenger, Smartphone Apps).
Das Buch Verteilte Systeme von Alexander Schill und Thomas Springer geht auf die Systemarchitekturen (z. B. das Cloud Computing) und Kommunikationsmodelle verteilter Anwendungen ausführlich ein. Auch Transaktionen (Kommunikationsschritte zwischen den verteilten Systembausteinen), Namens- und Verzeichnisdienste, Sicherheit, Konzepte der Softwareentwicklung speziell für verteilte Systeme, dienstbasierte Architekturen (SOA) sowie das mobile Computing werden behandelt. Das Buch steht unter dem Dach der Wirtschaftsinformatik mit Fokus auf die Modellierung und Unterstützung von Geschäftsprozessen.