Schließkraftmessung – Sicherheit für Türen-/Torsysteme

In unserer modernen Infrastruktur sind automatisch betriebene Türen und Tore nicht mehr wegzudenken, denn diese ermöglichen eine effiziente Logistik, ergonomisches Arbeiten und schnelle Reaktionszeiten von Rettungsdiensten. Automatische Türen und Tore können jedoch auch zur Gefahr werden. Damit die Sicherheit gewährleistet bleibt, sind diese jährlich zu warten und eine Schließkraftmessung durchzuführen.

Wartung von Industrietoren und Türen im Verkehrswesen: Schließkraftmessung bei kraftbetätigten Toren

Damit Unfälle am Arbeitsplatz sich so selten wie möglich ereignen und, sollte es zu einem Unfall kommen, wenigstens allzu schwere Verletzungen vermieden werden, hat der Gesetzgeber einige Regelungen bezüglich des betrieblichen Alltags aufgestellt. Dem Gesetzgeber ist daran gelegen, dass Gefahrenquellen vermieden werden und durch regelmäßige Wartungsarbeiten sichergestellt wird, dass betriebliches Equipment funktionstüchtig und gefahrlos in Betrieb genommen werden kann.


Tore beim Rettungsdienst - Foto: ASSA ABLOY Entrance Systems
Das klingt freilich logisch, nur leider zeigt die Praxis, dass es des Öfteren bei für den Betrieb als selbstverständlich betrachteten Bestandteilen zu Vernachlässigungen hinsichtlich der Wartungspflicht kommen kann. Besonders stiefmütterlich werden beispielsweise Industrietore und Torsysteme behandelt. Die Industrietore vieler Betriebe überschreiten die zugelassenen Werte um ein Vielfaches. Darauf hat der Gesetzgeber reagiert und 2013 in der Arbeitsstättenregel ASR A1.7 neue und strengere Regelungen, was die Schließkräfte von Industrietoren angeht, festgesetzt.

→ WEITERLESEN

Infografik zur Industrie 4.0

Industrie 4.0: Von der Dampfmaschine zur Smart Factory

Die Industrie 4.0 hat in moderne Werkshallen Einzug gehalten. Die IT verschmilzt zunehmend mit Fabriken, Produktionsanlagen und Logistikprozessen. Aufgrund des massiven Bedeutungszuwachses der intelligenten Fabrik (Smart Factory) für den deutschsprachigen Raum hat die tarakos GmbH eine Infografik erstellt, um den Weg von mit Wasser und Dampf betriebenen Produktionsanlagen hin zu zur vierten industriellen Revolution aufzuzeigen.

Während die Internet-Gemeinschaft noch über das sogenannte Web 3.0 diskutieren, versucht die Industrie inzwischen in der Version Nr. 4 anzukommen. Gemeint sind damit neben der fortschreitenden industriellen Entwicklung, auch die Veränderungen und Schwierigkeiten der Produktions- und Arbeitswelt. Die Globalisierung stellt in diesem Zusammenhang die Industrie vor neue Herausforderungen.

Die Infografik finden Sie weiter unten in diesem Artikel!

→ WEITERLESEN

Big Data Analytics mit Hadoop – Buchempfehlung

Big Data ist eines der Buzzwords dieser Jahre und steht für das Potenzial der heranwachsenden Datenmengen für Wirtschaft und Wissenschaft. Das Potenzial ergibt sich aus dem Erfassen und Sammeln dieser Datenmengen aus den unterschiedlichsten Quellen. Die Nutzung des Potenzials erfolgt jedoch erst mit der Datenanalyse, daher wird oftmals zwar von Big Data geredet, jedoch Big Data Analytics gemeint.

Das in der Praxis am häufigsten vorkommende Datenbankmodell ist die relationale Datenbank, die Daten in untereinander verknüpfte Tabellenstrukturen speichert. Relationale Datenbanken sind zwar nicht direkt auf eine bestimmte Größe beschränkt, so begrenzt ausschließlich das Betriebssystem die Größe einer MySQL-Datenbank, dennoch tauchen bei großen Abfragen mit SQL-Queries oftmals schwer nachvollziehbare Fehler auf. Eine fehlgeschlagene SQL-Query lässt sich nur schwer debuggen, wenn sie nach Stunden abbricht.

Abhilfe verspricht Apache Hadoop mit einem verteilten Dateisystem (HDFS) und dem NoSQL-Ansatz und MapReduce-Algorithmus, der auch die Analyse von unstrukturierten Daten ermöglicht. Durch HDFS werden mit Commodity Hardware Datensammlungen und Analysen im Petabyte-Bereich möglich. Für die Auswertung der Datenmengen werden dadurch auch keine backup-kritischen Großrechner mehr benötigt, denn MapReduce-Jobs können auf verschiedener, räumlich getrennter Hardware zeitlich parallel erfolgen, erst die Ergebnisse werden auf einem dafür vorbestimmten Rechner (Server) zusammengetragen und weiterverarbeitet. Dabei werden Daten über die verteilte Hardware redundant gehalten, was als Data Warehouse (unter bestimmten Voraussetzungen) Ausfallsicherheit bedeutet.

Hadoop ist ein freies Open Source Framework, dessen Entwicklung von der Apache Software Foundation vorangetrieben wurde. Es wird auch von den Unternehmen eingesetzt, die heute als Pioniere von Big Data gelten, beispielsweise Facebook, Yahoo!, Twitter, Amazon und Google. Vor allem Google, Facebook und Yahoo! steuerten große Teile zu Hadoop bei.

Hadoop: Zuverlässige, verteilte und skalierbare Big-Data-Anwendungen

Das Buch Hadoop – Zuverlässige, verteilte und skalierbare Big-Data-Anwendungen vom Autor Ramon Wartala bietet einen breiten und tiefen Einblick in Hadoop und dessen modulare Nebensysteme:

  • Datenfluss-Sprachen:
    • Hive
    • Pig
    • CludBase
  • Spaltenorientierte Datenbanken
    • HBase
    • Hypertable
  • Daten-Serialisierung
    • Avro
    • Thrift
    • Google Protocol Buffer
    • Sqoop
  • Workflow-Systeme
    • Azkaban
    • Oozie
    • Cascading
    • Hue
  • ZooKeeper
  • Mahout
  • Whirr

Das Buch führt ausführlich durch die Installation von Hadoop auf einem Linux-System, leitet die ersten Schritte im Umgang mit dem verteilten Dateisystem von Hadoop (HDFS) sowie zur Implementierung von MapReduce-Algorithmen an. Auch in die empfohlene Entwicklungsumgebung Eclipse (mit Plugin) wird hinreichend eingewiesen. Zum Ende gibt der Autor noch Tipps rund um das Management und die Überwachung der MapReduce-Jobs und des Hadoop-Ökosystems. Ferner werden vier Beispiele des Hadoop-Einsatzes in der Praxis vorgestellt. Wer einen Einstieg in die Praxis von Hadoop finden möchte, kann sich Hadoop als Standalone-Anwendung installieren und die Datenverteilung simulieren, oder sich Linux-Server bei Providern anmieten.

Hadoop besteht im Wesentlichen aus Java Programmcode (von Oracle, vormals Sun Microsystems), daher ist zumindest ein Grundwissen in Java notwendig, um tiefer in Hadoop eintauchen zu können und auch um die Quellcode-Beispiele im Buch verstehen zu können. Außerdem sind Linux-Kenntnisse (insbesondere Ubuntu/Debian) vorteilhaft. Wer kein Freund der Programmiersprache Java ist, kann durch das Hadoop Streaming auch MapReduce-Funktionen in C, Ruby, PHP oder Python realisieren; Hierfür bietet Hadoop eine Standardein/ausgabe-Schnittstelle an.


Hadoop: The Definitive Guide

Die Community rund um Hadoop ist nahezu vollständig englischsprachig, für einen tieferen Einblick in Hadoop ist daher englischsprachige Literatur zu empfehlen, beispielsweise das Buch Hadoop: The Definitive Guide. Für einen ersten Einstieg in das Hadoop-System ist das obige deutschsprachige Buch jedoch absolut empfehlenswert.

Fertigungsverfahren – Lichtbogenhandschweißen

Das Lichtbogenhandschweißen (EN ISO 4063: Prozess 111) ist einfach anzuwenden und gilt als eines der ältesten, aber auch immer noch der am häufigsten eingesetzten Schweißverfahren, auch wenn es sich über die Jahrzehnte leicht verändert haben mag. Das Lichtbogenhandschweißen gehört zu den Schmelzschweißverfahren. In der DIN Norm 8580 (Einteilung der Fertigungsverfahren) ist das Lichtbogenschweißen in der Hauptgruppe 4 (Fügen) zu finden, Fügen durch Schweißen DIN 8593 Teil 6.

Das Lichtbogenhandschweißen ist ein Verfahren mit Zusatzhilfstoff in Form von abschmelzender Stabelektrode. Der Anwendungsbereich im Rahmen des Fügens erstreckt sich auf metallische Werkstoffe mit einem maximalen Kohlenstoffanteil von 0,22%, beispielsweise aus dem Grundwerkstoff S235 JRG2 DIN EN 10025.

In den Anfängen des Lichtbogenhandschweißens wurden nackte Metallelektroden oder auch Kohleelektroden als Elektroden verwendet. Heute sind Stabelektroden um den Kernstab herum mit einem mineralischen Stoff ummantelt, welcher ein Schutzgas und Schlacke freisetzen soll.
Das durch die Hitze des Schweißprozesses aus der Hülle entstandene Schutzgas schirmt das aufgeschmolzene Metall des Kernstabendes und die Schweißstelle von der Umgebungsluft ab. Die Schlacke dient der Isolation der Schweißnaht bis zur Erkaltung.
Die Umhüllung erleichtert den Schweißprozess auch aus dem Grund enorm, dass die Umhüllung zur Stabilisierung des Kernstabs und des Lichtbogens beiträgt.
Der Lichtbogen selbst bildet sich vom Kernstab aus zum Werkstück.

Durchführung des Lichtbogenschweißens

Lichtbogenhandschweißen gehört auch heute noch zu den am häufigsten eingesetzten Schweißverfahren, insbesondere im Stahl- und Rohrleitungsbau. Die Anwendung gilt als relativ materialfehlertolerant und ist bei allen Witterungsbedingungen, sogar unter Wasser, einsetzbar. Neben dem Fügen ist auch das Beschichten (Auftragsschweißen) ein Anwendungsgebiet.

→ WEITERLESEN

Fügen durch Schweißen

Unter dem Begriff Schweißen wird das Fügen bzw. Beschichten von Werkstoffen verstanden. Die Werkstoffe können sich dabei im flüssigen oder plastischen Zustand befinden. Das fügende Schweißen erzielt die Schaffung einer haltbaren Stoffverbindung mit Hilfe von Wärme und/oder Druck mit oder auch ohne zusätzliche Hilfsstoffzuführung. Das Schweißergebnis ist eine unlösbare und stoffschlüssige Verbindung. Schweißhilfsstoffe können Schutzgas, Schweißpulver oder –paste sein.

Schweißverfahren werden weltweit, vor allem im Maschinenbau und Bauwesen eingesetzt, unter Erdatmosphäre, unter Wasser und im luftleeren Raum. Geschweißt wird mit immer kompakter werdenden Handschweißanlagen bis hin zur vollautomatisierten Schweißanlage.

Die Energieträger Strom, Bewegung, Strahlung und Strom können für Schweißverfahren genutzt werden. So kommt Energie durch Gasverbrennung, Plasmalichtbögen, elektrische Lichtbögen, Laser, Druckkraft oder Ultraschall oder eine Kombination aus diesen zum Einsatz. Schweißen ist eines von acht Fügeverfahren in der Fertigungstechnik und konkurriert unter bestimmten Voraussetzungen insbesondere mit dem Löten und Kleben.

ONr.* HAUPTGRUPPE 4 : FÜGEN
4.1 Zusammensetzen / DIN 8593 Teil 1
4.2 Füllen / DIN 8593 Teil 2
4.3 Anpressen, Einpressen / DIN 8593 Teil 3
4.4 Fügen durch Urformen / DIN 8593 Teil 4
4.5 Fügen durch Umformen / DIN 8593 Teil 5
4.6 Fügen durch Schweißen / DIN 8593 Teil 6
4.7 Fügen durch Löten / DIN 8593 Teil 7
4.8 Fügen durch Kleben / DIN 8593 Teil 8
4.9 Textiles Fügen / DIN 8593 Teil 9

Schweißen kann neben dem Zweck des Fügens auch andere Zwecke erfüllen. Laut Einteilung nach DIN Normen darunter beispielsweise auch das Beschichten durch Schweißen (5.5).

Industrie 4.0 – Konzepte und Herausforderungen

Das Zukunftsprojekt Industrie 4.0 wird unsere Industrie verändern. Produktions- und Lieferzeiten werden durch intelligente Steuerung verkürzt und hinsichtlich des Ressourceneinsatzes optimiert werden. Die virtuelle Realität wird Produkte von noch besserer Qualität schaffen, bei kostengünstigerer Produktentwicklung, die näher an die Fertigungsprozesse rücken wird. Durch das Internet der Dinge wird die Produktion und Logistik zuverlässiger sowie für Kunden transparenter werden. Insgesamt wird die Industrie 4.0 anders als die vorangegangenen Industrierevolutionen nicht nur insgesamt die Produktivität, sondern vor allem die Flexibilität erhöhen, bis hin zur kundenindividuellen Massenproduktion.

Industrie 4.0

 

Die Fabrik 4.0 soll…

  1. sich selbst digital abbilden und simulieren können und gleichzeitig möglichst mit der Realität verschmelzen,
  2. Produktionssysteme, Produkte und Dienste mit Informationen ausstatten und miteinander kommunizieren lassen,
  3. durch Datenanalysen in ihrer Situation aufgenommen, überwacht und im Generellen optimiert werden,
  4. sich darauf aufbauend durch künstliche Intelligenz selbst steuern und im Speziellen auch selbst optimieren können.

→ WEITERLESEN

Transportprotokolle – TCP und UDP

Die TCP/IP ist die Protokollfamilie, über die grundsätzlich jeglicher Datenverkehr auf der Datenautobahn Internet abgewickelt wird. TCP/IP basiert auf einem eigenen Referenzmodell und setzt sich aus den Protokollen Transmission Control Protocol (TCP) und Internet Protocol (IP) zusammen. TCP ist ein Protokoll der Transportschicht im OSI-Referenzmodell und wurde bei der Entwicklung auf zuverlässige bzw. verlustfreie Übertragung von Nutzdaten ausgerichtet.

TCP und IP errichten im Zusammenspiel eine Punkt-zu-Punkt-Verbindung über Sockets. Über IP-Adressen können Endgeräte zum Zeitpunkt der Verbindung eindeutig identifiziert werden. IP-Adressen alleine reichen jedoch nicht aus, da die meisten Endgeräte (z. B. ein Tablet-PC) gleichzeitig eine Vielzahl an Verbindungen (über eine IP-Adresse) aufbauen können. Ein Verbindungspunkt wird als Socket bezeichnet und erst durch weitere Adress-Zusätze definiert: Neben den IP-Adressen (Sender, Empfänger) gehören zu einem Socket auch Portnummern (auf der Anwendungsschicht, z. B. 80 für HTTP-Verbindungen) für Sender und Empfänger sowie Angaben über welches Protokoll kommuniziert werden soll. Ein Socket ist demnach ein Verbindungspunkt, der Sender- und Empfänger-Adressen sowie die Übertragungsform kennt. Die socket-bezogene Kommunikation geschieht auf Ebene der Transportschicht. Dennoch muss TCP nicht zwangsläufig mit IP zusammen in Erscheinung treten, denn TCP-Pakete können auch über andere Netzwerkprotokolle (Vermittlungsschicht) übertragen werden.

Das User Datagram Protocol (UDP) ist ebenfalls wie TCP ein Transportprotokoll für Netzwerkverbindungen, steht jedoch nicht in direkter Konkurrenz zum TCP, da es einen ganz anderen Zweck erfüllt -> Die schnellstmögliche Übertragung von Nutzdaten.

Da sowohl TCP als auch UDP auch mit anderen Protokollen der Vermittlungsschicht zusammenarbeiten können, also nicht nur auf das Netzwerkprotokoll IP angewiesen sind, können TCP und UDP auch als unabhängig von den Protokollfamilien TCP/IP bzw. UDP/IP betrachtet werden.

→ WEITERLESEN

Workflowmanagement -Systeme

Das Workflowmanagement (zu Deutsch etwa: Verwaltung von Arbeitsabläufen) steht dem (Geschäfts-)Prozessmanagement sehr nahe. Ziel des Workflowmanagements ist die Koordination von Prozessen über Workflowmanagementsysteme, indem sie die Ausführungsreihenfolge der Prozesse oder der Aktivitäten von Prozessen überwachen, Daten für die Ausführung von Aktivitäten bereitstellen, anstehende Aktivitäten menschlichen oder technischen Bearbeitern zur Ausführung zuordnen und Anwendungssysteme für die Bearbeitung zur Verfügung stellen.

Während die Steigerung der Produktivität im Produktionsbereich durch Prozessmanagement bereits früh erschlossen wurde, blieben Produktivitätssteigerungen im Bürobereich verhältnismäßig lange aus. In den 1980er Jahren begann sich mit der Office Automation und dem Ziel der computergesteuerten Durchführung wiederkehrender Vorgänge auch im Bereich der Büroarbeit Prozessmanagement durchzusetzen. Workflowmanagement ist jedoch nicht nur eine Büroangelegenheit, sondern dringt auch bis tief in die Produktionsplanung und -steuerung vor. Beispielsweise sind Stücklisten, Arbeitspläne, Produktionspläne usw. Arbeitsmittel und Kommunikationsmittel zwischen der Logistik- bzw. Produktionsplanung/-steuerung, die überwiegend als Bürotätigkeit geschieht, und der ausführenden Produktion. Auch die Erfassung der Arbeitszeiten und -tätigkeiten findet zwischen der Personalwirtschaft/Buchhaltung und der Produktion statt. Wann welche Arbeitsmitteln an welchem Ort bzw. bei welcher Person sein müssen und wer wann und wo welche Arbeitsschritte auszuführen hat, entscheiden Workflowmanagementsysteme.

→ WEITERLESEN

Digitale Fabrik – Fabrikplanung mit mordernen IT-Lösungen

Die Reallayoutplanung ist eine der arbeitsintensivsten Phasen der Fabrikplanung und wurde bis in die 1990er Jahre noch vorwiegend mit technischen Zeichnungen auf Papier umgesetzt. Heute gibt es sehr viel Software, die die Möglichkeit der Nutzung einer virtuellen Realität (VR) für die Fabrik- und Fertigungsplanung schafft. Virtuelle Realität ist in der Produktentwicklung als CAD und digital Mock-Up (digitales Versuchsmodell) bekannt, für die Fabrikplanung wird virtuelle Realität unter dem Konzept einer digitalen Fabrik eingesetzt. Eine digitale Fabrik ist eine virtuelle, zwei- oder drei-dimensionale Darstellung der Fabrik zur Durchführung einer Realplanung und testgetriebenen Simulation, insbesondere für Materialflussanalysen.

Nachfolgende Abbildungen entstammen der Software visTABLE (weitere Informationen zur Software unten im Artikel).

→ WEITERLESEN