Kunststoffe zählen aufgrund ihres besonderen Charakters zu den komplexesten aber auch vielfältigsten Werkstoffen unserer Zeit. Seit ihrer Erfindung vor gut 100 Jahren unterliegen sie einer permanenten Genese, wodurch sich ihr Anwendungsspektrum kontinuierlich weiterentwickelt. Sie besitzen im Allgemeinen den Vorteil einer kostengünstigen Herstellung sowie Verarbeitung – ihre größten Nachteile stellen dagegen mangelhafte Nachhaltigkeit und Umweltbelastungen durch schlechte Abbaubarkeit sowie Emissionen schädlicher Stoffe dar. Aus diesem Grund kommt den sogenannten Biokunststoffen eine immer größere Bedeutung zu, welche in Zukunft die klassischen Kunststoffe zum Teil ersetzen sollen.
Technik
Process Mining – Datengetriebene Prozessanalyse
Effiziente Abläufe, Prozesstransparenz und Risikoerkennung sind der Schlüsselfaktor für eine erfolgreiche Organisation. Nicht ohne Grund beschäftigen größere Unternehmen eigene Abteilungen mit dem Auftrag zur Prozessoptimierung und der Revision. Die komplette Prozesskette – z. B. im Einkauf von der Bedarfsentstehung bis zur Zahlung – ist auf operativer und strategischer Arbeitsebene regelmäßig zu hinterfragen. Infolge der erhöhten Unterstützung der Prozessverarbeitung durch ERP– und andere IT-Systeme sowie der steigenden Abhängigkeiten inner- und außerbetrieblicher Prozesse, nimmt der Aufwand für das Monitoring von Geschäftsprozessen rasant zu.
Structured Storage / NoSQL [Teil II/II]
NoSQL ist ein aktueller Trendbegriff und steht für Datenbanken, die auch unstrukturierte Daten optimal und in großen Mengen verarbeiten können. Der Begriff NoSQL ist allerdings irreführend und stattdessen besser von Structured Storage gesprochen werden, denn dieses Akronym steht für Not only SQL. NoSQL bezeichnet zudem nicht ein einziges Datenbankmodell, sondern sehr viele unterschiedliche, die in vier Kategorien unterschieden werden können:
NoSQL-Datenbanken im Vergleich zu SQL-Datenbanken [Teil I/II]
Big Data ist ein aktueller Wirtschaftstrend, der zum Kerngeschäft vieler neuer Start-Ups ist und zu gleich den Konzernen der traditionellen Industrie Kopfzerbrechen bereitet, aber auch als Hoffnung auf neue Geschäftsmodelle gesehen wird. Dabei wird Big Data in der Regel nicht von der IT-Abteilung, sondern von Fachbereichen getrieben. Das macht diesen Trend insbesondere für Wirtschaftsinformatiker sehr bedeutend, denn diese können mit technischen Wissen den Fachabteilungen bei der Umsetzung von Big Data Projekten nicht nur behilflich sein, sondern dank des Schnittstellenwissens direkt die Projektleitung übernehmen, wenn Sie über technisches Wissen um die Verarbeitung von sehr großen Datenmengen verfügen.
Planung von Elektroinstallationen
Elektroinstallation planen: Strom im Innen- und Außenbereich
Zur fachgerechten Installation von elektrischen Leitungen und Geräten gehört weitaus mehr als sich nur zu überlegen, wo die Steckdosen platziert werden sollen. Die Planung und vorläufige Skizzierung jeder Installation bezieht auch die Art der Benutzung des jeweiligen Raumes mit ein, ebenso wie berücksichtigt werden muss welche Geräte im Endeffekt tatsächlich verwendet werden, und das sind die ersten Faktoren welche es zu beachten gilt. Auch die persönlichen Ansprüche spielen eine große Rolle. Manche Nutzer wollen schlichtweg Steckdosen zum Betrieb allgemein bekannter Geräte, andere verlangen nach automatischen Schiebetüren mit Bewegungssensor.
Schließkraftmessung – Sicherheit für Türen-/Torsysteme
In unserer modernen Infrastruktur sind automatisch betriebene Türen und Tore nicht mehr wegzudenken, denn diese ermöglichen eine effiziente Logistik, ergonomisches Arbeiten und schnelle Reaktionszeiten von Rettungsdiensten. Automatische Türen und Tore können jedoch auch zur Gefahr werden. Damit die Sicherheit gewährleistet bleibt, sind diese jährlich zu warten und eine Schließkraftmessung durchzuführen.
Wartung von Industrietoren und Türen im Verkehrswesen: Schließkraftmessung bei kraftbetätigten Toren
Damit Unfälle am Arbeitsplatz sich so selten wie möglich ereignen und, sollte es zu einem Unfall kommen, wenigstens allzu schwere Verletzungen vermieden werden, hat der Gesetzgeber einige Regelungen bezüglich des betrieblichen Alltags aufgestellt. Dem Gesetzgeber ist daran gelegen, dass Gefahrenquellen vermieden werden und durch regelmäßige Wartungsarbeiten sichergestellt wird, dass betriebliches Equipment funktionstüchtig und gefahrlos in Betrieb genommen werden kann.

Infografik zur Industrie 4.0
Industrie 4.0: Von der Dampfmaschine zur Smart Factory
Die Industrie 4.0 hat in moderne Werkshallen Einzug gehalten. Die IT verschmilzt zunehmend mit Fabriken, Produktionsanlagen und Logistikprozessen. Aufgrund des massiven Bedeutungszuwachses der intelligenten Fabrik (Smart Factory) für den deutschsprachigen Raum hat die tarakos GmbH eine Infografik erstellt, um den Weg von mit Wasser und Dampf betriebenen Produktionsanlagen hin zu zur vierten industriellen Revolution aufzuzeigen.
Während die Internet-Gemeinschaft noch über das sogenannte Web 3.0 diskutieren, versucht die Industrie inzwischen in der Version Nr. 4 anzukommen. Gemeint sind damit neben der fortschreitenden industriellen Entwicklung, auch die Veränderungen und Schwierigkeiten der Produktions- und Arbeitswelt. Die Globalisierung stellt in diesem Zusammenhang die Industrie vor neue Herausforderungen.
Die Infografik finden Sie weiter unten in diesem Artikel!Big Data Analytics mit Hadoop – Buchempfehlung
Big Data ist eines der Buzzwords dieser Jahre und steht für das Potenzial der heranwachsenden Datenmengen für Wirtschaft und Wissenschaft. Das Potenzial ergibt sich aus dem Erfassen und Sammeln dieser Datenmengen aus den unterschiedlichsten Quellen. Die Nutzung des Potenzials erfolgt jedoch erst mit der Datenanalyse, daher wird oftmals zwar von Big Data geredet, jedoch Big Data Analytics gemeint.
Das in der Praxis am häufigsten vorkommende Datenbankmodell ist die relationale Datenbank, die Daten in untereinander verknüpfte Tabellenstrukturen speichert. Relationale Datenbanken sind zwar nicht direkt auf eine bestimmte Größe beschränkt, so begrenzt ausschließlich das Betriebssystem die Größe einer MySQL-Datenbank, dennoch tauchen bei großen Abfragen mit SQL-Queries oftmals schwer nachvollziehbare Fehler auf. Eine fehlgeschlagene SQL-Query lässt sich nur schwer debuggen, wenn sie nach Stunden abbricht.
Abhilfe verspricht Apache Hadoop mit einem verteilten Dateisystem (HDFS) und dem NoSQL-Ansatz und MapReduce-Algorithmus, der auch die Analyse von unstrukturierten Daten ermöglicht. Durch HDFS werden mit Commodity Hardware Datensammlungen und Analysen im Petabyte-Bereich möglich. Für die Auswertung der Datenmengen werden dadurch auch keine backup-kritischen Großrechner mehr benötigt, denn MapReduce-Jobs können auf verschiedener, räumlich getrennter Hardware zeitlich parallel erfolgen, erst die Ergebnisse werden auf einem dafür vorbestimmten Rechner (Server) zusammengetragen und weiterverarbeitet. Dabei werden Daten über die verteilte Hardware redundant gehalten, was als Data Warehouse (unter bestimmten Voraussetzungen) Ausfallsicherheit bedeutet.
Hadoop ist ein freies Open Source Framework, dessen Entwicklung von der Apache Software Foundation vorangetrieben wurde. Es wird auch von den Unternehmen eingesetzt, die heute als Pioniere von Big Data gelten, beispielsweise Facebook, Yahoo!, Twitter, Amazon und Google. Vor allem Google, Facebook und Yahoo! steuerten große Teile zu Hadoop bei.
Hadoop: Zuverlässige, verteilte und skalierbare Big-Data-Anwendungen
Das Buch Hadoop – Zuverlässige, verteilte und skalierbare Big-Data-Anwendungen vom Autor Ramon Wartala bietet einen breiten und tiefen Einblick in Hadoop und dessen modulare Nebensysteme:
- Datenfluss-Sprachen:
- Hive
- Pig
- CludBase
- Spaltenorientierte Datenbanken
- HBase
- Hypertable
- Daten-Serialisierung
- Avro
- Thrift
- Google Protocol Buffer
- Sqoop
- Workflow-Systeme
- Azkaban
- Oozie
- Cascading
- Hue
- ZooKeeper
- Mahout
- Whirr
Das Buch führt ausführlich durch die Installation von Hadoop auf einem Linux-System, leitet die ersten Schritte im Umgang mit dem verteilten Dateisystem von Hadoop (HDFS) sowie zur Implementierung von MapReduce-Algorithmen an. Auch in die empfohlene Entwicklungsumgebung Eclipse (mit Plugin) wird hinreichend eingewiesen. Zum Ende gibt der Autor noch Tipps rund um das Management und die Überwachung der MapReduce-Jobs und des Hadoop-Ökosystems. Ferner werden vier Beispiele des Hadoop-Einsatzes in der Praxis vorgestellt. Wer einen Einstieg in die Praxis von Hadoop finden möchte, kann sich Hadoop als Standalone-Anwendung installieren und die Datenverteilung simulieren, oder sich Linux-Server bei Providern anmieten.
Hadoop besteht im Wesentlichen aus Java Programmcode (von Oracle, vormals Sun Microsystems), daher ist zumindest ein Grundwissen in Java notwendig, um tiefer in Hadoop eintauchen zu können und auch um die Quellcode-Beispiele im Buch verstehen zu können. Außerdem sind Linux-Kenntnisse (insbesondere Ubuntu/Debian) vorteilhaft. Wer kein Freund der Programmiersprache Java ist, kann durch das Hadoop Streaming auch MapReduce-Funktionen in C, Ruby, PHP oder Python realisieren; Hierfür bietet Hadoop eine Standardein/ausgabe-Schnittstelle an.
Fertigungsverfahren – Lichtbogenhandschweißen
Das Lichtbogenhandschweißen (EN ISO 4063: Prozess 111) ist einfach anzuwenden und gilt als eines der ältesten, aber auch immer noch der am häufigsten eingesetzten Schweißverfahren, auch wenn es sich über die Jahrzehnte leicht verändert haben mag. Das Lichtbogenhandschweißen gehört zu den Schmelzschweißverfahren. In der DIN Norm 8580 (Einteilung der Fertigungsverfahren) ist das Lichtbogenschweißen in der Hauptgruppe 4 (Fügen) zu finden, Fügen durch Schweißen DIN 8593 Teil 6.
Das Lichtbogenhandschweißen ist ein Verfahren mit Zusatzhilfstoff in Form von abschmelzender Stabelektrode. Der Anwendungsbereich im Rahmen des Fügens erstreckt sich auf metallische Werkstoffe mit einem maximalen Kohlenstoffanteil von 0,22%, beispielsweise aus dem Grundwerkstoff S235 JRG2 DIN EN 10025.
In den Anfängen des Lichtbogenhandschweißens wurden nackte Metallelektroden oder auch Kohleelektroden als Elektroden verwendet. Heute sind Stabelektroden um den Kernstab herum mit einem mineralischen Stoff ummantelt, welcher ein Schutzgas und Schlacke freisetzen soll.
Das durch die Hitze des Schweißprozesses aus der Hülle entstandene Schutzgas schirmt das aufgeschmolzene Metall des Kernstabendes und die Schweißstelle von der Umgebungsluft ab. Die Schlacke dient der Isolation der Schweißnaht bis zur Erkaltung.
Die Umhüllung erleichtert den Schweißprozess auch aus dem Grund enorm, dass die Umhüllung zur Stabilisierung des Kernstabs und des Lichtbogens beiträgt.
Der Lichtbogen selbst bildet sich vom Kernstab aus zum Werkstück.
Lichtbogenhandschweißen gehört auch heute noch zu den am häufigsten eingesetzten Schweißverfahren, insbesondere im Stahl- und Rohrleitungsbau. Die Anwendung gilt als relativ materialfehlertolerant und ist bei allen Witterungsbedingungen, sogar unter Wasser, einsetzbar. Neben dem Fügen ist auch das Beschichten (Auftragsschweißen) ein Anwendungsgebiet.