www.der-wirtschaftsingenieur.de

- Generalist zwischen Wirtschaft und Technik



Leistungsstörung

Veröffentlicht in Wirtschaftsrecht von Redakteur am 5. Feb. 2015

Leistungsstörung ist der rechtswissenschaftlicher Begriff für eine Pflichtverletztung eines Schuldners in einem Schuldverhältnis. Die Leistungsstörung lässt sich in der Ursache in drei Bereiche unterteilen:

(mehr…)


Schließkraftmessung – Sicherheit für Türen-/Torsysteme

Veröffentlicht in Produktgestaltung, Qualitätsmanagement, Technik, Technische Mechanik von Redakteur am 28. Dez. 2014

In unserer modernen Infrastruktur sind automatisch betriebene Türen und Tore nicht mehr wegzudenken, denn diese ermöglichen eine effiziente Logistik, ergonomisches Arbeiten und schnelle Reaktionszeiten von Rettungsdiensten. Automatische Türen und Tore können jedoch auch zur Gefahr werden. Damit die Sicherheit gewährleistet bleibt, sind diese jährlich zu warten und eine Schließkraftmessung durchzuführen.

Wartung von Industrietoren und Türen im Verkehrswesen: Schließkraftmessung bei kraftbetätigten Toren

Damit Unfälle am Arbeitsplatz sich so selten wie möglich ereignen und, sollte es zu einem Unfall kommen, wenigstens allzu schwere Verletzungen vermieden werden, hat der Gesetzgeber einige Regelungen bezüglich des betrieblichen Alltags aufgestellt. Dem Gesetzgeber ist daran gelegen, dass Gefahrenquellen vermieden werden und durch regelmäßige Wartungsarbeiten sichergestellt wird, dass betriebliches Equipment funktionstüchtig und gefahrlos in Betrieb genommen werden kann.


Tore beim Rettungsdienst - Foto: ASSA ABLOY Entrance Systems
Das klingt freilich logisch, nur leider zeigt die Praxis, dass es des Öfteren bei für den Betrieb als selbstverständlich betrachteten Bestandteilen zu Vernachlässigungen hinsichtlich der Wartungspflicht kommen kann. Besonders stiefmütterlich werden beispielsweise Industrietore und Torsysteme behandelt. Die Industrietore vieler Betriebe überschreiten die zugelassenen Werte um ein Vielfaches. Darauf hat der Gesetzgeber reagiert und 2013 in der Arbeitsstättenregel ASR A1.7 neue und strengere Regelungen, was die Schließkräfte von Industrietoren angeht, festgesetzt. (mehr…)


Data Analytics mit R – Buchempfehlung

Veröffentlicht in Big Data Analytics, Bücher, Integration, Wirtschaft von Redakteur am 18. Dez. 2014

Big Data Analytics ist der Trend für das Jahr 2015. Im Unterschied zum traditionellen Business Intelligence, bezieht Big Data Analytics alle unternehmensinternen Daten und externe Datenquellen ein. Externe Datenquellen können beispielsweise Social Media Plattformen, Börsen und Handelsplattformen sowie Behörden (Open Data) sein. Auch der aktuelle Trend zur Industrie 4.0 (Smart Factory) bedient sich dieser Analyseverfahren.

Mit diesen Trends erlebt auch die Programmiersprache für statistische Datenanalyse R einen enormen Aufschwung. Mit R lassen sich einfache statistische Datenanalysen durchführen oder automatisierte Analyseverfahren entwickeln, aber auch Predictive Analytics wird häufig mit R als Analysekern realisiert. R ist zudem grundsätzlich kostenlos und Open Source. Übrigens zählen R-Programmierer zu den Entwicklern mit den höchsten Stundensätzen bzw. Gehältern und IT-Experten.

Nachfolgend zwei ausgewählte Buchempfehlungen für den Einstieg in die Programmierung und Analyse mit R und zur Erweiterung von bestehenden R-Kenntnissen.



Programmieren Mit R (Statistik Und Ihre Anwendungen) (German Edition): 3. Auflage

Das Buch Programmieren mit R von Uwe Liges mit einer schrittweisen Einführung in R von Anfang an. Mit der Nutzung von R als Taschenrechner wird leicht verständlich in R eingewiesen. Wer schon weiter ist oder die 225 Seiten des Buches durchgearbeitet hat,  versteht es bereits, objektorientierte Programme in R zu entwickeln, statistische Modelle zu entwickeln, lineare Optimierungen durchzuführen, Effizienzanalysen (z. B. Laufzeitanalysen) zu betreiben und sogar eigene Grafikfunktionen zu definieren. Das Buch umfasst die komplette Mächtigkeit in Bezug auf die Mathematik. Der Autor schafft es dabei, anfangs sehr didaktisch vorzugehen, ab ca. dem ersten Drittel jedoch die Themen klar voneinander zu trennen, so dass das Buch auch als Nachschlagewerk taugt. Eine ganz klare Empfehlung für Einsteiger und auch Fortgeschrittene!

 



Datendesign mit R: 100 Visualisierungsbeispiele

Das Buch Datendesign mit R vom Autor Thomas Rahlf geht die Sache ganz anders an, als das oben genannte allgemeine Einführungs- und Nachschlagewerk für R. Der Autor stellt auf den ersten Seiten die Gestaltungsmöglichkeiten von R für Grafiken und Diagramme vor, wobei die Gestaltungsvorschläge prinzipiell unabhängig von dieser Programmiersprache sind und allgemeine Gestaltungstipps für Analyse-Reporting sind. Das Buch beinhaltet auf wenigen Seiten zwar auch noch eine kleine Einführung in R, diese ist jedoch nur ein kleines Beiwerk. Der Kern des Buches, und der tatsächliche Kaufgrund, sind die 100 Visualisierungsbeispiele, die tatsächlich visuell überzeugen, verständlich aufbereitet und dabei auch noch schön anzusehen sind. Dem Leser werden Möglichkeiten der Datenvisualisierung aufgezeigt, stets mit einem Anwendungsfall und echten (downloadbaren) Daten im Hintergrund. Dies macht nicht nur Statistik verständlicher, sondern der Leser erhält einen Eindruck, welche Diagramme in welchem Kontext die ideale Wahl sind, beispielsweise Balkendiagramme, Säulendiagramme, Kuchendiagramme, Histogramme, Verteilungsdiagramme, Lorenzkurven, Liniendiagramme, Zeitreihen, Radialpolygone oder Heatmaps.

Wer die Visualisierungen aus dem Buch nachbauen möchte, muss nicht unbedingt den Quellcode aus dem Buch abtippen, sondern kann diesen auch aus dem (als Download-Code) beigelegten eBook kopieren.


Wissensmanagementsoftware

Veröffentlicht in Arbeitswissenschaft, Projektmanagement von Redakteur am 15. Dez. 2014

Zu einem guten Personalmanagement zählt nicht nur das Recruiting, also die Neuanstellung von Mitarbeitern, sondern – und dies wird tendenziell oft vergessen – auch die Personalentwicklung. Mitarbeiterqualifizierung sichert zukünftige Wettbewerbsfähigkeit, allen Risiken zum Trotz. Woran aber die wenigsten Unternehmen denken, ist Nachhaltigkeit von Wissen und Erkenntnisse, die Mitarbeiter im Namen des Unternehmens generiert haben, Stichwort Wissensmanagement. Erst mit ausgereiftem Wissensmanagement, können Mitarbeiter den höchsten Wirkungsgrad für das Unternehmen erreichen.

Wissensmanagement ist wichtig für den Erfolg jedes Unternehmens

Wenn man von Wissensmanagement spricht, spricht man vom Erwerb, der weiteren Entwicklung, dem Transport, der Speicherung und vor allem der Nutzung von Wissen. Vor allem in Unternehmen ist Wissensmanagement ein maßgeblicher Faktor, der den Erfolg oder Misserfolg maßgeblich beeinflusst. Um nachhaltig im Wettbewerb zu bestehen, müssen alle Ressourcen gezielt und optimal eingesetzt werden. Die wichtigste Ressource in jedem Unternehmen sind die Mitarbeiter. Diese sind der Motor für Erfolg und deren Wissen sollte dementsprechend genutzt und vor allem gefördert werden. Und genau hier liegt das Problem vieler Unternehmen, denn das Wissensmanagement wird teilweise nur unzureichend verfolgt. Ein Grund dafür ist Konkurrenzdenken unter den Mitarbeitern, insbesondere wenn Beförderungen in Aussicht stehen. Damit stellen Mitarbeiter ihre eigenen Ziele über jene des Unternehmens, es ist jedoch die gemeinsame Nutzung des Wissens aller Mitarbeiter notwendig, um nachhaltigen Unternehmenserfolg zu erreichen. Aus diesem Grund ist es unbedingt notwendig, das Wissen jedes Mitarbeiters produktiv zu verarbeiten und zu behalten.
wissensmanagementintelligence (mehr…)


Infografik zur Industrie 4.0

Veröffentlicht in Technik, Trends & Zukunft von Redakteur am 5. Dez. 2014

Industrie 4.0: Von der Dampfmaschine zur Smart Factory

Die Industrie 4.0 hat in moderne Werkshallen Einzug gehalten. Die IT verschmilzt zunehmend mit Fabriken, Produktionsanlagen und Logistikprozessen. Aufgrund des massiven Bedeutungszuwachses der intelligenten Fabrik (Smart Factory) für den deutschsprachigen Raum hat die tarakos GmbH eine Infografik erstellt, um den Weg von mit Wasser und Dampf betriebenen Produktionsanlagen hin zu zur vierten industriellen Revolution aufzuzeigen.

Während die Internet-Gemeinschaft noch über das sogenannte Web 3.0 diskutieren, versucht die Industrie inzwischen in der Version Nr. 4 anzukommen. Gemeint sind damit neben der fortschreitenden industriellen Entwicklung, auch die Veränderungen und Schwierigkeiten der Produktions- und Arbeitswelt. Die Globalisierung stellt in diesem Zusammenhang die Industrie vor neue Herausforderungen.

Die Infografik finden Sie weiter unten in diesem Artikel! (mehr…)

Wie schreibe ich eine Doktorarbeit? – Buchempfehlung

Veröffentlicht in Bücher, Integration, Karriere, Studium von Redakteur am 29. Okt. 2014

Die Dissertation ist eine anspruchsvolle wissenschaftliche Arbeit,  bei der Fehler idealerweise im Vorfeld zu vermeiden sind. Insbesondere bei der Erkenntnisgewinnung durch die statistische Auswertung von Daten können sich leicht Fehler einschleichen, vor allem dann, wenn der Doktorand im Umgang mit Statistik unerfahren ist.


Wie schreibe ich eine Doktorarbeit? (Springer-Lehrbuch)

(mehr…)


Energiemanagment in der Industrie 4.0

Veröffentlicht in Trends & Zukunft von Redakteur am 26. Sep. 2014

Sogenannte M2M-Lösungen (Machine to Machine) erhalten in dem sekundären Wirtschaftssektor unter dem Oberbegriff Industrie 4.0 eine immer wichtigere Bedeutung, da neue Potenziale für Unternehmen freigesetzt werden, die noch vor wenigen Jahren verborgen geblieben waren. Dabei steht M2M in erster Linie für einen automatisierten Informationsaustausch zwischen mindestens zwei Maschinen. Dieser kann beispielsweise zwischen Endgeräten, Produktionsmaschinen, Automaten, Kraftfahrzeugen oder mit einer zentralen Leitstelle erfolgen. Wird das Internet als Verbindungselement zwischen den Maschinen bzw. Endgeräten genutzt, wird auch vom Internet der Dinge (Internet of Things) gesprochen. Während lokale M2M-Lösungen z. B. mit RFID arbeiten, werden beim Internet der Dinge verschiedenen WAN-Zugangsnetze als Kommunikationsweg genutzt. M2M-Lösungen verknüpfen somit die Informations- mit der Kommunikationstechnik.

Energieeffiziente Gestaltung der Prozesse

Mithilfe derartiger Lösungen können Arbeitsabläufe kostengünstig rationalisiert und Produktivitätssteigerungen erreicht werden. Sobald zum Beispiel Verkaufsautomaten mit einem Zentralcomputer verbunden werden, können sie diesem selbständig mitteilen, welche Behälter um wie viel Bestand befüllt werden müssen. Eine solche kontinuierliche Fernüberwachung der Verkaufsautomaten beugt längeren Ausfallzeiten vor und verhindert, dass der Automatenbetreiber eine direkte und regelmäßige Kontrolle an dem Automaten vornehmen muss. Die entstehende Rationalisierung der Geschäftsprozesse und die damit verbundenen Kosteneinsparungen weisen für die Industrie ein immenses Marktpotenzial auf.

M2M - Industrie 4.0 - Smart Grid

Energiemanagement und M2M

Vor allem im Energiemanagement spielt M2M heute eine ungemein wichtige Rolle. Da die Nachfrage an Energie kontinuierlich zunimmt, steigen die Energiekosten für die Verbraucher als auch für die Industrie. Gleichzeitig ist ein großer Energieverbrauch mit einer einhergehenden Umweltbelastung verbunden, weshalb die Kostensenkung und Nachhaltigkeit durch die Benennung und Aufklärung des Energieverbrauchs sämtlicher Verbraucher optimiert werden kann. Dies kann durch sogenannte Energy-Konzepte erreicht werden. Ein solches Energy-Konzept ist zum Beispiel Smart Monitor, Smart Mobile und Smart Complete. Vor allem die letztere Energy-Methode bedient sich der M2M-Technologie und ist für intelligente Stromnetze, sogenannte Smart Grids, bekannt. Das Smart Complete-Energy-Konzept ist ein Komplettsystem der Stromablesung, dass intelligente Stromnetze automatisiert. Intelligente Stromnetze beinhalten Stromzähler, welche den tatsächlichen Energieverbrauch in Echtzeit anzeigen und ihn automatisch an den Energieversorger und den Verbraucher übermitteln. Weiterhin ermöglichen intelligente Stromnetze (über ein benutzerfreundliches Kundenportal individuelle Informationen für energiebewusstes sowie -effizientes Wohnen. So soll gewährleistet werden, dass Smart Complete bei maximaler Effizienz ein Höchstmaß an Transparenz aufweist. Große Telekommunikationsunternehmen wie Telefónica setzen in Zeiten der Industrie 4.0 bereits auf Smart Meter Konzeptlösungen (Klick für Infos!).

Für Unternehmen ist ein Smart Complete-System besonders vorteilhaft, da es eine ganzheitliche Smart Metering-Lösung für den Energievorsorgemarkt darstellt, die Verarbeitung von Daten sämtlicher Energiearten ermöglicht, einen Keep Alive-Service für eine automatische Gatewaykontrolle inklusive einer Alarmfunktion beinhaltet und viele weitere Vorteile umfasst, die den Rationalisierungsprozess hinsichtlich des Energiebedarfs in einem Unternehmen begünstigen.

 


Big Data Analytics mit Hadoop – Buchempfehlung

Veröffentlicht in Big Data Analytics, Bücher, Datenbanken, Informatik, Trends & Zukunft von Redakteur am 28. Jan. 2014

Big Data ist eines der Buzzwords dieser Jahre und steht für das Potenzial der heranwachsenden Datenmengen für Wirtschaft und Wissenschaft. Das Potenzial ergibt sich aus dem Erfassen und Sammeln dieser Datenmengen aus den unterschiedlichsten Quellen. Die Nutzung des Potenzials erfolgt jedoch erst mit der Datenanalyse, daher wird oftmals zwar von Big Data geredet, jedoch Big Data Analytics gemeint.

Das in der Praxis am häufigsten vorkommende Datenbankmodell ist die relationale Datenbank, die Daten in untereinander verknüpfte Tabellenstrukturen speichert. Relationale Datenbanken sind zwar nicht direkt auf eine bestimmte Größe beschränkt, so begrenzt ausschließlich das Betriebssystem die Größe einer MySQL-Datenbank, dennoch tauchen bei großen Abfragen mit SQL-Queries oftmals schwer nachvollziehbare Fehler auf. Eine fehlgeschlagene SQL-Query lässt sich nur schwer debuggen, wenn sie nach Stunden abbricht.

Abhilfe verspricht Apache Hadoop mit einem verteilten Dateisystem (HDFS) und dem NoSQL-Ansatz und MapReduce-Algorithmus, der auch die Analyse von unstrukturierten Daten ermöglicht. Durch HDFS werden mit Commodity Hardware Datensammlungen und Analysen im Petabyte-Bereich möglich. Für die Auswertung der Datenmengen werden dadurch auch keine backup-kritischen Großrechner mehr benötigt, denn MapReduce-Jobs können auf verschiedener, räumlich getrennter Hardware zeitlich parallel erfolgen, erst die Ergebnisse werden auf einem dafür vorbestimmten Rechner (Server) zusammengetragen und weiterverarbeitet. Dabei werden Daten über die verteilte Hardware redundant gehalten, was als Data Warehouse (unter bestimmten Voraussetzungen) Ausfallsicherheit bedeutet.

Hadoop ist ein freies Open Source Framework, dessen Entwicklung von der Apache Software Foundation vorangetrieben wurde. Es wird auch von den Unternehmen eingesetzt, die heute als Pioniere von Big Data gelten, beispielsweise Facebook, Yahoo!, Twitter, Amazon und Google. Vor allem Google, Facebook und Yahoo! steuerten große Teile zu Hadoop bei.

Hadoop: Zuverlässige, verteilte und skalierbare Big-Data-Anwendungen

Das Buch Hadoop – Zuverlässige, verteilte und skalierbare Big-Data-Anwendungen vom Autor Ramon Wartala bietet einen breiten und tiefen Einblick in Hadoop und dessen modulare Nebensysteme:

  • Datenfluss-Sprachen:
    • Hive
    • Pig
    • CludBase
  • Spaltenorientierte Datenbanken
    • HBase
    • Hypertable
  • Daten-Serialisierung
    • Avro
    • Thrift
    • Google Protocol Buffer
    • Sqoop
  • Workflow-Systeme
    • Azkaban
    • Oozie
    • Cascading
    • Hue
  • ZooKeeper
  • Mahout
  • Whirr

Das Buch führt ausführlich durch die Installation von Hadoop auf einem Linux-System, leitet die ersten Schritte im Umgang mit dem verteilten Dateisystem von Hadoop (HDFS) sowie zur Implementierung von MapReduce-Algorithmen an. Auch in die empfohlene Entwicklungsumgebung Eclipse (mit Plugin) wird hinreichend eingewiesen. Zum Ende gibt der Autor noch Tipps rund um das Management und die Überwachung der MapReduce-Jobs und des Hadoop-Ökosystems. Ferner werden vier Beispiele des Hadoop-Einsatzes in der Praxis vorgestellt. Wer einen Einstieg in die Praxis von Hadoop finden möchte, kann sich Hadoop als Standalone-Anwendung installieren und die Datenverteilung simulieren, oder sich Linux-Server bei Providern anmieten.

Hadoop besteht im Wesentlichen aus Java Programmcode (von Oracle, vormals Sun Microsystems), daher ist zumindest ein Grundwissen in Java notwendig, um tiefer in Hadoop eintauchen zu können und auch um die Quellcode-Beispiele im Buch verstehen zu können. Außerdem sind Linux-Kenntnisse (insbesondere Ubuntu/Debian) vorteilhaft. Wer kein Freund der Programmiersprache Java ist, kann durch das Hadoop Streaming auch MapReduce-Funktionen in C, Ruby, PHP oder Python realisieren; Hierfür bietet Hadoop eine Standardein/ausgabe-Schnittstelle an.


Hadoop: The Definitive Guide

Die Community rund um Hadoop ist nahezu vollständig englischsprachig, für einen tieferen Einblick in Hadoop ist daher englischsprachige Literatur zu empfehlen, beispielsweise das Buch Hadoop: The Definitive Guide. Für einen ersten Einstieg in das Hadoop-System ist das obige deutschsprachige Buch jedoch absolut empfehlenswert.


Funktion und Nutzen des Turtle-Models (8W-Modell)

Veröffentlicht in Logistik, Prozessgestaltung, Qualitätsmanagement von Redakteur am 19. Jan. 2014

Erfolgreiche Unternehmen versuchen Probleme zu identifizieren und zu lösen, solange sie noch klein sind und beschäftigen sich demzufolge nicht nur mit Symptomen und Kennzahlen, sondern auch mit ihnen zugrunde liegenden Ursache-Wirkungsketten.
Die Beschreibung von Prozessen und deren Darstellung in Prozessmodellen erfolgt bei Unternehmen häufig aufgrund von Kundenanforderungen oder externen Regelwerken, um die Schlüssigkeit der Unternehmensorganisation und Reproduzierbarkeit von Abläufen nach außen hin glaubhaft darzustellen.
Wesentlicher Treiber ist dabei der Nachweis der Qualitätsfähigkeit innerhalb einer Kunden-Lieferantenbeziehung oder der Nachweis der Erfüllung obligatorischer organisatorischer Sorgfaltspflichten.
Intern ist ein Führen mit Kennzahlen oder das Gestalten von Veränderungen im Unternehmen nur sehr eingeschränkt möglich, wenn es für wesentliche Geschäftsprozesse mehr informelle Regelungen als nachprüfbar dokumentierte Standards gibt.
Zur Planung, Beschreibung und Analyse von Prozessen haben sich in der Praxis eine Reihe von Vorgehensmöglichkeiten entwickelt, die je nach Zielstellung ausgewählte kritische Teilprozesse betrachten oder zusammenhängende Prozessketten, die z. B. Grundlage für eine Prozess-Simulation oder Prozesskostenrechnung sein können.
Notwendige Projekterfahrung im Geschäftsprozessmanagement oder die Komplexität verfügbarer IT Lösungen setzen in der Praxis den meisten Unternehmen jedoch Grenzen.
Für die einfache Darstellung und Analyse von Prozessen hat sich insbesondere im Bereich Automotive überwiegend das Turtle-Model (oder auch 8W-Modell) etabliert. Der Name Turtle rührt von der oft skizzierten Form einer Schildkröte her, wo Maul und Schwanz jeweils (Prozess-) Input und Output sowie die Gliedmaßen bestimmte Einflussfaktoren symbolisieren.
Die in klassischen Organigrammen und Prozessbeschreibungen zu findende Frage nach dem wer macht was wird beim Turtle-Model um das warum, wann, womit, wie, wohin und wie gut für jeden einzelnen Prozess-Schritt erweitert. Die Notwendigkeit einzelner Prozess-Schritte kann damit genau so kritisch betrachtet werden wie Unsicherheiten oder Unklarheiten bei der Regelung erfolgskritischer Details.

8W-Modell (Turtle-Modell) (mehr…)


Fertigungsverfahren – Lichtbogenhandschweißen

Veröffentlicht in Fertigungstechnik von Redakteur am 29. Aug. 2013

Das Lichtbogenhandschweißen (EN ISO 4063: Prozess 111) ist einfach anzuwenden und gilt als eines der ältesten, aber auch immer noch der am häufigsten eingesetzten Schweißverfahren, auch wenn es sich über die Jahrzehnte leicht verändert haben mag. Das Lichtbogenhandschweißen gehört zu den Schmelzschweißverfahren. In der DIN Norm 8580 (Einteilung der Fertigungsverfahren) ist das Lichtbogenschweißen in der Hauptgruppe 4 (Fügen) zu finden, Fügen durch Schweißen DIN 8593 Teil 6.

Das Lichtbogenhandschweißen ist ein Verfahren mit Zusatzhilfstoff in Form von abschmelzender Stabelektrode. Der Anwendungsbereich im Rahmen des Fügens erstreckt sich auf metallische Werkstoffe mit einem maximalen Kohlenstoffanteil von 0,22%, beispielsweise aus dem Grundwerkstoff S235 JRG2 DIN EN 10025.

In den Anfängen des Lichtbogenhandschweißens wurden nackte Metallelektroden oder auch Kohleelektroden als Elektroden verwendet. Heute sind Stabelektroden um den Kernstab herum mit einem mineralischen Stoff ummantelt, welcher ein Schutzgas und Schlacke freisetzen soll.
Das durch die Hitze des Schweißprozesses aus der Hülle entstandene Schutzgas schirmt das aufgeschmolzene Metall des Kernstabendes und die Schweißstelle von der Umgebungsluft ab. Die Schlacke dient der Isolation der Schweißnaht bis zur Erkaltung.
Die Umhüllung erleichtert den Schweißprozess auch aus dem Grund enorm, dass die Umhüllung zur Stabilisierung des Kernstabs und des Lichtbogens beiträgt.
Der Lichtbogen selbst bildet sich vom Kernstab aus zum Werkstück.

Durchführung des Lichtbogenschweißens

Lichtbogenhandschweißen gehört auch heute noch zu den am häufigsten eingesetzten Schweißverfahren, insbesondere im Stahl- und Rohrleitungsbau. Die Anwendung gilt als relativ materialfehlertolerant und ist bei allen Witterungsbedingungen, sogar unter Wasser, einsetzbar. Neben dem Fügen ist auch das Beschichten (Auftragsschweißen) ein Anwendungsgebiet. (mehr…)


« vorherige SeiteNächste Seite »