Wissensmanagementsoftware

Zu einem guten Personalmanagement zählt nicht nur das Recruiting, also die Neuanstellung von Mitarbeitern, sondern – und dies wird tendenziell oft vergessen – auch die Personalentwicklung. Mitarbeiterqualifizierung sichert zukünftige Wettbewerbsfähigkeit, allen Risiken zum Trotz. Woran aber die wenigsten Unternehmen denken, ist Nachhaltigkeit von Wissen und Erkenntnisse, die Mitarbeiter im Namen des Unternehmens generiert haben, Stichwort Wissensmanagement. Erst mit ausgereiftem Wissensmanagement, können Mitarbeiter den höchsten Wirkungsgrad für das Unternehmen erreichen.

Wissensmanagement ist wichtig für den Erfolg jedes Unternehmens

Wenn man von Wissensmanagement spricht, spricht man vom Erwerb, der weiteren Entwicklung, dem Transport, der Speicherung und vor allem der Nutzung von Wissen. Vor allem in Unternehmen ist Wissensmanagement ein maßgeblicher Faktor, der den Erfolg oder Misserfolg maßgeblich beeinflusst. Um nachhaltig im Wettbewerb zu bestehen, müssen alle Ressourcen gezielt und optimal eingesetzt werden. Die wichtigste Ressource in jedem Unternehmen sind die Mitarbeiter. Diese sind der Motor für Erfolg und deren Wissen sollte dementsprechend genutzt und vor allem gefördert werden. Und genau hier liegt das Problem vieler Unternehmen, denn das Wissensmanagement wird teilweise nur unzureichend verfolgt. Ein Grund dafür ist Konkurrenzdenken unter den Mitarbeitern, insbesondere wenn Beförderungen in Aussicht stehen. Damit stellen Mitarbeiter ihre eigenen Ziele über jene des Unternehmens, es ist jedoch die gemeinsame Nutzung des Wissens aller Mitarbeiter notwendig, um nachhaltigen Unternehmenserfolg zu erreichen. Aus diesem Grund ist es unbedingt notwendig, das Wissen jedes Mitarbeiters produktiv zu verarbeiten und zu behalten.
wissensmanagementintelligence

→ WEITERLESEN

Wie schreibe ich eine Doktorarbeit? – Buchempfehlung

Die Dissertation ist eine anspruchsvolle wissenschaftliche Arbeit,  bei der Fehler idealerweise im Vorfeld zu vermeiden sind. Insbesondere bei der Erkenntnisgewinnung durch die statistische Auswertung von Daten können sich leicht Fehler einschleichen, vor allem dann, wenn der Doktorand im Umgang mit Statistik unerfahren ist.


Wie schreibe ich eine Doktorarbeit? (Springer-Lehrbuch)

→ WEITERLESEN

Big Data Analytics mit Hadoop – Buchempfehlung

Big Data ist eines der Buzzwords dieser Jahre und steht für das Potenzial der heranwachsenden Datenmengen für Wirtschaft und Wissenschaft. Das Potenzial ergibt sich aus dem Erfassen und Sammeln dieser Datenmengen aus den unterschiedlichsten Quellen. Die Nutzung des Potenzials erfolgt jedoch erst mit der Datenanalyse, daher wird oftmals zwar von Big Data geredet, jedoch Big Data Analytics gemeint.

Das in der Praxis am häufigsten vorkommende Datenbankmodell ist die relationale Datenbank, die Daten in untereinander verknüpfte Tabellenstrukturen speichert. Relationale Datenbanken sind zwar nicht direkt auf eine bestimmte Größe beschränkt, so begrenzt ausschließlich das Betriebssystem die Größe einer MySQL-Datenbank, dennoch tauchen bei großen Abfragen mit SQL-Queries oftmals schwer nachvollziehbare Fehler auf. Eine fehlgeschlagene SQL-Query lässt sich nur schwer debuggen, wenn sie nach Stunden abbricht.

Abhilfe verspricht Apache Hadoop mit einem verteilten Dateisystem (HDFS) und dem NoSQL-Ansatz und MapReduce-Algorithmus, der auch die Analyse von unstrukturierten Daten ermöglicht. Durch HDFS werden mit Commodity Hardware Datensammlungen und Analysen im Petabyte-Bereich möglich. Für die Auswertung der Datenmengen werden dadurch auch keine backup-kritischen Großrechner mehr benötigt, denn MapReduce-Jobs können auf verschiedener, räumlich getrennter Hardware zeitlich parallel erfolgen, erst die Ergebnisse werden auf einem dafür vorbestimmten Rechner (Server) zusammengetragen und weiterverarbeitet. Dabei werden Daten über die verteilte Hardware redundant gehalten, was als Data Warehouse (unter bestimmten Voraussetzungen) Ausfallsicherheit bedeutet.

Hadoop ist ein freies Open Source Framework, dessen Entwicklung von der Apache Software Foundation vorangetrieben wurde. Es wird auch von den Unternehmen eingesetzt, die heute als Pioniere von Big Data gelten, beispielsweise Facebook, Yahoo!, Twitter, Amazon und Google. Vor allem Google, Facebook und Yahoo! steuerten große Teile zu Hadoop bei.

Hadoop: Zuverlässige, verteilte und skalierbare Big-Data-Anwendungen

Das Buch Hadoop – Zuverlässige, verteilte und skalierbare Big-Data-Anwendungen vom Autor Ramon Wartala bietet einen breiten und tiefen Einblick in Hadoop und dessen modulare Nebensysteme:

  • Datenfluss-Sprachen:
    • Hive
    • Pig
    • CludBase
  • Spaltenorientierte Datenbanken
    • HBase
    • Hypertable
  • Daten-Serialisierung
    • Avro
    • Thrift
    • Google Protocol Buffer
    • Sqoop
  • Workflow-Systeme
    • Azkaban
    • Oozie
    • Cascading
    • Hue
  • ZooKeeper
  • Mahout
  • Whirr

Das Buch führt ausführlich durch die Installation von Hadoop auf einem Linux-System, leitet die ersten Schritte im Umgang mit dem verteilten Dateisystem von Hadoop (HDFS) sowie zur Implementierung von MapReduce-Algorithmen an. Auch in die empfohlene Entwicklungsumgebung Eclipse (mit Plugin) wird hinreichend eingewiesen. Zum Ende gibt der Autor noch Tipps rund um das Management und die Überwachung der MapReduce-Jobs und des Hadoop-Ökosystems. Ferner werden vier Beispiele des Hadoop-Einsatzes in der Praxis vorgestellt. Wer einen Einstieg in die Praxis von Hadoop finden möchte, kann sich Hadoop als Standalone-Anwendung installieren und die Datenverteilung simulieren, oder sich Linux-Server bei Providern anmieten.

Hadoop besteht im Wesentlichen aus Java Programmcode (von Oracle, vormals Sun Microsystems), daher ist zumindest ein Grundwissen in Java notwendig, um tiefer in Hadoop eintauchen zu können und auch um die Quellcode-Beispiele im Buch verstehen zu können. Außerdem sind Linux-Kenntnisse (insbesondere Ubuntu/Debian) vorteilhaft. Wer kein Freund der Programmiersprache Java ist, kann durch das Hadoop Streaming auch MapReduce-Funktionen in C, Ruby, PHP oder Python realisieren; Hierfür bietet Hadoop eine Standardein/ausgabe-Schnittstelle an.


Hadoop: The Definitive Guide

Die Community rund um Hadoop ist nahezu vollständig englischsprachig, für einen tieferen Einblick in Hadoop ist daher englischsprachige Literatur zu empfehlen, beispielsweise das Buch Hadoop: The Definitive Guide. Für einen ersten Einstieg in das Hadoop-System ist das obige deutschsprachige Buch jedoch absolut empfehlenswert.

Funktion und Nutzen des Turtle-Models (8W-Modell)

Erfolgreiche Unternehmen versuchen Probleme zu identifizieren und zu lösen, solange sie noch klein sind und beschäftigen sich demzufolge nicht nur mit Symptomen und Kennzahlen, sondern auch mit ihnen zugrunde liegenden Ursache-Wirkungsketten.
Die Beschreibung von Prozessen und deren Darstellung in Prozessmodellen erfolgt bei Unternehmen häufig aufgrund von Kundenanforderungen oder externen Regelwerken, um die Schlüssigkeit der Unternehmensorganisation und Reproduzierbarkeit von Abläufen nach außen hin glaubhaft darzustellen.
Wesentlicher Treiber ist dabei der Nachweis der Qualitätsfähigkeit innerhalb einer Kunden-Lieferantenbeziehung oder der Nachweis der Erfüllung obligatorischer organisatorischer Sorgfaltspflichten.
Intern ist ein Führen mit Kennzahlen oder das Gestalten von Veränderungen im Unternehmen nur sehr eingeschränkt möglich, wenn es für wesentliche Geschäftsprozesse mehr informelle Regelungen als nachprüfbar dokumentierte Standards gibt.
Zur Planung, Beschreibung und Analyse von Prozessen haben sich in der Praxis eine Reihe von Vorgehensmöglichkeiten entwickelt, die je nach Zielstellung ausgewählte kritische Teilprozesse betrachten oder zusammenhängende Prozessketten, die z. B. Grundlage für eine Prozess-Simulation oder Prozesskostenrechnung sein können.
Notwendige Projekterfahrung im Geschäftsprozessmanagement oder die Komplexität verfügbarer IT Lösungen setzen in der Praxis den meisten Unternehmen jedoch Grenzen.
Für die einfache Darstellung und Analyse von Prozessen hat sich insbesondere im Bereich Automotive überwiegend das Turtle-Model (oder auch 8W-Modell) etabliert. Der Name Turtle rührt von der oft skizzierten Form einer Schildkröte her, wo Maul und Schwanz jeweils (Prozess-) Input und Output sowie die Gliedmaßen bestimmte Einflussfaktoren symbolisieren.
Die in klassischen Organigrammen und Prozessbeschreibungen zu findende Frage nach dem wer macht was wird beim Turtle-Model um das warum, wann, womit, wie, wohin und wie gut für jeden einzelnen Prozess-Schritt erweitert. Die Notwendigkeit einzelner Prozess-Schritte kann damit genau so kritisch betrachtet werden wie Unsicherheiten oder Unklarheiten bei der Regelung erfolgskritischer Details.

8W-Modell (Turtle-Modell)

→ WEITERLESEN

Industrie 4.0 – Konzepte und Herausforderungen

Das Zukunftsprojekt Industrie 4.0 wird unsere Industrie verändern. Produktions- und Lieferzeiten werden durch intelligente Steuerung verkürzt und hinsichtlich des Ressourceneinsatzes optimiert werden. Die virtuelle Realität wird Produkte von noch besserer Qualität schaffen, bei kostengünstigerer Produktentwicklung, die näher an die Fertigungsprozesse rücken wird. Durch das Internet der Dinge wird die Produktion und Logistik zuverlässiger sowie für Kunden transparenter werden. Insgesamt wird die Industrie 4.0 anders als die vorangegangenen Industrierevolutionen nicht nur insgesamt die Produktivität, sondern vor allem die Flexibilität erhöhen, bis hin zur kundenindividuellen Massenproduktion.

Industrie 4.0

 

Die Fabrik 4.0 soll…

  1. sich selbst digital abbilden und simulieren können und gleichzeitig möglichst mit der Realität verschmelzen,
  2. Produktionssysteme, Produkte und Dienste mit Informationen ausstatten und miteinander kommunizieren lassen,
  3. durch Datenanalysen in ihrer Situation aufgenommen, überwacht und im Generellen optimiert werden,
  4. sich darauf aufbauend durch künstliche Intelligenz selbst steuern und im Speziellen auch selbst optimieren können.
[ad#Google Adsense]

→ WEITERLESEN

Workflowmanagement -Systeme

Das Workflowmanagement (zu Deutsch etwa: Verwaltung von Arbeitsabläufen) steht dem (Geschäfts-)Prozessmanagement sehr nahe. Ziel des Workflowmanagements ist die Koordination von Prozessen über Workflowmanagementsysteme, indem sie die Ausführungsreihenfolge der Prozesse oder der Aktivitäten von Prozessen überwachen, Daten für die Ausführung von Aktivitäten bereitstellen, anstehende Aktivitäten menschlichen oder technischen Bearbeitern zur Ausführung zuordnen und Anwendungssysteme für die Bearbeitung zur Verfügung stellen.

Während die Steigerung der Produktivität im Produktionsbereich durch Prozessmanagement bereits früh erschlossen wurde, blieben Produktivitätssteigerungen im Bürobereich verhältnismäßig lange aus. In den 1980er Jahren begann sich mit der Office Automation und dem Ziel der computergesteuerten Durchführung wiederkehrender Vorgänge auch im Bereich der Büroarbeit Prozessmanagement durchzusetzen. Workflowmanagement ist jedoch nicht nur eine Büroangelegenheit, sondern dringt auch bis tief in die Produktionsplanung und -steuerung vor. Beispielsweise sind Stücklisten, Arbeitspläne, Produktionspläne usw. Arbeitsmittel und Kommunikationsmittel zwischen der Logistik- bzw. Produktionsplanung/-steuerung, die überwiegend als Bürotätigkeit geschieht, und der ausführenden Produktion. Auch die Erfassung der Arbeitszeiten und -tätigkeiten findet zwischen der Personalwirtschaft/Buchhaltung und der Produktion statt. Wann welche Arbeitsmitteln an welchem Ort bzw. bei welcher Person sein müssen und wer wann und wo welche Arbeitsschritte auszuführen hat, entscheiden Workflowmanagementsysteme.

→ WEITERLESEN

Fachgruppe für Wirtschaftsingenieure und Wirtschaftsinformatiker

Wirtschaftsingenieurwesen und Wirtschaftsinformatik sind interdisziplinäre Studiengänge und Fachbereiche zwischen Wirtschaft und Technik.
Wirtschaftsinformatiker und Wirtschaftsingenieure zeichnen sich durch exzellentes kaufmännisches Wissen aus, mit einem breiten und stellenweise sehr tiefen Einblick in technische Themengebiete, wie dem Maschinenbau, Bauingenieurwesen, der Chemie, Elektrotechnik oder Informatik.
Das Verständnis technischer Zusammenhänge und das betriebswirtschaftliche Wissen in Unternehmensführung, Personalwesen, Marketing, Controlling und Rechnungswesen schafft eine Qualifikationsbasis, die oftmals einen entscheidenden Karrierevorsprung ermöglicht. Wirtschaftsingenieure und Wirtschaftsinformatiker schaffen es deshalb im Durchschnitt schneller als alle anderen, sich in hohe Führungsetagen vor zu arbeiten oder eigene erfolgreiche Unternehmen zu gründen.
Mit der WIWI-Fachgruppe für Wirtschaftsingenieure und Wirtschaftsinformatiker können sich Absolventen und Studenten dieser oder ähnlicher Fachrichtungen (z. B. Wirtschaftsphysik oder Wirtschaftschemie) in ein fachbezogenes Netzwerk begeben und Kontakte knüpfen sowie Diskussionen führen, die bei der späteren Karriere hilfreich sein können.

 

Link zur Gruppe bei Xing.com (Klick).

Link zur Gruppe bei LinkedIn.com (Klick).

Es reicht, Mitglied auf einer der beiden Plattformen zu werden, da Infos zu Veranstaltungen auf beiden Plattformen gleichermaßen bekannt gegeben werden.

Digitale Fabrik – Fabrikplanung mit mordernen IT-Lösungen

Die Reallayoutplanung ist eine der arbeitsintensivsten Phasen der Fabrikplanung und wurde bis in die 1990er Jahre noch vorwiegend mit technischen Zeichnungen auf Papier umgesetzt. Heute gibt es sehr viel Software, die die Möglichkeit der Nutzung einer virtuellen Realität (VR) für die Fabrik- und Fertigungsplanung schafft. Virtuelle Realität ist in der Produktentwicklung als CAD und digital Mock-Up (digitales Versuchsmodell) bekannt, für die Fabrikplanung wird virtuelle Realität unter dem Konzept einer digitalen Fabrik eingesetzt. Eine digitale Fabrik ist eine virtuelle, zwei- oder drei-dimensionale Darstellung der Fabrik zur Durchführung einer Realplanung und testgetriebenen Simulation, insbesondere für Materialflussanalysen.

Nachfolgende Abbildungen entstammen der Software visTABLE (weitere Informationen zur Software unten im Artikel).

→ WEITERLESEN

Steigende Anforderungen an ERP-Systeme

In diesem Gastartikel schreibt Sascha Hochweber über die neue Trends bei ERP-Systemen und gestiegene Anforderungen, die heute an ERP-Systeme gestellt werden.

Ein modernes ERP-System soll ein Unternehmen bei der Umsetzung von wichtigen Kernprozessen zum reibungslosen Betriebsablauf unterstützen. Darunter fallen Kernelemente wie zum Beispiel die Senkung der laufenden Betriebskosten, sowie die Bereitstellung und Implementierung von neuen Services und hinzugewonnenen Ressourcen. Was bisher die ERP Systeme der neuesten Generation in Anlehnung an die individuellen Bedürfnisse des jeweiligen Unternehmens problemlos bewerkstelligen konnten, muss nicht grundlegend, aber umfangreich an neue Gegebenheiten angepasst werden.

Angesichts der erst kürzlich überwundenen Wirtschaftskrise und neuen Herausforderungen auf den Märkten durch politische Entscheidung und wirtschaftliche Verlagerungen, sollen neue IT-Lösungen aus dem ERP-Umfeld die Optimierung von bestehenden und neuen Geschäftsprozessen ermöglichen. Insbesondere mittelständische Unternehmen setzen bei einem ERP System auf ein ausgereiftes und angepasstes Liquiditätsmanagement. Doch das Liquiditätsmanagement ist lediglich ein Aspekt bei einem ERP System, welches künftig noch stärker in den Mittelpunkt als Herzstück eines jeden Unternehmens rückt.

Der immer größer werdende Kostendruck bei Unternehmen jeder Größenordnung wächst, sodass das vorhandene ERP-System seitens der IT zunehmend schneller angepasst werden muss. Hierbei spielen Kriterien wie etwa die schnelle Anpassung der Preise an die aktuellen Gegebenheiten des Marktes, sowie eine sich stetig wandelnde strategische Ausrichtung des Unternehmens eine wichtige Rolle.

Ältere ERP-Systeme waren ausschließlich in unterstützender Funktion vorhanden und gaben eine Plattform her, welche die Visualisierung von Geschäftsprozessen zur späteren Entscheidungsfindung ermöglichte. Nach einstimmiger Meinung von Experten müssen die heutigen Systeme in Zukunft von einer eher passiven Haltung in eine aktive Rolle schlüpfen und bei Entscheidungen beratend unterstützen. Dieser Umstand stellt an moderne ERP-Systeme in Sachen individueller Konfigurationsmöglichkeiten und der damit einhergehenden Skalierbarkeit eine Fülle neuer Anforderungen dar. Die sich ständig wandelnden Anforderungen an moderne ERP-Systeme werden vor allem eine Belastungsprobe
für die ERP-Architekturen, wie die Computerwoche schreibt.

→ WEITERLESEN