| Written by Mark Buzinkay
No video selected
Select a video type in the sidebar.
Qualität ist eine grundlegende Voraussetzung für die Leistungsfähigkeit in der Fertigung, bedeutet jedoch für verschiedene Personen und Organisationen Unterschiedliches. Manche vertreten die Ansicht, dass die gängige Auffassung von Qualität als Übereinstimmung mit Anforderungen falsch sei, da sie die Bedürfnisse der Kunden außer Acht lässt. Tatsächlich liegt Qualität im Auge des Kunden. Da sie in der Produktion weder direkt beobachtbar noch vollständig kontrollierbar ist, greifen wir auf Ersatzmerkmale zurück – also auf messbare Variablen oder beobachtbare Eigenschaften. Jede Einheit, die diese Ersatzmerkmale nicht erfüllt, gilt als fehlerhaft – aber das bedeutet nicht zwangsläufig, dass jede Einheit, die diese Anforderungen erfüllt, auch den Kundenbedürfnissen entspricht.
Qualität ist eine von mehreren Dimensionen der Wettbewerbsfähigkeit und wird – entgegen lange vertretenen Überzeugungen – nicht zwangsläufig auf Kosten anderer Leistungsmerkmale erreicht. Im Gegenteil: Die Fähigkeit, qualitativ hochwertige Produkte herzustellen, wirkt sich positiv auf Flexibilität, Geschwindigkeit und Produktivität aus. Der Ansatz zur Qualitätsverbesserung in einem Werk sollte sich daher nicht an einer festen Philosophie orientieren, sondern an den konkreten Qualitätsproblemen, mit denen das Werk tatsächlich konfrontiert ist.
Im frühen 20. Jahrhundert galten Luxusprodukte als qualitativ hochwertiger als einfache, günstige Varianten. Diese Auffassung ist heute überholt. Die Qualität eines Produkts bemisst sich nicht nach seiner Position innerhalb einer Produktlinie oder dem Marktsegment, das es bedient. Qualität ist ausschließlich eine Funktion davon, wie gut ein Produkt den Bedürfnissen der Kunden entspricht, die es kaufen. Ein Luxusprodukt kann qualitativ mangelhaft sein, während ein einfaches Produkt hervorragend abschneiden kann.
Die am weitesten verbreitete Definition von Produktqualität lautet:
„Qualität ist die Fähigkeit, Kundenbedürfnisse zu erfüllen.“
Diese Sichtweise versteht Qualität als subjektiv. Qualität bedeutet in diesem Sinne die Übereinstimmung von Realität und Erwartung. Erwartung meint dabei die Annahme, dass ein Produkt so funktioniert, wie es beworben wurde. Ein Kunde kauft ein Produkt in der Hoffnung, dass es das tut, was der Anbieter versprochen hat – Qualität ist gegeben, wenn alle Merkmale den erwarteten Werten entsprechen (siehe auch Qualitätsdokumentation).
Im Gegensatz dazu steht die objektive Definition von Qualität als Einhaltung von Anforderungen. Diese Sichtweise misst Qualität an formalen, numerisch festgelegten Produkteigenschaften, die innerhalb definierter Toleranzen liegen müssen.
Hohe Qualität gemäß der objektiven Definition kann aus subjektiver Sicht dennoch unzureichend sein. Bei einem Kuchen zeigt sich die Qualität im Geschmack – ein zerstörender Test, denn die Konditorei kann nicht jeden Kuchen selbst essen. Stattdessen werden messbare Ersatzmerkmale (sogenannte Proxys) herangezogen: Hat der Kuchen den falschen Durchmesser und nur halb so viel Zucker wie vorgeschrieben, ist er eindeutig mangelhaft. Umgekehrt garantiert der richtige Durchmesser und Zuckergehalt noch lange keinen guten Geschmack. Auch wenn die Einhaltung von Anforderungen vor teuren Klagen schützen kann, bleibt letztlich das subjektive Kundenerlebnis das entscheidende Kriterium.
Für viele Hersteller ist ihr Qualitätsruf das wertvollste Gut – und das Management setzt alles daran, diesen Ruf zu wahren. Um Qualität in der Fertigung zu erhalten und zu verbessern, müssen Unternehmen die Kundenerwartungen verstehen, interne Prozesse anpassen, ihre Qualitätsanforderungen an Lieferanten kommunizieren und diese bei der Einhaltung unterstützen.
Begriffe wie Fehler (Defect), fehlerhaft (Defective) und Irrtum (Error) tauchen in Qualitätsdiskussionen ständig auf – daher ist es wichtig, genau zu definieren, was damit gemeint ist:
Ein Fehler (Defect) ist eine Eigenschaft, die eine Produkteinheit nicht haben sollte.
Ein fehlerhaftes Produkt (Defective) ist eine Einheit, die mindestens einen Fehler aufweist.
Ein Irrtum (Error) ist eine Handlung, bei der ein Mensch versehentlich das Falsche tut.
Irrtümer führen zu Fehlern – aber nicht alle Fehler entstehen durch menschliche Irrtümer.
Das Konzept von Qualität hat sich im Laufe der Jahrhunderte erheblich weiterentwickelt – geprägt durch technologische Fortschritte, gesellschaftliche Veränderungen und neue unternehmerische Praktiken. In seinen frühesten Formen war Qualität ein sehr persönliches und lokal begrenztes Anliegen. In der Antike übernahmen Handwerker die volle Verantwortung für ihre Produkte – vom ersten bis zum letzten Arbeitsschritt. Sie waren stolz auf ihr Werk, und ihr Ruf hing maßgeblich von der Qualität ihrer Erzeugnisse ab. Formale Systeme oder Kennzahlen gab es nicht; Qualität wurde vom Kunden oder vom Meister beurteilt, der die Arbeit überwachte. Diese Herangehensweise garantierte handwerkliches Können auf hohem Niveau, war jedoch von Natur aus nur begrenzt skalierbar.
Im Mittelalter wurde das Qualitätsverständnis durch die Gründung von Zünften stärker institutionalisiert. Diese Zusammenschlüsse qualifizierter Handwerker legten Standards für Ausbildung, Arbeitsweise und Endprodukte fest. Zünfte schützten sowohl das Ansehen des Handwerks als auch die Interessen der Verbraucher, indem sie bestimmte Qualitätsniveaus sicherstellten. Ihre Mitglieder waren verpflichtet, den Ruf der Zunft zu wahren, und Lehrlinge mussten oft jahrelang lernen, bevor sie eigenständig arbeiten durften. Zwar sorgte dieses System für Struktur und Verantwortlichkeit, beruhte jedoch weiterhin stark auf manueller Kontrolle und individueller Sorgfalt.
Die Industrielle Revolution markierte einen Wendepunkt in der Geschichte der Qualität. Mit dem Aufkommen mechanisierter Produktionsmethoden und dem Entstehen großer Fabriken wurde das traditionelle Handwerksmodell zunehmend verdrängt. Produkte wurden nun in großen Stückzahlen von mehreren Arbeitern gefertigt, die spezialisierte Aufgaben übernahmen. Diese Arbeitsteilung erschwerte die gleichbleibende Qualitätssicherung. Zu Beginn beschränkte sich Qualitätskontrolle auf Endkontrollen am Produktionsende – fehlerhafte Produkte wurden aussortiert, bevor sie den Markt erreichten. Dieser Ansatz war jedoch reaktiv und ineffizient, da er keine Fehlervermeidung im Produktionsprozess selbst ermöglichte.
Im frühen 20. Jahrhundert hielten wissenschaftlichere Ansätze Einzug in das Qualitätsmanagement. Inspiriert durch den Aufstieg des Industrial Engineering entwickelte Frederick Winslow Taylor systematische Methoden zur Effizienzsteigerung – allerdings ohne direkten Fokus auf Qualität. Der eigentliche Durchbruch kam in den 1920er-Jahren durch Walter A. Shewhart bei den Bell Laboratories, der das Konzept der statistischen Prozesskontrolle (Statistical Process Control, SPC) einführte. Mithilfe von Kontrollkarten konnten Hersteller Produktionsprozesse überwachen und Schwankungen erkennen, die zu Fehlern führen könnten. Damit begann eine proaktivere Qualitätsstrategie, bei der Prozessstabilität und datenbasierte Entscheidungen im Mittelpunkt standen.
Nach dem Zweiten Weltkrieg gewann das Thema Qualität nochmals stark an Bedeutung – besonders in Japan. Amerikanische Experten wie W. Edwards Deming und Joseph Juran wurden eingeladen, die japanische Industrie beim Wiederaufbau zu unterstützen. Sie brachten neue Qualitätsphilosophien mit, die kontinuierliche Verbesserung, Führungsverantwortung und die Einbindung aller Mitarbeitenden betonten. Die japanischen Unternehmen nahmen diese Ideen dankbar auf und integrierten sie tief in ihre Unternehmenskultur. Aus dieser Bewegung entstanden Konzepte wie Kaizen, Total Quality Control und später Total Quality Management (TQM), die japanische Hersteller zu neuen Spitzenleistungen führten.
Bis zum späten 20. Jahrhundert war Qualitätsmanagement zu einem zentralen Thema in Unternehmen weltweit geworden. Mit der Einführung der ISO-9000-Normenreihe im Jahr 1987 wurde ein international anerkannter Standard für Qualitätsmanagementsysteme geschaffen. So konnten Unternehmen ihre Qualitätsverpflichtung gegenüber Kunden und Partnern belegen. Zur gleichen Zeit gewann Six Sigma an Popularität, insbesondere bei Großkonzernen wie Motorola und General Electric. Diese Methodik zielte auf die Reduzierung von Fehlern und Schwankungen durch präzise Datenanalysen und strikte Prozesskontrolle.
Heute wird Qualität nicht mehr nur als Thema der Produktion verstanden, sondern als strategischer Erfolgsfaktor, der sämtliche Unternehmensbereiche durchdringt. Sie trägt entscheidend zur Kundenzufriedenheit, zur Markenreputation und zur Wettbewerbsfähigkeit bei. Neue Technologien wie künstliche Intelligenz, maschinelles Lernen und das Internet der Dinge (IoT) transformieren das Qualitätsmanagement erneut. Sie ermöglichen eine Echtzeitüberwachung, vorausschauende Wartung und fortschrittliche Analysen – wodurch Probleme erkannt und behoben werden können, noch bevor sie auftreten. Qualität hat damit ihren Ursprung – die Sicherstellung von Beständigkeit und Exzellenz – bewahrt, sich aber gleichzeitig den Anforderungen einer komplexen, digitalen Welt angepasst.
Der Ansatz zur Qualitätsverbesserung in einem Werk sollte sich an den konkreten Qualitätsproblemen orientieren – nicht an der blinden Übernahme gängiger Methoden. Wenn beispielsweise Bedienfehler das Hauptproblem darstellen, ist eine Fehlervermeidung durch Poka Yoke erforderlich. Besteht das Problem jedoch vor allem in der unzureichenden Fähigkeit, Toleranzen einzuhalten, dann wäre der Einsatz von Poka Yoke so sinnvoll wie das Umstellen von Liegestühlen auf einem sinkenden Schiff. Umgekehrt bringt Data Science wenig, wenn es darum geht, seltene – vielleicht ein- oder zweimal jährlich auftretende – Fehler zu verhindern.
Der richtige Qualitätsmanagementansatz ist immer bedarfsgerecht, folgt jedoch einer allgemeinen Reihenfolge in der Problembearbeitung:
Prozessfähigkeit:
Wenn mangelnde Prozessfähigkeit das Hauptproblem ist, ist die Fehlerquote in der Regel hoch – und dieses Thema sollte als erstes angegangen werden. Ab diesem Punkt geht es nicht mehr primär um die Ursachenfindung, sondern um die schnelle Erkennung von Problemen.
Problem-Erkennungszeit:
Die nächste Größenordnung an Qualitätsverbesserung erreicht man durch die Umstellung auf Ein-Stück-Fluss mit First-in-first-out (FIFO)-Reihenfolge. Dadurch reduziert sich der Anteil fehlerhafter Teile, die auf Zellenoperationen zurückzuführen sind, um mindestens 50 %.
Menschliche Fehler:
Die Wirkung von Ein-Stück-Fluss und FIFO stößt bei Fehlerraten von etwa 1 % bis 0,1 % (also 1.000 ppm) an ihre Grenzen. Um noch niedrigere ppm-Raten zu erreichen, ist eine zusätzliche Strategie erforderlich: Fehlervermeidung (Mistake-Proofing). Sie ist der Schlüssel, um z. B. von 1.000 ppm auf 15 ppm zu kommen.
Kurz gesagt: Qualitätsmanagement muss sich an der Art des Problems orientieren – mit klarer Priorisierung von Prozessstabilität, schneller Fehlererkennung und gezielter Fehlervermeidung.
Geringe Ausbeuten und hohe Fehlerquoten sind ein ständiges Thema in der Hightech-Fertigung. So wie in den 1920er-Jahren Statistical Process Control (SPC) aus der Hochtechnologie von Western Electric hervorging, entstand Six Sigma in den 1980er-Jahren bei Motorola unter vergleichbaren Bedingungen.
Das bedeutet jedoch nicht, dass diese Ansätze nur für Hightech-Branchen relevant sind. Selbst in etablierten Industriezweigen gibt es Prozesse – etwa das Lackieren von Karosserien –, bei denen auch bei den besten Herstellern zweistellige Nacharbeitsquoten vorkommen. Und bei der Einführung neuer Produkte zeigen selbst stabile Prozesse zeitweise ein solches Verhalten.
Wenn von „statistischen Methoden“ die Rede ist, verstehen viele Qualitätsverantwortliche darunter eine Kombination aus Kontrollkarten, Histogrammen, Streudiagrammen, Stichprobenverfahren, Prüfplänen und anderen Werkzeugen – zusammengefasst unter SPC (Statistical Process Control) oder SQC (Statistical Quality Control). Diese Methoden wurden vor rund 100 Jahren von Walter A. Shewhart entwickelt und später von W. Edwards Deming, Abraham Wald und Kaoru Ishikawa weitergeführt. Sie zielten auf die Produktionsprozesse ab – auf Basis der damaligen Informationstechnologie. Bis heute werden SPC-Diagramme erstellt, häufig als Folge von Kundenanforderungen und Audits. Doch im praktischen Problemlösungsprozess spielen sie kaum noch eine Rolle, selbst wenn statistische Methoden gefordert sind.
Seit den 1930er-Jahren hat sich nicht nur die Datenerfassungstechnologie grundlegend gewandelt – auch die Statistik hat sich weiterentwickelt: Computerbasierte Analyseverfahren sind heute allgegenwärtig. In der Halbleiterindustrie erfassen Tester Hunderte von Variablen pro Schaltung. Und selbst in traditionellen Branchen liefern Taster in Bearbeitungszentren, Koordinatenmessmaschinen (CMMs) oder SCADA-Systeme eine Vielzahl von Produktmerkmalen direkt an Auswertungssoftware.
Sogar tabellarische Kalkulationsprogramme – Standard auf jedem Ingenieurtisch – enthalten Analysefunktionen, die die klassische SPC in den Schatten stellen. Darüber hinaus sind spezialisierte Statistikprogramme erhältlich, die multivariate Datenanalysen oder Versuchsplanung (Design of Experiments, DoE) unterstützen – oft günstiger als eine einzige Ingenieurswoche.
Und doch bleibt das Potenzial dieser Werkzeuge – mit Ausnahme spezialisierter Branchen wie der Halbleiterfertigung – weitgehend ungenutzt. Der Grund dafür liegt nicht in der Technik, sondern im fehlenden Know-how. Personen, die Methoden wie die Fisher-Linear-Diskriminanzanalyse oder fraktionierte Versuchspläne beherrschen, sind in der Produktion selten. Noch seltener sind jene, die statistisches Fachwissen mit tiefem Prozessverständnis kombinieren – etwa zu Themen wie Plasmaätzen oder den richtigen Schnittparametern für Titanbearbeitung. Solche Expert*innen, die Datenwissenschaft und Prozesskompetenz vereinen, sind praktisch nicht zu finden.
Sobald die Prozessfähigkeit sichergestellt ist, verändert sich die Art der Qualitätsprobleme: Statt allmählicher Parameterabweichungen treten nun diskrete, seltene Ereignisse auf – etwa Werkzeugbrüche, ausgelassene Arbeitsschritte oder falsch etikettierte Komponenten. Die Herausforderung liegt nun darin, solche Fehler schnell zu erkennen und rasch darauf zu reagieren. Dabei ist Reaktionsgeschwindigkeit wichtiger als analytische Tiefe.
Die Lösung besteht darin, Qualitätsprobleme unmittelbar oder kurz nach dem Prozess zu erkennen. Dies wird erreicht durch die Einführung von:
Ein-Stück-Fluss
First-in-first-out (FIFO)
Visuelle Kontrolle
Integrierte Qualitätsprüfungen, z. B. durch manuelle oder automatisierte Sichtprüfung oder Go-/No-Go-Prüflehren
Ziel ist es, Fehler nicht an den nächsten Prozessschritt weiterzugeben. Diese Maßnahmen bieten jedoch keine absolute Garantie, dass keine Fehler durchrutschen. Daher sind zusätzlich schnelle Problemlösungsmethoden notwendig, um Abweichungen zeitnah zu beheben. Eine etablierte Methode ist z. B. Quick Response Quality Control (QRQC).
Diese Ansätze sind jedoch nicht geeignet für Prozesse mit zweistelligen Fehlerquoten – das gesamte System würde unter der Last der Fehler zusammenbrechen. Bei instabilen Prozessen mit hohem Durchsatz müssen zwischen den Arbeitsschritten Pufferzonen eingeplant werden, um Schwankungen im Output aufzufangen. Erst wenn die Prozesse durch Datenanalyse charakterisiert und stabilisiert wurden, sind Ein-Stück-Fluss und FIFO umsetzbar – was wiederum die nächste Qualitätsstufe ermöglicht.
Selbst wenn alle zuvor genannten Maßnahmen umgesetzt sind, machen Menschen weiterhin Fehler. Der einzige Weg, dies zu vermeiden, besteht darin, Fehler grundsätzlich unmöglich zu machen.
Poka Yoke bezeichnet kleine technische Nachrüstungen, die Produktionsprozesse fehlersicher gestalten. In Bereichen, in denen die meisten Fehler auf menschliches Versagen zurückzuführen sind, kann Poka Yoke die Ausschussrate von 0,5 % auf unter 1 ppm (Teile pro Million) senken.
Menschliche Fehler treten besonders häufig bei der mechanischen und elektronischen Montage auf (siehe auch: Pick-to-Light: Manuelles und automatisiertes Ausheben im Lager).
Wir staunen über die Genialität von Poka-Yoke-Lösungen – doch es gibt noch keine Vorrichtung, die jede mögliche Fehlerquelle abdeckt. Solange das so ist, müssen wir auf weniger wirksame Instrumente zurückgreifen. Die unvermeidliche Folge: Mängel gelangen manchmal zum nächsten Prozessschritt – oder schlimmer noch – bis zum Kunden. Der Umgang mit Qualitätsfehlern erfordert daher eine eigene Strategie.
Bei Nacharbeit stellt sich die Frage, wo sie durchgeführt werden soll – innerhalb der Linie oder am Ende –, wie man die Grenze zwischen Ausschuss und nacharbeitsfähigem Teil definiert und wie die Nacharbeit organisiert wird. Jede Nacharbeit ist Verschwendung, wird aber in manchen Fällen bewusst in Kauf genommen.
Ein Beispiel: Während der weltweiten Chipkrise im Jahr 2021 produzierten mehrere Fahrzeughersteller halbfertige Fahrzeuge auf Lager, um sie später – sobald die Chips verfügbar waren – nachzubearbeiten. Auch wenn dies grundsätzlich vermieden werden sollte, war es im konkreten Fall eine Abwägung: Die Belegschaft in den bezahlten Urlaub zu schicken, wurde als noch größere Verschwendung und riskantere Option angesehen, als halbfertige Produkte zu bauen.
Trotz aller Vorsichtsmaßnahmen gelangen fehlerhafte Produkte früher oder später zum Kunden. Handelt es sich um systematische und sicherheitsrelevante Mängel, sind Hersteller zu einem Rückruf verpflichtet. Rückrufaktionen sind besonders häufig in der Pharmaindustrie, der Lebensmittel- und Getränkeindustrie sowie in Hightech-Branchen wie Medizintechnik, Automobilindustrie und Luft- und Raumfahrt. Auch im Einzelhandel kommt es regelmäßig zu Rückrufen von Produkten minderwertiger Lieferanten, etwa im Bereich Spielzeug oder Konsumgüter.
Ein gut gemanagter Rückruf kann aus einem negativen Kundenerlebnis sogar ein positives machen – vorausgesetzt, das Unternehmen handelt schnell, transparent und kundenorientiert.
Was ist der Unterschied zwischen objektiven und subjektiven Qualitätsdefinitionen?
Die objektive Qualitätsdefinition konzentriert sich auf die Einhaltung messbarer Anforderungen – etwa Maße, Toleranzen oder Spezifikationen –, die in der Regel durch Inspektion und Tests überprüft werden. Die subjektive Definition hingegen basiert auf den Erwartungen und Wahrnehmungen der Kunden. Ein Produkt kann zwar alle technischen Standards erfüllen, wird jedoch dennoch als minderwertig empfunden, wenn es die Bedürfnisse oder Vorlieben der Nutzer nicht erfüllt.
Warum ist die Prozessfähigkeit der erste Schritt einer Qualitätsstrategie?
Die Prozessfähigkeit gibt an, ob ein Fertigungsprozess in der Lage ist, konstant innerhalb definierter Toleranzgrenzen zu produzieren. Wenn diese Fähigkeit fehlt, helfen weder Inspektionen noch Fehlervermeidungssysteme, um akzeptable Qualität zu erreichen. Erst wenn diese Basis sichergestellt ist, lohnen sich weitere Verbesserungsmaßnahmen – ansonsten werden Ressourcen in instabile oder unzureichend verstandene Prozesse investiert.
Können Qualitätsverbesserungen auch andere Bereiche wie Geschwindigkeit oder Kosten beeinflussen?
Ja. Entgegen der weit verbreiteten Annahme, dass Qualität zu Lasten der Effizienz geht, kann eine robuste Qualitätsstrategie tatsächlich Produktivität, Flexibilität und Geschwindigkeit erhöhen. Hochwertige Prozesse reduzieren Nacharbeit, minimieren Ausschuss und verbessern die Kontinuität des Materialflusses – was letztlich zu besserer Gesamtleistung und geringeren Betriebskosten führt.
Eine erfolgreiche Qualitätsstrategie muss auf die konkreten Herausforderungen eines Werks zugeschnitten sein – beginnend mit der Sicherstellung der Prozessfähigkeit und weiterentwickelt durch Fehlervermeidung und ein effektives Rückrufmanagement. Anstatt einer „One-Size-Fits-All“-Philosophie zu folgen, sollten Hersteller ihren Ansatz an die tatsächlichen Betriebsbedingungen anpassen.
Im digitalen Zeitalter spielen Technologien wie Automatic Identification and Data Capture (AIDC) eine entscheidende Rolle: Sie ermöglichen Echtzeitüberwachung, reduzieren Fehlerquellen und verbessern die Rückverfolgbarkeit entlang der gesamten Produktionskette.
Durch die Integration von AIDC in die Qualitätsstrategie gewinnen Hersteller die Transparenz und Kontrolle, die erforderlich sind, um sowohl gesetzliche Anforderungen zu erfüllen als auch die Erwartungen der Kunden zu übertreffen.
Tauchen Sie ein in eines unserer Kernthemen: Automatisierte Fertigung
Poka-Yoke (fälschlicherweise oft als „Yoka-Poke“ bezeichnet) ist ein japanischer Begriff und bedeutet „Fehlervermeidung“. Er bezieht sich auf Vorrichtungen oder Prozessgestaltungen, die menschliche Fehler entweder verhindern oder sofort erkennbar machen. In der Lean Production sind Poka-Yoke-Lösungen weit verbreitet – es handelt sich meist um einfache, kostengünstige Maßnahmen, die sicherstellen, dass während der Fertigung oder Montage die richtigen Handlungen ausgeführt werden. Das Konzept wurde von Shigeo Shingo bei Toyota formalisiert. (2)
Quellen:
(1) Baudin, M. & Netland, T. (2023). Introduction to Manufacturing. Routledge.
(2) Shingo, S. (1986). Zero Quality Control: Source Inspection and the Poka-Yoke System. Productivity Press.
Mark Buzinkay hat einen Doktortitel in virtueller Anthropologie, einen Master in Betriebswirtschaft (Telekommunikationsmanagement), einen Master of Science in Informationsmanagement und einen Master of Arts in Geschichte, Soziologie und Philosophie. Mark hat den größten Teil seiner beruflichen Laufbahn damit verbracht, Geschäftsideen zu entwickeln und zu kreieren - aus Marketing-, Organisations- und Prozessperspektive. Er ist fasziniert von der digitalen Transformation von Industrien, insbesondere von Produktion und Logistik. Mark schreibt hauptsächlich über Industrie 4.0, maritime Logistik, Prozess- und Veränderungsmanagement, Innovationen an Land und auf See und die digitale Transformation im Allgemeinen.
Hier finden Sie einen Auszug aus seinen vielen Beiträgen (in Englisch)