Feeds:
Beiträge
Kommentare

Posts Tagged ‘Industrie 4.0’

Was hat Prozessindustrie mit e-Sport zu tun? Man kann voneinander lernen – denn der Umgang mit Daten ist gleichzeitig extrem spezifisch und branchenübergreifend ähnlich. Das nur eine der vielen Erkenntnisse aus der Chemalytix-Konferenz 2019.

Auf dem Weg in die Industrie 4.0 müssen Daten erstens zugänglich sein und zweitens sinnvoll ausgewertet werden. Bei der Chemalytix-Konferenz, die Covestro zusammen mit Bayer und Evonik im Dezember 2019 organisierte, drehte sich deshalb alles um die Frage: Welche Möglichkeiten, Chancen und Herausforderungen bietet der Einsatz von Data Science in der Prozessindustrie?
Dass bei diesem Thema viele Schlagworte teilweise inflationär verwendet werden, war den Veranstaltern offensichtlich bewusst: Sie griffen diesen Umstand – nicht ohne gewisse Selbstironie – durch ein Buzzword-Bingo für die Teilnehmer auf. Und das führte neben dem Unterhaltungswert auch dazu, dass die Sprecher auf ihre Wortwahl achteten. So dauerte es, bis der Jackpot geknackt werden konnte…

Keine Patentrezepte für Digitalisierung

Bereits in der Begrüßungsrede von Sucheta Govil, CCO von Covestro, wurde deutlich, dass die Natur der Digitalisierung eine domänenübergreifende Zusammenarbeit erfordert.

Boris Adryan von Merck beleuchtete im Einstiegsbeitrag die Herausforderungen und Hürden für erfolgreiche Digitalisierungsprojekte in Konzernen der Prozessindustrie. Dabei stellte er klar, dass Digitalisierung keinem Patenzrezept folgt, Use Cases nicht einfach zu finden sind und allgemeine Lösungsansätze nicht helfen. Anstatt aus Angst, einen Trend zu verpassen („fear of missing out“), generalisierte Anwendungsfälle zu verfolgen, sollten Anwendungsfälle mit echtem Mehrwert identifiziert werden. Die Umsetzung dieser Digitalisierungsprojekte muss dann in Zusammenarbeit mit den betroffenen Abteilungen durchgeführt werden, um Akzeptanz für die Transformation zu erreichen. Daher sollte keine zentrale Data Science Gruppe eingerichtet werden, sondern die entsprechenden Experten sollten für die Projektumsetzung direkt in den betroffenen Abteilungen arbeiten.

Vertrauliche Daten nutzen

Wie mit künstlicher Intelligenz die Wirkstoffforschung optimiert werden kann, stellte Gunjan Bhardwaj von Innoplexus vor. Grundlage ist die Verfügbarkeit der bekannten Daten; sie wird durch selbstentwickelte Crawler erreicht wird. Die entwickelte KI kann auch ohne den direkten Input von Daten arbeiten, indem der Owner eines Datensatzes eine Sub-KI trainiert und viele dieser Sub-KIs zu einer Gesamt-KI zusammengeführt werden. Hierdurch können vertrauliche Daten zu verbessertem Verständnis beitragen, ohne die Daten selber herauszugeben.

Definition of Digital: Anything that makes the interaction of people, data and things more valuable.

Gunjan Bhardwaj


Auch für den Bereich Predictive Maintenance können KI-Methoden genutzt werden, wie Tidhar Tsuri von Diagsense zeigte. Durch Modellbildung aus vorhandenen Daten können Abweichungen der laufenden Messungen vom Modell identifiziert werden („anomaly detection“), was auf eine Veränderung der Prozessanlage hindeutet.

Nach der Mittagspause, die für die vielen möglichen Gespräche gar nicht lang genug hätte sein können, berichteten Digitalisierungsdienstleister (mayato), Forschungsgruppen (FH Niederrhein, Fraunhofer ITWM) und Prozessindustrie (Evonik, Bayer, Covestro) in vier Parallelsessions über ihre Erfahrungen bei der Umsetzung von Data Science Projekten.

Von e-Sports-Helden lernen

Da digitale Technologien nicht anwendungsspezifisch sind, hilft auch ein Blick über das eigene Feld hinaus. Ein sehr komplexes Optimierungsproblem findet man bei der Heldenauswahl des Computerspiels Dota 2. Die gegeneinander antretenden Teams wählen abwechselnd ihre „Spielfiguren“ aus. Aufgrund der Vielzahl möglicher Kombinationen sind die verfügbaren Datensätze unvollständig. Für professionelle e-Sport-Kämpfe hat Elvan Aydemir von Amplify Analytix mit Reinforced Learning eine KI zur sequentiellen Entscheidungsfindung entworfen. Da bei diesem Optimierungsproblem mit unvollständigen Datensätzen eine optimale Lösung mathematisch nicht möglich ist, wird die KI durch die laufenden Kämpfe immer weiter verfeinert.

Der Effekt des Buzzword-Bingos auf eine bedachte Wortwahl der Referenten wurde dann auch deutlich: Erst zu diesem Zeitpunkt hatte die erste Teilnehmerin eine Reihe vervollständigt und bekam einen Raspberry Pi als Preis.

Ade Adewunmi von Fast Forward rundete das Programm mit Tipps zur Akzeptanzbildung für Digitalisierungsprojekte in Organisationen ab.Auch dafür gibt es keine Patentrezepte und die Firmenkultur muss für eine erfolgreiche Umsetzung berücksichtigt werden.

Nachwuchs im Wettbewerb

Auch der Nachwuchs der Data Science fand bei der Chemalytix eine Bühne. Beim Covestro Hackathon traten Gruppen von der Tonji University Shanghai, der CMU Pittsburgh und der RWTH Aachen an, um Lösungen für Data Science Probleme aus der chemischen Industrie zu entwickeln. Die drei regionalen Gewinner durften ihre Lösungen im Rahmen der Chemalytix vorstellen. Die Konferenzteilnehmer wählten die Lösung zur Vorhersage der Katalysatoraktivität in einer chemischen Anlage des Teams von der RWTH Aachen zum Gesamtsieger.

Bevor die Teilnehmer dann zu Glühwein und Keksen entlassen wurden, fasste der Leiter der Advanced Analytics bei Covestro, Nils Janus, die Ergebnisse zusammen. Er beschrieb den Stand der Digitalisierung der chemischen Industrie in Deutschland mit einer Analogie zu den fünf Stufen der Trauer beschrieben – Ablehnung, Wut, Verhandeln, Depression und Akzeptanz. Eine verkürzte Wiedergabe würde dieser wirklich guten Abschlussrede nicht gerecht werden, dafür müssen Sie wohl zur nächsten Chemalytix kommen. Noch gibt es zwar keine konkreten Planungen für eine Wiederauflage, aber die Teilnehmer waren sich einig, dass diese erste Konferenz zu Data Science in der chemischen Industrie in Deutschland weitergeführt werden sollte.

Zentrale Herausforderungen für die Data Science, die in vielen der Vorträge genannt wurden:

* Digitalisierung ist ein Teamsport.
* Nur Daten, die maschinenlesbar zugänglich sind, können für digitale Prozesse nutzbar gemacht werden.
* Daten benötigen Kontext.
* Wenn man etwas nicht messen kann und/oder es nicht in Kontext setzen kann, kann man es auch nicht optimieren.

Autor: Dr. Alexander Möller, DECHEMA e.V. / Forschungs- und Projektkoordination

Read Full Post »

Die Diskussion zur Digitalisierung in der chemischen Industrie schwankt zwischen Enthusiasmus und Ängsten – Zeit, die Diskussion anhand konkreter Beschreibungen zu führen. Das wollen wir in den nächsten Monaten in einer losen Serie tun.

Über die Veränderung der Arbeitswelt durch Digitalisierung und von neuen Geschäftsmodellen wird viel gesprochen. Deutlich wird dies durch allgegenwärtige Begriffe wie Künstliche Intelligenz, Blockchain, Big Data, 5G, Internet of Things und – als Zusammenfassung aller Aspekte im industriellen Umfeld – die Industrie 4.0. Auch Ängste sind mit diesem Trend verbunden. Wird Digitalisierung viele Berufe – vielleicht sogar den eigenen – überflüssig machen? Haben wir die Anlagen denn überhaupt noch unter Kontrolle, wenn sie nur noch von Algorithmen gesteuert werden?

Auf der anderen Seite gibt es aber auch die Enthusiasten, die durch die Digitalisierung die Lösung oder zumindest Unterstützung zur Lösung nahezu aller Herausforderungen sehen. Ein Grund für die großen Unterschiede in diesen Positionen ist eine Diskussion, die zumeist auf einem sehr hohen Abstraktionslevel geführt wird: Es werden Technologien allgemein betrachtet und ungefähre Anwendungsfälle beschrieben, ohne jedoch auf die konkrete Umsetzung in einem Bereich einzugehen.

Es ist an der Zeit, konkreter zu werden

Dies ist in Zukunftsdiskussionen durchaus zulässig und eine Vision kann man nicht entwerfen, wenn man sich in Details verliert. Manchmal ist es aber gerade bei Zukunftsfeldern an der Zeit, die Abstraktion zu reduzieren und bei der Beschreibung etwas konkreter zu werden. Durch diese konkreten Betrachtungen werden auch Chancen und Einschränkungen in spezifischen Einsatzfeldern deutlich. Zudem können die nötigen Schritte zur Umsetzung aufgezeigt werden.

In den nächsten Monaten werden wir hier Themen der Digitalisierung in der Prozessindustrie Betrachten. Zum Einstieg gibt es ein Ergebnispapier aus dem Workshop Digitalisierung elektrochemischer Prozesse, der dieses Jahr im Rahmen der BMBF-Fördermaßnahme InnoEMat durchgeführt wurde. Mitte Dezember organisierte Covestro die Chemalytix-Konferenz zu Data Science und Chemie – wir werden berichten. Ein Whitepaper zur Sensorik für die Digitalisierung chemischer Produktionsanlagen aus einem Workshop, der dieses Jahr bei der DECHEMA stattgefunden hat, wird in Kürze veröffentlich – auch dazu bald mehr an dieser Stelle.

Stichwort „Blockchain“

Außerdem schauen wir im kommenden Jahr auch auf eine konkrete digitale Technologie, mit einem Überblick über Blockchain, in dem wir darauf eingehen, was Blockchain überhaupt ist und welche Chancen und Einschränkungen diese Technik beim Einsatz in der Prozessindustrie hat. Auch das Thema Künstliche Intelligenz in der chemischen Industrie werden wir beleuchten. Mit dem Projekt KEEN startet im April ein BMWi gefördertes großes Verbundvorhaben zu diesem Thema.

Vielfältige Aktivitäten gibt es bereits im Bereich der Modularen Produktion, wobei die Modularisierung neben der Hardwareebene auch in der Automatisierungstechnik und Prozesssteuerung umgesetzt werden muss. Die Modularisierung wird ein Fokusthema auf der ACHEMA 2021 sein und daher auch hier einen besonderen Fokus erhalten.

Sensorik als Grundlage für Digitalisierung sind

Jede Intelligenz, ob klassisch oder künstlich, benötigt Sinnesorgane, um die nötigen Informationen für Entscheidungen zu erhalten. Daher ist Sensorik und Messtechnik ein zentrales Element der Digitalisierung das uns über das bereits erwähnte Whitepaper hinaus beschäftigen wird. Der Arbeitskreis Prozessanalytik hat beim Herbstkolloquium gerade 15 Jahre Trialog zwischen Anwendern, Herstellern und Akademia gefeiert und im Mai findet die europäische Konferenz für Prozessanalyse und –steuerung EuroPACT in Kopenhagen statt. Auch die Prozessanalytik wird ein Kongressthema auf der ACHEMA 2021 sein und entsprechend Platz in unserem Blog finden.

Neben der Digitalisierung in Produktionsprozessen spielt auch die Digitalisierung der Forschung und Entwicklung eine immer größere Rolle und natürlich werden wir auch hierzu berichten. Zum Labor im Zeitalter der Digitalisierung findet im März das PRAXISforum Lab of the Future statt. Ebenfalls im nächsten Jahr starten die Initiativen zur nationalen Forschungsdateninfrastruktur (NFDI) in denen Datenmodelle und Infrastruktur zur Dokumentation und Bereitstellung von Forschungsdaten entwickelt werden.

Und was meinen Sie?

Es gibt also viel zu berichten. Wir werden versuchen, einen möglichst umfassenden Überblick in kurzen und fokussierten Beiträgen zu liefern. Mit Sicherheit ist die Aufzählung aber nicht vollständig und es gibt noch eine Vielzahl weiterer Themen und Veranstaltungen zur Digitalisierung in der chemischen Industrie.

Wenn Sie finden, eine wichtige Veranstaltung wurde hier vergessen und sollte Erwähnung finden, teilen Sie uns dies gerne in den Kommentaren mit.

Read Full Post »

Digitalisierung und Modularisierung treiben die Prozessindustrie um und waren auch ganz große Themen der ACHEMA 2018. Wo stehen wir ein Jahr später? In einem im März 2019 veröffentlichten aktualisierten Statusbericht zeigen sich ProcessNet, NAMUR und ZVEI optimistisch, dass modulare Systeme kurz vor der Markteinführung stehen, ja, mit ersten Umsetzungsprojekten noch in diesem Jahr zu rechnen sei. Wir sprachen mit Reda Mostafa, Business Development Director bei PTC, über Datenmodelle hinter den Modulen, die Rolle von Technologieplattformen und neue Geschäftsmodelle für die Prozessindustrie.

Reda Mostafa, Business Development Director bei PTC

Eines lässt sich von Vornherein festhalten: Digitalisierung und Modularisierung sind 2019 genauso weit oben auf der Agenda wie zuvor. „Dass es um etwas wirklich Wichtiges geht, zeigt sich schon daran, wie viele Firmen und Player sich beteiligen“, meint Reda Mostafa mit Blick auf die zahlreichen Initiativen und Akteure, die verschiedenste Branchen zusammenführen. Das ist auch notwendig, denn bei der Digitalisierung der Prozessindustrie greifen viele Stufen ineinander. Das lässt sich an einem typischen Entwicklungsprozess zeigen: Man hat eine grundsätzliche Idee oder eine marktspezifische Anforderung, erforscht diese im Labor und übergibt sie dann ins Process Engineering, das daraus ein industrielles Verfahren entwickelt. Im Anschluss  kommt das Engineering Procurement and Construction (EPC) ins Spiel. Für die Erfüllung dieser komplexen Aufgabe gibt es sehr unterschiedliche Modelle, von der Nutzung  des  internen Anlagenbaus bis zur kompletten Übergabe an externe Anbieter (vorwiegend chinesische EPCs). Wenn der EPC vom Front End Engineering und Design bis zur Errichtung  seine Schritte abgeschlossen hat, folgt die Übergabe an den Owner / Operator, also das Chemieunternehmen, zur Produktivschaltung. Gleichzeitig werden die Bestandteile der Anlage als Assets in die Asset-Management-Software aufgenommen. Das ist der Standardprozess aus der „Innensicht“. Dazu gehört aber noch ein weiterer wichtiger Teil, nämlich die OEMs – die Lieferanten von Komponenten und Equipment. Sie liefern zum einen ans EPC, zum anderen aber auch direkt ans Werk. Und auch die Daten dieser konkreten Komponenten müssen ins System gelangen und dort gepflegt werden.

Interoperabilität als gemeinsame Herausforderung

„Es gibt also eine Vielzahl von Systemen und Datentöpfen (Silos), die die Anlage beschreiben und kontinuierlich abgeglichen werden müssen“, fasst Reda Mostafa zusammen. „Wenn man sich damit beschäftigt, erkennt man ganz klar die Problemstellung der Interoperabilität in der Industrie und damit  die Notwendigkeit zur Standardisierung.“ Denn nur mit einheitlichen Standards lassen sich Daten zwischen den Systemen austauschen oder in einer einheitlichen Plattform darstellen, um Datenverluste zu vermeiden und später schnell auf alle Informationen zugreifen zu können. Die Namur, Initiativen wie DEXPI und Projekte wie MTP haben sich der Entwicklung und Abstimmung gemeinsamer Datenstandards verschrieben. Die Namur nähert sich dem Interoperabilitätsproblem von Seiten der Automatisierer, während DEXPI Stakeholder aus allen Bereichen zusammengeführt hat, um zunächst das zentrale Dokument, das P&ID, zu standardisieren. Das MTP-Konzept (Module Type Package) nimmt vor allem die Anforderungen aus der Modularisierung in den Blick. Dazu kommt noch das  CFiHOS (Capital Facilities Information HandOver Specification), das für den Digital Handover (Process engineering und EPC) entwickelt wurde.

Das P&ID ist das zentrale Dokument einer Prozessanlage (Von Ub – Eigenes Werk, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=4847698)

In der Prozessindustrie gilt: „Ein Werk wird konzipiert, gebaut, und danach muss es funktionieren, hochverfügbar, zuverlässig und sicher“, sagt Reda Mostafa, aber genau wie das System müssen auch die Daten und Informationen hochverfügbar sein. Und auch, wenn dabei jedes Unternehmen am Ende für seine individuellen Einsatzfelder arbeitet, ist eine solche Standardisierung nur durch Zusammenarbeit aller Akteure erreichbar.

Verknüpfung von IT und OT

 „Der EPC hat die erste digitale Version des Werkes. Bei der Auslieferung gibt es aber selten ein vollständiges sauberes „Digital Handover“, stellt Reda Mostafa fest. Ein Grund für Lücken: Die führende Informationsbasis in der Prozessindustrie ist meist das P&ID. Darin ist das Verfahren mit allen Instrumenten, Komponenten und Stoffflüssen abgebildet. Es gibt auch die Spezifikationen der Komponenten hinsichtlich der Leitungsanforderungen wieder – doch welche Komponenten von welchem Hersteller eingebaut wurde, sucht man vergeblich, wenn man ein Ersatzteil bestellen will.

Sein Unternehmen PTC konzentriert sich vor allem darauf, Informationen aus dem Process Engineering in der Produktion verfügbar zu machen. Aber auch die Produktion selbst steht im Fokus: Anlagen müssen laufen, der Anlagenservice muss geplant und durchgeführt werden, und dabei sollen die Laufzeiten möglichst hoch sein.

Das ist eines der Themen, für die Verknüpfung von IT und OT, also von IT-Systemen wie ERP und Co. und Produktions-Hardware/Software, notwendig ist. „Wir sind das Bindeglied in die IT/OT-Welt“, erklärt Reda Mostafa. „Wir können über 150 verschiedene Steuerungssysteme lesen. Das heißt, wir können beispielsweise alle Informationen über eine Pumpe abrufen, und zwar sowohl die Eigenschaften der Pumpe wie etwa die Schwellenwerte als auch die Echtzeitinformationen, was die Pumpe gerade macht, mit welcher Drehzahl sie läuft und was sie befördert. Wir können aber nicht nur den unteren Level der Automatisierungspyramide abbilden, sondern auch von oben schauen: Für welchen Auftrag aus dem ERP-System arbeitet die Pumpe gerade.“ Das sei besonders wichtig, um im Nachhinein mögliche Probleme bei der Auftragsbearbeitung bzw. auch um eventuelle Qualitätsschwankungen besser untersuchen zu können; dann lässt sich bis in die Maschinensettings hinein nachvollziehen, wie die Produktion verlaufen ist.

Digitalisierung ist mehr als nur Datenerfassung

Und was ist mit der oft gehörten Aussage, die Prozessindustrie mit ihrer umfangreichen Datenerfassung und Dokumentation sei doch längst digitalisiert? „Wenn Digitalisierung das Erfassen, Speichern und auch das Monitoring von Daten in starren Prozess-Leitsystemen ist, dann ist die Chemieindustrie digitalisiert“, sagt Reda Mostafa. „Für mich ist Digitalisierung aber eher das Add-On: Was kann ich aus den Daten über ein reines Monitoring hinaus herausholen?“ Mit Hilfe einer umfassenden Analyse lassen sich Anomalien und Optimierungspotenziale erkennen, aber auch vorausschauende Aussagen zu Komponenten treffen, wie sie für Predictive Maintenance genutzt werden. „Die Daten sind da, aber bisher standen solche Auswertungen nicht im Fokus, und es fehlten auch die Tools dafür“, mein Reda Mostafa. Werden Engineering Daten verfügbar gemacht und in den Kontext von täglichen Routinearbeiten eingespielt, kommt es zu erheblichen Effizienzsteigerungen. Die Vorhersage, was im Werk passiert, kann zu den betrieblichen Zielen Hochverfügbarkeit und Zuverlässigkeit einen entscheidenden Beitrag leisten.

Darin liegen seiner Ansicht nach auch die größten Chancen für neue Geschäftsmodelle. „Es ist in der Regel nicht so sehr die Anlage, die Probleme bereitet, sondern eher die Integration der Supply Chain“, fasst er seine Erfahrungen zusammen. Mit durchgängigen Datenmodellen wäre es möglich, nicht nur im einzelnen Verfahrensschritt, sondern von der Verfahrensentwicklung bzw. auch von der Qualität von Rohstoffen oder Vorprodukten her Optimierungspotenziale zu erkennen. „Die Frage ist dann nicht so sehr, welche Verfügbarkeit die Produktion in einem Unternehmen derzeit erreicht und ob sie sich von 96 auf 97 % steigern lässt, sondern eher, wie effizient die Supply chain mit eingebunden wird, meint Mostafa. Umfassende Datenmodelle bieten aber noch weitere Vorteile: Kombiniert mit Augmented Reality können Dienstleister und neue Mitarbeiter schnell mit Anlagen vertraut gemacht werden – darin sieht Reda Mostafa „ein Riesenpotenzial“.

An der Schwelle zur Markteinführung

Es gibt ein paar wenige Beispiele flexibler modularer Einheiten in der Prozessindustrie, insgesamt ist die Modularisierung jedoch noch nicht in die Praxis eingezogen. Noch fehlt unter anderem die vollständige Beschreibung des MTP-Standards, auch wenn Experten sehr optimistisch sind, dass dies bald abgeschlossen sein wird. Unternehmen wie Evonik betreiben bereits Pilotanlagen und kooperieren dabei eng mit Automationsanbietern wie Siemens oder Yokogawa, um sich auf den Schritt in die Produktion vorzubereiten. Die PTC begleitet solche Initiativen teilweise mit hohen Investitionsaufwänden, um die Stärken der Plattform unter Beweis zu stellen bzw. zu Erproben. Für die Chemieindustrie müssen solche Anwendungsbeispiele noch entwickelt werden. Dabei kommt den Unternehmen, die an den Schnittstellen bzw. als Plattformanbieter arbeiten, eine besondere Rolle zu. Daten orchestrieren und im richtigen Moment zu informieren, zu warnen oder zu agieren: „Wir treten auf wie ein Startup“, beschreibt Reda Mostafa seine Rolle. „Wir müssen viel erklären und Beispiele finden, die für die Industrie auch relevant sind – am besten aus der gleichen Branche.“ Nur dann sei es möglich, auch die Mitarbeiter einzubinden und vom Mehrwert der neuen Technologien zu überzeugen.

Mehr zum Thema Digitalisierung und Modularisierung der Prozessindustrie erfahren Sie unter anderem auf der Themenseite Chemie

Read Full Post »

„Smart Production“, Industrie 4.0 oder „Future Production“ – die Transformation hin zu mehr Digitalisierung und Flexibilität ist in vollem Gange. Wie lässt sich das in bestehenden Anlagen umsetzen, und welche Möglichkeiten haben KMU, dabei mitzuhalten?

Ulrich König, Projektgruppe Wirtschaftsinformatik des Fraunhofer FIT, betreut gemeinsam mit Prof. Dr. Maximilian Röglinger, Prof. Dr. Nils Urbach, Universität Bayreuth, und Kollegen von der Projektgruppe Regenerative Produktion des Fraunhofer IPA das Forschungsprojekt SmarDe’s@Work .

Was sind die offensichtlichsten Unterschiede zwischen dem, was man sich als „Produktion der Zukunft“ vorstellt und dem, was wir heute schon sehen?

Die Schnelllebigkeit hat in der letzten Zeit extrem zugenommen und der Kundenfokus ist stärker geworden. Automobilzulieferer bekommen wenige Stunden vorab ihre Auftragsplanung und brauchen daher effizientere und flexiblere Prozesse in ihrer Produktion. Darauf fokussieren wir uns im Projekt: Wir möchten die Kommunikation verbessern und wir möchten sicherstellen, dass die Unternehmen für diese Schnelllebigkeit gewappnet sind.

Ein zweiter Aspekt ist die Aus- und Weiterbildung: Gerade in ländlichen Regionen ist es schwer, Personal zu finden. Teilweise gibt es Sprachbarrieren, wenn ausländisches Personal angeworben wird, und es gibt häufige Personalwechsel, so dass immer wieder neue Mitarbeiter angelernt werden müssen. Bei vielen unserer Anwendungsfälle spielen die Aus- und Weiterbildung sowie die Wissensweitergabe deshalb eine wesentliche Rolle. Dafür werden Dokumentationen erstellt, die teils stark grafiklastig sind, und Texte entsprechend gestaltet. Schulungsunterlagen können auch in Form von Videos angeboten werden. Eine weitere Herausforderung ist die Heterogenität der Anlagen mit unterschiedlichsten Digitalisierungsstufen. In der Vergangenheit hat das keine so große Rolle gespielt, weil die Produktionsaufträge und ähnliche Dokumente ohnehin noch als Papier hereinkamen und verarbeitet wurden. Jetzt muss eine durchgängige digitale Kommunikation sichergestellt sein, so dass Maschinen auch automatisch angesteuert werden können.

Was tun Sie in Ihrem Projekt, um den Weg der Unternehmen in die digitale Zukunft zu ebnen?

Ziel unseres Projektes ist, die Kommunikation zwischen Maschinen, Anwendungssystemen und Mitarbeitern über Smart Devices sicherzustellen und damit Produktionsprozesse zu verbessern. Wir entwickeln dafür einen Demonstrator für eine generalisierbare Middleware mit angebundener Client-Applikation, die aus jeder Produktionsanlage und jedem Anwendungssystem Daten erhalten und sie weitergeben kann. Die Fachlogik liegt dabei nicht in der Middleware selbst. Sie enthält nur einfache Operatoren und Gruppendefinitionen, um festzulegen, welches System welche Informationen bekommt. Sie ist mit Excel und XML konfigurierbar und dementsprechend einfach zu warten. Dabei ist die Lösung nicht an eine bestimmte Branche gebunden, sondern übergreifend einsetzbar. Derzeit haben wir im Konsortium Unternehmen aus der Metallverarbeitung, der Stanztechnik und aus dem Kunststoffspritzguss.

Ziel des Forschungsprojekts SmartDe’s@Work ist es, Smart Devices im Produktionsumfeld nutzbringend einzusetzen. Im Vordergrund steht die Vernetzung von Produktionsteilnehmern wie Mensch, Maschine und produktionsnaher IT-Systeme. Die optimale Kombination aus Software- und Hardware-Komponenten soll Produktionsprozesse durch eine interaktive und intuitive Informationsverarbeitung bei der Arbeitsvorbereitung (z. B. Arbeits- und Maschinenpläne, Rüstung von Anlagen) und der Produktion (z. B. Arbeitsanweisungen, Störungen, Echtzeit-Rückmeldung) unterstützen und dadurch Effizienz- und Optimierungspotenziale heben. Das Projekt wird von der Bayerischen Forschungsstiftung gefördert und läuft von Januar 2017 bis Februar 2019. Meht unter http://www.smart-devices.fim-rc.de

Wie sieht der Einsatz in der Praxis aus?

In unserem Projekt konzentrieren wir uns vor allem auf die Middleware und die Client-Applikation. Solange uns eine Anlage auf welche Weise auch immer Daten liefert – das kann sogar das rote Warnlämpchen sein, das sonst dem Mitarbeiter Handlungsbedarf signalisiert –  kann man die Middleware relativ einfach integrieren und die Daten über eine allgemeingültige Schnittstelle erfassen. In der Middleware werden sie weiterverarbeitet und über die Client-Applikation an ein Smart Device oder ein Anwendungssystem (z.B. ein ERP- oder BDE-System) übergeben. Wichtig ist für uns dabei, dass wir uns nicht auf eine Maschine oder einen Ausrüstungsgegenstand spezialisieren, sondern eine allgemeine und möglichst breit einsetzbare Lösung schaffen.

Wie weit ist die Industrie Ihrer Einschätzung nach auf dem Weg zu „4.0“? Ist das bei Großunternehmen nicht längst Alltag?

Große Unternehmen sind schon relativ weit, allerdings auch nicht flächendeckend. Es gibt sicher Werke, die man heute schon als „Industrie 4.0“ bezeichnen kann, aber das ist nur ein kleiner Ausschnitt. Und es gibt nach wie vor viele Insellösungen, etwa mit RFID, die nicht generalisierbar sind, schon gar nicht über Unternehmensgrenzen hinweg. Oft basiert die Industrie-4.0-Kommunikation auf einem homogenen Maschinenpark – die Geräte eines Herstellers können miteinander kommunizieren, aber nicht mit Maschinen anderer Hersteller. Solche Lücken überwinden wir mit unserer Middleware.

Mehr über das Projekt SmartDe’s@Work und viele andere Ansätze zur Digitalisierung und Flexibilisierung erfahren Sie beim PRAXISforum Future Production – werfen Sie einen Blick ins Programm!

Und wo bleiben die KMUs, die keine riesigen Transformationsprogramme stemmen können?

Unser Ansatz eignet sich insbesondere für KMUs. Unser Projekt ist bewusst in einer KMU-geprägten Region angesiedelt. Wir nutzen gängige Geräte, die auf dem Markt einfach erhältlich sind, und erstellen den Middleware-Demonstrator. Die Middleware lässt sich überall einfach integrieren und soll im Laufe des Jahres auch als Open-Source-Lösung angeboten werden. Die meisten Anwendungspartner mussten nur einen zusätzlichen Standard-PC beschaffen und die Anbindung der Maschinen an die Middleware sicherstellen. Die Kosten dafür sind überschaubar und auf jeden Fall günstiger, als im großen Umfang den Maschinenpark zu erneuern. Die meisten ERP-Systeme bieten auch schon Schnittstellen und lassen sich innerhalb weniger Wochen anbinden. Alles ist robust ausgelegt, damit es den Produktionsalltag überlebt, und die Geräte sind leicht zu ersetzen. Wenn etwas zu Schaden kommt, soll alles schnell wieder einsetzbar sein – man nimmt ein Standardgerät, installiert die Client-Applikation, und innerhalb einer Stunde läuft alles wieder.

Am Ende bleibt natürlich immer die Kosten-Nutzen-Frage. Unser Konzept ist aber so gestaltet, dass die Transformation prinzipiell möglich ist. Es gibt andere Ansätze, bei denen zum Beispiel Sensorboxen an Maschinen angeschlossen werden, um Daten zu erfassen und weiterzugeben. Das könnten wir theoretisch auch, die Frage ist nur, welche Daten man dann bekommt. Wir konzentrieren uns vor allem auf transaktionale Kommunikationsdaten: Fällt eine Maschine zum Beispiel in einen Stillstandsmodus, sollen andere Maschinen und Mitarbeiter darüber schnell informiert werden. Die Nutzung von Produktionsdaten für analytische Zwecke haben wir uns für kommende Forschungsprojekte vorgenommen.

Für Rückfragen zum Forschungsprojekt stehen Ihnen Ulrich König (ulrich.matthias.koenig@fit.fraunhofer.de) sowie Prof. Dr. Röglinger (maximilian.roeglinger@fit.fraunhofer.de) Prof. Dr. Urbach (nils.urbach@fit.fraunhofer.de) und Joachim Kleylein-Feuerstein (joachim.kleylein-feuerstein@ipa.fraunhofer.de) gerne zur Verfügung.

Read Full Post »

Ideen für die „digitale Chemieindustrie“ werden nun schon seit einigen Jahren diskutiert. Während die Hersteller von Feinchemikalien und Pharmazeutika das Konzept höherer Flexibilität und kleinerer Losgrößen zunehmend aufgreifen, hat die „traditionelle“ chemische Grundstoffindustrie immer noch Schwierigkeiten damit, die neue Philosophie mit einem Geschäft in Einklang zu bringen, das über Jahrzehnte vor allem auf Effizienz und weniger auf Flexibilität getrimmt wurde. Ein Argument, das man gar nicht so selten hört: Wir produzieren Grundstoffe in großen Mengen, die sich kaum individualisieren lassen – „Losgröße 1“ ist etwas für Unternehmen, die näher am Kunden sind.

Michael Dejmek von hte, Forschungs- und Entwicklungsdienstleister für katalytische Prozesse, lässt das nicht gelten: „Nur weil die Industrie im Tonnenmaßstab pro Kampagne denkt, heißt das nicht, dass kleinere Losgrößen nicht gebraucht würden – bisher sind sie nur nicht möglich.“ Er sieht eine ganze Reihe von Vorteilen, die mit der Umsetzung von „Industrie 4.0“ in der chemischen Industrie realisiert werden könnten: Höhere Flexibilität, kleinere Losgrößen zu wettbewerbsfähigen Kosten, kleinere Produktionsanlagen, eine weit größere Produktvielfalt. „Im Moment dauert das Umrüsten viel zu lang. Wir sind zur Reaktion verdammt – wenn etwas anderes produziert werden soll, müssen viele Parameter angepasst werden, und wir starten bei Null. Industrie 4.0 bedeutet Aktion: Wenn man seinen Prozess gut genug kennt, kann die erste oder zweite Produktcharge schon marktfähig sein.“

 

Anzeige Future Production quer web

Was bedeutet „Future Production“ für Ihr Unternehmen? Diskutieren Sie mit anderen Experten beim PRAXISforum – hier finden Sie das Programm.

Das bedeutet nicht nur Zeitersparnis, sondern eine viel geringere Ausschussrate. Auch sein eigenes Unternehmen spürt den Druck sich verändernder Marktanforderungen: Zogen sich Projekte früher über Monate oder sogar Jahre hin, verlangen die Kunden heute alle paar Wochen Anpassungen. „Deshalb sind die Umrüstzeiten so wichtig geworden“, sagt Dejmek. Sein Rat: Wer so viele Daten wie irgend möglich nutzt, kann seine Prozesse besser verstehen, daraus extrapolieren und so beim Aufsetzen eines neuen Prozesses im ersten Schritt dem Optimum deutlich näher kommen. Wer darüber hinaus technische Lösungen einsetzt, um händische Arbeit zu vermeiden und Wochenenden und Nächte außerhalb der Schichtzeiten zu nutzen, kann seine Umrüstzeiten erheblich verringern.

Eine der Voraussetzungen, um verfügbare Daten zu nutzen, ist die entsprechende IT. Mark Talford von Britest Ltd. weist darauf hin, dass diese nun endlich Schritt hält mit Ideen, die schon seit 10 oder 15 Jahren im Umlauf sind: „Wir sind heute tatsächlich in der Lage, das Prozesswissen mit Wissen zur Modellierung von modularen Anlagen zu verknüpfen und so schnell und kostengünstig zu besseren Entscheidungen zu kommen.“ Besonders Hersteller von Pharmazeutika und Feinchemikalien prüfen nun, wie Konzepte der „Future Production“ für die Formulierung und die modulare Produktion einsetzbar sind, und sie denken auch darüber nach, inwieweit sie sich in die Herstellung von Wirkstoffen im Pilotmaßstab übertragen lassen. Große Firmen wie BASF bereiten sich derweil darauf vor, neue Geschäftsmodelle umzusetzen. Dabei erweitern sie ihr Angebot entlang der Wertschöpfungskette hin zu integrierten Lösungen, etwa beim 3D-Druck oder bei der Nutzung von Echtzeitdaten in Lackierstraßen, um Lackfarben zu optimieren. Der Schlüssel zum Erfolg liegt darin, auch unkonventionelle Ideen zu entwickeln – oder, wie Michael Dejmek sagt: „Henry Ford soll gesagt haben „hätte ich die Leute gefragt, was sie wollen, hätten sie gesagt: schnellere Pferde“. Wenn man nicht weiß, was überhaupt möglich ist, kann man es auch nicht nachfragen.“ Herauszfinden, was möglich ist, ist also die nächste große Aufgabe für Technologieanbieter und Chemieproduzenten.

 

Read Full Post »

In den kommenden Wochen wollen wir in einer kleinen Serie Aspekte näher beleuchten, die auf dem Weg zur „Future Production“ eine Rolle spielen und möglicherweise Hürden darstellen, aber auch bisher ungeahnte Chancen eröffnen können. Zum Auftakt sind Sie gefragt: Wo sehen Sie die größten Herausforderungen, aber auch die größten Chancen? Wir freuen uns auf Ihre Kommentare und Anregungen und werden diese im Rahmen der kommenden Beiträge aufgreifen.

Wie weit sind die chemische und pharmazeutische Industrie auf dem Weg zu „Future Production“? Eine Studie, die das ZEW im Auftrag des VCI durchgeführt hat, lenkt den Fokus auf das Thema Digitalisierung der Chemie- und Pharmaindustrie.

Die Autoren verweisen auf den bereits hohen Digitalisierungsgrad der Unternehmen, benennen aber auch Chancen, die noch darüber hinausgehen – etwa neue Simulationsansätze in der Forschung, wesentliche Produktivitätsgewinne durch Methoden wie digitales Supply-Chain-Management oder digitale Anlagenmanagementsysteme und neue Produkte, Dienstleistungen und Geschäftsmodelle.

Die Nutzung der Chancen der Digitalisierung erfordert aus Sicht von ZEW und CWS Veränderungen in den Unternehmen, bei den Beschäftigten, in der Wissenschaft und in der Politik. Wichtige Themen sind dabei Aus- und Weiterbildung, Datenschutz- und IT-Sicherheit, IT-Infrastruktur, Fragen von Schnittstellen und Datenstandards, die Entwicklung digitaler Plattform, Open Innovation und die Entwicklung von Digitalisierungsstrategien.

Was meinen Sie: Wo liegen die großen Herausforderungen? Sind es technische Fragen, oder geht es auch oder sogar weit mehr um Veränderungen in den Köpfen? Sind wir bereit für „Future Production“? Kommentieren Sie hier oder schreiben Sie uns!

 

Read Full Post »

thumbnailWie muss die Prozessindustrie auf die Digitalisierung reagieren, damit sich auch in 20, 50 oder 100 Jahren noch eine Rolle spielt? Dieser Frage widmeten sich etwa 100 Experten und Entscheider aus der Chemie- und Prozessindustrie beim 57. Tutzing-Symposion „100% digital: Überlebensstrategien für die Prozessindustrie“. Organisiert wurde die Veranstaltung vom DECHEMA e.V. und der ProcessNet-Fachgemeinschaft Prozess-, Apparate-, und Anlagentechnik PAAT unter Federführung der Vorsitzenden Prof. Dr.-Ing. Norbert Kockmann, TU Dortmund, und Dr. Hans-Rolf Lausch, Evonik.

Die wegweisende Veranstaltung bestand aus zahlreichen Impulsvorträgen von Experten und Entscheidern der Prozessindustrie sowie Kreativ-Workshops an zwei Nachmittagen.

Die Ergebnisse der Workshops und intensiven Diskussionen wurden in 36 Tutzing-Thesen zusammengefasst.

Mehr erfahren und mitdiskutieren – hier im Blog oder beim Jahrestreffen der ProcessNet-Fachgemeinschaft „Prozess-, Apparate- und Anlagentechnik“ am 12. und 13. November 2018 in Köln – jetzt anmelden

Workshop 1: Horizontal, Supply Chain vom Rohstoff bis zum Kunden

  1. Die horizontale Integration der Wertschöpfungskette (auch firmenintern) birgt enorme Potentiale für alle Beteiligten
  2. Es gibt einen Bedarf an digitalen Plattformlösungen incl. Planungstools für mittelständische Unternehmen ohne 1:1 Datenintegration zwischen Lieferant-Hersteller-Kunde
  3. Herausforderungen der horizontalen Integration bestehen eher bei Vertrauen und Zusammenarbeit als bei der technischen Umsetzung
  4. die horizontale und vertikale Vernetzung müssen stärker verbunden und integriert werden

Workshop 2: Vertikal, R&D, Planung, Produktion

  1. Der Digital Twin ist das Fundament der Digitalisierung in der Prozessindustrie
  2. Das volle Potential der Digitalisierung kann in der Prozessindustrie erst durch Künstliche Intelligenz gehoben werden
  3. Digitalisierung ermöglicht ein Mehr an Innovation (neuartige Produkte, Prozesse, Wertschöpfungsketten)
  4. Digitalisierung ist nicht im Alleingang möglich, sie muss gemeinsam gestaltet werden
  5. Digitalisierung im Asset Life Cycle (ALC) macht nur Sinn, wenn der Digital Twin gefüllt und immer aktuell ist (Akzeptanz)
  6. Digital Twin zwingt zur Zusammenarbeit
    • Entwicklung ist nur gemeinsam möglich
    • Wenn der Digital twin existiert, wird die interdisziplinäre Zusammenarbeit intensiviert
  7. Der Digital Twin wird Time to Market deutlich reduzieren, die Flexibilität erhöhen und Kosten senken
  8. Der Digital Twin schafft Zeit und Potential für mehr Kreativität, kann aber durch Bedrohung von Tätigkeiten und Arbeitsplätzen kritisch gesehen werde
    • Der Digital Twin vermeidet Doppelarbeit/ reduziert Fehler
  9. Digitalisierung / Digital Twin fördert Zusammenarbeiten:
    • Im Unternehmen / Unternehmensübergreifend / zu Lieferanten
  10.  Der Verlust des Digital Twins ist der Gau
    • Know how Verlust / Spannungsfeld Zugriffsrechte und Kooperation
  11. Der Ingenieur steht im Wettbewerb / in Symbiose mit Künstlicher Intelligenz KI, allerdings darf die KI nicht über den Menschen entscheiden
  12. Der Grad der Autonomie (der KI) wird von der Bereitschaft der Gesellschaft bestimmt
  13. KI unterstützt Interdiziplinarität, die früher im ALC eine Rolle spielen wird

Tutzing Video

Zum Video zum Tutzing-Symposium 2018: https://youtu.be/HuOkiwjIl4U

Workshop 3: Intelligente Apparate: Das 100% Modul

  1. ist der Building Block für ein Smart Manufacturing-Eco-System
  2. erschließt weitere Potenziale bei Verfügbarkeit, Produktivität und Flexibilität
  3. erfordert Co-Kreation über Unternehmens- & Disziplingrenzen hinweg
  4. stellt neue juristische, technische und organisatorische Fragen
  5. verändert Ausbildung an Hochschulen von selektiver Funktions- zu ganzheitlicher Prozess-Sicht

Workshop 4: Datenkonzepte und autonome Anlage

  1. Durch konsequente Nutzung von Datenkonzepten, Datenanalyse, Big Data und KI ergibt sich ein entscheidender Wettbewerbsvorteil in der Prozessindustrie
  2. Gemeinsame Wettbewerbsfähigkeit der Prozessindustrie und ihrer Zulieferer durch Nutzung von Bausteinen der Digitalisierung (Big Data und KI) ausbauen
  3. Schulterschluss von Anwendern und Lieferanten zur intelligenten Nutzung von Daten zum Meistern der gesellschaftlichen und wirtschaftlichen Herausforderungen
  4. Fairer Umgang beim Austausch von Daten und Erfahrungen zwischen Prozessindustrie und ihren Zulieferern durch offene, standardisierte, herstellerunabhängige Schnittstellen

Workshop 5: Arbeitswelt 4.0

  1. Die Digitalisierung ist der Change Prozess der Arbeitswelt der 20iger Jahre
  2. Die Digitalisierung wird die Organisation der Arbeit verändern hin zu einer Gesamtbetrachtungsweise.
  3. Anzahl der Arbeitsplätze in der Produktion wird sinken während die der Stakeholder steigen werden.
  4. Der Anspruch an die Qualifikation der Mitarbeiter ändert sich zu größeren Extremen (niedrig/hoch)
  5. Digitalisierung erfordert eine verstärkte Interaktions- und Kommunikationsfähigkeit und die Bedeutung der Kommunikation über verschiedene Kanäle wird zunehmen
  6. Die Zuordnung der Verantwortung und der sichere Betrieb von Anlagen ist zu gewährleisten

Workshop 6: Aus- und Fortbildung

  1. Ein fundiertes Grundlagenwissen ist auch in Zeiten der Digitalisierung unabdingbare Voraussetzung und muss zeitgemäß vermittelt werden
  2. Die Digitalisierung erfordert eine häufigere Überprüfung und angemessene Überarbeitung der Curricula
  3. Wir sehen eine gesamtgesellschaftliche Verpflichtung zur Qualifizierung von Arbeitnehmern und zur Schaffung einer bedarfsgerechteren Bildungsinfrastruktur
  4. Die Bedeutung von lebenslangem Lernen nimmt durch Digitalisierung zu. Universitäten & Hochschulen sollten als Think Tanks der Zukunft Fortbildungs-Angebote für Wirtschaft und Verwaltung entwickeln

Die Thesen dienen als Ausgangspunkt für weitere Diskussionen – seien Sie dabei und geben Sie Ihren Input!

Read Full Post »

Older Posts »