Feeds:
Beiträge
Kommentare

Posts Tagged ‘Digitalisierung’

Die Innovationsplattform „KEEN – Künstliche-Intelligenz-Inkubator-Labore in der Prozessindustrie“ ist am 19. September 2019 im KI-Innovationswettbewerb des Bundesministeriums für Wirtschaft und Energie (BMWi) ausgezeichnet worden. Der Wettbewerb prämiert durchsetzungsstarke Leuchtturmprojekte, die die künstliche Intelligenz (KI) als Treiber für volkswirtschaftlich relevante Ökosysteme einsetzen wollen. Ab April 2020 wird das BMWi das KEEN-Konsortium voraussichtlich mit 10 Mio. EUR fördern. Zum gesamten Projektvolumen kommen noch 7,5 Mio. EUR von den Industriepartnern.

KEEN wird von der TU Dresden koordiniert und verbindet 25 Industrie- und Wissenschaftseinrichtungen, darunter die DECHEMA, mit dem Ziel, die Technologien und Methoden der künstlichen Intelligenz in der Prozessindustrie einzuführen. Diese umfasst u.a. die chemisch-pharmazeutische Industrie und ist die drittgrößte Industriebranche Deutschlands. Damit sie im internationalen Wettbewerb weiterhin konkurrenzfähig bleibt, muss die Produktion vorausschauender werden. Immer kürzere Produktlebenszyklen einerseits und der hohe Bedarf an Nachhaltigkeit und dem verantwortungsbewussten Umgang mit den Ressourcen anderseits bilden ein Spannungsfeld, dem die traditionelle Anlagenplanung und Prozessführung nicht mehr gewachsen sind. Künstliche Intelligenz hat das Potenzial, diesen spezifischen Herausforderungen zu begegnen. Denn sie kann große Datenmengen erfassen, verstehen und analysieren und damit komplexe Prozesse besser prognostizieren. „Wenn die Komplexität von Produkten, Prozessen und Anlagen steigt, brauchen Ingenieure einen ‚kognitiven Verstärker‘, um flexibler und schneller die neuen Lösungen zu erarbeiten“, so der KEEN-Projektkoordinator Prof. Leon Urbas, Professor für Prozessleittechnik an der TU Dresden. „Die künstliche Intelligenz kann einen gut ausgebildeten Ingenieur nicht ersetzen, aber ein nützliches Werkzeug für ihn sein.“

Das KEEN-Konsortium forscht an der Implementierung von KI-Verfahren in drei Themenbereichen: der Modellierung von Prozessen, Produkteigenschaften und Anlagen, dem Engineering (besonders der Unterstützung komplexer Planungsprozesse und Sicherheitsengineering) sowie der Realisierung selbstoptimierender Anlagen. „Die Einbeziehung verschiedener Aktivitäten im gesamten Feld der chemischen und biotechnologischen Industrie erlaubt uns, die Möglichkeiten der Digitalisierung sehr breit zu erkunden“, ist Prof. Norbert Kockmann von der Technischen Universität Dortmund überzeugt. Die künstliche Intelligenz kann Muster komplexer Prozesse erkennen und helfen, Ähnlichkeiten, statistische Auffälligkeiten und Simulationen einzubinden und Entscheidungsempfehlungen abzuleiten. „Für die Prozessindustrie ist es wichtig, dass die KI nicht nur Handlungsempfehlungen liefert, sondern auch Erklärungen, auf welcher Grundlage diese Empfehlungen erstellt wurden“, erklärt Prof. Urbas. „Der Entscheidungsprozess muss transparent sein. Nur so können die Ingenieure eine bewusste Auswahl treffen“.  

„Wir wollen KI-basierte Lösungen erarbeiten, die am Ende einen echten Mehrwert für die Unternehmen darstellen. Durch die starke, breit aufgestellte industrielle Beteiligung, von Startups bis hin zu großen Konzernen, bietet das Projekt die Möglichkeit, die KI-Innovationen direkt in die Anwendung zu überführen“, so Dr. Michael Bortz, Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM. Die Forschungsarbeit im KEEN-Projekt soll bis 2023 laufen. Bis 2025 sollen die ersten kommerziellen KI-Produkte für die Prozessindustrie verfügbar sein.

Quelle: TU Dresden, weitere Informationen: https://tu-dresden.de/tu-dresden/newsportal/news/die-innovationsplattform-keen-an-der-tu-dresden-ist-unter-gewinnern-des-ki-innovationswettbewerbs-des-bmwi

Read Full Post »

Arbeitskreis Prozessanalysentechnik feiert Jubiläum

Vor 15 Jahren wurde der Arbeitskreis Prozessanalysentechnik als Forum für Anwender Hersteller und Akademia gegründet. Seine Aufgabe ist noch lange nicht erfüllt, denn kaum ein Thema entwickelt sich angesichts von Digitalisierung und Prozessintegration so dynamisch wie die Prozessanalytik. Beim 15. Herbstkolloquium Prozessanalytik vom 25. -27. November im Marl geht es deshalb vor allem um Entwicklungen für die Zukunft.

Die Gründung: Ein Kommunikationsforum für die Prozessanalytik

Ohne Prozessanalytik geht fast nichts in der chemischen, pharmazeutischen oder Lebensmittelproduktion – von der Planung bis zur Produktion werden Daten gesammelt, ausgewertet und auf dieser Basis Prozesse angepasst und optimiert.  Und was vor 15 Jahren galt, ist heute so aktuell wie je: Die Prozessanalytik (PAT) ist ein hochdynamisches Thema, dass die Zusammenarbeit vieler erfordert. Deshalb wurde der Arbeitskreis PAT ins Leben gerufen.  Er bildet eine Anlaufstelle für Austausch und Kommunikation für Wissenschaftler, Entwickler und Anwender.

Heute: Mehr Dynamik als je zuvor

Heute ist die PAT dynamischer denn je. Immer noch werden neue analytische Verfahren entwickelt. Doch auch bestehende Laborverfahren müssen an die Anforderungen der Prozessanalytik angepasst werden. Dazu kommen die Möglichkeiten, die durch die Digitalisierung realisiert werden sollen: Von neuartigen Sensorkonzepten über Plug-In-Software für mobile Geräte bis zu Deep Learning verändern innovative Ansätze die Prozessanalytik. Gleichzeitig sinken die Kosten und sorgen so dafür, dass immer mehr Prozess-Sensoren eingesetzt werden.

Wie werden solche Systeme konsistent in Automatisierungs-Konzepten vernetzt? Um diese Frage zu klären, müssen sich die Akteure innerhalb der Prozessanalysentechnik mehr denn je austauschen. Mehr noch: Der Austausch mit anderen Disziplinen ist unbedingt erforderlich, um das vorhandene Potenzial der Prozessanalytik effektiv für die Prozesse zu nutzen.

Der Arbeitskreis Prozessanalysentechnik: Ein Forum für den Trialog

Hier setzt der Arbeitskreis Prozessanalysentechnik an. Dieses Forum ist zugleich national und international Schnittstelle zu anderen Organisationen auf dem Gebiet der Prozessanalytik. Damit übernimmt der „AK PAT“ die Themenführerschaft im Bereich der Prozessanalytik bzw. der Prozessanalysentechnik (PAT) in der DACH-Region. Er vernetzt Fachleute aus den drei Sektoren Anwender, Hersteller und Akademia im Trialog zu einer gemeinsamen Community.

Trialog und Themenspektrum des AK-PAT

Ein starkes Netzwerk auf vielen Säulen

Der Arbeitskreis Prozessanalytik  ist ein Zusammenschluss von Einzelpersonen, der als Arbeitskreis der Fachgruppe Analytische Chemie in der GDCh verortet ist. Gleichzeitig pflegt er eine enge fachliche Anbindung an die Fachgruppe Prozess-, Apparate- und Analysentechnik in der DECHEMA. Aus diesen Gremien kommen technische Konzepte, Empfehlungen und Good Practice, vor allem aber auch Standardisierung in sehr systematischer Arbeit. Der AK-PAT ergänzt dies als Forum, das sich den Austausch aller Beteiligten zum Thema Prozessanalytik zum Ziel gesetzt hat. Der AK-PAT ist heute die wichtigste deutschsprachige Plattform für Prozessanalytik mit über 350 Mitgliedern.

Beispielhafte Schwerpunkte des AK-PAT

Smarte Sensoren

Der smarte Sensor misst mehrere Messgrößen, kalibriert und optimiert sich selbst, ist leicht in Anlagen zu integrieren und erhält seinen Betrieb selbständig. Eine Prozessintelligenz kann aus den multisensorischen und multivariaten Messdaten übergeordnete Informationen generieren. Dies ermöglicht eine flexible, aber zielgenaue prädikative Prozessführung, die Schwankungen der Prozessumgebung begegnen kann. Der AK-PAT beschäftigt sich  mit der Fragestellung, wie eine Selbst-Kalibrierung erreicht werden kann. Außerdem soll der Anwender das Lebenszyklus-Management zum Erhalt eines validen Messsystems sichern können.

Automatisierungskonzepte

Die Prozessanalytik fokussiert sich nicht nur auf die Erfassung von physikalischen und chemischen Messgrößen oder das Verständnis der Prozesse, sondern befasst sich auch mit flexibilisierten Automatisierungskonzepten und Prozesstopologien. Das reicht  von der Versuchsplanung bis hin zu einer modell- und datengetriebenen Prozessführung. Solche Konzepte sind ein durchgängiges Hauptthema auf den Veranstaltungen des AK-PAT  wie z.B. dem jährlichen Kolloquium.

Förderung für den Nachwuchs

Die Nachwuchsförderung liegt dem AK-PAT besonders am Herzen. Deshalb hat er das Doktorandenseminar als spezielles Forum entwickelt. Es bereitet Jungakademiker auf die spätere wissenschaftliche Arbeit in einer PAT-Abteilung vor. Beim Doktorandenseminar des AK-PAT können Nachwuchswissenschaftler die eigene Arbeit im Kreis von Gleichgesinnten vorstellen und diskutieren. Das Feedback hilft dabei, Querverbindungen oder andere Perspektiven zu entdecken. Man könnte auch sagen:  Hier lässt sich „der Austausch üben“. Fachlich tiefgehende Vorträge von Praktikern aus der Industrie tragen dazu bei. Übungen zu Kreativitätstechniken und zur Ideenentwicklung wie etwa Design Thinking vermitteln Arbeitstechniken, die in der Industrie geschätzt werden.

Doktorandenseminar 2019 bei der BAM in Berlin

Dass im Vorstand des Arbeitskreises neben den drei Vertretern der Trialog-Partner auch ein Jungakademiker Vorstandsmitglied ist, zeigt,  welche Bedeutung den Jungakademikern im AK-PAT beigemessen wird

Der jährliche Höhepunkt – das Herbstkolloquium des AK-PAT

Das Herbstkolloquium des Arbeitskreis Prozessanalytik ist der jährliche Höhepunkt des Trialogs. In diesem Jahr findet es am 26. und 27. November in Marl bei Evonik statt. Themenschwerpunkt des 15. Kolloqiums ist die Prozessanalytik in der industriellen Anwendung: Innovative Prozessanalytik als zentrales Element im Produktlebenszyklus.

Das Kolloquium umfasst Vorträge von Forschern und industriellen Anwendern, aber auch moderierte Round-Table-Diskussionen, an denen sich jeder Teilnehmer beteiligen kann. Dabei können Fragen und Kommentare zu den Vorträgen nicht nur am Ende des Vortrags vorgebracht werden, sondern über ein Onlinesystem  per Smartphone auch bereits während des Vortrags.  So findet jede Frage und jeder Kommentar zum Schluss Berücksichtigung.

Vortragssession auf dem PAT-Kolloquium 2017 bei Festo in Esslingen

Ein Highlight ist die Poster-Ausstellung und der Poster-Slam. Jung-Forscher stellen ihre Poster zu ihren wissenschaftlichen Arbeiten in kürzester Zeit und hintereinander weg auf dem Podium vor. Wem diese Zeit zur kurz ist oder wer vertieft diskutieren möchte, hat dafür viel Gelegenheit:  Alle Poster sind an beiden Veranstaltungstagen in der Poster-Ausstellung zu sehen und können mit den Vortragenden diskutiert werden. Auch über den Poster-Preis kann onlineabgestimmt werden; er wird am Schluss der Veranstaltung verliehen.

Und auch die Anwendung kommt nicht zu kurz: Die Veranstaltung wird von einer Ausstellung der Hersteller von Prozessanalysentechnik begleitet. Dort kann man mit Firmen ins Gespräch kommen.

Auch auf europäischer Eben ist der AK PAT aktiv – zum Beispiel im Rahmen der EuroPACT

Die ersten 15 Jahre haben Sie verpasst? Lassen Sie es nicht noch mehr werden. Ihre Mitarbeit ist jederzeit willkommen – werden Sie jetzt Mitglied und nehmen Sie am Trialog und an unseren Veranstaltungen teil.

www.arbeitskreis-prozessanalytik.de

Nächster Termin für den alle Prozessanalytiker: Das Herbstkolloquium Prozessanalytik vom 25. -27. November im Marl mit dem Themenschwerpunkt: PAT in der industriellen Anwendung – Innovative Prozessanalytik als zentrales Element im Produktlebenszyklus Melden Sie sich jetzt an!

Read Full Post »

Digitalisierung und Modularisierung treiben die Prozessindustrie um und waren auch ganz große Themen der ACHEMA 2018. Wo stehen wir ein Jahr später? In einem im März 2019 veröffentlichten aktualisierten Statusbericht zeigen sich ProcessNet, NAMUR und ZVEI optimistisch, dass modulare Systeme kurz vor der Markteinführung stehen, ja, mit ersten Umsetzungsprojekten noch in diesem Jahr zu rechnen sei. Wir sprachen mit Reda Mostafa, Business Development Director bei PTC, über Datenmodelle hinter den Modulen, die Rolle von Technologieplattformen und neue Geschäftsmodelle für die Prozessindustrie.

Reda Mostafa, Business Development Director bei PTC

Eines lässt sich von Vornherein festhalten: Digitalisierung und Modularisierung sind 2019 genauso weit oben auf der Agenda wie zuvor. „Dass es um etwas wirklich Wichtiges geht, zeigt sich schon daran, wie viele Firmen und Player sich beteiligen“, meint Reda Mostafa mit Blick auf die zahlreichen Initiativen und Akteure, die verschiedenste Branchen zusammenführen. Das ist auch notwendig, denn bei der Digitalisierung der Prozessindustrie greifen viele Stufen ineinander. Das lässt sich an einem typischen Entwicklungsprozess zeigen: Man hat eine grundsätzliche Idee oder eine marktspezifische Anforderung, erforscht diese im Labor und übergibt sie dann ins Process Engineering, das daraus ein industrielles Verfahren entwickelt. Im Anschluss  kommt das Engineering Procurement and Construction (EPC) ins Spiel. Für die Erfüllung dieser komplexen Aufgabe gibt es sehr unterschiedliche Modelle, von der Nutzung  des  internen Anlagenbaus bis zur kompletten Übergabe an externe Anbieter (vorwiegend chinesische EPCs). Wenn der EPC vom Front End Engineering und Design bis zur Errichtung  seine Schritte abgeschlossen hat, folgt die Übergabe an den Owner / Operator, also das Chemieunternehmen, zur Produktivschaltung. Gleichzeitig werden die Bestandteile der Anlage als Assets in die Asset-Management-Software aufgenommen. Das ist der Standardprozess aus der „Innensicht“. Dazu gehört aber noch ein weiterer wichtiger Teil, nämlich die OEMs – die Lieferanten von Komponenten und Equipment. Sie liefern zum einen ans EPC, zum anderen aber auch direkt ans Werk. Und auch die Daten dieser konkreten Komponenten müssen ins System gelangen und dort gepflegt werden.

Interoperabilität als gemeinsame Herausforderung

„Es gibt also eine Vielzahl von Systemen und Datentöpfen (Silos), die die Anlage beschreiben und kontinuierlich abgeglichen werden müssen“, fasst Reda Mostafa zusammen. „Wenn man sich damit beschäftigt, erkennt man ganz klar die Problemstellung der Interoperabilität in der Industrie und damit  die Notwendigkeit zur Standardisierung.“ Denn nur mit einheitlichen Standards lassen sich Daten zwischen den Systemen austauschen oder in einer einheitlichen Plattform darstellen, um Datenverluste zu vermeiden und später schnell auf alle Informationen zugreifen zu können. Die Namur, Initiativen wie DEXPI und Projekte wie MTP haben sich der Entwicklung und Abstimmung gemeinsamer Datenstandards verschrieben. Die Namur nähert sich dem Interoperabilitätsproblem von Seiten der Automatisierer, während DEXPI Stakeholder aus allen Bereichen zusammengeführt hat, um zunächst das zentrale Dokument, das P&ID, zu standardisieren. Das MTP-Konzept (Module Type Package) nimmt vor allem die Anforderungen aus der Modularisierung in den Blick. Dazu kommt noch das  CFiHOS (Capital Facilities Information HandOver Specification), das für den Digital Handover (Process engineering und EPC) entwickelt wurde.

Das P&ID ist das zentrale Dokument einer Prozessanlage (Von Ub – Eigenes Werk, CC BY-SA 3.0, https://commons.wikimedia.org/w/index.php?curid=4847698)

In der Prozessindustrie gilt: „Ein Werk wird konzipiert, gebaut, und danach muss es funktionieren, hochverfügbar, zuverlässig und sicher“, sagt Reda Mostafa, aber genau wie das System müssen auch die Daten und Informationen hochverfügbar sein. Und auch, wenn dabei jedes Unternehmen am Ende für seine individuellen Einsatzfelder arbeitet, ist eine solche Standardisierung nur durch Zusammenarbeit aller Akteure erreichbar.

Verknüpfung von IT und OT

 „Der EPC hat die erste digitale Version des Werkes. Bei der Auslieferung gibt es aber selten ein vollständiges sauberes „Digital Handover“, stellt Reda Mostafa fest. Ein Grund für Lücken: Die führende Informationsbasis in der Prozessindustrie ist meist das P&ID. Darin ist das Verfahren mit allen Instrumenten, Komponenten und Stoffflüssen abgebildet. Es gibt auch die Spezifikationen der Komponenten hinsichtlich der Leitungsanforderungen wieder – doch welche Komponenten von welchem Hersteller eingebaut wurde, sucht man vergeblich, wenn man ein Ersatzteil bestellen will.

Sein Unternehmen PTC konzentriert sich vor allem darauf, Informationen aus dem Process Engineering in der Produktion verfügbar zu machen. Aber auch die Produktion selbst steht im Fokus: Anlagen müssen laufen, der Anlagenservice muss geplant und durchgeführt werden, und dabei sollen die Laufzeiten möglichst hoch sein.

Das ist eines der Themen, für die Verknüpfung von IT und OT, also von IT-Systemen wie ERP und Co. und Produktions-Hardware/Software, notwendig ist. „Wir sind das Bindeglied in die IT/OT-Welt“, erklärt Reda Mostafa. „Wir können über 150 verschiedene Steuerungssysteme lesen. Das heißt, wir können beispielsweise alle Informationen über eine Pumpe abrufen, und zwar sowohl die Eigenschaften der Pumpe wie etwa die Schwellenwerte als auch die Echtzeitinformationen, was die Pumpe gerade macht, mit welcher Drehzahl sie läuft und was sie befördert. Wir können aber nicht nur den unteren Level der Automatisierungspyramide abbilden, sondern auch von oben schauen: Für welchen Auftrag aus dem ERP-System arbeitet die Pumpe gerade.“ Das sei besonders wichtig, um im Nachhinein mögliche Probleme bei der Auftragsbearbeitung bzw. auch um eventuelle Qualitätsschwankungen besser untersuchen zu können; dann lässt sich bis in die Maschinensettings hinein nachvollziehen, wie die Produktion verlaufen ist.

Digitalisierung ist mehr als nur Datenerfassung

Und was ist mit der oft gehörten Aussage, die Prozessindustrie mit ihrer umfangreichen Datenerfassung und Dokumentation sei doch längst digitalisiert? „Wenn Digitalisierung das Erfassen, Speichern und auch das Monitoring von Daten in starren Prozess-Leitsystemen ist, dann ist die Chemieindustrie digitalisiert“, sagt Reda Mostafa. „Für mich ist Digitalisierung aber eher das Add-On: Was kann ich aus den Daten über ein reines Monitoring hinaus herausholen?“ Mit Hilfe einer umfassenden Analyse lassen sich Anomalien und Optimierungspotenziale erkennen, aber auch vorausschauende Aussagen zu Komponenten treffen, wie sie für Predictive Maintenance genutzt werden. „Die Daten sind da, aber bisher standen solche Auswertungen nicht im Fokus, und es fehlten auch die Tools dafür“, mein Reda Mostafa. Werden Engineering Daten verfügbar gemacht und in den Kontext von täglichen Routinearbeiten eingespielt, kommt es zu erheblichen Effizienzsteigerungen. Die Vorhersage, was im Werk passiert, kann zu den betrieblichen Zielen Hochverfügbarkeit und Zuverlässigkeit einen entscheidenden Beitrag leisten.

Darin liegen seiner Ansicht nach auch die größten Chancen für neue Geschäftsmodelle. „Es ist in der Regel nicht so sehr die Anlage, die Probleme bereitet, sondern eher die Integration der Supply Chain“, fasst er seine Erfahrungen zusammen. Mit durchgängigen Datenmodellen wäre es möglich, nicht nur im einzelnen Verfahrensschritt, sondern von der Verfahrensentwicklung bzw. auch von der Qualität von Rohstoffen oder Vorprodukten her Optimierungspotenziale zu erkennen. „Die Frage ist dann nicht so sehr, welche Verfügbarkeit die Produktion in einem Unternehmen derzeit erreicht und ob sie sich von 96 auf 97 % steigern lässt, sondern eher, wie effizient die Supply chain mit eingebunden wird, meint Mostafa. Umfassende Datenmodelle bieten aber noch weitere Vorteile: Kombiniert mit Augmented Reality können Dienstleister und neue Mitarbeiter schnell mit Anlagen vertraut gemacht werden – darin sieht Reda Mostafa „ein Riesenpotenzial“.

An der Schwelle zur Markteinführung

Es gibt ein paar wenige Beispiele flexibler modularer Einheiten in der Prozessindustrie, insgesamt ist die Modularisierung jedoch noch nicht in die Praxis eingezogen. Noch fehlt unter anderem die vollständige Beschreibung des MTP-Standards, auch wenn Experten sehr optimistisch sind, dass dies bald abgeschlossen sein wird. Unternehmen wie Evonik betreiben bereits Pilotanlagen und kooperieren dabei eng mit Automationsanbietern wie Siemens oder Yokogawa, um sich auf den Schritt in die Produktion vorzubereiten. Die PTC begleitet solche Initiativen teilweise mit hohen Investitionsaufwänden, um die Stärken der Plattform unter Beweis zu stellen bzw. zu Erproben. Für die Chemieindustrie müssen solche Anwendungsbeispiele noch entwickelt werden. Dabei kommt den Unternehmen, die an den Schnittstellen bzw. als Plattformanbieter arbeiten, eine besondere Rolle zu. Daten orchestrieren und im richtigen Moment zu informieren, zu warnen oder zu agieren: „Wir treten auf wie ein Startup“, beschreibt Reda Mostafa seine Rolle. „Wir müssen viel erklären und Beispiele finden, die für die Industrie auch relevant sind – am besten aus der gleichen Branche.“ Nur dann sei es möglich, auch die Mitarbeiter einzubinden und vom Mehrwert der neuen Technologien zu überzeugen.

Mehr zum Thema Digitalisierung und Modularisierung der Prozessindustrie erfahren Sie unter anderem auf der Themenseite Chemie

Read Full Post »

Kaum eine Woche vergeht ohne Nachrichten über die fortschreitende Digitalisierung der Prozessindustrie. Zentren für Big-Data-Analysen werden eingerichtet, neue Positionen geschaffen und unternehmensweite Programme ins Leben gerufen, um Digitalisierungskonzepte einzuführen, die weit über die Automatisierung der Produktion hinausreichen. Dem Verband der Chemischen Industrie zufolge plant die chemische Industrie in den nächsten Jahren Investitionen von mehr als 1 Milliarde Euro für Digitalisierungskonzepte und neue nachhaltige Geschäftsmodelle.

Die erwarteten Gewinne scheinen diese Investitionen zu rechtfertigen: „Laut einer Studie von Fraunhofer IAO und dem IT-Verband BITCOM könnte die Vernetzung von Produktentwicklung, Produktion, Logistik und Kunden der chemischen Industrie zu einem Anstieg der Wertschöpfung um 30 % bis 2025 führen. Mit anderen Worten: Wem es gelingt, seine Daten entlang der gesamten Wertschöpfungskette nutzbar zu machen, kann sich einen gewaltigen Wettbewerbsvorteil sichern“, erklärt Mirko Hardtke, Business Development Manager bei der Data Virtuality GmbH.

Keuin Wunder, dass ein enormes Interesse an der Entwicklung von Werkzeugen besteht, mit denen sich der versteckte Schatz in Big Data heben lässt. Große wie kleine Unternehmen und Startups beteiligen sich an diesem neuen Goldrausch: „Für die steigende Prozesskomplexität und den schnelle Anstieg der Datenmengen braucht man neue Technologien zum Umgang mit Daten, vor allem dort, wo Abhängigkeiten zwischen Datensilos bestehen“, sagt Sebastian Dörr, Vice President Sales bei der Conweaver GmbH. Sein Unternehmen hat eine Technologie entwickelt, die die automatische Verknüpfung von Daten aus verschiedenen Quellen ermöglicht und so kontextuales Wissen für Datenowner und -nutzer zugänglich macht. Gleichzeitig dient die Plattform als Grundlage für Big Data Analytics.

(mehr …)

Read Full Post »

Acht Partner aus Industrie und Forschung beschäftigen sich erstmals mit den wissenschaftlichen, technischen und wirtschaftlichen Potenzialen, die mit einer Digitalisierung im industriellen Wassermanagement verbunden sind. Das Bundesministerium für Bildung und Forschung (BMBF) fördert das kürzlich angelaufene Verbundprojekt DynaWater 4.0 über einen Zeitraum von drei Jahren mit mehr als 1,5 Mio. Euro.

Während die Digitalisierung in der industriellen Produktion und der Prozessindustrie schnell fortschreitet, hat der Digitalisierungsgrad in der Wasserwirtschaft noch kein vergleichbares Niveau erreicht. Vor allem im industriellen Bereich ist die Wassertechnik durch die enge Verbindung mit der Produktion gefordert. Hierfür muss die Wasserwirtschaft flexibler und vernetzter werden; wie dies genau aussehen kann, haben Branchenexperten 2018 im Positionspapier „IndustrieWasser 4.0“ der DECHEMA Gesellschaft für Chemische Technik und Biotechnologie e.V. detailliert dargestellt.

Ziel von DynaWater 4.0 ist es, auf der Grundlage des Konzepts „IndustrieWasser 4.0“ Modelle und Cyber-physische Systeme (CPS), Sensornetze, Datenplattformen sowie Komponenten von industriellem Wassermanagement und industrieller Produktion miteinander zu vernetzen. Dies wird an konkreten Beispielen der Branchen Chemie, Stahl und Kosmetik demonstriert und bewertet. Dabei reicht der Grad der Vernetzung von der digitalen Verknüpfung von Prozessen innerhalb eines Unternehmens über den Standort bis zur Einbindung der kommunalen (Ab)Wasserwirtschaft. Zusätzlich wollen die Projektpartner zeigen, wie auch andere Branchen diese Ergebnisse verwerten können. So lässt sich die digitale Zusammenarbeit zwischen industriellem Wassermanagement und Produktion auf unterschiedlichen Ebenen beispielhaft darstellen. Außerdem sollen die entstehenden Optimierungspotentiale abgeschätzt werden.

Unter der Koordination der DECHEMA und Leitung von Dr. Thomas Track arbeiten acht Partner an dem Projekt: DECHEMA e.V., VDEh-Betriebsforschungsinstitut GmbH, Deutsche Edelstahlwerke Specialty Steel GmbH & Co. KG, Fraunhofer Institut für Offene Kommunikationssysteme, Institut für Automation und Kommunikation e.V., Evonik Technology & Infrastructure GmbH, Technische Universität Berlin und die EnviroChemie GmbH. Die DECHEMA ist darüber hinaus für die Bewertung der Effizienzpotentiale aus den Demonstrationsergebnissen, die Erarbeitung einer Roadmap zur Weiterentwicklung des Themas für die Anwendung sowie den Dialog mit der Fachöffentlichkeit verantwortlich.

Das Bundesministerium für Bildung und Forschung (BMBF) unterstützt das Verbundprojekt „DynaWater4.0 – Dynamische Wertschöpfungsnetzwerke durch digitale Kollaboration zwischen industriellem Wassermanagement und Produktion“ als Teil der Fördermaßnahme „Industrie 4.0-Kollaborationen in dynamischen Wertschöpfungsnetzwerken (InKoWe)“ im Cluster Wasser.

Read Full Post »

Teaserimage
Walter Leitner, MPI für Chemische Energiekonversion, Mülheim/D

Was ist derzeit die spannendste Entwicklung auf dem Feld der Katalyse?

Wir sehen im Moment zwei Entwicklungen, die die Katalyse-Landschaft fundamental verändern werden. Das Eine ist die Verschmelzung von molekularer und Materialperspektive. Das Verständnis katalytischer Prozesse an festen Oberflächen auf molekularer Ebene entwickelt sich so schnell, und gleichzeitig wird der Blick auf die molekulare Katalyse immer systemischer. So werden ganz neue Reaktivitäten möglich! Der andere Trend ist die Synergie zwischen Experiment und Theorie. Wir erreichen langsam ein Niveau, auf dem die Theorie von der Analyse in die Vorhersage übergeht, und gleichzeitig werden Technologien zugänglich, mit denen riesige Mengen analytischer Daten ausgewertet werden können. In dieser Hinsicht eröffnet das Buzzwort „Digitalisierung“ neue und spannende Möglichkeiten für die Katalyseforschung!

Und was ist derzeit die größte noch ungelöste Herausforderung für die Katalyseforschung?
Die größte Herausforderungen ist die Dynamik, die Veränderungen, die während eines katalytischen Zyklus stattfinden. Das Ziel ist, sie nicht nur zu verstehen, sondern sie auch zu beherrschen und zu kontrollieren. Sie müssen effektiv und graduell angepasst werden, damit katalytische Zyklen erfolgreich verknüpft werden können.

Das ganze Interview in englischer Sprache finden Sie auf http://europacat2019.eu/chairman_interview.html.

Die nächsten Termine für Katalytiker:

52. Jahrestreffen Deutscher Katalytiker, 13.-15. März 2019, Weimar

EuropaCat 2019, 18.-23. August 2019, Aachen

Read Full Post »

„Smart Production“, Industrie 4.0 oder „Future Production“ – die Transformation hin zu mehr Digitalisierung und Flexibilität ist in vollem Gange. Wie lässt sich das in bestehenden Anlagen umsetzen, und welche Möglichkeiten haben KMU, dabei mitzuhalten?

Ulrich König, Projektgruppe Wirtschaftsinformatik des Fraunhofer FIT, betreut gemeinsam mit Prof. Dr. Maximilian Röglinger, Prof. Dr. Nils Urbach, Universität Bayreuth, und Kollegen von der Projektgruppe Regenerative Produktion des Fraunhofer IPA das Forschungsprojekt SmarDe’s@Work .

Was sind die offensichtlichsten Unterschiede zwischen dem, was man sich als „Produktion der Zukunft“ vorstellt und dem, was wir heute schon sehen?

Die Schnelllebigkeit hat in der letzten Zeit extrem zugenommen und der Kundenfokus ist stärker geworden. Automobilzulieferer bekommen wenige Stunden vorab ihre Auftragsplanung und brauchen daher effizientere und flexiblere Prozesse in ihrer Produktion. Darauf fokussieren wir uns im Projekt: Wir möchten die Kommunikation verbessern und wir möchten sicherstellen, dass die Unternehmen für diese Schnelllebigkeit gewappnet sind.

Ein zweiter Aspekt ist die Aus- und Weiterbildung: Gerade in ländlichen Regionen ist es schwer, Personal zu finden. Teilweise gibt es Sprachbarrieren, wenn ausländisches Personal angeworben wird, und es gibt häufige Personalwechsel, so dass immer wieder neue Mitarbeiter angelernt werden müssen. Bei vielen unserer Anwendungsfälle spielen die Aus- und Weiterbildung sowie die Wissensweitergabe deshalb eine wesentliche Rolle. Dafür werden Dokumentationen erstellt, die teils stark grafiklastig sind, und Texte entsprechend gestaltet. Schulungsunterlagen können auch in Form von Videos angeboten werden. Eine weitere Herausforderung ist die Heterogenität der Anlagen mit unterschiedlichsten Digitalisierungsstufen. In der Vergangenheit hat das keine so große Rolle gespielt, weil die Produktionsaufträge und ähnliche Dokumente ohnehin noch als Papier hereinkamen und verarbeitet wurden. Jetzt muss eine durchgängige digitale Kommunikation sichergestellt sein, so dass Maschinen auch automatisch angesteuert werden können.

Was tun Sie in Ihrem Projekt, um den Weg der Unternehmen in die digitale Zukunft zu ebnen?

Ziel unseres Projektes ist, die Kommunikation zwischen Maschinen, Anwendungssystemen und Mitarbeitern über Smart Devices sicherzustellen und damit Produktionsprozesse zu verbessern. Wir entwickeln dafür einen Demonstrator für eine generalisierbare Middleware mit angebundener Client-Applikation, die aus jeder Produktionsanlage und jedem Anwendungssystem Daten erhalten und sie weitergeben kann. Die Fachlogik liegt dabei nicht in der Middleware selbst. Sie enthält nur einfache Operatoren und Gruppendefinitionen, um festzulegen, welches System welche Informationen bekommt. Sie ist mit Excel und XML konfigurierbar und dementsprechend einfach zu warten. Dabei ist die Lösung nicht an eine bestimmte Branche gebunden, sondern übergreifend einsetzbar. Derzeit haben wir im Konsortium Unternehmen aus der Metallverarbeitung, der Stanztechnik und aus dem Kunststoffspritzguss.

Ziel des Forschungsprojekts SmartDe’s@Work ist es, Smart Devices im Produktionsumfeld nutzbringend einzusetzen. Im Vordergrund steht die Vernetzung von Produktionsteilnehmern wie Mensch, Maschine und produktionsnaher IT-Systeme. Die optimale Kombination aus Software- und Hardware-Komponenten soll Produktionsprozesse durch eine interaktive und intuitive Informationsverarbeitung bei der Arbeitsvorbereitung (z. B. Arbeits- und Maschinenpläne, Rüstung von Anlagen) und der Produktion (z. B. Arbeitsanweisungen, Störungen, Echtzeit-Rückmeldung) unterstützen und dadurch Effizienz- und Optimierungspotenziale heben. Das Projekt wird von der Bayerischen Forschungsstiftung gefördert und läuft von Januar 2017 bis Februar 2019. Meht unter http://www.smart-devices.fim-rc.de

Wie sieht der Einsatz in der Praxis aus?

In unserem Projekt konzentrieren wir uns vor allem auf die Middleware und die Client-Applikation. Solange uns eine Anlage auf welche Weise auch immer Daten liefert – das kann sogar das rote Warnlämpchen sein, das sonst dem Mitarbeiter Handlungsbedarf signalisiert –  kann man die Middleware relativ einfach integrieren und die Daten über eine allgemeingültige Schnittstelle erfassen. In der Middleware werden sie weiterverarbeitet und über die Client-Applikation an ein Smart Device oder ein Anwendungssystem (z.B. ein ERP- oder BDE-System) übergeben. Wichtig ist für uns dabei, dass wir uns nicht auf eine Maschine oder einen Ausrüstungsgegenstand spezialisieren, sondern eine allgemeine und möglichst breit einsetzbare Lösung schaffen.

Wie weit ist die Industrie Ihrer Einschätzung nach auf dem Weg zu „4.0“? Ist das bei Großunternehmen nicht längst Alltag?

Große Unternehmen sind schon relativ weit, allerdings auch nicht flächendeckend. Es gibt sicher Werke, die man heute schon als „Industrie 4.0“ bezeichnen kann, aber das ist nur ein kleiner Ausschnitt. Und es gibt nach wie vor viele Insellösungen, etwa mit RFID, die nicht generalisierbar sind, schon gar nicht über Unternehmensgrenzen hinweg. Oft basiert die Industrie-4.0-Kommunikation auf einem homogenen Maschinenpark – die Geräte eines Herstellers können miteinander kommunizieren, aber nicht mit Maschinen anderer Hersteller. Solche Lücken überwinden wir mit unserer Middleware.

Mehr über das Projekt SmartDe’s@Work und viele andere Ansätze zur Digitalisierung und Flexibilisierung erfahren Sie beim PRAXISforum Future Production – werfen Sie einen Blick ins Programm!

Und wo bleiben die KMUs, die keine riesigen Transformationsprogramme stemmen können?

Unser Ansatz eignet sich insbesondere für KMUs. Unser Projekt ist bewusst in einer KMU-geprägten Region angesiedelt. Wir nutzen gängige Geräte, die auf dem Markt einfach erhältlich sind, und erstellen den Middleware-Demonstrator. Die Middleware lässt sich überall einfach integrieren und soll im Laufe des Jahres auch als Open-Source-Lösung angeboten werden. Die meisten Anwendungspartner mussten nur einen zusätzlichen Standard-PC beschaffen und die Anbindung der Maschinen an die Middleware sicherstellen. Die Kosten dafür sind überschaubar und auf jeden Fall günstiger, als im großen Umfang den Maschinenpark zu erneuern. Die meisten ERP-Systeme bieten auch schon Schnittstellen und lassen sich innerhalb weniger Wochen anbinden. Alles ist robust ausgelegt, damit es den Produktionsalltag überlebt, und die Geräte sind leicht zu ersetzen. Wenn etwas zu Schaden kommt, soll alles schnell wieder einsetzbar sein – man nimmt ein Standardgerät, installiert die Client-Applikation, und innerhalb einer Stunde läuft alles wieder.

Am Ende bleibt natürlich immer die Kosten-Nutzen-Frage. Unser Konzept ist aber so gestaltet, dass die Transformation prinzipiell möglich ist. Es gibt andere Ansätze, bei denen zum Beispiel Sensorboxen an Maschinen angeschlossen werden, um Daten zu erfassen und weiterzugeben. Das könnten wir theoretisch auch, die Frage ist nur, welche Daten man dann bekommt. Wir konzentrieren uns vor allem auf transaktionale Kommunikationsdaten: Fällt eine Maschine zum Beispiel in einen Stillstandsmodus, sollen andere Maschinen und Mitarbeiter darüber schnell informiert werden. Die Nutzung von Produktionsdaten für analytische Zwecke haben wir uns für kommende Forschungsprojekte vorgenommen.

Für Rückfragen zum Forschungsprojekt stehen Ihnen Ulrich König (ulrich.matthias.koenig@fit.fraunhofer.de) sowie Prof. Dr. Röglinger (maximilian.roeglinger@fit.fraunhofer.de) Prof. Dr. Urbach (nils.urbach@fit.fraunhofer.de) und Joachim Kleylein-Feuerstein (joachim.kleylein-feuerstein@ipa.fraunhofer.de) gerne zur Verfügung.

Read Full Post »

Older Posts »