Feeds:
Beiträge
Kommentare

Archive for the ‘Verfahrenstechnik’ Category

IoT, Prozessflexibilität oder Predictive Control sind nur einige der aktuellen Schlagworte, die die Diskussion in der Chemie-, Lebensmittel- und Pharmaindustrie beherrschen. Sie alle beruhen auf einem gemeinsamen Kern: Ohne Prozessanalytik geht es nicht.

Kein Wunder also, dass einerseits enorme Fortschritte gemacht werden, andererseits aber auch der Bedarf an weiterer Forschung immens ist. Auf der Europact 2020 werden führende Experten zusammenkommen, um die neuesten Trends zu diskutieren – und es gibt viel zu besprechen.

Die Prozessanalytik ist ein vielfältiges und multidisziplinäres Thema. Angefangen von der zugrundeliegenden analytischen Methodik bis hin zur Entwicklung von Sensoren, die eine kontinuierliche Inline-Analytik in Echtzeit ermöglichen, der Integration von Daten aus verschiedenen Quellen und den Rückkopplungsschleifen für die Online-Regelung müssen Chemiker, Ingenieure und Datenwissenschaftler zusammenarbeiten, um die Vision einer integrierten PAT zu verwirklichen.

Integration von Analysemethoden in laufende Prozesse

Die gebräuchlichsten Analysemethoden, auf denen PAT basiert, sind – neben der Messung grundlegender Parameter wie Temperatur, Druck oder pH-Wert – spektroskopische Technologien wie UV/Vis, IR oder NMR. Der Einsatz dieser hochentwickelten Methoden ist durch die rasante Entwicklung der Miniaturisierung und die Verfügbarkeit von sicheren und zuverlässigen drahtlosen Kommunikationstechnologien möglich geworden. Fortschritte in der Lasertechnologie und im Detektordesign haben den Einsatzbereich zusätzlich erweitert. Kompakte Geräte haben nicht nur die Laborbänke erobert, sondern können sogar in einer Produktionsumgebung eingesetzt werden, wo der Platz begrenzt ist, starke Magnetfelder Probleme bereiten würden und eine regelmäßige Gasversorgung aufgrund logistischer Beschränkungen nicht realisierbar ist.

Europact 2017

Die Integration eines Sensors in einen laufenden Prozess bringt zusätzliche Herausforderungen mit sich – angefangen bei der nicht ganz einfachen Frage, wie man den Sensor ins Innere bekommt, ohne die Prozessbedingungen zu beeinträchtigen. Um die Laufzeit zu maximieren und die Notwendigkeit von Eingriffen zu minimieren, sollten die Sensoren nicht manuell kalibriert werden müssen; dies erfordert die Entwicklung von „intelligenten Sensoren“. Sie können automatisch nachkalibrieren; in Kombination mit Software und „Fuzzy“-Logik, die kleinere Abweichungen ausgleicht, wird die Laufzeit deutlich erhöht.

Daten sinnvoll nutzen

Daten zu sammeln ist eine Sache, sie zu nutzen bisweilen eine ganz andere. In den letzten Jahren wurden mathematische Modelle und Algorithmen entwickelt, die neue Erkenntnisse ermöglichen. Sie helfen auch dabei, kritische Lücken zu schließen; diese können entstehen, wenn Design of Experiment-Methoden verwendet werden und dabei kritische Parameter übersehen werden oder eine größere Varianz aufweisen als erwartet. So kann PAT in jeder Phase der Wertschöpfungskette und des Produktlebenszyklus ein wertvolles Instrument sein, das die Prozessentwicklung beschleunigt und kritische Qualitätslücken in einem sehr frühen Stadium beseitigt.  Modellbasierte Vorhersagen ermöglichen die Optimierung eines Prozesses auf Parameter, die nicht direkt für die Messung zugänglich sind.

PAT als Enabler für neue Prozesse

Bioprozesse werden sowohl in der Pharma- als auch in der chemischen Industrie immer wichtiger. Im Vergleich zu „klassischen“ chemischen Synthesen sind sie wesentlich komplexer, mit geringen Produktkonzentrationen, vielen komplexen Nebenprodukten und Inhomogenitäten im Reaktor. Die Zusammensetzung und Qualität der Rohstoffe kann ebenfalls variieren. Die Messung und Steuerung von Bioprozessen ist daher sowohl eine Herausforderung als auch ein Bereich, in dem enorme Fortschritte erzielt werden können (und zur Erreichung der Wettbewerbsfähigkeit erforderlich sind).  Ein wichtiger Trend der letzten Jahre war die Entwicklung kontinuierlicher Bioprozesse. Sie sind ohne die Möglichkeiten, die Qualität in Echtzeit zu kontrollieren und die Prozessparameter zeitnah anzupassen, kaum vorstellbar. Der Übergang von der Batch- zur kontinuierlichen Verarbeitung erfordert zu jedem Zeitpunkt ein deutlich verbessertes Prozessverständnis, ebenso wie die Überwachung von Nährstoffen und Verunreinigungen. Christoph Herwig, Leiter der Bioverfahrenstechnik an der TU Wien und Vorsitzender des Komitees der Europact 2020, sieht eine entscheidende Rolle für die PAT in diesem Bereich:  „Die PAT ist der Schlüssel zu robusten kontinuierlichen Bioprozessen und fortschrittlicher Therapien.“

PAT ist keine isolierte Technologie

Während die Integration von Feldinstrumenten bereits weit fortgeschritten ist und sich auf OPC UA DI als Kommunikationstechnologie und PADIM als Informationsmodell stützt, muss die Prozessanalytik dringend aufholen. Dies gilt insbesondere für die Integration mit offenen Architekturen. „PAT liefert eine Menge spezifischer Daten – sowohl Messdaten als auch Diagnosedaten -, die von IIoT-Technologien zur Optimierung der Instandhaltung und der Prozesse genutzt werden könnten“, sagt Werner Worringen, PAT-Experte bei Yokogawa. Die Voraussetzung für IIot ist die nahtlose Integration von PAT in das Gesamtdatenmodell eines Produktionsprozesses. Da PAT-Daten in der Regel sehr komplex sind und von verschiedenen Standorten in einem Werk stammen, scheinen Cloud-Lösungen die beste Antwort zu sein. Aber Bedenken hinsichtlich der Datensicherheit, gemeinsamer Standards und Schnittstellen werden derzeit noch diskutiert.

Entdecken Sie die Trends der Prozessanalytik bei der Europact 2020
Die 5. European Conference on Process Analytics and Control Technology, kurz Europact, deckt alle Aspekte der PAT ab  – von den analytischen Methoden und der Sensorentwicklung über Datenmodelle und Systemintegration. Melden Sie sich an und beteiligen Sie sich am Austausch unter internationalen Experten. Mehr unter https://dechema.de/europact2020.html

Read Full Post »

Was hat Prozessindustrie mit e-Sport zu tun? Man kann voneinander lernen – denn der Umgang mit Daten ist gleichzeitig extrem spezifisch und branchenübergreifend ähnlich. Das nur eine der vielen Erkenntnisse aus der Chemalytix-Konferenz 2019.

Auf dem Weg in die Industrie 4.0 müssen Daten erstens zugänglich sein und zweitens sinnvoll ausgewertet werden. Bei der Chemalytix-Konferenz, die Covestro zusammen mit Bayer und Evonik im Dezember 2019 organisierte, drehte sich deshalb alles um die Frage: Welche Möglichkeiten, Chancen und Herausforderungen bietet der Einsatz von Data Science in der Prozessindustrie?
Dass bei diesem Thema viele Schlagworte teilweise inflationär verwendet werden, war den Veranstaltern offensichtlich bewusst: Sie griffen diesen Umstand – nicht ohne gewisse Selbstironie – durch ein Buzzword-Bingo für die Teilnehmer auf. Und das führte neben dem Unterhaltungswert auch dazu, dass die Sprecher auf ihre Wortwahl achteten. So dauerte es, bis der Jackpot geknackt werden konnte…

Keine Patentrezepte für Digitalisierung

Bereits in der Begrüßungsrede von Sucheta Govil, CCO von Covestro, wurde deutlich, dass die Natur der Digitalisierung eine domänenübergreifende Zusammenarbeit erfordert.

Boris Adryan von Merck beleuchtete im Einstiegsbeitrag die Herausforderungen und Hürden für erfolgreiche Digitalisierungsprojekte in Konzernen der Prozessindustrie. Dabei stellte er klar, dass Digitalisierung keinem Patenzrezept folgt, Use Cases nicht einfach zu finden sind und allgemeine Lösungsansätze nicht helfen. Anstatt aus Angst, einen Trend zu verpassen („fear of missing out“), generalisierte Anwendungsfälle zu verfolgen, sollten Anwendungsfälle mit echtem Mehrwert identifiziert werden. Die Umsetzung dieser Digitalisierungsprojekte muss dann in Zusammenarbeit mit den betroffenen Abteilungen durchgeführt werden, um Akzeptanz für die Transformation zu erreichen. Daher sollte keine zentrale Data Science Gruppe eingerichtet werden, sondern die entsprechenden Experten sollten für die Projektumsetzung direkt in den betroffenen Abteilungen arbeiten.

Vertrauliche Daten nutzen

Wie mit künstlicher Intelligenz die Wirkstoffforschung optimiert werden kann, stellte Gunjan Bhardwaj von Innoplexus vor. Grundlage ist die Verfügbarkeit der bekannten Daten; sie wird durch selbstentwickelte Crawler erreicht wird. Die entwickelte KI kann auch ohne den direkten Input von Daten arbeiten, indem der Owner eines Datensatzes eine Sub-KI trainiert und viele dieser Sub-KIs zu einer Gesamt-KI zusammengeführt werden. Hierdurch können vertrauliche Daten zu verbessertem Verständnis beitragen, ohne die Daten selber herauszugeben.

Definition of Digital: Anything that makes the interaction of people, data and things more valuable.

Gunjan Bhardwaj


Auch für den Bereich Predictive Maintenance können KI-Methoden genutzt werden, wie Tidhar Tsuri von Diagsense zeigte. Durch Modellbildung aus vorhandenen Daten können Abweichungen der laufenden Messungen vom Modell identifiziert werden („anomaly detection“), was auf eine Veränderung der Prozessanlage hindeutet.

Nach der Mittagspause, die für die vielen möglichen Gespräche gar nicht lang genug hätte sein können, berichteten Digitalisierungsdienstleister (mayato), Forschungsgruppen (FH Niederrhein, Fraunhofer ITWM) und Prozessindustrie (Evonik, Bayer, Covestro) in vier Parallelsessions über ihre Erfahrungen bei der Umsetzung von Data Science Projekten.

Von e-Sports-Helden lernen

Da digitale Technologien nicht anwendungsspezifisch sind, hilft auch ein Blick über das eigene Feld hinaus. Ein sehr komplexes Optimierungsproblem findet man bei der Heldenauswahl des Computerspiels Dota 2. Die gegeneinander antretenden Teams wählen abwechselnd ihre „Spielfiguren“ aus. Aufgrund der Vielzahl möglicher Kombinationen sind die verfügbaren Datensätze unvollständig. Für professionelle e-Sport-Kämpfe hat Elvan Aydemir von Amplify Analytix mit Reinforced Learning eine KI zur sequentiellen Entscheidungsfindung entworfen. Da bei diesem Optimierungsproblem mit unvollständigen Datensätzen eine optimale Lösung mathematisch nicht möglich ist, wird die KI durch die laufenden Kämpfe immer weiter verfeinert.

Der Effekt des Buzzword-Bingos auf eine bedachte Wortwahl der Referenten wurde dann auch deutlich: Erst zu diesem Zeitpunkt hatte die erste Teilnehmerin eine Reihe vervollständigt und bekam einen Raspberry Pi als Preis.

Ade Adewunmi von Fast Forward rundete das Programm mit Tipps zur Akzeptanzbildung für Digitalisierungsprojekte in Organisationen ab.Auch dafür gibt es keine Patentrezepte und die Firmenkultur muss für eine erfolgreiche Umsetzung berücksichtigt werden.

Nachwuchs im Wettbewerb

Auch der Nachwuchs der Data Science fand bei der Chemalytix eine Bühne. Beim Covestro Hackathon traten Gruppen von der Tonji University Shanghai, der CMU Pittsburgh und der RWTH Aachen an, um Lösungen für Data Science Probleme aus der chemischen Industrie zu entwickeln. Die drei regionalen Gewinner durften ihre Lösungen im Rahmen der Chemalytix vorstellen. Die Konferenzteilnehmer wählten die Lösung zur Vorhersage der Katalysatoraktivität in einer chemischen Anlage des Teams von der RWTH Aachen zum Gesamtsieger.

Bevor die Teilnehmer dann zu Glühwein und Keksen entlassen wurden, fasste der Leiter der Advanced Analytics bei Covestro, Nils Janus, die Ergebnisse zusammen. Er beschrieb den Stand der Digitalisierung der chemischen Industrie in Deutschland mit einer Analogie zu den fünf Stufen der Trauer beschrieben – Ablehnung, Wut, Verhandeln, Depression und Akzeptanz. Eine verkürzte Wiedergabe würde dieser wirklich guten Abschlussrede nicht gerecht werden, dafür müssen Sie wohl zur nächsten Chemalytix kommen. Noch gibt es zwar keine konkreten Planungen für eine Wiederauflage, aber die Teilnehmer waren sich einig, dass diese erste Konferenz zu Data Science in der chemischen Industrie in Deutschland weitergeführt werden sollte.

Zentrale Herausforderungen für die Data Science, die in vielen der Vorträge genannt wurden:

* Digitalisierung ist ein Teamsport.
* Nur Daten, die maschinenlesbar zugänglich sind, können für digitale Prozesse nutzbar gemacht werden.
* Daten benötigen Kontext.
* Wenn man etwas nicht messen kann und/oder es nicht in Kontext setzen kann, kann man es auch nicht optimieren.

Autor: Dr. Alexander Möller, DECHEMA e.V. / Forschungs- und Projektkoordination

Read Full Post »

Die Diskussion zur Digitalisierung in der chemischen Industrie schwankt zwischen Enthusiasmus und Ängsten – Zeit, die Diskussion anhand konkreter Beschreibungen zu führen. Das wollen wir in den nächsten Monaten in einer losen Serie tun.

Über die Veränderung der Arbeitswelt durch Digitalisierung und von neuen Geschäftsmodellen wird viel gesprochen. Deutlich wird dies durch allgegenwärtige Begriffe wie Künstliche Intelligenz, Blockchain, Big Data, 5G, Internet of Things und – als Zusammenfassung aller Aspekte im industriellen Umfeld – die Industrie 4.0. Auch Ängste sind mit diesem Trend verbunden. Wird Digitalisierung viele Berufe – vielleicht sogar den eigenen – überflüssig machen? Haben wir die Anlagen denn überhaupt noch unter Kontrolle, wenn sie nur noch von Algorithmen gesteuert werden?

Auf der anderen Seite gibt es aber auch die Enthusiasten, die durch die Digitalisierung die Lösung oder zumindest Unterstützung zur Lösung nahezu aller Herausforderungen sehen. Ein Grund für die großen Unterschiede in diesen Positionen ist eine Diskussion, die zumeist auf einem sehr hohen Abstraktionslevel geführt wird: Es werden Technologien allgemein betrachtet und ungefähre Anwendungsfälle beschrieben, ohne jedoch auf die konkrete Umsetzung in einem Bereich einzugehen.

Es ist an der Zeit, konkreter zu werden

Dies ist in Zukunftsdiskussionen durchaus zulässig und eine Vision kann man nicht entwerfen, wenn man sich in Details verliert. Manchmal ist es aber gerade bei Zukunftsfeldern an der Zeit, die Abstraktion zu reduzieren und bei der Beschreibung etwas konkreter zu werden. Durch diese konkreten Betrachtungen werden auch Chancen und Einschränkungen in spezifischen Einsatzfeldern deutlich. Zudem können die nötigen Schritte zur Umsetzung aufgezeigt werden.

In den nächsten Monaten werden wir hier Themen der Digitalisierung in der Prozessindustrie Betrachten. Zum Einstieg gibt es ein Ergebnispapier aus dem Workshop Digitalisierung elektrochemischer Prozesse, der dieses Jahr im Rahmen der BMBF-Fördermaßnahme InnoEMat durchgeführt wurde. Mitte Dezember organisierte Covestro die Chemalytix-Konferenz zu Data Science und Chemie – wir werden berichten. Ein Whitepaper zur Sensorik für die Digitalisierung chemischer Produktionsanlagen aus einem Workshop, der dieses Jahr bei der DECHEMA stattgefunden hat, wird in Kürze veröffentlich – auch dazu bald mehr an dieser Stelle.

Stichwort „Blockchain“

Außerdem schauen wir im kommenden Jahr auch auf eine konkrete digitale Technologie, mit einem Überblick über Blockchain, in dem wir darauf eingehen, was Blockchain überhaupt ist und welche Chancen und Einschränkungen diese Technik beim Einsatz in der Prozessindustrie hat. Auch das Thema Künstliche Intelligenz in der chemischen Industrie werden wir beleuchten. Mit dem Projekt KEEN startet im April ein BMWi gefördertes großes Verbundvorhaben zu diesem Thema.

Vielfältige Aktivitäten gibt es bereits im Bereich der Modularen Produktion, wobei die Modularisierung neben der Hardwareebene auch in der Automatisierungstechnik und Prozesssteuerung umgesetzt werden muss. Die Modularisierung wird ein Fokusthema auf der ACHEMA 2021 sein und daher auch hier einen besonderen Fokus erhalten.

Sensorik als Grundlage für Digitalisierung sind

Jede Intelligenz, ob klassisch oder künstlich, benötigt Sinnesorgane, um die nötigen Informationen für Entscheidungen zu erhalten. Daher ist Sensorik und Messtechnik ein zentrales Element der Digitalisierung das uns über das bereits erwähnte Whitepaper hinaus beschäftigen wird. Der Arbeitskreis Prozessanalytik hat beim Herbstkolloquium gerade 15 Jahre Trialog zwischen Anwendern, Herstellern und Akademia gefeiert und im Mai findet die europäische Konferenz für Prozessanalyse und –steuerung EuroPACT in Kopenhagen statt. Auch die Prozessanalytik wird ein Kongressthema auf der ACHEMA 2021 sein und entsprechend Platz in unserem Blog finden.

Neben der Digitalisierung in Produktionsprozessen spielt auch die Digitalisierung der Forschung und Entwicklung eine immer größere Rolle und natürlich werden wir auch hierzu berichten. Zum Labor im Zeitalter der Digitalisierung findet im März das PRAXISforum Lab of the Future statt. Ebenfalls im nächsten Jahr starten die Initiativen zur nationalen Forschungsdateninfrastruktur (NFDI) in denen Datenmodelle und Infrastruktur zur Dokumentation und Bereitstellung von Forschungsdaten entwickelt werden.

Und was meinen Sie?

Es gibt also viel zu berichten. Wir werden versuchen, einen möglichst umfassenden Überblick in kurzen und fokussierten Beiträgen zu liefern. Mit Sicherheit ist die Aufzählung aber nicht vollständig und es gibt noch eine Vielzahl weiterer Themen und Veranstaltungen zur Digitalisierung in der chemischen Industrie.

Wenn Sie finden, eine wichtige Veranstaltung wurde hier vergessen und sollte Erwähnung finden, teilen Sie uns dies gerne in den Kommentaren mit.

Read Full Post »

Welche Erwartungen haben Startups an das Forum Startup Chemie? Und wie lassen sich Doppelaktivitäten vermeiden? Das waren nur zwei der Fragen, die beim 3. Stakeholdertreffen des Forums Startup Chemie am 18. November zur Sprache kamen. Die Arbeitskreise sowie Startups und Vertreter der Industrie, der Wissenschaft und des Kapitalmarkts kamen ins DECHEMA-Haus und diskutierten neue Ergebnisse, bauten ihre Netzwerke aus und stießen neue Aktivitäten an, um die Startup-Szene weiter voranzutreiben.

Was erwarten Startups vom Forum? Darum ging es gleich zu Beginn – und die Antwort war eindeutig: Gründerinnen und Gründer benötigen vor allem Netzwerke und Kontakte zu Experten. Das Forum Startup Chemie wird daher zukünftig noch intensiver Startups mit Vertretern aus Industrie, Wissenschaft, Kapital und Politik vernetzen – durch Veranstaltungen, über seine Datenbanken und seine Netzwerke. Gleich an zweiter Position: Das Einbinden der Startups in F&E-Projekte. Auch hier wird das Forum seine Aktivitäten weiter ausbauen und in enger Zusammenarbeit mit der DECHEMA sowie den bestehenden Netzwerken Startups in nationale und internationale Projekte einbeziehen.

Lücken schließen statt Doppelarbeit

Eines der wichtigsten Ziele des Forums: Keine Konkurrenz zu bereits bestehenden Startup-Unterstützungsaktivitäten aufbauen, sondern dort, wo „Lücken“ existieren, entsprechende Aktivitäten initiieren. Dafür ist   – neben der oben genannten „Bedürfnisanalyse“ – eine Übersicht über bereits bestehende Angebote unbedingt notwendig, um ein Bild der Startup-Landschaft im Bereich Chemie und angerenzenden Bereichen zu erhalten. Zu diesem Zweck wurde eine Sammlung Chemie-relevanter Gründerzentren, Technologieparks, Inkubatoren & Akzeleratoren sowie Netzwerke & Cluster aufgebaut und im Rahmen des 3. Stakeholdertreffen vorgestellt. Diese ist auch auf der Homepage des Forums veröffentlicht .

Der Arbeitskreis „Wachstum“ hat außerdem eine Datenbank mit etwa 280 Chemie-relevanten Startups erstellt. Sie gibt Vertretern aus Industrie und Kapital einen Überblick über die Startup-Landschaft und ermöglicht den Startups, ihreDienstleistungen oder Produkte zu präsenteiren. Der Arbeitskreis „Chancenfeld Digitalisierung“ organisiert Veranstaltungen und Webinare, bei denen sich „digitale“ Startups direkt potentiellen Kunden aus Industrie und Mittelstand vorstellen. Damit auch in Zukunft vermehrt Startups entstehen, will der Arbeitskreis „Gründung“ die Gründungskultur an den Hochschulen unterstützen ; er stellte entsprechende Aktivitäten vor. Auch der Arbeitskreis „Wachstum“ identifizierte Möglichkeiten , dieahmenbedingungen für Gründer und Startups zu verbessern, und erarbeitete hierzu Positionspapiere („Staatliche Förderprogramme“ und „Kritische Punkte bei Verträgen “).

Impulse für Startups und Unterstützer

Höhepunkte waren die Vorträge der eingeladenen Redner: Prof. Dr. Stephan Haubold (Hochschule Fresenius) machte  in seinem Vortrag auf aktuelle wie zukünftige Herausforderungen in der Chemie-Industrie sowie die Bedeutung von Startups für die Überwindung dieser Herausforderungen aufmerksam. Dr. Antonie Steenwinkel (Angel Engine) stellte ein Deutsch-Niederländisches Projekt zur Stärkung der Wettbewerbsfähigkeit der chemischen Industrie vor. Dr. Michael Brandkamp (High-Tech Gründerfonds) berichtete über den aktuellen Stand zum European Circular Bioeconomy Fund (ECBF), einem Fond zur Überbrückung derzeitiger Finanzierungslücken in der europäischen Bioökonomie. Nils Decker (International Sustainable Chemistry Collaborative Centre; ISC3) stellte den Global Start-up Service im Innovation Hub des ISC3 und seine Unterstützungsaktivitäten für Startups vor.

Nächster Termin: 27. April 2020

Auch im Rahmen des 4. Stakeholdertreffen am 27. April 2020 werden wieder aktuelle Ergebnisse vorgestellt und neue Aktivitäten angestoßen. Wenn auch Sie  als Stakeholder im Forum Startup Chemie mitwirken wollen oder Fragen zur Unterstützung durch das Forum haben, wenden Sie sich an Dr. Sebastian Hiessl (info@forum-startup-chemie.de) oder registrieren Sie sich als Stakeholder unter: https://forum-startup-chemie.de/registrierung.html.

Read Full Post »

Was wird die Prozesstechnik morgen beschäftigen? Wohin entwickelt sich die Biotechnologie? Und wer muss mit wem zusammenarbeiten, um diese Fragestellungen aktiv anzugehen?

Mehr als 50 Experten diskutierten beim Strategieworkshop über Zukunftsthemen

Neue Themen zu entdecken und aktiv mitzugestalten, gehört zu den wichtigsten Aufgaben der DECHEMA. Viele Ideen entstehen aus den Gremien heraus. Aber es liegt in der Natur der DECHEMA und von ProcessNet, dass die ganz wesentlichen Herausforderungen nicht eine Fachgruppe oder ein Ausschuss alleine bearbeiten kann. Von der Energiewende über die Nutzung nachwachsender Rohstoffe bis zum Umgang mit den neuen Datenströmen in der Prozessindustrie – fachübergreifende Zusammenarbeit ist mehr denn je gefragt.

„Verantwortung Zukunft“

Der gemeinsame Strategieworkshop von DECHEMA-Fachgemeinschaft Biotechnologie und ProcessNet Mitte Oktober in Wiesloch hatte genau das zum Ziel: Es ging darum, die Fragestellungen von morgen zu identifizieren und zu bearbeiten. Rund 50 Expertinnen und Experten, die die unterschiedlichsten Fachrichtungen innerhalb der Community repräsentieren, trafen sich unter dem Motto „Verantwortung Zukunft“.

Die Aufgabenstellung: Die unübersehbar großen Themen Digitalisierung, Biologisierung und Circular Economy sollten greifbar gemacht und strukturiert werden. Als viertes Thema kristallisierte sich schon zu Beginn im neuen Veranstaltungsformat BarCamp die Kommunikation heraus: Technologischer Fortschritt ist ohne gesellschaftlichen Dialog nicht (mehr) möglich – aber wie kann dieser Dialog angestoßen und geführt werden?

Themen und Aufgaben definiert

Digitalisierung und neue Lebensmittel = „Kuh 2.0“?

Das Ergebnis: Nach zweieinhalb Tagen intensiver gemeinsamer Arbeit in World Cafés und Workshops liegen nun zu den drei Fachthemen umfangreiche Kataloge mit verschiedenen Arbeitsempfehlungen vor: Von der „Kuh 2.0“ als Stichwort für biosynthetische Lebensmittel über die Definition der Circular Economy bis zur Einordnung der vielfältigen Digitalisierungsthemen nach Entwicklungsgrad wurden Fragestellungen formuliert, die handhabbar sind. Namentlich benannte „Kümmerer“ sind dafür verantwortlich, diese Themen weiter zu verfolgen – sei es in Form eines spezifischen Workshops mit Experten, sei es in Form eines Diskussionspapiers oder als Ausgangspunkt für ein mögliches Projekt. Zur Kommunikation wurden sehr konkrete Handlungsaufträge entwickelt, die in der nächsten Zeit gemeinsam mit der Geschäftsstelle umgesetzt werden sollen. Anfang des Jahres werden die Ergebnisse in den Gremien von ProcessNet und DECHEMA-Fachgemeinschaft Biotechnologie vorgestellt und die Aktivitäten mit allen Beteiligten gestartet.

Dass ein so fruchtbarer Workshop überhaupt möglich war, ist zum Einen dem großen Engagement all derer zu danken, die als Ehrenamtliche zwei Tage ihrer Zeit geopfert und sich mit großem Einsatz beteiligt haben. Zum Anderen gilt der Dank aber auch all denen, die schon vorher über ihre Fachgruppen und Beiräte zur Themensammlung beigetragen haben.

An die Arbeit!

Das Ende des Strategieworkshops bildet damit den Anfang einer ganzen Palette thematischer Aktivitäten und das klare Bekenntnis von ProcessNet und DECHEMA-Fachgemeinschaft Biotechnologie: Gemeinsam übernehmen wir Verantwortung für die Zukunft.

DECHEMA-Mitglieder finden Anfang 2020 die Informationen zu den konkreten Aktivitäten im Mitgliederbereich der Webseite und können sich dann beteiligen – wir informieren Sie per Newsletter und DECHEMA aktuell.

Read Full Post »

„Miss alles, was sich messen lässt, und mach alles messbar, was sich nicht messen lässt“, soll Archimedes gesagt haben. Das klingt einfach – und ist doch extrem komplex.

Umwelt und Gesundheit – hier spielt Messtechnik eine besondere Rolle
Bild: Erich Westendarp auf Pixabay

Das gilt besonders dann, wenn es um Gesundheit geht. Bei wenigen Themen wird dies so deutlich wie bei der anhaltenden Diskussion um Fahrverbote für Dieselautos. Und hier fängt die Kontroverse schon bei den vermeintlich objektiven Fakten, den Messwerten an: Was wird gemessen, und vor allem: Wo wird gemessen? Und ist auf Basis dieser Messungen eine Aussage darüber möglich, wie es wenige Meter entfernt oder oberhalb aussieht? Das Ergebnis lässt sich in der öffentlichen Debatte besichtigen. Da wird um jede Messstelle gerungen und heftig diskutiert, ob Grenzwerte an Arbeitsplätzen anders einzuordnen sind als Grenzwerte auf Durchgangsstraßen und warum. Das gipfelt in dem Versuch, durch die Installation einer Absauganlage neben einer Messstelle die Messwerte unter die kritischen Schwelle zu drücken – so ernsthaft an einer stark befahrenen Straße in Kiel geplant.

Dass die Luftverschmutzung in weiten Teilen Indiens gesundheitsgefährdend hoch ist, ist wohl auch ohne Messung jedem ersichtlich. Aber wie steht es um deutsche Innenstädte? Laut Europäischer Umweltagentur war Feinstaub die Ursache für rund 422.000 vorzeitige Todesfälle in 41 europäischen Ländern, Stickoxide sorgten für 79.000 Tote. Verkompliziert wird das Ganze dadurch, dass eine Optimierung von Dieselmotoren auf möglichst geringen Stickoxid-Ausstoß zu einem Anstieg der Feinstaubemissionen führt und andersherum; darauf machte Professor Matthias Klingner, der Leiter des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme in Dresden, 2017 in der „Welt“ aufmerksam. Und Feinstaub ist nicht gleich Feinstaub – allein die Größe eines Partikels sagt noch nicht viel über dessen Toxizität aus. Dafür spielen unter anderem die Form des Teilchens und dessen Oberflächeneigenschaften eine entscheidende Rolle.

Es geht also nicht nur um eine immer bessere Messtechnik, man muss sich auch darüber im Klaren sein, welche Aussagekraft die gemessenen Daten haben.

14. Dresdner Sensor-Symposium

Wie man sich diesen komplexen Fragestellungen nähern kann, ist Thema einer Podiumsdiskussion beim 14. Dresdner Sensor-Symposium. Reinhard Nießner, TU München, Heinz Burtscher, Fachhochschule Nordwestschweiz,  Axel Haverich, Medizinische Hochschule Hannover, und Volker Ziegler, Grimm Aerosol Technik Ainring beschäftigen sich mit der Frage: Partikel und Gesundheit – Messen wir das Richtige? Die Moderation hat Ulrich Kaiser, Endress+Hauser. Die Veranstaltung ist Teil des Dresdner Sensor-Symposiums vom 2. bis 4. Dezember 2019.

Mehr zu Programm und Teilnahme unter https://dechema.de/dss14.html

Read Full Post »

Anlagensicherheit und Arbeitssicherheit sind vermeintlich zwei verschiedene Paar Schuhe. Doch der „Faktor Mensch“ spielt auch für die Anlagensicherheit eine große Rolle. Deshalb hat das European Process Safety Centre vor einem Jahr die Arbeitsgruppe „Human Performance“ ins Leben gerufen. Hans Schwarz, Mitglied des Vorstands des EPSC, erklärt, warum High-Tech-Lösungen nicht immer die erste Wahl sind und was die Prozessindustrie von der Luftfahrt lernen kann.

Dr. Schwarz, letztes Jahre haben Sie im EPSC eine neue Arbeitsgruppe zu „Human Performance“ eingerichtet. Warum?

Dr. Hans Volkmar Schwarz

Menschliche Fehler sind häufige Ursachen für Zwischenfälle – nicht nur im Bereich der Arbeitssicherheit, sondern auch in der Prozesssicherheit. Es ist deshalb sehr wichtig zu erfahren, wie man solche menschlichen Fehler vermeiden kann. Dabei bestehen auch enorme Unterschiede zwischen verschiedenen Firmen, manchmal sogar zwischen einzelnen Standorten und Anlagen der gleichen Firma. Es gibt also bessere und weniger gute Vorgehensweisen, das heisst Firmen können voneinander lernen – und das ist eine der Hauptaufgaben des EPSC: Firmen sollten voneinander lernen. Man könnte auch sagen, dass die Fähigkeit zu lernen der Schlüssel zu mehr Sicherheit ist. Wenn man all das in Betracht zieht, dann ist eine Gruppe aus Vertretern verschiedener Chemieunternehmen, die sich darauf konzentriert, den Faktor Mensch besser zu berücksichtigen – bzw. menschliche Fehler zu vermeiden – eine sehr sinnvolle Sache.

Gibt es Schätzungen über Schäden, die durch menschliche Fehler verursacht werden?

Mir sind keine konkreten Statistiken bekannt, aber: Wir kommen aus der Anlagensicherheit, und Zwischenfälle in diesem Bereich können sehr teuer werden. In Deutschland kam es beispielsweise vor weniger als einem Jahr zu einer Explosion in einer Raffinerie. Ich bin sicher, das hat Hunderte Millionen Euro gekostet. Bei meinem früheren Arbeitgeber, der BASF, ereignete sich 2016 ein schwerer Unfall, der auf menschliches Versagen zurückzuführen war. Fünf Menschen starben, und viele weitere wurden verletzt. Todesfälle und Verletzungen zu vermeiden hat auf jeden Fall oberste Priorität. Aber auch wenn niemand zu Schaden kommt, kosten solche Ereignisse sehr viel Geld. Deshalb besteht neben dem Bestreben, Menschen zu schützen, zusätzlich auch ein wirtschaftliches Interesse daran, solche Katastrophen zu vermeiden.

Der „Faktor Mensch“ ist eines der Themen der European Conference on Plant and Process Safety, 11.-12. Dezember 2019 in Köln. Andere Themen umfassen Werkzeuge zur Risikominimierung, Anlagenüberwachung und vieles mehr. Programm und Anmeldung unter https://safetycongress.eu/

Was sind die häufigsten menschlichen Fehler im Hinblick auf Prozesssicherheit?

Das ist eines der Dinge, die wir in dieser Arbeitsgruppe gelernt haben: Man kann menschliche Fehler klassifizieren. Manche entstehen unbeabsichtigt – Menschen machen einen Fehler, sie tun etwas, was sie nicht tun sollten, sind sich dessen aber gar nicht bewusst. In anderen Fällen tun Menschen bewusst etwas, das sie besser nicht täten, meistens aus irgendeinem vermeintlich guten Grund.

Das ist die erste Unterscheidung. Die unbeabsichtigten Fehler, die den Löwenanteil ausmachen, kann man dann noch weiter herunterbrechen.

Man kann auch noch aus einem anderen Blickwinkel darauf schauen: Aus einer phänomenologischen Perspektive gibt es bestimmte relevante Fehlerarten. Ein typisches Beispiel ist das Befüllen von Tanks oder Gefäßen über den maximalen Füllstand hinaus, was zum Stoffaustritt führt – ein bekanntes Beispiel: der Buncefield-Unfall 2007. Manchmal ist das auf menschliche Fehler zurückzuführen: Jemand hat das Befüllen überwacht, aber den Prozess nicht rechtzeitig gestoppt. Das kann man technisch recht einfach vermeiden, in dem man eine technische Überfüllsicherung  einbaut – in diesem Fall hätte man eine technische Lösung, um menschliche Fehler auszuschließen.

Photo by Skitterphoto on Pexels.com

Ein anderer typischer menschlicher Fehler sind offene Ventile beim Anfahren einer Anlage nach einem Stillstand. Warum vergessen wurde, sie zu schließen, kann sehr unterschiedliche Gründe haben, aber es gibt Methoden, um das zu vermeiden. In der Regel geht jemand die Anlage ab und überprüft die Ventilstellungen. Aber selbst wenn jemand nachschaut, kann er etwas übersehen. Man kann datenbasierte technische Hilfsmittel einführen – jedes Ventil bekommt einen QR-Code. Der Beauftragte geht von Ventil zu Ventil und das Tool weist ihn darauf hin, ob das Ventil in der richtigen oder falschen Stellung ist; das wäre eine High-Tech-Lösung. Aber es gibt auch ganz einfache Möglichkeiten – Ventilgriffe werden rot markiert, wenn das Ventil beim Anfahren geschlossen sein sollte, und grün, wenn es offen sein sollte. Wenn man weiß, dass der Ventilhebel bei geschlossenem Ventil senkrecht zum Rohr steht und bei offenem Ventil parallel dazu, lässt sich schnell erkennen, ob ein Ventil in der falschen Position gestellt ist.

Solche bewährten Methoden zu sammeln und weiterzugeben, um Betreiber bei der Fehlervermeidung zu unterstützen, ist eine der Kernaufgaben unserer Arbeitsgruppe. Unser wichtigstes Arbeitsergebnis wird eine Sammlung von leicht umsetzbaren Best Practices der beteiligten Unternehmen sein.

Ich könnte mir vorstellen, dass Diskussionen über menschliche Fehler in einem technischen Umfeld nicht immer einfach zu führen sind. Gibt es da kulturelle Reibungspunkte?

Da ist sicherlich etwas dran. Die Anlagensicherheits-Community unterscheidet sich deutlich von der Arbeitssicherheit – wir sind in der Regel alle sehr technisch orientiert. Manchmal können technische Lösungen menschliche Fehler verhindern; da hilft die technische Ausrichtung. Aber manche Aspekte bei der Vermeidung menschlicher Fehler sind eher im Bereich der Psychologie oder des Führungsverhaltens zu suchen, und wir als Technikexperten sind manchmal weniger empfänglich für diese Themen.

Wer beteiligt sich an der Arbeitsgruppe?

Die meisten Mitglieder haben eine technischen Hintergrund; sie sind Experten oder Manager für Anlagensicherheit in ihren Unternehmen. Wir haben aber auch jemanden dabei, der aus der Psychologie kommt und in seiner Firma vor allem mit menschlichem Versagen und der Verbesserung der Arbeitsleistung befasst ist. Das ist einer der Vorteile solcher internationaler Arbeitsgruppen: Es gibt eine größere Bandbreite an unterschiedlichen Hintergründen, die man im eigenen Unternehmen oder selbst in den nationalen Arbeitsgruppen nicht vorfindet. Wenn man sich BASF, Bayer, Evonik, Covestro und andere große Firmen in Deutschland anschaut, sind ihre Ansätze recht ähnlich. Das EPSC umfasst auch Mitglieder von Total in Frankreich, DSM in den Niederlanden oder aus Großbritannien, wo traditionell viel Wert auf Vermeidung menschlicher Fehler gelegt wird. Das macht das EPSC so besonders: Man trifft Leute aus Unternehmen aus anderen europäischen Ländern. Das erweitert den eigenen Horizont, denn man bekommt sehr viel Input, den man in einer Arbeitsgruppe des VCI oder selbst der DECHEMA so nicht bekommt.

In der Luftfahrt wird darüber diskutiert, inwieweit man durch den Ersatz menschlicher Piloten durch Autopiloten menschliche Fehler ausschließen kann. Kann der „Faktor Mensch“ durch technische Vorrichtungen komplett ausgeschlossen werden?

Photo by Rafael Cosquiere on Pexels.com

In der Luftfahrt hat man menschliche Fehler sehr weitgehend reduziert, und zwar durch eine Kombination von technischen und Verhaltensmaßnahmen. Ein Beispiel für eine Verhaltensanpassung ist die lange Checkliste, die der Pilot persönlich vor dem Start durchgeht. Er wird nie einen Punkt in dieser Liste auslassen. Auch wenn er das zum 500sten Mal macht, hakt er die Liste ab und verlässt sich nicht auf sein Gedächtnis, weil er gelernt hat, dass er seinem Gedächtnis nicht hundertprozentig trauen kann. Solche Methoden sind zum Teil schon übernommen worden, aber es gibt noch einiges zu lernen. So hat die Luftfahrtindustrie eine Datenbank, in der kritische Vorkommnisse, bei denen es nicht zu einem Unfall kam, anonym allen Unternehmen zugänglich gemacht werden. Piloten sind verpflichtet, sich regelmäßig dort zu informieren. So etwas haben wir in der chemischen Industrie bisher nicht. Es gibt Ansätze wie die Datenbank Ereignisse der DECHEMA, sie ist aber nicht auf europäische Basis und bisher noch nicht sehr verbreitet. Eine Idee für eine zukünftige Verbesserung könnte deshalb sein, solche Beinahe-Unfälle anonym zu erfassen und zu teilen. Viele Firmen haben so etwas intern, aber es gibt keinen systematischen Austausch zwischen Firmen.

Bei der  European Conference on Plant and Process Safety in Köln werden Sie die bisherige Arbeit der Arbeitsgruppe vorstellen. Was war bisher für Sie die bemerkenswerteste Erkenntnis?

Am spannendsten finde ich, dass jede Firma etwas unterschiedliche Erfahrungen hat. Wenn man die austauscht, wächst das Wissen in allen Unternehmen, und sie erweitern ihr Methodenrepertoire, um mit menschlichen Einflüssen umzugehen und sie besser zu handhaben.

Read Full Post »

Die Innovationsplattform „KEEN – Künstliche-Intelligenz-Inkubator-Labore in der Prozessindustrie“ ist am 19. September 2019 im KI-Innovationswettbewerb des Bundesministeriums für Wirtschaft und Energie (BMWi) ausgezeichnet worden. Der Wettbewerb prämiert durchsetzungsstarke Leuchtturmprojekte, die die künstliche Intelligenz (KI) als Treiber für volkswirtschaftlich relevante Ökosysteme einsetzen wollen. Ab April 2020 wird das BMWi das KEEN-Konsortium voraussichtlich mit 10 Mio. EUR fördern. Zum gesamten Projektvolumen kommen noch 7,5 Mio. EUR von den Industriepartnern.

KEEN wird von der TU Dresden koordiniert und verbindet 25 Industrie- und Wissenschaftseinrichtungen, darunter die DECHEMA, mit dem Ziel, die Technologien und Methoden der künstlichen Intelligenz in der Prozessindustrie einzuführen. Diese umfasst u.a. die chemisch-pharmazeutische Industrie und ist die drittgrößte Industriebranche Deutschlands. Damit sie im internationalen Wettbewerb weiterhin konkurrenzfähig bleibt, muss die Produktion vorausschauender werden. Immer kürzere Produktlebenszyklen einerseits und der hohe Bedarf an Nachhaltigkeit und dem verantwortungsbewussten Umgang mit den Ressourcen anderseits bilden ein Spannungsfeld, dem die traditionelle Anlagenplanung und Prozessführung nicht mehr gewachsen sind. Künstliche Intelligenz hat das Potenzial, diesen spezifischen Herausforderungen zu begegnen. Denn sie kann große Datenmengen erfassen, verstehen und analysieren und damit komplexe Prozesse besser prognostizieren. „Wenn die Komplexität von Produkten, Prozessen und Anlagen steigt, brauchen Ingenieure einen ‚kognitiven Verstärker‘, um flexibler und schneller die neuen Lösungen zu erarbeiten“, so der KEEN-Projektkoordinator Prof. Leon Urbas, Professor für Prozessleittechnik an der TU Dresden. „Die künstliche Intelligenz kann einen gut ausgebildeten Ingenieur nicht ersetzen, aber ein nützliches Werkzeug für ihn sein.“

Das KEEN-Konsortium forscht an der Implementierung von KI-Verfahren in drei Themenbereichen: der Modellierung von Prozessen, Produkteigenschaften und Anlagen, dem Engineering (besonders der Unterstützung komplexer Planungsprozesse und Sicherheitsengineering) sowie der Realisierung selbstoptimierender Anlagen. „Die Einbeziehung verschiedener Aktivitäten im gesamten Feld der chemischen und biotechnologischen Industrie erlaubt uns, die Möglichkeiten der Digitalisierung sehr breit zu erkunden“, ist Prof. Norbert Kockmann von der Technischen Universität Dortmund überzeugt. Die künstliche Intelligenz kann Muster komplexer Prozesse erkennen und helfen, Ähnlichkeiten, statistische Auffälligkeiten und Simulationen einzubinden und Entscheidungsempfehlungen abzuleiten. „Für die Prozessindustrie ist es wichtig, dass die KI nicht nur Handlungsempfehlungen liefert, sondern auch Erklärungen, auf welcher Grundlage diese Empfehlungen erstellt wurden“, erklärt Prof. Urbas. „Der Entscheidungsprozess muss transparent sein. Nur so können die Ingenieure eine bewusste Auswahl treffen“.  

„Wir wollen KI-basierte Lösungen erarbeiten, die am Ende einen echten Mehrwert für die Unternehmen darstellen. Durch die starke, breit aufgestellte industrielle Beteiligung, von Startups bis hin zu großen Konzernen, bietet das Projekt die Möglichkeit, die KI-Innovationen direkt in die Anwendung zu überführen“, so Dr. Michael Bortz, Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM. Die Forschungsarbeit im KEEN-Projekt soll bis 2023 laufen. Bis 2025 sollen die ersten kommerziellen KI-Produkte für die Prozessindustrie verfügbar sein.

Quelle: TU Dresden, weitere Informationen: https://tu-dresden.de/tu-dresden/newsportal/news/die-innovationsplattform-keen-an-der-tu-dresden-ist-unter-gewinnern-des-ki-innovationswettbewerbs-des-bmwi

Read Full Post »

Arbeitskreis Prozessanalysentechnik feiert Jubiläum

Vor 15 Jahren wurde der Arbeitskreis Prozessanalysentechnik als Forum für Anwender Hersteller und Akademia gegründet. Seine Aufgabe ist noch lange nicht erfüllt, denn kaum ein Thema entwickelt sich angesichts von Digitalisierung und Prozessintegration so dynamisch wie die Prozessanalytik. Beim 15. Herbstkolloquium Prozessanalytik vom 25. -27. November im Marl geht es deshalb vor allem um Entwicklungen für die Zukunft.

Die Gründung: Ein Kommunikationsforum für die Prozessanalytik

Ohne Prozessanalytik geht fast nichts in der chemischen, pharmazeutischen oder Lebensmittelproduktion – von der Planung bis zur Produktion werden Daten gesammelt, ausgewertet und auf dieser Basis Prozesse angepasst und optimiert.  Und was vor 15 Jahren galt, ist heute so aktuell wie je: Die Prozessanalytik (PAT) ist ein hochdynamisches Thema, dass die Zusammenarbeit vieler erfordert. Deshalb wurde der Arbeitskreis PAT ins Leben gerufen.  Er bildet eine Anlaufstelle für Austausch und Kommunikation für Wissenschaftler, Entwickler und Anwender.

Heute: Mehr Dynamik als je zuvor

Heute ist die PAT dynamischer denn je. Immer noch werden neue analytische Verfahren entwickelt. Doch auch bestehende Laborverfahren müssen an die Anforderungen der Prozessanalytik angepasst werden. Dazu kommen die Möglichkeiten, die durch die Digitalisierung realisiert werden sollen: Von neuartigen Sensorkonzepten über Plug-In-Software für mobile Geräte bis zu Deep Learning verändern innovative Ansätze die Prozessanalytik. Gleichzeitig sinken die Kosten und sorgen so dafür, dass immer mehr Prozess-Sensoren eingesetzt werden.

Wie werden solche Systeme konsistent in Automatisierungs-Konzepten vernetzt? Um diese Frage zu klären, müssen sich die Akteure innerhalb der Prozessanalysentechnik mehr denn je austauschen. Mehr noch: Der Austausch mit anderen Disziplinen ist unbedingt erforderlich, um das vorhandene Potenzial der Prozessanalytik effektiv für die Prozesse zu nutzen.

Der Arbeitskreis Prozessanalysentechnik: Ein Forum für den Trialog

Hier setzt der Arbeitskreis Prozessanalysentechnik an. Dieses Forum ist zugleich national und international Schnittstelle zu anderen Organisationen auf dem Gebiet der Prozessanalytik. Damit übernimmt der „AK PAT“ die Themenführerschaft im Bereich der Prozessanalytik bzw. der Prozessanalysentechnik (PAT) in der DACH-Region. Er vernetzt Fachleute aus den drei Sektoren Anwender, Hersteller und Akademia im Trialog zu einer gemeinsamen Community.

Trialog und Themenspektrum des AK-PAT

Ein starkes Netzwerk auf vielen Säulen

Der Arbeitskreis Prozessanalytik  ist ein Zusammenschluss von Einzelpersonen, der als Arbeitskreis der Fachgruppe Analytische Chemie in der GDCh verortet ist. Gleichzeitig pflegt er eine enge fachliche Anbindung an die Fachgruppe Prozess-, Apparate- und Analysentechnik in der DECHEMA. Aus diesen Gremien kommen technische Konzepte, Empfehlungen und Good Practice, vor allem aber auch Standardisierung in sehr systematischer Arbeit. Der AK-PAT ergänzt dies als Forum, das sich den Austausch aller Beteiligten zum Thema Prozessanalytik zum Ziel gesetzt hat. Der AK-PAT ist heute die wichtigste deutschsprachige Plattform für Prozessanalytik mit über 350 Mitgliedern.

Beispielhafte Schwerpunkte des AK-PAT

Smarte Sensoren

Der smarte Sensor misst mehrere Messgrößen, kalibriert und optimiert sich selbst, ist leicht in Anlagen zu integrieren und erhält seinen Betrieb selbständig. Eine Prozessintelligenz kann aus den multisensorischen und multivariaten Messdaten übergeordnete Informationen generieren. Dies ermöglicht eine flexible, aber zielgenaue prädikative Prozessführung, die Schwankungen der Prozessumgebung begegnen kann. Der AK-PAT beschäftigt sich  mit der Fragestellung, wie eine Selbst-Kalibrierung erreicht werden kann. Außerdem soll der Anwender das Lebenszyklus-Management zum Erhalt eines validen Messsystems sichern können.

Automatisierungskonzepte

Die Prozessanalytik fokussiert sich nicht nur auf die Erfassung von physikalischen und chemischen Messgrößen oder das Verständnis der Prozesse, sondern befasst sich auch mit flexibilisierten Automatisierungskonzepten und Prozesstopologien. Das reicht  von der Versuchsplanung bis hin zu einer modell- und datengetriebenen Prozessführung. Solche Konzepte sind ein durchgängiges Hauptthema auf den Veranstaltungen des AK-PAT  wie z.B. dem jährlichen Kolloquium.

Förderung für den Nachwuchs

Die Nachwuchsförderung liegt dem AK-PAT besonders am Herzen. Deshalb hat er das Doktorandenseminar als spezielles Forum entwickelt. Es bereitet Jungakademiker auf die spätere wissenschaftliche Arbeit in einer PAT-Abteilung vor. Beim Doktorandenseminar des AK-PAT können Nachwuchswissenschaftler die eigene Arbeit im Kreis von Gleichgesinnten vorstellen und diskutieren. Das Feedback hilft dabei, Querverbindungen oder andere Perspektiven zu entdecken. Man könnte auch sagen:  Hier lässt sich „der Austausch üben“. Fachlich tiefgehende Vorträge von Praktikern aus der Industrie tragen dazu bei. Übungen zu Kreativitätstechniken und zur Ideenentwicklung wie etwa Design Thinking vermitteln Arbeitstechniken, die in der Industrie geschätzt werden.

Doktorandenseminar 2019 bei der BAM in Berlin

Dass im Vorstand des Arbeitskreises neben den drei Vertretern der Trialog-Partner auch ein Jungakademiker Vorstandsmitglied ist, zeigt,  welche Bedeutung den Jungakademikern im AK-PAT beigemessen wird

Der jährliche Höhepunkt – das Herbstkolloquium des AK-PAT

Das Herbstkolloquium des Arbeitskreis Prozessanalytik ist der jährliche Höhepunkt des Trialogs. In diesem Jahr findet es am 26. und 27. November in Marl bei Evonik statt. Themenschwerpunkt des 15. Kolloqiums ist die Prozessanalytik in der industriellen Anwendung: Innovative Prozessanalytik als zentrales Element im Produktlebenszyklus.

Das Kolloquium umfasst Vorträge von Forschern und industriellen Anwendern, aber auch moderierte Round-Table-Diskussionen, an denen sich jeder Teilnehmer beteiligen kann. Dabei können Fragen und Kommentare zu den Vorträgen nicht nur am Ende des Vortrags vorgebracht werden, sondern über ein Onlinesystem  per Smartphone auch bereits während des Vortrags.  So findet jede Frage und jeder Kommentar zum Schluss Berücksichtigung.

Vortragssession auf dem PAT-Kolloquium 2017 bei Festo in Esslingen

Ein Highlight ist die Poster-Ausstellung und der Poster-Slam. Jung-Forscher stellen ihre Poster zu ihren wissenschaftlichen Arbeiten in kürzester Zeit und hintereinander weg auf dem Podium vor. Wem diese Zeit zur kurz ist oder wer vertieft diskutieren möchte, hat dafür viel Gelegenheit:  Alle Poster sind an beiden Veranstaltungstagen in der Poster-Ausstellung zu sehen und können mit den Vortragenden diskutiert werden. Auch über den Poster-Preis kann onlineabgestimmt werden; er wird am Schluss der Veranstaltung verliehen.

Und auch die Anwendung kommt nicht zu kurz: Die Veranstaltung wird von einer Ausstellung der Hersteller von Prozessanalysentechnik begleitet. Dort kann man mit Firmen ins Gespräch kommen.

Auch auf europäischer Eben ist der AK PAT aktiv – zum Beispiel im Rahmen der EuroPACT

Die ersten 15 Jahre haben Sie verpasst? Lassen Sie es nicht noch mehr werden. Ihre Mitarbeit ist jederzeit willkommen – werden Sie jetzt Mitglied und nehmen Sie am Trialog und an unseren Veranstaltungen teil.

www.arbeitskreis-prozessanalytik.de

Nächster Termin für den alle Prozessanalytiker: Das Herbstkolloquium Prozessanalytik vom 25. -27. November im Marl mit dem Themenschwerpunkt: PAT in der industriellen Anwendung – Innovative Prozessanalytik als zentrales Element im Produktlebenszyklus Melden Sie sich jetzt an!

Read Full Post »

Power-to-X ist ein Konzept, das scheinbar alle Wünsche erfüllt: Eine Wirtschaft, die gleichzeitig den Energiebedarf deckt, Mobilität und Wärme gewährleistet und sogar als Grundlage der Chemieproduktion dienen kann und dabei gleichzeitig klimaneutral und ressourcenschonend ist. Doch wie weit sind wir von der Umsetzung entfernt?

Power-to-X-Technologien nutzen Strom aus erneuerbaren Quellen, um aus Kohlendioxid Gas, Kraftstoffe oder Chemikalien (subsummiert als „x“) zu erzeugen. Indem solche neuen Prozesse entwickelt und umgesetzt werden, lässt sich die Abhängigkeit von fossilen Ressourcen reduzieren. Auch Dr. Simon Hafner, ThyssenKrupp Industrial Solutions, sieht das so: „Power-to-X-Technologien werden ein wichtiger Baustein sein, um den Übergang aus der fossilen Energieversorgung erfolgreich zu meistern.“ Gleichzeitig können diese Verfahren dazu beitragen, die Schwankungen in der erneuerbaren Stromerzeugung auszugleichen. Schlüssel dafür ist die Integration der Energiewirtschaft mit dem Verkehrssektor und der chemischen Industrie.

Kern von Power-to-X: Elektrolyse

„Power-to-X entwickelt sich von einem möglichen Szenario zu einer absoluten Notwendigkeit“, sagt Arnaud de Lhoneux, Regional Business Development Manager von Hydrogenics Europe. Sein Unternehmen beschäftigt sich seit 60 Jahren mit Wasserstofftechnologie. In den letzten Jahren beobachtet er einen wachsenden Anteil an Projekten im Energiebereich. Gleichzeitig werden die Elektrolyseanlagen immer größer.

Auch Christian von Olshausen von der Sunfire GmbH sieht die Entwicklung von Power-to-X positiv: „Elektrolyse ist das Bindeglied zwischen Elektrizität und Chemie. Auf lange Sicht wird PtX praktisch alles ersetzen, was heute aus Gas,Kohle, Rohöl oder Biomasse gewonnen wird.“

Chancen für Gründer

Sicher ist: Power-to-X-Technologien sind nicht mehr nur Träume im Labor. Das zeigt sich schon daran, dass mittlerweile eine ganze Reihe von jungen Unternehmen und Gründern auf ihre Verwirklichung setzen. „Wir können heute schon kompakte modulare Anlagen einsetzen, um die Kohlendioxid-Emissionen zu senken und den Weg in eine nachhaltige Zukunft für Mobilität und Chemie zu ebnen“, sagt Dr. Tim Boeltken, Managing Director des jungen Karlsruher Unternehmens Ineratec, das sich auf Reaktortechnik für Gas-to-Liquid-Prozesse spezialisiert hat. 

Auch die ESy-Labs aus Regensburg baut auf die Zukunft von Power-to-X. Das 2018 gegründete Unternehmen ist auf elektrosynthetische Verfahren zur Herstellung von organischen und anorganischen Rohstoffen spezialisiert. CEO Dr. Tobias Gärtner sieht dies als wichtigen Bestandteil zukünftiger Anwendungen: „Integrierte Lösungen verbinden die Vorteile verschiedener Forschungsbereiche: Elektrosynthese in Kombination mit Biotechnologie und chemischer Technik ist eine hervorragende Grundlage für wegweisende Innovationen.“

Mehr zu Power-to-X, aktuellen Technologien und neuen Anwendungen erfahren Sie beim DECHEMA-PRAXISforum Power-to-X am 8. und 9. Oktober 2019 in Frankfurt – melden Sie sich jetzt an!

Read Full Post »

Older Posts »