Feeds:
Beiträge
Kommentare

Posts Tagged ‘Messtechnik’

Die Diskussion zur Digitalisierung in der chemischen Industrie schwankt zwischen Enthusiasmus und Ängsten – Zeit, die Diskussion anhand konkreter Beschreibungen zu führen. Das wollen wir in den nächsten Monaten in einer losen Serie tun.

Über die Veränderung der Arbeitswelt durch Digitalisierung und von neuen Geschäftsmodellen wird viel gesprochen. Deutlich wird dies durch allgegenwärtige Begriffe wie Künstliche Intelligenz, Blockchain, Big Data, 5G, Internet of Things und – als Zusammenfassung aller Aspekte im industriellen Umfeld – die Industrie 4.0. Auch Ängste sind mit diesem Trend verbunden. Wird Digitalisierung viele Berufe – vielleicht sogar den eigenen – überflüssig machen? Haben wir die Anlagen denn überhaupt noch unter Kontrolle, wenn sie nur noch von Algorithmen gesteuert werden?

Auf der anderen Seite gibt es aber auch die Enthusiasten, die durch die Digitalisierung die Lösung oder zumindest Unterstützung zur Lösung nahezu aller Herausforderungen sehen. Ein Grund für die großen Unterschiede in diesen Positionen ist eine Diskussion, die zumeist auf einem sehr hohen Abstraktionslevel geführt wird: Es werden Technologien allgemein betrachtet und ungefähre Anwendungsfälle beschrieben, ohne jedoch auf die konkrete Umsetzung in einem Bereich einzugehen.

Es ist an der Zeit, konkreter zu werden

Dies ist in Zukunftsdiskussionen durchaus zulässig und eine Vision kann man nicht entwerfen, wenn man sich in Details verliert. Manchmal ist es aber gerade bei Zukunftsfeldern an der Zeit, die Abstraktion zu reduzieren und bei der Beschreibung etwas konkreter zu werden. Durch diese konkreten Betrachtungen werden auch Chancen und Einschränkungen in spezifischen Einsatzfeldern deutlich. Zudem können die nötigen Schritte zur Umsetzung aufgezeigt werden.

In den nächsten Monaten werden wir hier Themen der Digitalisierung in der Prozessindustrie Betrachten. Zum Einstieg gibt es ein Ergebnispapier aus dem Workshop Digitalisierung elektrochemischer Prozesse, der dieses Jahr im Rahmen der BMBF-Fördermaßnahme InnoEMat durchgeführt wurde. Mitte Dezember organisierte Covestro die Chemalytix-Konferenz zu Data Science und Chemie – wir werden berichten. Ein Whitepaper zur Sensorik für die Digitalisierung chemischer Produktionsanlagen aus einem Workshop, der dieses Jahr bei der DECHEMA stattgefunden hat, wird in Kürze veröffentlich – auch dazu bald mehr an dieser Stelle.

Stichwort „Blockchain“

Außerdem schauen wir im kommenden Jahr auch auf eine konkrete digitale Technologie, mit einem Überblick über Blockchain, in dem wir darauf eingehen, was Blockchain überhaupt ist und welche Chancen und Einschränkungen diese Technik beim Einsatz in der Prozessindustrie hat. Auch das Thema Künstliche Intelligenz in der chemischen Industrie werden wir beleuchten. Mit dem Projekt KEEN startet im April ein BMWi gefördertes großes Verbundvorhaben zu diesem Thema.

Vielfältige Aktivitäten gibt es bereits im Bereich der Modularen Produktion, wobei die Modularisierung neben der Hardwareebene auch in der Automatisierungstechnik und Prozesssteuerung umgesetzt werden muss. Die Modularisierung wird ein Fokusthema auf der ACHEMA 2021 sein und daher auch hier einen besonderen Fokus erhalten.

Sensorik als Grundlage für Digitalisierung sind

Jede Intelligenz, ob klassisch oder künstlich, benötigt Sinnesorgane, um die nötigen Informationen für Entscheidungen zu erhalten. Daher ist Sensorik und Messtechnik ein zentrales Element der Digitalisierung das uns über das bereits erwähnte Whitepaper hinaus beschäftigen wird. Der Arbeitskreis Prozessanalytik hat beim Herbstkolloquium gerade 15 Jahre Trialog zwischen Anwendern, Herstellern und Akademia gefeiert und im Mai findet die europäische Konferenz für Prozessanalyse und –steuerung EuroPACT in Kopenhagen statt. Auch die Prozessanalytik wird ein Kongressthema auf der ACHEMA 2021 sein und entsprechend Platz in unserem Blog finden.

Neben der Digitalisierung in Produktionsprozessen spielt auch die Digitalisierung der Forschung und Entwicklung eine immer größere Rolle und natürlich werden wir auch hierzu berichten. Zum Labor im Zeitalter der Digitalisierung findet im März das PRAXISforum Lab of the Future statt. Ebenfalls im nächsten Jahr starten die Initiativen zur nationalen Forschungsdateninfrastruktur (NFDI) in denen Datenmodelle und Infrastruktur zur Dokumentation und Bereitstellung von Forschungsdaten entwickelt werden.

Und was meinen Sie?

Es gibt also viel zu berichten. Wir werden versuchen, einen möglichst umfassenden Überblick in kurzen und fokussierten Beiträgen zu liefern. Mit Sicherheit ist die Aufzählung aber nicht vollständig und es gibt noch eine Vielzahl weiterer Themen und Veranstaltungen zur Digitalisierung in der chemischen Industrie.

Wenn Sie finden, eine wichtige Veranstaltung wurde hier vergessen und sollte Erwähnung finden, teilen Sie uns dies gerne in den Kommentaren mit.

Read Full Post »

„Miss alles, was sich messen lässt, und mach alles messbar, was sich nicht messen lässt“, soll Archimedes gesagt haben. Das klingt einfach – und ist doch extrem komplex.

Umwelt und Gesundheit – hier spielt Messtechnik eine besondere Rolle
Bild: Erich Westendarp auf Pixabay

Das gilt besonders dann, wenn es um Gesundheit geht. Bei wenigen Themen wird dies so deutlich wie bei der anhaltenden Diskussion um Fahrverbote für Dieselautos. Und hier fängt die Kontroverse schon bei den vermeintlich objektiven Fakten, den Messwerten an: Was wird gemessen, und vor allem: Wo wird gemessen? Und ist auf Basis dieser Messungen eine Aussage darüber möglich, wie es wenige Meter entfernt oder oberhalb aussieht? Das Ergebnis lässt sich in der öffentlichen Debatte besichtigen. Da wird um jede Messstelle gerungen und heftig diskutiert, ob Grenzwerte an Arbeitsplätzen anders einzuordnen sind als Grenzwerte auf Durchgangsstraßen und warum. Das gipfelt in dem Versuch, durch die Installation einer Absauganlage neben einer Messstelle die Messwerte unter die kritischen Schwelle zu drücken – so ernsthaft an einer stark befahrenen Straße in Kiel geplant.

Dass die Luftverschmutzung in weiten Teilen Indiens gesundheitsgefährdend hoch ist, ist wohl auch ohne Messung jedem ersichtlich. Aber wie steht es um deutsche Innenstädte? Laut Europäischer Umweltagentur war Feinstaub die Ursache für rund 422.000 vorzeitige Todesfälle in 41 europäischen Ländern, Stickoxide sorgten für 79.000 Tote. Verkompliziert wird das Ganze dadurch, dass eine Optimierung von Dieselmotoren auf möglichst geringen Stickoxid-Ausstoß zu einem Anstieg der Feinstaubemissionen führt und andersherum; darauf machte Professor Matthias Klingner, der Leiter des Fraunhofer-Instituts für Verkehrs- und Infrastruktursysteme in Dresden, 2017 in der „Welt“ aufmerksam. Und Feinstaub ist nicht gleich Feinstaub – allein die Größe eines Partikels sagt noch nicht viel über dessen Toxizität aus. Dafür spielen unter anderem die Form des Teilchens und dessen Oberflächeneigenschaften eine entscheidende Rolle.

Es geht also nicht nur um eine immer bessere Messtechnik, man muss sich auch darüber im Klaren sein, welche Aussagekraft die gemessenen Daten haben.

14. Dresdner Sensor-Symposium

Wie man sich diesen komplexen Fragestellungen nähern kann, ist Thema einer Podiumsdiskussion beim 14. Dresdner Sensor-Symposium. Reinhard Nießner, TU München, Heinz Burtscher, Fachhochschule Nordwestschweiz,  Axel Haverich, Medizinische Hochschule Hannover, und Volker Ziegler, Grimm Aerosol Technik Ainring beschäftigen sich mit der Frage: Partikel und Gesundheit – Messen wir das Richtige? Die Moderation hat Ulrich Kaiser, Endress+Hauser. Die Veranstaltung ist Teil des Dresdner Sensor-Symposiums vom 2. bis 4. Dezember 2019.

Mehr zu Programm und Teilnahme unter https://dechema.de/dss14.html

Read Full Post »

Kiel hat sich über die letzten Jahre und Jahrzehnte zu einer Hochburg der Algenforschung entwickelt. Und mittlerweile sind die ersten Unternehmen am Markt, die zeigen, dass sich mit Mikroalgen auch Geld verdienen lässt. Wir stellen die „Algenszene“ im hohen Norden vor.

Mit dem Meer kennt man sich aus in Kiel, der Landeshauptstadt an der Ostseeküste. Und so hat man das, was andernorts erst seit einigen Jahren als Zukunftstechnologie gilt, schon seit Jahrzehnten im Blick. Schlagzeilen, die Tourismusexperten Schweißperlen auf die Stirn treiben, sind für die Algenforscher Alltag: Denn in der Ostsee, genauer in der Kieler Förde, wird schon seit 2000 eine Algenfarm mit der Braunalge Laminaria saccharina betrieben. Durch die Kombination von Algen und Muscheln in einer marinen multitrophischen Aquakultur produziert die Kieler Meeresfarm nachhaltige Lebensmittel und Produkte für die Kosmetikherstellung in Bioqualität. Seit 2014 existiert zudem eine Forschungsplattform für die Offshore-Algenkultur, die in einem gemeinsamen Projekt der Christian-Albrechts-Universität zu Kiel (CAU), der Firma Coastal Research Management (CRM) und der Firma Sea & Sun Technology entwickelt wurde. CRM ist eine Plattform für unabhängige Experten im Küsten- und Meeresbereich. Mit über 250 Studien, Gutachten und Forschungsprojekten zählt sie zu den starken Akteuren auf diesem Gebiet.

Laminaria Saccharina (By Bjoertvedt – Own work, CC BY-SA 4.0, https://commons.wikimedia.org/w/index.php?curid=37206632)
(mehr …)

Read Full Post »

anatomy-1751201.pngDie Sensortechnologie richtet sich neu aus: Sensorintelligenz, Dezentralisierung, Multisensorsysteme und Miniaturisierung sind die Anforderungen, die Sensoren zukünftig erfüllen müssen. Hintergrund für den Paradigmenwechsel in der Sensortechnologie sind neue Ansätze in der Prozesstechnik, die der Philosophie von „Industrie 4.0“ und „Internet der Dinge“ folgen: Auch in der Bioverfahrenstechnik sollen Prozesse zukünftig integriert und kontinuierlich laufen und möglichst in Echtzeit gesteuert und optimiert werden. Die Biotechnologie stellt dabei besonders hohe Ansprüche an Produktqualität und –sicherheit; gleichzeitig sind die Prozesse und Strukturen teils hochkomplex. Eine Vielzahl an Messdaten allein nützt wenig; die Datenflut muss gleichzeitig ausgewertet und die Ergebnisse in den Prozess zurückgespeist werden. Sogenannte „Smart Sensors“ sind in der Lage, nicht nur zu messen, sondern auch Aufgaben der komplexen Signalverarbeitung zu übernehmen und zusätzliche Informationen über sich und die Prozessumgebung bereitzustellen. Diese erweiterte „Sensorintelligenz“ umfasst Selbstdiagnose, die Ausführung dezentraler Logikfunktionen, die eigenständige Validitätsprüfung der Messwerte, die Selektion und Bewertung von Prozessprofilen bis hin zur Vorhersage von Prozessabläufen und die direkte Interaktion mit zugeordneten Akteuren über dezentrale Steuereinheiten. Damit die Vision des Smart Sensors Wirklichkeit werden kann, sind allerdings noch einige Hürden zu überwinden – vom Nachweis der Prozess und Produktsicherheit über Schnittstellengestaltung und Standards für Daten bis hin zur Datensicherheit.

Was genau Sensoren der Zukunft können müssen, ist nachzulesen im Positionspapier „Smarte Sensoren für die Biotechnologie“ der DECHEMA-Fachgruppe „Messen und Regeln in der Biotechnologie“

Read Full Post »

Für Spätzle super, für Nanopartikel ungeeignet...

Für Spätzle super, für Nanopartikel ungeeignet…

Wie man Kieselsteine aus Sand herausbekommt, weiß jedes Kind: Mit dem Sieb lassen sie sich leicht trennen. Auch Gold kann man von Sand abtrennen, in dem man es „wäscht“; in diesem Fall ist es die unterschiedliche Dichte, auf der die Trennung beruht.

Was aber, wenn man Puderzucker und Mehl voneinander trennen möchte? Zum Sieben sind die Größen- und Massenunterschiede nicht groß genug, die feinen Partikel neigen außerdem dazu, zusammen zu klumpen, also Aggregate zu bilden.

Vor noch viel größeren Problemen steht, wer Nanopartikel im Größenbereich< 20 nm klassieren, also nach Form und Größe sortieren will. Parameter wie die Masse oder Dichte spielen hier eine sehr untergeordnete Rolle. Stattdessen kommen andere Einflüsse wie molekulare Wechselwirkungen oder elektrostatische Kräfte noch viel stärker zum Tragen. Weil die Eigenschaften von Nanopartikeln aber von ihrer Form und Größe entscheidend beeinflusst werden, ist die „Sortierung“ besonders wichtig – man denke nur an Halbleiter oder an Solarzellen, wo große „Klumpen“ die Effizienz senken. Bisher gibt es dafür aber noch keine technisch ausgereiften Verfahren.

Forscher an der Universität Erlangen-Nürnberg wollen das ändern. Sie arbeiten an einem Verfahren zur chromatographischen Trennung von Nanopartikeln nach Form und / oder Größe. Das Prinzip ist einfach: Eine Chromatographiesäule wird mit einer festen Phase bestückt, die festgelegte Porengrößen hat. Je nach ihrer Größe bzw. Form können die Nanopartikel in diese Poren eindringen oder eben nicht. Die, die es nicht können, laufen einfach durch; die anderen machen auf dem Weg durch die Säule diverse „Umwege“ durch die Poren und kommen so deutlich später am Ende an. Dieser Effekt lässt sich zusätzlich beeinflussen, indem man Zusatzstoffe verwendet, die sich an die Oberfläche der Nanopartikel heften und deren Beschaffenheit verändern. In der Biotechnologie wird das bereits erfolgreich für die Klassierung von Proteinen eingesetzt. Die Wissenschaftler wollen nun beispielhaft ein Klassierungssystem für Zinksulfid-, Zinkoxid- und Gold-Nanopartikel entwickeln. Ziel ist es, Unternehmen ein Verfahren zur Verfügung zu stellen, das im technischen Maßstab und kontinuierlich die Klassierung von Nanopartikeln erlaubt. Es könnte bisherige sehr aufwändige Analysemethoden ersetzen und gleichzeitig neue Produktqualitäten erschließen.

Mehr zum Projekt Klassierung von Nanopartikeln (NP) mit Hilfe chromatographischer Verfahren (IGF-Nr. 18037 N)

Read Full Post »

Human-nose_Public DomainGeht es um Lebensmittelaromen oder Parfumkompositionen, ist die Nase ungeschlagen. Doch wer Spuren von CO oder NO finden will, sollte auf Halbleitergassensoren setzen. Ihr Prinzip: Die Leitfähigkeit der Sensoroberfläche verändert sich, wenn sich ein Gas daran anlagert. Damit die Sensoren auf unterschiedliche Gase „anspringen“, kann man die Zusammensetzung der Oberfläche – eine ganze Palette an Metalloxiden steht zur Auswahl – so wählen, dass sich verschiedene Gase unterschiedlich stark anlagern. Sehr selektiv sind diese Sensoren jedoch in aller Regel nicht. Und sie sind häufig auch nicht langzeitstabil; deswegen können sie für manche sicherheitstechnische Anwendungen – z.B. bei der Branderkennung in Kohlekraftwerken oder der Untersuchung von Atemgasen – nicht eingesetzt werden. Könnte man die Sensoren jedoch überwachen, so dass ein Leistungsabfall gleich erkannt würde, könnte man ihre Einsatzbreite erheblich ausdehnen. Das wollen Wissenschaftler der Universität des Saarlandes in einem Projekt der industriellen Gemeinschaftsforschung angehen.
Parallel zur einfachen Leitfähigkeitsmessung sollen dabei weitere Messverfahren zum Einsatz kommen (z.B. die Impedanzspektroskopie im temperaturzyklischen Betrieb). Die Signale der verschiedenen Verfahren hängen immer von der Wechselwirkung zwischen Gasmolekülen und Sensoroberfläche ab, aber die Zusammenhänge sind je nach Gas so unterschiedlich, dass es möglich sein sollte, zwischen Änderungen in der Gaszusammensetzung und Veränderungen des Sensors zu unterscheiden.
Die Forscher gehen davon aus, dass besonders innovative KMU von diesem Projekt profitieren werden. Die Einsatzmöglichkeiten von Halbleitergassensoren würden dadurch erweitert, und die Projektergebnisse sollen sich in verschiedensten Branchen nutzen lassen.
Mehr zum Projekt

Read Full Post »

Im Projekt des Monats Februar haben wir erfahren, wie man Nanopartikel schon während der Herstellung vermessen kann. Nicht nur die Größe einzelner Teilchen und die von Teilchenklumpen ist interessant, sondern auch die Form der Partikel. Nanopartikel gibt es in allen möglichen Formen: rund, länglich, nadelförmig…

Damit kann man Nanopartikel nicht vermessen – neue Methoden müssen her.

Die Wirkung von Nanopartikeln hängt stark von ihrer Form ab. Wenn man aber ein Messverfahren entwickelt, das Größe und Form von Nanopartikeln bestimmen soll, woher weiß man, dass man auch richtig misst? Dafür braucht man sozusagen „geeichte“ Nanopartikel und Nanopartikelaggregate zum Testen. Und es gibt auch dazu ein Projekt: Wissenschaftler arbeiten im Rahmen der industriellen Gemeinschaftsforschung daran, neue Aerosolreaktoren zu entwickeln. Diese Reaktoren soll feinverteilte Nanopartikel herstellen, die bestimmte Formen haben. In Kaiserslautern baut man einen Generator für nadelförmige Partikel, in Karlsruhe will man fraktale Teilchen erzeugen, also welche mit einer sehr fein strukturierten Oberfläche. Das Prinzip: Das Material für die Nanopartikel oder seine Ausgangsstoffe werden verdampft. Entweder entstehen die Keime für die Nanopartikel durch Kondensation oder durch chemische Reaktionen in der Gasphase. Das weitere Wachstum (und damit auch die Form) lassen sich durch den Prozess, zum Beispiel durch die Temperatur, die Fließgeschwindigkeit der Gase oder die Konzentration, steuern.

In Dresden forscht man an Messgeräte-Kombinationen, die die verschiedenen Partikelformen erkennen können. Dafür kommen verschiedene spektroskopische Verfahren in Frage, außerdem auch optische und bildgebende Methoden.

Das Projekt bildet die Grundlage dafür, das weitere Vorgehen zur Entwicklung eines validen Messverfahrens zu planen. Dazu gehört zum Beispiel abzuschätzen, wie groß der Aufwand für die Entwicklung einer technisch einsetzbaren Messmethode sein würde und welchen Nutzen sie liefern könnte. Ziel ist es, eine flexible und mobile sowie wirtschaftliche Messtechnik zu entwickeln, die in verschiedenen Branchen zum Einsatz kommen und vor allem auch von KMU genutzt werden könnte.

Mehr zum Projekt

Read Full Post »

Older Posts »