Feeds:
Beiträge
Kommentare

Posts Tagged ‘Analytik’

anatomy-1751201.pngDie Sensortechnologie richtet sich neu aus: Sensorintelligenz, Dezentralisierung, Multisensorsysteme und Miniaturisierung sind die Anforderungen, die Sensoren zukünftig erfüllen müssen. Hintergrund für den Paradigmenwechsel in der Sensortechnologie sind neue Ansätze in der Prozesstechnik, die der Philosophie von „Industrie 4.0“ und „Internet der Dinge“ folgen: Auch in der Bioverfahrenstechnik sollen Prozesse zukünftig integriert und kontinuierlich laufen und möglichst in Echtzeit gesteuert und optimiert werden. Die Biotechnologie stellt dabei besonders hohe Ansprüche an Produktqualität und –sicherheit; gleichzeitig sind die Prozesse und Strukturen teils hochkomplex. Eine Vielzahl an Messdaten allein nützt wenig; die Datenflut muss gleichzeitig ausgewertet und die Ergebnisse in den Prozess zurückgespeist werden. Sogenannte „Smart Sensors“ sind in der Lage, nicht nur zu messen, sondern auch Aufgaben der komplexen Signalverarbeitung zu übernehmen und zusätzliche Informationen über sich und die Prozessumgebung bereitzustellen. Diese erweiterte „Sensorintelligenz“ umfasst Selbstdiagnose, die Ausführung dezentraler Logikfunktionen, die eigenständige Validitätsprüfung der Messwerte, die Selektion und Bewertung von Prozessprofilen bis hin zur Vorhersage von Prozessabläufen und die direkte Interaktion mit zugeordneten Akteuren über dezentrale Steuereinheiten. Damit die Vision des Smart Sensors Wirklichkeit werden kann, sind allerdings noch einige Hürden zu überwinden – vom Nachweis der Prozess und Produktsicherheit über Schnittstellengestaltung und Standards für Daten bis hin zur Datensicherheit.

Was genau Sensoren der Zukunft können müssen, ist nachzulesen im Positionspapier „Smarte Sensoren für die Biotechnologie“ der DECHEMA-Fachgruppe „Messen und Regeln in der Biotechnologie“

Read Full Post »

Politische Vorgaben zur Erreichung von Klimazielen, Energieeffizienz, Elektromobilität und ein gesteigertes Umweltbewusstsein spiegeln sich auch in der industriellen Fertigung wider. Leichtbauelemente spielen deshalb in der Fahrzeugproduktion und überall dort, wo Gewicht und Energie eingespart werden sollen, eine zentrale Rolle. Faserverstärkte Kunststoffe haben sich hier bewährt. In Kombination mit Stahlverbindungen werden sie in der Automobilindustrie sowie beim Bau von Nutz- und  Schienenfahrzeugen, Schiffen und Flugzeugen eingesetzt. Damit gewähmonorail-1636401_1920rleistet ist, dass die Klebeverbindungen nicht versagen und allen Anforderungen an Sicherheit und Belastbarkeit genügen, sind umfangreiche und kostspielige Testreihen notwendig.

In einem aktuellen Forschungsprojekt der industriellen Gemeinschaftsforschung entwickeln Wissenschaftler der Universitäten Paderborn und Kassel ein Simulationsmodell, um das Versagen der Klebschicht bzw. der Faserstrukturen zuverlässig vorherzusagen. Damit können Gestaltungs- und Auslegungsrichtlinien erstellt werden. Davon profitieren vor allem kleine und mittelständische Unternehmen. Sie können künftig aufwändige Testreihen reduzieren und wirtschaftlicher produzieren.

Ob der Klebstoff optimal auf dem Substrat haftet, hängt von der geometrischen Struktur der Oberfläche und der Ausrichtung der Fasern in den Kunstoffen ab. Die Klebverbindung kann entweder an der Grenzschicht oder im Innern der faserverstärkten Kunststoffe versagen. Solche Szenarien können mit Finite-Elemente-Analysen berechnet werden. Dabei wird der zu untersuchende Bereich in kleine Teilregionen, die Finiten Elemente aufgeteilt. Die Finite-Elemente-Analyse beruht auf dem Lehrsatz, dass belastete Strukturen sich so verformen, dass die potentielle Energie des Systems minimiert wird. Um das Deformationsverhalten zu beschreiben, gibt es eine Vielzahl von Elementtypen, die in Datenbanken hinterlegt sind. Damit künftig eine virtuelle Produktentwicklung und –prüfung auch für faserverstärkte Kunststoffe möglich ist, erarbeiten die Wissenschaftler in diesem Projekt entsprechende Simulationsmodelle.

Weitere Informationen zum Projekt Experimentelle und numerische Untersuchungen zum Versagensverhalten von kalt ausgehärteten Stahl-FVK-Klebverbindungen unter schlagartiger Belastung 18337 N

Read Full Post »

PStefan Heinrichrof. Dr. Stefan Heinrich von der TU Hamburg-Harburg ist der DECHEMA-Preisträger 2015. Die Preisverleihung findet am 1. Juni 2016 im Rahmen des DECHEMA-Tages in Frankfurt am Main statt. Mitglieder und Interessierte sind dazu herzlich eingeladen. Im Interview erzählt Stefan Heinrich vorab, welche Methoden er einsetzt und welche Fragestellungen aktuell bearbeitet werden.

Sie beschäftigen sich mit der Analyse und Simulation der Vorgänge in der Wirbelschicht. Welche Methoden setzen Sie dafür ein?

Um die komplexen Mikroprozesse in der Wirbelschicht zu simulieren, bedarf es multiskaliger Ansätze. Diese reichen von der makroskopischen Beschreibung der Vorgänge auf der Apparateebene mittels Populationsbilanzen und Fliessschemasimulation über mikroskopische Diskrete-Elemente-Simulationen der deterministischen Partikel- und Tropfenbewegungen, die mit der fluiden Phase wechselwirken und über numerische Strömungsmechanik (CFD) berechnet werden, bis zur sub-mikroskopischen Simulation der Partikeleigenschaften selber, die sowohl deren Struktur als auch die mechanischen Festigkeitseigenschaften beinhaltet. Dafür verwende ich Einzelpartikel-DEM sowie Kontinuuumsmechanische Ansätze. Mittendrin befindet sich noch die mesoskalige Ebene mit den einzelnen Transportprozessen, die über semi-empirische Ansätze mit der DEM und Kontinuumstheorie gekoppelt ist.

Generell werden neueste numerische Methoden auf der Basis  kommerzieller Programmsysteme verwendet, aber auch eigene Werkzeuge, wie dynamische Fliesschemasimulationsmethoden und DEM-Kontaktmodelle, weiterentwickelt und ständig angepasst..

Inwieweit sind denn schon Voraussagen möglich?

Wir können heutzutage schon sehr detaillierte zeitlich und örtlich abhängige Temperatur- und Konzentrationsfelder und Bewegungsbahnen der beteiligten flüssigen, festen und gasförmigen Phasen berechnen. Diese Informationen überprüfen wir im Übrigen auch in unseren Labor- und Technikumsanlagen mit zahlreichen Messverfahren.

Ebenso ist es möglich, die ablaufenden Transportprozesse mit kinetischen Ansätzen zu beschreiben und damit relativ genau physikalisch begründete Vorhersagen zu ablaufenden Reaktionen am Partikel, zum Trocknungsverhalten und zum Wachstumsmechanismus  zu treffen.

Und wo stoßen die Verfahren an Grenzen?

color-775209_640Das große Problem besteht in der dispersen Struktur der zu formulierenden Partikel, deren Eigenschaften durch Verteilungen charakterisiert werden. Beispiele hierfür sind Größe, Form, Dichte, Rauhigkeit, Festigkeit, Kompressibilität, Fließfähigkeit, Löslichkeit, Redispergierbarkeit, Retardierung, Quellvermögen, Benetzbarkeit, Porosität, Feuchtegehalt oder Hygroskopizität. In Populationen dieser heterogenen Partikel sind diese Eigenschaften nicht einheitlich, sondern entsprechend ihrer Verteilungsfunktionen mit der Zeit und von den örtlichen Positionen der Partikel anhängig. Diese so genannten eigenschaftsverteilten Systeme werden mittels partieller Integro-Differentialgleichungen mit integralen Randbedingungen beschrieben, wobei die Modellgleichung auch als Populationsbilanz bezeichnet wird.

Die o.g. Teilprozesse, die häufig simultan ablaufen, sind in ihrer Komplexität und ihrem zeitlichen Verhalten bisher unzureichend verstanden.

Und selbst wenn man aus populationsdynamischer Sicht die Partikelbewegung und –charakterisierung verstanden hat, besteht immer noch die Frage nach den Einflüssen der verschiedenen Prozessparameter auf die Dynamik der Wirbelschicht-Sprühgranulation, z.B. das Stabilitätsverhalten oder das Erkennen von Betriebsgrenzen, . Die dazu nötige Modellvalidierung bzw. –anpassung ist ein sehr weites Feld. (mehr …)

Read Full Post »

Stefan HeinrichProf. Dr. Stefan Heinrich von der TU Hamburg-Harburg ist der DECHEMA-Preisträger 2015. Die Preisverleihung findet am 1. Juni 2016 im Rahmen des DECHEMA-Tages in Frankfurt am Main statt. Mitglieder und Interessierte sind dazu herzlich eingeladen. Im Interview erzählt Stefan Heinrich vorab, warum die Wirbelschicht-Granulation ein so spannendes Verfahren ist.

Wie funktioniert die Wirbelschicht-Sprühgranulation?

Beim Wirbelschichtverfahren werden Partikel mittels eines meist heißen Luftstroms gewirbelt und somit in einen Flüssigkeits-ähnlichen Schwebezustand gebracht; man spricht auch von fluidisierten Partikeln. Damit werden die Feststoffe flexibler in ihrer Handhabung,  z.B. können chemische Reaktionen intensiver und effektiver ablaufen.

Eine besondere Form ist dabei die Wirbelschicht-Sprühgranulation. Dabei werden Lösungen, die einen Feststoff enthalten,  oder Suspensionen bzw. auch Schmelzen auf die fluidisierten Partikel mittels Düsen in Form von Tropfen versprüht. Der Feststoff lagert sich auf den Partikeln ab, und das Lösungs- bzw. Suspensionsmittel verdunstet. Somit wachsen die Partikel schichtweise, d.h. sie granulieren oder werden ein- oder mehrlagig beschichtet bzw. verkapselt oder immobilisiert. Ebenso ist eine Agglomeration von pulverigen Stoffen oder eine Matrixeinbindung von Wirkstoffen möglich. Prinzipiell können damit Flüssigkeiten in frei fließende, staub- und abriebarme, körnige Feststoffe umgewandelt werden, um vollkommen neue Gebrauchseigenschaften zu erzeugen.

Wo begegnet uns diese Technik im Alltag bzw. welche alltäglichen Produkte werden damit hergestellt?

Die Wirbelschicht-Sprühgranulation findet ihren Einsatz in der chemischen Industrie, der Keramikindustrie, der Pharmazie oder der Lebens- und Nahrungsmittelindustrie sowie in der Landwirtschaft, wo derart hergestellte Partikel beispielsweise als Katalysatoren, Batteriematerialien, Keramik-Polymer-tablets-700670_640Funktionswerkstoffe, Farbstoffe, Waschmittel, Dünge- und Pflanzenschutzmittel, verkapselte Vitamine, feste Arzneiformen oder Adsorbentien für die Luftreinhaltung verwendet werden. Sehr wichtige Anwendungen sind beispielsweise die Retardbeschichtungen auf Arzneipartikeln bzw. –tabletten, um eine verzögerte Wirkstofffreigabe zu steuern, damit die Tablette über einen langen Zeitraum wirkt und gleichzeitigt nicht unkontrolliert Wirkstoff freigibt sowie vor der aggressiven Magensäure geschützt ist.

Was ist das besondere an der Wirbelschichttechnik gegenüber anderen Verfahren, um Partikel herzustellen?

Die Wirbelschicht zeichnet sich als thermisches Behandlungsverfahren für körnige Feststoffe durch eine sehr hohe Kontaktfläche zwischen den Partikeln und dem umströmenden Fluid aus und ist für sehr hohe Wärme-, Stoff- und Impulsaustauschkoeffizienten bekannt. Folglich können zahlreiche Prozesse intensiver ablaufen. (mehr …)

Read Full Post »

Für Spätzle super, für Nanopartikel ungeeignet...

Für Spätzle super, für Nanopartikel ungeeignet…

Wie man Kieselsteine aus Sand herausbekommt, weiß jedes Kind: Mit dem Sieb lassen sie sich leicht trennen. Auch Gold kann man von Sand abtrennen, in dem man es „wäscht“; in diesem Fall ist es die unterschiedliche Dichte, auf der die Trennung beruht.

Was aber, wenn man Puderzucker und Mehl voneinander trennen möchte? Zum Sieben sind die Größen- und Massenunterschiede nicht groß genug, die feinen Partikel neigen außerdem dazu, zusammen zu klumpen, also Aggregate zu bilden.

Vor noch viel größeren Problemen steht, wer Nanopartikel im Größenbereich< 20 nm klassieren, also nach Form und Größe sortieren will. Parameter wie die Masse oder Dichte spielen hier eine sehr untergeordnete Rolle. Stattdessen kommen andere Einflüsse wie molekulare Wechselwirkungen oder elektrostatische Kräfte noch viel stärker zum Tragen. Weil die Eigenschaften von Nanopartikeln aber von ihrer Form und Größe entscheidend beeinflusst werden, ist die „Sortierung“ besonders wichtig – man denke nur an Halbleiter oder an Solarzellen, wo große „Klumpen“ die Effizienz senken. Bisher gibt es dafür aber noch keine technisch ausgereiften Verfahren.

Forscher an der Universität Erlangen-Nürnberg wollen das ändern. Sie arbeiten an einem Verfahren zur chromatographischen Trennung von Nanopartikeln nach Form und / oder Größe. Das Prinzip ist einfach: Eine Chromatographiesäule wird mit einer festen Phase bestückt, die festgelegte Porengrößen hat. Je nach ihrer Größe bzw. Form können die Nanopartikel in diese Poren eindringen oder eben nicht. Die, die es nicht können, laufen einfach durch; die anderen machen auf dem Weg durch die Säule diverse „Umwege“ durch die Poren und kommen so deutlich später am Ende an. Dieser Effekt lässt sich zusätzlich beeinflussen, indem man Zusatzstoffe verwendet, die sich an die Oberfläche der Nanopartikel heften und deren Beschaffenheit verändern. In der Biotechnologie wird das bereits erfolgreich für die Klassierung von Proteinen eingesetzt. Die Wissenschaftler wollen nun beispielhaft ein Klassierungssystem für Zinksulfid-, Zinkoxid- und Gold-Nanopartikel entwickeln. Ziel ist es, Unternehmen ein Verfahren zur Verfügung zu stellen, das im technischen Maßstab und kontinuierlich die Klassierung von Nanopartikeln erlaubt. Es könnte bisherige sehr aufwändige Analysemethoden ersetzen und gleichzeitig neue Produktqualitäten erschließen.

Mehr zum Projekt Klassierung von Nanopartikeln (NP) mit Hilfe chromatographischer Verfahren (IGF-Nr. 18037 N)

Read Full Post »

Aus der Forschungsförderung

Dass wir in Deutschland eine hohe Wasserqualität sowohl für Trinkwasser als auch für viele Oberflächengewässer aufweisen können, steht außer Frage. Doch welchen Herausforderungen stehen wir z.B. infolge des Klimawandels und der demographischen Entwicklungen gegenüber? Welche Maßnahmen müssen getroffen werden, um die Wasserqualität auch in Zukunft sicherstellen zu können? Vor diesem Hintergrund hat das BMBF unter dem Themenschwerpunkt „Wasser und Gesundheit“ die Fördermaßnahme „Risikomanagement von neuen Schadstoffen und Krankheitserregern im Wasserkreislauf (RiSKWa)“ initiiert. Die insgesamt zwölf Verbundprojekte mit unterschiedlicher thematischer Ausrichtung haben eines gemeinsam: sie wollen das Risiko, das von Spurenstoffen und Krankheitserregern ausgeht, bewerten und mit Hilfe von neuen Technologien in Verbindung mit innovativen Managementansätzen eliminieren.

Doch welche dieser Stoffe bzw. deren Abbauprodukte bedürfen einer genaueren Betrachtung? Für die Identifizierung und Klassifizierung können bereits bestehende Konzepte und Datensätze, u.a. das GOW-Konzept sowie die REACH-Daten, herangezogen werden. Aufgrund der Vielfalt der Stoffe befassen sich mehrere Projekte für den Nachweis von Spurenstoffen mit der Non-Target-Analytik. Um den Eintrag in den Wasserkreislauf weitestgehend zu verhindern, werden verschiedenste Ansätze untersucht und optimiert: Ansätze den Eintrag aus Einrichtungen des Gesundheitswesens zu verringern, Technologien zur Entfernung in Kläranlagen, Verringerung des Eintrags aus diffusen Quellen…… Besonders wichtig ist, in RiSKWa Konzepte zum Schutz des Trinkwassers zu entwickeln.

Das DECHEMA-Kolloquium lädt am 07. Februar 2013 alle Interessierten zum Thema „Spurenstoffe im Wasserkreislauf – Bestimmung – Bewertung – Beseitigung“ nach Frankfurt am Main ein. Im Rahmen der Veranstaltung werden einige Projektpartner erste  Ergebnisse aus ihren Projekten vorstellen.

Die aktuellen Aktivitäten und Termine der Fördermaßnahme RiSKWa sowie detaillierte Informationen zu einzelnen Verbundprojekten können auf der RiSKWa-Homepage (www.riskwa.de) oder auf den jeweiligen Projekthomepages nachgelesen werden.

Read Full Post »

„Miss alles, was sich messen lässt, und mach alles messbar, was sich nicht messen lässt.“ Diese Empfehlung von Galileo Galilei wird in der Verfahrenstechnik befolgt. Auf der Basis von Messungen werden Prozesse kontrolliert und gesteuert und Vorhersagen über das Ergebnis gemacht; die Prozesseffizienz und die Kosten werden optimiert, die Qualität gesichert und Fehlerquellen identifiziert. Moderne Analytik, nicht zuletzt die Fortschritte in der online- und inline-Messtechnik, sorgen dafür, dass zu jedem Zeitpunkt riesige Datensätze verfügbar sind. Aufbauend auf diesen Datensätzen bieten eine ganze Reihe von KMUs Softwarelösungen für die Prozessoptimierung an.

Bevor jedoch aus einem Datenwust nutzbare Information wird, müssen die Rohdaten aufbereitet und analysiert werden. Ein kritischer und aufwändiger Schritt dabei ist die Vorbereitung der Daten für die weitere Auswertung: Daten aus verschiedenen Quellen müssen ins gleiche Format gebracht werden, unter Umständen sind Kalibrierungen und Korrekturen notwendig, um Vergleichbarkeit von Messdaten zu gewährleisten. Ein einfaches Beispiel dafür sind die Korrekturen, die nötig werden, wenn bei verschiedenen Temperaturen gemessen wurde.

Im Rahmen eines Projekts der industriellen Gemeinschaftsforschung soll eine wissensbasierte Methode zur Datenaufbereitung entwickelt werden. Dafür sollen bekannte Verfahren für die Datenaufbereitung dokumentiert und katalogisiert werden, so dass jeder Nutzer einen Überblick über die verschiedenen Möglichkeiten bekommt. Um diesen Katalog möglichst umfassend und praxisnah zu gestalten, werden reale Fallbeispiele aus der Industrie genutzt.

Eine entsprechende Demonstrations-Software soll es ermöglichen, die Daten verschiedener Messinstrumente zusammenzuführen und mit den unterschiedlichen Methoden aufzubereiten, so dass sie anschließend ausgewertet werden können. Besonders wichtig ist dabei, dass der Nutzer zu jedem Zeitpunkt nachvollziehen kann, was mit den Daten geschieht bzw. geschehen ist, und dass die einzelnen Schritte möglichst konsistent und anhand bekannter Algorithmen vollzogen werden. Auch etwaige Fehler und Datenlücken sollen möglichst frühzeitig sichtbar gemacht werden.

Die Demonstrationssoftware kann dann als Ausgangspunkt für kommerzielle Entwicklungen dienen, die den Aufwand für die Datenaufbereitung, der heute noch etwa 80% des Gesamtaufwands für die Analyse ausmacht, erheblich reduzieren könnten.

Mehr zum Projekt

Read Full Post »

Older Posts »