Feeds:
Beiträge
Kommentare

Posts Tagged ‘Künstliche Intelligenz’

Was hat Prozessindustrie mit e-Sport zu tun? Man kann voneinander lernen – denn der Umgang mit Daten ist gleichzeitig extrem spezifisch und branchenübergreifend ähnlich. Das nur eine der vielen Erkenntnisse aus der Chemalytix-Konferenz 2019.

Auf dem Weg in die Industrie 4.0 müssen Daten erstens zugänglich sein und zweitens sinnvoll ausgewertet werden. Bei der Chemalytix-Konferenz, die Covestro zusammen mit Bayer und Evonik im Dezember 2019 organisierte, drehte sich deshalb alles um die Frage: Welche Möglichkeiten, Chancen und Herausforderungen bietet der Einsatz von Data Science in der Prozessindustrie?
Dass bei diesem Thema viele Schlagworte teilweise inflationär verwendet werden, war den Veranstaltern offensichtlich bewusst: Sie griffen diesen Umstand – nicht ohne gewisse Selbstironie – durch ein Buzzword-Bingo für die Teilnehmer auf. Und das führte neben dem Unterhaltungswert auch dazu, dass die Sprecher auf ihre Wortwahl achteten. So dauerte es, bis der Jackpot geknackt werden konnte…

Keine Patentrezepte für Digitalisierung

Bereits in der Begrüßungsrede von Sucheta Govil, CCO von Covestro, wurde deutlich, dass die Natur der Digitalisierung eine domänenübergreifende Zusammenarbeit erfordert.

Boris Adryan von Merck beleuchtete im Einstiegsbeitrag die Herausforderungen und Hürden für erfolgreiche Digitalisierungsprojekte in Konzernen der Prozessindustrie. Dabei stellte er klar, dass Digitalisierung keinem Patenzrezept folgt, Use Cases nicht einfach zu finden sind und allgemeine Lösungsansätze nicht helfen. Anstatt aus Angst, einen Trend zu verpassen („fear of missing out“), generalisierte Anwendungsfälle zu verfolgen, sollten Anwendungsfälle mit echtem Mehrwert identifiziert werden. Die Umsetzung dieser Digitalisierungsprojekte muss dann in Zusammenarbeit mit den betroffenen Abteilungen durchgeführt werden, um Akzeptanz für die Transformation zu erreichen. Daher sollte keine zentrale Data Science Gruppe eingerichtet werden, sondern die entsprechenden Experten sollten für die Projektumsetzung direkt in den betroffenen Abteilungen arbeiten.

Vertrauliche Daten nutzen

Wie mit künstlicher Intelligenz die Wirkstoffforschung optimiert werden kann, stellte Gunjan Bhardwaj von Innoplexus vor. Grundlage ist die Verfügbarkeit der bekannten Daten; sie wird durch selbstentwickelte Crawler erreicht wird. Die entwickelte KI kann auch ohne den direkten Input von Daten arbeiten, indem der Owner eines Datensatzes eine Sub-KI trainiert und viele dieser Sub-KIs zu einer Gesamt-KI zusammengeführt werden. Hierdurch können vertrauliche Daten zu verbessertem Verständnis beitragen, ohne die Daten selber herauszugeben.

Definition of Digital: Anything that makes the interaction of people, data and things more valuable.

Gunjan Bhardwaj


Auch für den Bereich Predictive Maintenance können KI-Methoden genutzt werden, wie Tidhar Tsuri von Diagsense zeigte. Durch Modellbildung aus vorhandenen Daten können Abweichungen der laufenden Messungen vom Modell identifiziert werden („anomaly detection“), was auf eine Veränderung der Prozessanlage hindeutet.

Nach der Mittagspause, die für die vielen möglichen Gespräche gar nicht lang genug hätte sein können, berichteten Digitalisierungsdienstleister (mayato), Forschungsgruppen (FH Niederrhein, Fraunhofer ITWM) und Prozessindustrie (Evonik, Bayer, Covestro) in vier Parallelsessions über ihre Erfahrungen bei der Umsetzung von Data Science Projekten.

Von e-Sports-Helden lernen

Da digitale Technologien nicht anwendungsspezifisch sind, hilft auch ein Blick über das eigene Feld hinaus. Ein sehr komplexes Optimierungsproblem findet man bei der Heldenauswahl des Computerspiels Dota 2. Die gegeneinander antretenden Teams wählen abwechselnd ihre „Spielfiguren“ aus. Aufgrund der Vielzahl möglicher Kombinationen sind die verfügbaren Datensätze unvollständig. Für professionelle e-Sport-Kämpfe hat Elvan Aydemir von Amplify Analytix mit Reinforced Learning eine KI zur sequentiellen Entscheidungsfindung entworfen. Da bei diesem Optimierungsproblem mit unvollständigen Datensätzen eine optimale Lösung mathematisch nicht möglich ist, wird die KI durch die laufenden Kämpfe immer weiter verfeinert.

Der Effekt des Buzzword-Bingos auf eine bedachte Wortwahl der Referenten wurde dann auch deutlich: Erst zu diesem Zeitpunkt hatte die erste Teilnehmerin eine Reihe vervollständigt und bekam einen Raspberry Pi als Preis.

Ade Adewunmi von Fast Forward rundete das Programm mit Tipps zur Akzeptanzbildung für Digitalisierungsprojekte in Organisationen ab.Auch dafür gibt es keine Patentrezepte und die Firmenkultur muss für eine erfolgreiche Umsetzung berücksichtigt werden.

Nachwuchs im Wettbewerb

Auch der Nachwuchs der Data Science fand bei der Chemalytix eine Bühne. Beim Covestro Hackathon traten Gruppen von der Tonji University Shanghai, der CMU Pittsburgh und der RWTH Aachen an, um Lösungen für Data Science Probleme aus der chemischen Industrie zu entwickeln. Die drei regionalen Gewinner durften ihre Lösungen im Rahmen der Chemalytix vorstellen. Die Konferenzteilnehmer wählten die Lösung zur Vorhersage der Katalysatoraktivität in einer chemischen Anlage des Teams von der RWTH Aachen zum Gesamtsieger.

Bevor die Teilnehmer dann zu Glühwein und Keksen entlassen wurden, fasste der Leiter der Advanced Analytics bei Covestro, Nils Janus, die Ergebnisse zusammen. Er beschrieb den Stand der Digitalisierung der chemischen Industrie in Deutschland mit einer Analogie zu den fünf Stufen der Trauer beschrieben – Ablehnung, Wut, Verhandeln, Depression und Akzeptanz. Eine verkürzte Wiedergabe würde dieser wirklich guten Abschlussrede nicht gerecht werden, dafür müssen Sie wohl zur nächsten Chemalytix kommen. Noch gibt es zwar keine konkreten Planungen für eine Wiederauflage, aber die Teilnehmer waren sich einig, dass diese erste Konferenz zu Data Science in der chemischen Industrie in Deutschland weitergeführt werden sollte.

Zentrale Herausforderungen für die Data Science, die in vielen der Vorträge genannt wurden:

* Digitalisierung ist ein Teamsport.
* Nur Daten, die maschinenlesbar zugänglich sind, können für digitale Prozesse nutzbar gemacht werden.
* Daten benötigen Kontext.
* Wenn man etwas nicht messen kann und/oder es nicht in Kontext setzen kann, kann man es auch nicht optimieren.

Autor: Dr. Alexander Möller, DECHEMA e.V. / Forschungs- und Projektkoordination

Read Full Post »

Die Innovationsplattform „KEEN – Künstliche-Intelligenz-Inkubator-Labore in der Prozessindustrie“ ist am 19. September 2019 im KI-Innovationswettbewerb des Bundesministeriums für Wirtschaft und Energie (BMWi) ausgezeichnet worden. Der Wettbewerb prämiert durchsetzungsstarke Leuchtturmprojekte, die die künstliche Intelligenz (KI) als Treiber für volkswirtschaftlich relevante Ökosysteme einsetzen wollen. Ab April 2020 wird das BMWi das KEEN-Konsortium voraussichtlich mit 10 Mio. EUR fördern. Zum gesamten Projektvolumen kommen noch 7,5 Mio. EUR von den Industriepartnern.

KEEN wird von der TU Dresden koordiniert und verbindet 25 Industrie- und Wissenschaftseinrichtungen, darunter die DECHEMA, mit dem Ziel, die Technologien und Methoden der künstlichen Intelligenz in der Prozessindustrie einzuführen. Diese umfasst u.a. die chemisch-pharmazeutische Industrie und ist die drittgrößte Industriebranche Deutschlands. Damit sie im internationalen Wettbewerb weiterhin konkurrenzfähig bleibt, muss die Produktion vorausschauender werden. Immer kürzere Produktlebenszyklen einerseits und der hohe Bedarf an Nachhaltigkeit und dem verantwortungsbewussten Umgang mit den Ressourcen anderseits bilden ein Spannungsfeld, dem die traditionelle Anlagenplanung und Prozessführung nicht mehr gewachsen sind. Künstliche Intelligenz hat das Potenzial, diesen spezifischen Herausforderungen zu begegnen. Denn sie kann große Datenmengen erfassen, verstehen und analysieren und damit komplexe Prozesse besser prognostizieren. „Wenn die Komplexität von Produkten, Prozessen und Anlagen steigt, brauchen Ingenieure einen ‚kognitiven Verstärker‘, um flexibler und schneller die neuen Lösungen zu erarbeiten“, so der KEEN-Projektkoordinator Prof. Leon Urbas, Professor für Prozessleittechnik an der TU Dresden. „Die künstliche Intelligenz kann einen gut ausgebildeten Ingenieur nicht ersetzen, aber ein nützliches Werkzeug für ihn sein.“

Das KEEN-Konsortium forscht an der Implementierung von KI-Verfahren in drei Themenbereichen: der Modellierung von Prozessen, Produkteigenschaften und Anlagen, dem Engineering (besonders der Unterstützung komplexer Planungsprozesse und Sicherheitsengineering) sowie der Realisierung selbstoptimierender Anlagen. „Die Einbeziehung verschiedener Aktivitäten im gesamten Feld der chemischen und biotechnologischen Industrie erlaubt uns, die Möglichkeiten der Digitalisierung sehr breit zu erkunden“, ist Prof. Norbert Kockmann von der Technischen Universität Dortmund überzeugt. Die künstliche Intelligenz kann Muster komplexer Prozesse erkennen und helfen, Ähnlichkeiten, statistische Auffälligkeiten und Simulationen einzubinden und Entscheidungsempfehlungen abzuleiten. „Für die Prozessindustrie ist es wichtig, dass die KI nicht nur Handlungsempfehlungen liefert, sondern auch Erklärungen, auf welcher Grundlage diese Empfehlungen erstellt wurden“, erklärt Prof. Urbas. „Der Entscheidungsprozess muss transparent sein. Nur so können die Ingenieure eine bewusste Auswahl treffen“.  

„Wir wollen KI-basierte Lösungen erarbeiten, die am Ende einen echten Mehrwert für die Unternehmen darstellen. Durch die starke, breit aufgestellte industrielle Beteiligung, von Startups bis hin zu großen Konzernen, bietet das Projekt die Möglichkeit, die KI-Innovationen direkt in die Anwendung zu überführen“, so Dr. Michael Bortz, Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM. Die Forschungsarbeit im KEEN-Projekt soll bis 2023 laufen. Bis 2025 sollen die ersten kommerziellen KI-Produkte für die Prozessindustrie verfügbar sein.

Quelle: TU Dresden, weitere Informationen: https://tu-dresden.de/tu-dresden/newsportal/news/die-innovationsplattform-keen-an-der-tu-dresden-ist-unter-gewinnern-des-ki-innovationswettbewerbs-des-bmwi

Read Full Post »

Kaum eine Woche vergeht ohne Nachrichten über die fortschreitende Digitalisierung der Prozessindustrie. Zentren für Big-Data-Analysen werden eingerichtet, neue Positionen geschaffen und unternehmensweite Programme ins Leben gerufen, um Digitalisierungskonzepte einzuführen, die weit über die Automatisierung der Produktion hinausreichen. Dem Verband der Chemischen Industrie zufolge plant die chemische Industrie in den nächsten Jahren Investitionen von mehr als 1 Milliarde Euro für Digitalisierungskonzepte und neue nachhaltige Geschäftsmodelle.

Die erwarteten Gewinne scheinen diese Investitionen zu rechtfertigen: „Laut einer Studie von Fraunhofer IAO und dem IT-Verband BITCOM könnte die Vernetzung von Produktentwicklung, Produktion, Logistik und Kunden der chemischen Industrie zu einem Anstieg der Wertschöpfung um 30 % bis 2025 führen. Mit anderen Worten: Wem es gelingt, seine Daten entlang der gesamten Wertschöpfungskette nutzbar zu machen, kann sich einen gewaltigen Wettbewerbsvorteil sichern“, erklärt Mirko Hardtke, Business Development Manager bei der Data Virtuality GmbH.

Keuin Wunder, dass ein enormes Interesse an der Entwicklung von Werkzeugen besteht, mit denen sich der versteckte Schatz in Big Data heben lässt. Große wie kleine Unternehmen und Startups beteiligen sich an diesem neuen Goldrausch: „Für die steigende Prozesskomplexität und den schnelle Anstieg der Datenmengen braucht man neue Technologien zum Umgang mit Daten, vor allem dort, wo Abhängigkeiten zwischen Datensilos bestehen“, sagt Sebastian Dörr, Vice President Sales bei der Conweaver GmbH. Sein Unternehmen hat eine Technologie entwickelt, die die automatische Verknüpfung von Daten aus verschiedenen Quellen ermöglicht und so kontextuales Wissen für Datenowner und -nutzer zugänglich macht. Gleichzeitig dient die Plattform als Grundlage für Big Data Analytics.

(mehr …)

Read Full Post »