Feeds:
Beiträge
Kommentare

Posts Tagged ‘Big Data’

Was hat Prozessindustrie mit e-Sport zu tun? Man kann voneinander lernen – denn der Umgang mit Daten ist gleichzeitig extrem spezifisch und branchenübergreifend ähnlich. Das nur eine der vielen Erkenntnisse aus der Chemalytix-Konferenz 2019.

Auf dem Weg in die Industrie 4.0 müssen Daten erstens zugänglich sein und zweitens sinnvoll ausgewertet werden. Bei der Chemalytix-Konferenz, die Covestro zusammen mit Bayer und Evonik im Dezember 2019 organisierte, drehte sich deshalb alles um die Frage: Welche Möglichkeiten, Chancen und Herausforderungen bietet der Einsatz von Data Science in der Prozessindustrie?
Dass bei diesem Thema viele Schlagworte teilweise inflationär verwendet werden, war den Veranstaltern offensichtlich bewusst: Sie griffen diesen Umstand – nicht ohne gewisse Selbstironie – durch ein Buzzword-Bingo für die Teilnehmer auf. Und das führte neben dem Unterhaltungswert auch dazu, dass die Sprecher auf ihre Wortwahl achteten. So dauerte es, bis der Jackpot geknackt werden konnte…

Keine Patentrezepte für Digitalisierung

Bereits in der Begrüßungsrede von Sucheta Govil, CCO von Covestro, wurde deutlich, dass die Natur der Digitalisierung eine domänenübergreifende Zusammenarbeit erfordert.

Boris Adryan von Merck beleuchtete im Einstiegsbeitrag die Herausforderungen und Hürden für erfolgreiche Digitalisierungsprojekte in Konzernen der Prozessindustrie. Dabei stellte er klar, dass Digitalisierung keinem Patenzrezept folgt, Use Cases nicht einfach zu finden sind und allgemeine Lösungsansätze nicht helfen. Anstatt aus Angst, einen Trend zu verpassen („fear of missing out“), generalisierte Anwendungsfälle zu verfolgen, sollten Anwendungsfälle mit echtem Mehrwert identifiziert werden. Die Umsetzung dieser Digitalisierungsprojekte muss dann in Zusammenarbeit mit den betroffenen Abteilungen durchgeführt werden, um Akzeptanz für die Transformation zu erreichen. Daher sollte keine zentrale Data Science Gruppe eingerichtet werden, sondern die entsprechenden Experten sollten für die Projektumsetzung direkt in den betroffenen Abteilungen arbeiten.

Vertrauliche Daten nutzen

Wie mit künstlicher Intelligenz die Wirkstoffforschung optimiert werden kann, stellte Gunjan Bhardwaj von Innoplexus vor. Grundlage ist die Verfügbarkeit der bekannten Daten; sie wird durch selbstentwickelte Crawler erreicht wird. Die entwickelte KI kann auch ohne den direkten Input von Daten arbeiten, indem der Owner eines Datensatzes eine Sub-KI trainiert und viele dieser Sub-KIs zu einer Gesamt-KI zusammengeführt werden. Hierdurch können vertrauliche Daten zu verbessertem Verständnis beitragen, ohne die Daten selber herauszugeben.

Definition of Digital: Anything that makes the interaction of people, data and things more valuable.

Gunjan Bhardwaj


Auch für den Bereich Predictive Maintenance können KI-Methoden genutzt werden, wie Tidhar Tsuri von Diagsense zeigte. Durch Modellbildung aus vorhandenen Daten können Abweichungen der laufenden Messungen vom Modell identifiziert werden („anomaly detection“), was auf eine Veränderung der Prozessanlage hindeutet.

Nach der Mittagspause, die für die vielen möglichen Gespräche gar nicht lang genug hätte sein können, berichteten Digitalisierungsdienstleister (mayato), Forschungsgruppen (FH Niederrhein, Fraunhofer ITWM) und Prozessindustrie (Evonik, Bayer, Covestro) in vier Parallelsessions über ihre Erfahrungen bei der Umsetzung von Data Science Projekten.

Von e-Sports-Helden lernen

Da digitale Technologien nicht anwendungsspezifisch sind, hilft auch ein Blick über das eigene Feld hinaus. Ein sehr komplexes Optimierungsproblem findet man bei der Heldenauswahl des Computerspiels Dota 2. Die gegeneinander antretenden Teams wählen abwechselnd ihre „Spielfiguren“ aus. Aufgrund der Vielzahl möglicher Kombinationen sind die verfügbaren Datensätze unvollständig. Für professionelle e-Sport-Kämpfe hat Elvan Aydemir von Amplify Analytix mit Reinforced Learning eine KI zur sequentiellen Entscheidungsfindung entworfen. Da bei diesem Optimierungsproblem mit unvollständigen Datensätzen eine optimale Lösung mathematisch nicht möglich ist, wird die KI durch die laufenden Kämpfe immer weiter verfeinert.

Der Effekt des Buzzword-Bingos auf eine bedachte Wortwahl der Referenten wurde dann auch deutlich: Erst zu diesem Zeitpunkt hatte die erste Teilnehmerin eine Reihe vervollständigt und bekam einen Raspberry Pi als Preis.

Ade Adewunmi von Fast Forward rundete das Programm mit Tipps zur Akzeptanzbildung für Digitalisierungsprojekte in Organisationen ab.Auch dafür gibt es keine Patentrezepte und die Firmenkultur muss für eine erfolgreiche Umsetzung berücksichtigt werden.

Nachwuchs im Wettbewerb

Auch der Nachwuchs der Data Science fand bei der Chemalytix eine Bühne. Beim Covestro Hackathon traten Gruppen von der Tonji University Shanghai, der CMU Pittsburgh und der RWTH Aachen an, um Lösungen für Data Science Probleme aus der chemischen Industrie zu entwickeln. Die drei regionalen Gewinner durften ihre Lösungen im Rahmen der Chemalytix vorstellen. Die Konferenzteilnehmer wählten die Lösung zur Vorhersage der Katalysatoraktivität in einer chemischen Anlage des Teams von der RWTH Aachen zum Gesamtsieger.

Bevor die Teilnehmer dann zu Glühwein und Keksen entlassen wurden, fasste der Leiter der Advanced Analytics bei Covestro, Nils Janus, die Ergebnisse zusammen. Er beschrieb den Stand der Digitalisierung der chemischen Industrie in Deutschland mit einer Analogie zu den fünf Stufen der Trauer beschrieben – Ablehnung, Wut, Verhandeln, Depression und Akzeptanz. Eine verkürzte Wiedergabe würde dieser wirklich guten Abschlussrede nicht gerecht werden, dafür müssen Sie wohl zur nächsten Chemalytix kommen. Noch gibt es zwar keine konkreten Planungen für eine Wiederauflage, aber die Teilnehmer waren sich einig, dass diese erste Konferenz zu Data Science in der chemischen Industrie in Deutschland weitergeführt werden sollte.

Zentrale Herausforderungen für die Data Science, die in vielen der Vorträge genannt wurden:

* Digitalisierung ist ein Teamsport.
* Nur Daten, die maschinenlesbar zugänglich sind, können für digitale Prozesse nutzbar gemacht werden.
* Daten benötigen Kontext.
* Wenn man etwas nicht messen kann und/oder es nicht in Kontext setzen kann, kann man es auch nicht optimieren.

Autor: Dr. Alexander Möller, DECHEMA e.V. / Forschungs- und Projektkoordination

Read Full Post »

Precision Medicine – where Bioinformatics & Medical Informatics meet. That was the general topic for the German Conference on Bioinformatics in Heidelberg from 16-19 September 2019. Participants had a great time – not only with a lot of cutting-edge science, but also some rather unexpected discoveries…

The German Conference on Bioinformatics (GCB) is an annual, international conference devoted to all areas of bioinformatics and meant as a platform for the whole bioinformatics community. Recent meetings attracted a multinational audience with 250 – 300 participants each year.
In 2019, the conference focused on bringing physicians, bioinformatics & medical informatics together and aimed to showcase applications and opportunities beyond.

Everything is ready…

And here we go

Inspiring talks on cutting-edge science…

… lessons learned…

…and yes, cats!

Great atmosphere for the evening lecture

And the FaBI Dissertation Award goes to…

Dr. Kai Dührkop (Friedrich-Schiller-Universität Jena) received the Dissertation Award 2019 of the Bioinformatics Working Group (FaBI). He developed a highly performative, transdisciplinary method for the rapid identification of small molecules from tandem mass spectra. These are an important tool in medical analytics, metabolome research and the search for biomarkers in pharmaceutical research. Its focus are fragmentations of unknown molecules. New algorithms allow for the informatic registration of complex splits in mass spectra. By comparing numerous alternative disintegration pathways, the computer identifies the most plausible structures. Kai Dührkop’s methodology is the basis for analytical software that is now used in laboratories.

A group photo from above

Read Full Post »

Air Liquide has established an ambitious programme that will take digitalization of the business to the next level. We spoke to Moussa Diakhité, Real Time Engineer, Air Liquide France Industrie, about the changes in operations and the opportunities and challenges encountered during the transformation.

„With the centralization and digitalization of its operation Air Liquide has changed its usage of the data. The implementation of SIO streams and a contextual database for time series data are part of thoses changes.“

Moussa Diakhité , Air Liquide in his statement on the PRAXISforum Big Data Analytics

In your statement, you say that Air Liquide has changed the usage of data. Could you describe what the most important aspect of this change is – is this how you regard data, is it the combination of data that were treated separately before, or is it the amount of data you analyse – or something completely different?

As for Air Liquid France Industrie, the large industry part has been collecting data for about 15 years. The change is mainly on the analystics we are doing with it, the standardization of it and the new tools such as „SIO Predict“ for Predictive Maintenance, „SIO Perform“ to optimize the unit and „SIO Optim“ with the digital twin we are making out of our data already stored within our servers.

According to press articles, Air Liquide uses the SIOs to run operations remotely and is, among other things, using predictive maintenance methods. What is the relation between the remote centers and the engineers on site – do they have different roles?

As for Air Liquide France Industrie, the distribution of roles on plants were as follows: Plant manager / Production supervisor / Technicians. Now it is as follows: Plant manager / Foreman / Technicians. The plant is focused on  the safety on plant, equipment availability, maintenance and regulatory compliance while at the SIO Center we are taking care of the production optimization, predictive maintenance, customer service and billing for all plants.

Information and registration: https://dechema.de/BigData.html

Thanks to predictive maintenance, we are able to detect the risk of failure of equipment and we discuss with plant people about the best calendar to check the equipment or/and plan a maintenance on it without disturbance for our customer; we are complementary on our mission regarding this subject as the plants still have local expertise on all maintenance subject matter.

As for SIO Optim and Perform, we have tools providing us with the best configuration for our plants; using SIO Drive we are able to apply proposed solutions remotely. But we are still communicating a lot with the plant to ensure that the proposed solution is feasible (no limitation on the water cooling system, equipment availability,…) and for sure we need to unify both SIO Center and plants in a joint team. Explaining the actions done on either side is mandatory to achive the goal of SIO. An e-logbook has been developed regarding that last subject.

You also use big data methods to predict the needs of your customers. How much integration of data and knowledge with your customers’ operations is necessary for this?

Using statistical computing tools such as R we are able to forecast the liquid and gas demand of our customer enabling to plan their consumption. They are also providing us with forecasts of their consumption by mail and by phone.

What do you personally perceive as the biggest opportunity in this whole range of big data applications – more the operative part, more the business part, or is Air Liquide maybe even introducing new business models based on digitalization?

Personnally I think all of this is a big opportunity to make excellent solutions developed by Air Liquide’s experts accessible and easy to implement to the Group. Using those tools we are giving a real legacy to all the work already done.

If you want to learn more about the digital transformation at Air Liquide, meet Moussa Diakhité (and many other experts) at the DECHEMA-PRAXISforum Big Data Analytics in the Process Industry on 9-10 April 2019 in Frankfurt. Last-minute registration is possible on site!

Read Full Post »

Kaum eine Woche vergeht ohne Nachrichten über die fortschreitende Digitalisierung der Prozessindustrie. Zentren für Big-Data-Analysen werden eingerichtet, neue Positionen geschaffen und unternehmensweite Programme ins Leben gerufen, um Digitalisierungskonzepte einzuführen, die weit über die Automatisierung der Produktion hinausreichen. Dem Verband der Chemischen Industrie zufolge plant die chemische Industrie in den nächsten Jahren Investitionen von mehr als 1 Milliarde Euro für Digitalisierungskonzepte und neue nachhaltige Geschäftsmodelle.

Die erwarteten Gewinne scheinen diese Investitionen zu rechtfertigen: „Laut einer Studie von Fraunhofer IAO und dem IT-Verband BITCOM könnte die Vernetzung von Produktentwicklung, Produktion, Logistik und Kunden der chemischen Industrie zu einem Anstieg der Wertschöpfung um 30 % bis 2025 führen. Mit anderen Worten: Wem es gelingt, seine Daten entlang der gesamten Wertschöpfungskette nutzbar zu machen, kann sich einen gewaltigen Wettbewerbsvorteil sichern“, erklärt Mirko Hardtke, Business Development Manager bei der Data Virtuality GmbH.

Keuin Wunder, dass ein enormes Interesse an der Entwicklung von Werkzeugen besteht, mit denen sich der versteckte Schatz in Big Data heben lässt. Große wie kleine Unternehmen und Startups beteiligen sich an diesem neuen Goldrausch: „Für die steigende Prozesskomplexität und den schnelle Anstieg der Datenmengen braucht man neue Technologien zum Umgang mit Daten, vor allem dort, wo Abhängigkeiten zwischen Datensilos bestehen“, sagt Sebastian Dörr, Vice President Sales bei der Conweaver GmbH. Sein Unternehmen hat eine Technologie entwickelt, die die automatische Verknüpfung von Daten aus verschiedenen Quellen ermöglicht und so kontextuales Wissen für Datenowner und -nutzer zugänglich macht. Gleichzeitig dient die Plattform als Grundlage für Big Data Analytics.

(mehr …)

Read Full Post »

dechema-big-data-small-web2

„More than 50% of the companies are not willing to invest in Big Data Applications. These companies will go bankrupt over the next 10 years“. A provoking statement made by Thomas Froese from atlan-tec, a software developing company specializing on process optimization and data mining. And yet, there are many who share his view: Huub Rutten,Sopheon, points in the same direction when he says that „companies that think Big Data Analytics is something for their marketing department, and not relevant to all other functions, will not have a long life anymore.“

The awareness in the process industry is there: According to Accenture’s Digitals Chemicals Survey in 2014, 79% of chemical industry executive expected digital to make the greatest impact over the next five years through improved productivity. On the other hand, only 58% were embracing digital to gain a competitive advantage over industry peers. Taking the expert statements on competitiveness into account, there seems to exist a potentially dangerous gap – big data is introduced, but it might in some cases be too little, too late.

Predictive Big Data Analytics and Machine Learning will transform most industries by supporting better informed and more customized decisions by both, humans and machines, increasing agility and efficiency, lowering costs, enabling better and more customized products and services, forecasting risks and opportunities, and increasing automation. Early adopters will gain significant competitive advantages, while others are likely to be left behind.

Ralf Klinkenberg, RapidMiner

Big Data analytics has become more and more important to the process industries. Sure, the process industry has always collected data to supervise production processes, to identify disturbances, and to ensure product quality, and this will continue.

The application of data analytics will improve efficiency in the chemical industry!

Matthias Hartman, ThyssenKrupp System Engineering

But with the tremendous increase in data storage and processing capacities, new algorithms have become accessible. They open up new market opportunities, enabling process advantages and cost reductions within the production, decreasing time to market and, ultimately, making new customized and individualized products accessible. The application areas in which data analytics can be used profitably are diverse and in process industries nowhere near exhausted.

In the process industry, digital technology provides actionable solutions to challenges and groundbreaking opportunities for innovation.

Matthias Feuerstein, Microsoft

Provided the data is collected, analyzed and used intelligently and efficiently, as Benjamin Klöpper, ABB Research Center, points out:The major challenge for Big Data Analytics in Process Industries are not scalable architectures or clever algorithms, but remains to have the right data in the right quality to address relevant and pressing issues. Today’s information system infrastructure often prevent us often from obtaining this right data in an efficient data.“ Adds Nico Zobel, Fraunhofer IFF: „One of the major challenges will be to generate use cases of the analysis of data from heterogeneous sources.” And the sources in the chemical industry are nearly endless.

Chemical space is big. Very big. Published and unpublished data only cover only an exceedingly small part of possible small molecule space. Machine learning and algorithmic prediction tools can help fill in the explored parts of chemical space. What kinds of data sources and prediction tools will come next?

David Flanagan,  Wiley ChemPlanner

Jens Kamionka, T-Systems Multimedia Solutions, widens the scope by taking security issues into account – a major challenge in times of increasing cyberattacks: „Many companies still fail to address security, infrastructure or data quality issues.” Concepts that allow one the one hand the company-wide or even inter-company integration of data streams along value chains, at the same time preventing data leaks and cyberattacks, are the intensely sought after.

And once these questions are solved – are we looking at a future with fully automized, smart plants that anticipate customers’ wishes before they are even aware of them? No, according to the experts. Human intelligence will always have its place. „Big Data opens up many opportunities in different areas of a chemical company. Besides toolsets and technology, mind-set and communication skills are additional success factors for these novel approaches”, says Sindy Thomas, Clarian. And Drazen Nikolic from Ernst & Young sums it up:““If you do not understand the problem, you are not able to frame the right question. “

quadratisch-praxisforum_blau_4c

Meet these and other experts and discuss what Big Data analytics might mean for your business at the DECHEMA-PRAXISforum “Big Data Analytics in Process Industry”, 1-2 February 2017, Frankfurt. For the full program and registration, click here DECHEMA-PRAXISforum Big Data Analytics in Process Industry

Read Full Post »