MaterialDigital INSIGHTS August 2021

Einblicke, Durchblicke, Fortschritte bei der Digitalisierung in der Materialwissenschaft und in der Werkstofftechnik

Liebe Leserinnen und Leser,


gleich vorab: Unser nächster Online-Workshop MaterialDigital findet am 6. Oktober 2021 statt und beschäftigt sich mit der Frage, wie bei Digitalisierungsbemühungen in der Werkstoffwelt der Nutzen für (externe UND interne) Kunden sichergestellt werden kann und wie man zu Geschäftsmodellen kommt. Hier geht’s zum Programm und zur Anmeldung.

Mit dem heutigen Newsletter wollen wir Sie wieder mit interessanten Einblicken in den großen Themenbereich der Digitalisierung werkstoffintensiver Prozesse versorgen:

Spannende Einsichten der letzten Monate stammen unter anderem aus unserem Onlineworkshop MaterialDigital im März. Er beschäftigte sich und seine ca. 125 Teilnehmenden mit der Arbeitsfrage, wie eigentlich Dateninseln in und zwischen Organisationen besser integriert werden können. Lesen Sie dazu den Bericht. »Von Datenphilosophien zum strukturierten Raum«. Wie die Teilnehmenden ihre Situation und Bedarfe bei MateriaDigital einschätzen, können Sie hier erfahren.


In einem spannenden Interview berichtet Dr. Benedikt Ziebarth von der Schott AG wie die Digitalisierung die Entwicklung und Herstellung von Spezialglas und Glaskeramiken durchdringt.


Das vom Land Baden-Württemberg geförderte Projekt MaterialDigital hat wertvolle Entwicklungsbausteine zur Digitalisierung materialintensiver Prozesse hervorgebracht. Einige davon stellen wir vor.


Darüber hinaus freuen wir uns sehr über die Förderzusage für den Aufbau der Nationalen Forschungsdateninfrastruktur für Materialwissenschaft und Werkstofftechnik (NFDI-MatWerk). Hier haben wir uns mit 30 Partnern zum Ziel gesetzt die Prozesse und Daten in der Forschungscommunity über eine gemeinsame Plattform zu vernetzen.


Auch sonst passiert viel in der Digitalisierung unserer Forschungsdisziplin. Die Projekte der ersten Ausschreibungsrunde MaterialDigital des BMBF sind angelaufen. Eine Übersicht der Projekte befindet sich hier.

Eine inspirierende Lektüre wünschen

Thomas Götz und Markus Niebel

nach oben

Vom digitalisierten Werkstoff zum erfolgreichen Business Case. Fallstricke bei der Entwicklung digitaler Werkstofflösungen vermeiden.

 

4. Workshop MaterialDigital
am Mittwoch, 6. Oktober 2021, 10:00 - 14:30 Uhr, Online

 

Viele Forschungseinrichtungen und Unternehmen beschäftigen sich mit technologischen Aspekten einer digitalisierten Materialwissenschaft und Werkstofftechnik. Es fällt auf, dass die klare Formulierung des Nutzens für interne oder externe Kunden bei vielen Aktivitäten etwas kurz kommt. Es scheint, als gäbe es eine Asymmetrie zwischen dem angestrebten ökonomischen Nutzen und dem, was Forschungsprojekte und technologische Initiativen aktuell zum Gegenstand haben. Für die Wirkung in Unternehmen oder in Geschäftsprozessen sollten Digitalisierungslösungen demonstrierbar und adaptierbar sein. Sie sollten an praxisrelevante Vorgehensweisen andockbar sein und als eingrenzbare Leistungen fassbar sein. Hier besteht Nachholbedarf auf der technologischen Seite: Produktorientiertes Vorgehen, fokussierter Kundennutzen, prototypische und kommunizierbare Lösungen sollten als Schlüssel für den Digitalisierungserfolg angesehen werden.

Mit dem aktuellen Workshop MaterialDigital zielt das Fraunhofer IWM darauf ab, die Nutzerperspektive in der Digitalisierung von Materialwissenschaft und Werkstofftechnik zu behandeln. Dazu präsentieren namhafte Experten strategische, juristische und unternehmerische Überlegungen, die für eine Wertschöpfung im Zusammenhang mit digitalisierten Werkstoffprozessen erfolgskritisch sind. Diese Überlegungen sind gleichermaßen innerorganisatorisch wie unternehmensübergreifend relevant.

Der Workshop empfiehlt sich für Protagonisten der Digitalisierung von Werkstoffprozessen in Unternehmen und in Forschungseinrichtungen, die ein besseres Verständnis dafür entwickeln wollen, wie man Initiativen strategisch aufsetzt, Fallstricke vermeidet und Kundennutzen erzeugt und schlussendlich wirtschaftlichen Erfolg ermöglicht. Dies betrifft die Produktentwicklung, die Gestaltung von Geschäftsprozessen, die Auftragsforschung und letztlich auch die Ausgestaltung von Vorlaufforschungsprojekten. Die entsprechenden Stakeholder sollten aus ihrer Perspektive, Fragen zu Realisierung eines Kundennutzens beantworten können sollten – und zwar am besten noch bevor wertvolle Ressourcen mobilisiert werden.

Veranstalter: Fraunhofer-Institut für Werkstoffmechanik IWM Freiburg

Fachliche Leitung: Prof. Dr. Chris Eberl

nach oben

Ausblick auf den Workshop im Oktober: Expertengespräch mit Daniel van Geerenstein vom VDMA

Rechtliche Fallstricke der Digitalisierung in den Werkstoffwissenschaften

Wem gehören eigentlich die ganzen Daten die wir erheben? Wollen wir personenbezogenen Daten haben, oder nicht? Auch für die Werkstoffwissenschaften bringt die Digitalisierung eine ganze Reihe von neuen rechtlichen Fragestellungen mit sich. Wir haben dazu mit dem Rechtsanwalt Daniel van Geerenstein gesprochen, der sich beim Verband Deutscher Maschinen- und Anlagenbau (VDMA) mit solchen Fragen beruflich beschäftigt. 

 

Herr van Geerenstein, der VDMA ist mit 3.300 Mitgliedern Europas größter Industrieverband. Wie sehen Sie als stellvertretenden Leiter der Abteilung Recht den derzeitigen Stand der Digitalisierung ihrer Mitglieder?

Der VDMA vertritt hauptsächlich kleinere und mittelständische Unternehmen. KMU machen ca. 80% unserer Mitglieder aus. Ich würde sagen, die sind insgesamt auf keinem schlechten Weg, aber der große Schub steht uns noch bevor. Mit Auslastungen von bisweilen 120-130% in den letzten Jahren ging es uns sehr lange Zeit sehr gut. Jetzt, wo sich die Wirtschaft etwas abkühlt, werden auch wieder mehr Kapazitäten frei für solche Prozesse. Man muss auch sehen: neue Sensoren, Software, Datenbanken, Datenconsulting etc., das kostet erstmal auch alles eine ganze Stange Geld und Zeit. Voran gehen daher natürlich vor allem die größeren Unternehmen, die das leichter finanzieren können und auch das entsprechende Personal bzw. die Ressourcen hierfür haben.

 

Also keine Goldgräber-Stimmung?

Wir sind ja auch nicht der wilde Westen (lacht)! Klar gibt es sehr vielversprechende Initiativen und einige, die das relativ unbestellte Feld im Materialbereich zu nutzen wissen, aber dieses „Digital first, Bedenken second“ ist auch einfach nicht der deutsche Weg und das aus gutem Grund. Auf Nummer sicher gehen, hat sich in diesem Land vielfach bewährt und das hat langfristig gesehen auch eine Nachhaltigkeitskomponente, die nicht zu vernachlässigen ist. Hier gibt es außerdem auch anders als in den USA auch nicht so viel leicht verfügbares Kapital, mit dem eine „fail fast-Mentalität“ querfinanziert werden könnte. Derzeitige Vorbehalte und Ängste sind völlig normal. Der Gesetzgeber kann aber seinen Teil dazu beitragen, die Bedenken möglichst klein zu halten und für weitere Klarheit sorgen.

 

Wo liegen denn die Unklarheiten? Was sind aktuell die größten Baustellen?

Ein wichtiges Thema ist die Trennung von Maschinendaten und personenbezogenen Daten. Sobald ein Personenbezug in deinen Daten drin ist, greift das Datenschutzrecht. Anders als vielfach dargestellt lässt auch das Datenschutzrecht zwar relativ viel zu, aber der große Unterschied ist, dass man zu diesem Zeitpunkt nicht mehr darum herum kommt, sich mit der Materie der DSGVO und des BDSG zu beschäftigen. Ich muss dann beispielsweise Informationspflichten nachkommen, ggf. Einwilligungen einholen etc. und das bindet Ressourcen. Das muss jedem klar sein. Selbst das Löschen von Daten ist im Grundsatz ein Datenverarbeitungsfall, der eine Rechtsgrundlage erforderlich macht. Unsere Empfehlung ist daher, Daten bereits vor der Erfassung so zu strukturieren, dass der Verarbeitungsaufwand niedrig bleibt, vor allem weil eben kein Personenbezug enthalten ist.

Falls es nicht ohne personenbezogene Daten geht, beispielsweise wenn Schichtpläne mit im Spiel sind, sollten Maschinenhersteller die Interfaces so anlegen, dass Zugriffsrechte auf die verschiedenen Daten im Sinne eines „Clean Teams“, sich in klar von einander abgegrenzte Bereiche aufteilen und ein Werkstoffwissenschaftler wirklich auch nur auf die Maschinendaten zugreifen kann, ohne die personenbezogenen Daten überhaupt zu Gesicht zu bekommen. Dann kann vielfach argumentiert werden, dass die reinen Maschinendaten eben doch keinen Personenbezug aufweisen, was die Verarbeitung der Daten deutlich erleichtern kann.

 

Gibt es nicht auch Interesse an den personenbezogene Daten?

Im Maschinenbau zumindest von Seiten der Hersteller sind die Begehrlichkeiten ziemlich niedrig - im Gegenteil.

„Die Devise lautet eher »bleib mir Weg mit diesen Daten«.“

Personenbezogenen Daten bedeuten oft rechtliche Herausforderungen, aber bringen kaum einen Nutzen. Daher wird vielfach in Verträge aufgenommen, dass der Betreiber unter keinen Umständen personenbezogenen Daten an den Verarbeiter der Daten zu übermitteln hat. Bei den Betreibern ist das naturgemäß schon ein bisschen anders, denn bei ihnen geht es ja unter Umständen auch um Performance der Mitarbeiter.

Ich glaube aber, es ist auch wichtig zu differenzieren zwischen Industrie- und Consumerprodukten. Beispielsweise hat die Automobilindustrie einen ganz anderen Kontakt mit personenbezogen Daten. Das Auto von heute erfasst ja eine Unmenge an Daten. Nicht nur das Fahrverhalten der unterschiedlichen Fahrer eines Automobils erlauben Rückschlüsse auf Personen, sondern auch zunächst unscheinbare Dinge wie unterschiedliche Spotify-Logins etc.

 

Wie sieht es denn mit der Datenverfügbarkeit aus? Ist genug „Rohstoff“ da?

Vor einigen Jahren hatten wir eine Diskussion zu Dateneigentumsrechten. Der ehemalige EU-Kommissar für Digitale Wirtschaft Günther Öttinger forderte ein „BGB für Daten“. Die Industrie will so etwas unter keinen Umständen, denn wer soll das sein, der Eigentümer? Ist es der Hersteller der Maschine, der, der die Daten erhebt, oder vielleicht eher der Hersteller des konkreten Sensors, der die Werte erfasst oder ist es doch eher der Betreibers oder vielleicht sogar der Arbeitnehmer, der die Taste gedrückt hat? Sie sehen, dass ist sehr praxisfern, jemandem ein Eigentum zuzuordnen, das mit umfassenden Rechten verbunden ist. Gehören mir die Daten, darf ich sie verschenken, verleihen, oder einfach auch die Tür zu machen und keinen mehr teilhaben lassen. Unterschiedliche Interessenlagen sollten daher lieber zwischen den Parteien vertragsrechtlich geregelt werden, wir sprechen dann also eher von „Datenhoheit“ als von Dateneigentum.

Die ganz große Mehrheit unserer Mitglieder hat keine Probleme, Zugangsrechte mit ihren Kunden zu vereinbaren. Das liegt vor allem am Servicedenken und dem guten Draht zum Kunden. Da fällt es oft beiden Seiten leicht, die Mehrwerte zu vermitteln. Hin und wieder kommt allerdings auch mal die Frage auf: „Weiß euer Kunde eigentlich, dass ihr seine Maschine rund um die Uhr überwacht?“ Das führt unabhängig vom rechtlichem Aspekt zu einer Vertrauensstörung, die nachhaltig schaden kann. Solange es keine vertragsrechtlichen Grundlage für einen geordneten Datenzugriff gibt, kann die Weigerung eines Maschinenbetreibers schnell ganze Geschäftsmodelle einreißen. Daher predige ich auch Transparenz von Anfang an, anstatt einfach loszurennen. Der Kunde muss wissen, was mit den Daten geschieht. Und er muss verstehen, was er davon hat, die Daten zu teilen.

Auf der anderen Seite haben Daten den intrinsischen Drang, sich selbstverstärkend zu agglomerieren. Hier könnte eine Monopolisierung von Daten drohen, das konnten wir die letzten Jahrzehnte bei personenbezogenen Daten beobachten. Wie attraktiv kann ein soziales Netzwerk mit ein paar Tausend Teilnehmern sein im Gegensatz zu Facebook mit mehreren Milliarden Nutzern? Gleiches gilt für Datenplattformen: Es muss möglich sein, hier einen ausreichenden Wettbewerb sicherzustellen, der die Abhängigkeiten minimiert.

 

Müssen wir also ein „Google der Materialdaten“ fürchten?

Noch haben wir keinen Kipppunkt, aber wenn am Ende des Tages dann alle Daten bei einem großen Anbieter landen, dann hilft uns das Vertragsrecht relativ wenig. Unternehmen könnten dann aufgrund der Marktmacht in unvorteilhafte Verträge gezwungen werden, also z.B. mehr Daten übermitteln, als sie wollen oder die Datenhoheit über die Daten sogar verlieren. Die Angst, dass Google da zu irgendeinem Zeitpunkt selber mitmischen wird, ist aus meiner Sicht auch nicht komplett unbegründet.

Um hier den Wettbewerb sichern zu stellen, vor allem für kleine Unternehmen, wird der Gesetzgeber gerade aktiv. Wir hinken da momentan noch etwas hinterher. Aber Daten als Faktor der Marktmacht sind bereits etabliert. Die Datenzugangsdebatte, also ob ein Anspruch auf den Zugang zu Daten existiert, tangiert auf jeden Fall das Kartellrecht und das ist aus gutem Grund sehr restriktiv, aber leider auch sehr unflexibel. Wir bauen daher auf die 10. GBG Novelle, was nicht umsonst auch mit Digitalisierungsgesetz umschrieben ist. Diese soll den Zugangsanspruch vereinfachen, insbesondere wenn die Daten auf einem anderem Markt als dem, in dem die Daten erhoben werden, eingesetzt werden sollen. Allerdings darf es nicht soweit kommen, dass jeder Zugang zu jedweden Daten hat: Ein solche Datensozialismus würde zum einen wiederum nur die großen Datenunternehmen stärken, die dann ungehemmt zugreifen könnten. Zum anderen würde das massiv in die von uns geforderte vertragliche Lösung der Thematik eingreifen, vom Geheimnisschutz, also dem Schutz von wertvollstem Know How der Branche, ganz zu schweigen. Es muss zunächst ein Marktversagen festgestellt werden, damit ein Zugangsanspruch zu Daten überhaupt in Frage kommt.

Ein Beispiel wären Auslastungsdaten einer Bearbeitungsmaschine in der Automobilindustrie, die auch für einen Energieversorger interessant wären, um Lastspitzen zu kalkulieren. Die Daten betreffen damit nicht direkt das Geschäft des Hauptkunden und könnten daher auf Grundlage der Gesetzesnovelle mit einem Zugangsanspruch versehen werden und damit leichter genutzt werden.

 

Was ist ihr Rat an Unternehmen, um in diesen dynamischen Zeiten zu bestehen? Brauchen Werkstoffexperten jetzt einen Rechtsbeistand?

Wie so oft liegt die Lösung in der verbesserten Kommunikation. Die Digitalisierung erzwingt das interdisziplinäre Denken und entlohnt Unternehmen, die das hinbekommen; die ein Zusammenspiel zwischen ihren Bereichen etablieren und dazu ihre Ausdrucksweisen runterfahren. Damit meine ich, dass Juristen mit der richtigen Sprache einen stärkeren Einblick in die technischen Möglichkeiten und Notwendigkeiten bekommen können und umgekehrt die Fachabteilungen in die rechtlichen Rahmenbedingungen und Fallstricke. Wenn wir möglichst frühzeitig die andere Seite mit einbinden, dann haben wir uns beim „deutschen Modell“ nicht nur technisch abgesichert, sondern auch rechtlich.

nach oben

Von Datenphilosophien zum strukturierten Raum – Bericht vom 3. Workshop MaterialDigital am 3. März 2021

Nach dem Corona-bedingtem Ausfall in 2020 lud das Fraunhofer Institut für Werkstoffmechanik IWM Anfang März Vertreter aus Wissenschaft, Industrie und Politik erneut zum Workshop MaterialDigital, dieses Mal passend zur Thematik in Form einer virtuellen Konferenz.

 

Die Dringlichkeit der verschiedenen Handlungsfelder der Digitalisierung im Bereich der Materialwissenschaften ist nicht homogen. Das sahen auch die über 120 Teilnehmenden des Workshops so. In einer Umfrage erhob das Fraunhofer IWM ein klares Stimmungsbild: Von den Teilnehmenden sahen 50 % ihr vordringliches Handlungsfeld am Anfang der Wertschöpfungskette, nämlich ihre Daten besser zu strukturieren und isolierte Dateninseln zu integrieren. Dazu passend setzte das Programm des Workshops Schwerpunkte bei der notwendigen Infrastruktur und den unternehmerischen Bedarfen im Bereich der Datenfusion.

Dr. Johannes Möller, Senior Specialist für Materialsimulation bei der Schaeffler Technologies AG schilderte die Herausforderungen, im eigenen Unternehmen ein gemeinsames Datenverständnis zu schaffen und dabei insbesondere die verschiedenen Unternehmensbereiche mit ihren unterschiedlichen Datenphilosophie zu berücksichtigen und mitzunehmen. Schaefflers Lösung ist eine Schnittstellendatenbank, die das Unternehmen mit einem Übersetzersystem koppelt, in welches alle Datenbanken einspeisen. Laut Möller eine kostenintensive strategische Weichenstellung, die viele Datenarchitekten und -ingenieure parallel beschäftigte.

Auf die Frage, was die wichtigsten Hinderungsgründe für das Voranschreiten bei der Digitalisierung ist, ergab sich unter den Teilnehmenden ein sehr heterogenes Bild. Ähnlich wie Möller sahen knapp zwei Drittel der Teilnehmenden die Hürden vor allem bei sich selbst im Unternehmen. Dabei entfielen aber in etwa gleich viele Stimmen auf eine mangelnde Finanzierungssituation, mangelndes Problembewusstsein und Projektmanagement von Seiten der Führungsebenen sowie fehlende Kompetenzen auf der Arbeitsebene. Nur ein knappes Viertel der Teilnehmenden führte die Hürden auf die hohe technische Komplexität der angestrebten Lösungen zurück.

Die Hälfte der Vorträge adressierten die für die Digitalisierung nötige Infrastruktur in Form von digital angeschlossener Prüf- und Analyse-Technik mit entsprechend standardisierten Ausgabeformaten und Anbindungen sowie die Datenräumen, in denen diese Daten dann zusammengeführt und miteinander verknüpft werden können, um Mehrwerte zu generieren. Praktikable Lösungen zeigten Forscher des IWM als Demonstratoren, darunter die Visualisierung von Wissensgraphen, die räumliche Datenfusion von Materialdaten und einen digitalen Zwilling für das Biegen von Flachglas.

Für Dr. Heiko Hafok, dem Leiter der Scientific IT am Fraunhofer IWM bleibt die größte Herausforderung von Industrie 4.0 die Standardisierung der Datenschnittstellen. Er plädierte daher für die Selbstkonsistenz von Daten, die dadurch auch ohne Expertenwissen zu einem späteren Zeitpunkt noch genutzt und interpretiert werden könnten.

Immer wieder tauchte in den Diskussionen der Stellenwert des Expertenwissens für die Digitalisierung auf. Der Bedarf von echtem Fach Know-how ist unerlässlich, um Ergebnisse von Korrelationen validieren und einschätzen zu können. Dr. Christoph Schweizer, Geschäftsfeldleiter am Fraunhofer IWM, zeigte am Beispiel Aluminiumguss die Entwicklungsschritte, Zutaten und Potentiale der Digitalisierung von Prozessen mit Hilfe Ontologie basierter Datenräume. Moderne kombinatorische Methoden machten das Zusammenführen von Daten sehr leicht, so dass die Versuchung groß sei, schnelle Schlüsse zu ziehen.

Doch das hohe Risiko für Scheinkorrelationen ließe sich nur durch echtes Expertenwissen ausschließen. Auch Dr. Hermann Autenrieth von der Robert Bosch GmbH betonte diesen Aspekt in seinem Vortrag zur Optimierung von metallischen Fertigungsprozessketten mit Hilfe von physikalischen und datenbasierten Modellansätzen. In seinem Bereich sind Expert*innen unter anderem dafür notwendig, zu bestimmen, welche Effekte für eine sinnvolle Modellierung aufgrund der hohen Kombinationsmöglichkeiten überhaupt eine Rolle spielten.

Andererseits wurde auch deutlich, dass die herausgehobene Rolle der Datenexpert*innen als temporäre Brückenfunktion zu verstehen ist. Wie auch in anderen Bereichen der Digitalisierung würde nach einer Anfangsphase die Nutzungsschwelle von Methoden der Digitalisierung rapide abnehmen und Technologien und Methoden so auch immer mehr einer breiten Nutzerschaft zur Verfügung stehen.

»Als wir 2018 mit dem ersten Workshop angefangen haben, waren viele unserer Inhalte und Gespräche noch sehr visionär. Heute gibt es bereits sehr viele konkrete Projekte und die Pandemie war ein zusätzlicher Treiber für die Transformation in den Werkstoffwissenschaften« sagte Chris Eberl, stellvertretender Institutsleiter das Fraunhofer IWM.

Eine gute Vernetzung über alle Bedarfsgruppen wie sie das Fraunhofer IWM mit der Workshop-Reihe MaterialDigital fördert, ist sicherlich auch ein Treiber für gemeinsame Projekte. Nach wie vor ist eine große Kooperationsbereitschaft in der Community spürbar. In fast allen Vorträgen wurde die Anwendung der FAIR-Prinzipien angemahnt, also Daten auffindbar, zugänglich, interoperabel und wiederverwendbar zu machen. Auch zur Zusammenarbeit an gemeinsamen Standards scheint eine große Bereitschaft vorzuliegen. 51 % der Teilnehmer unterstützen die aktuellen Bemühungen zu einem harmonisierten Wissensgraphen in der Community, der die Informationssouveränität beachtet, und würden sich gerne bei dessen Entwicklung engagieren.

nach oben

Online-Befragung der Teilnehmenden am Workshop MaterialDigital, 3. März 2021

Bedarfe, Hindernisse und Schwerpunkte

Die während des Workshops MaterialDigital durchgeführten Live-Umfragen unter den Teilnehmenden lieferten eine Reihe von Einsichten, die organisationsübergreifend interessant sein könnten. 

Unter den vier Säulen, nach welchen das Fraunhofer IWM das große Gebiet Digitalisierung strukturiert, wurde „Daten strukturieren und Dateninseln integrieren“ als vordringlichstes Thema gewählt. Damit bestätigte sich der thematische Fokus, den der Workshop hatte. Derzeit am wenigsten Relevanz für die aktuelle Arbeit ist das Thema „Datenprodukte entwickeln“. Es liegt nahe: Sämtliche Auswertungen, Datenflüsse und letztlich auch Geschäftsmodelle basieren zunächst darauf, dass die Daten auch strukturiert zur Verfügung stehen. Gleichzeitig sollte jedoch bei dem starken technologischen Fokus darauf geachtet werden, den Anwendungsnutzen mitzudenken.

© Fraunhofer IWM
© Fraunhofer IWM

Um die Datenstrukturierung zu bewerkstelligen, setzen das Fraunhofer IWM und seine Froschungspartner in  vielen Digitalisierungsprojekten auf Graphdatenbanken. Die Teilnehmenden wurden dazu befragt, ob sie einen gemeinsamen Wissensgraphen befürworten und sich für dessen Entwicklung engagieren würden, was mit 42 Personen bestätigten. Mit lediglich 4 Antworten fiel die Ablehnung der Graphtechnologie derweil gering aus. Das technologische Commitment ist vorhanden: Drei Viertel der Befragten bestätigten ein vorhandenes Engagement ihrer Organisation. Weitere 10% wären zu einem Engagement bereit, wissen aktuell jedoch nicht wie.

nach oben

© Fraunhofer IWM

Unklarheiten über das „Wie“ sind repräsentativ für die Hürden der Digitalisierung: Das Projektmanagement und die angestrebten Lösungen sind neuartig und komplex. So ist mangelnde Digitalisierungskompetenz auf der Arbeitsebene der häufigste Hinderungsgrund beim Vorankommen, dicht gefolgt von der Komplexität der angestrebten Lösungen. Auch dies könnte darauf hinweisen, dass Digitalisierungsprojekte aktuell sehr umfänglich gefasst und anspruchsvoll angelegt sind, statt schrittweise kleine Erfolge anzustreben. Zu guter Letzt noch eine vielleicht eher unerwartete Erkenntnis: Nur zwei Teilnehmende fanden, dass das virtuelle Arbeiten während der Pandemie, das Vorankommen behindert habe. Homeoffice scheint für dieses Gebiet zu funktionieren.

© Fraunhofer IWM

Die Teilnehmenden des Workshops kamen aus der Wissenschaft und aus der Industrie. Vertreten waren dabei sowohl die Führungs- als auch die Arbeitsebene. Die Antworten auf die Online-Fragen erfüllen nicht den Anspruch einer groß angelegten Studie, sie sollen aber zum Nachdenken und zur Diskussion anregen.

nach oben

Durchblick in der Digitalisierung - Interview mit Dr. Benedikt Ziebarth von der Schott AG

Dr. Benedikt Ziebarth ist Head of Computational Materials Engineering bei der Schott AG in Mainz. Die Schott AG ist ein internationaler Technologiekonzern, der auf die Herstellung von Spezialglas und Glaskeramiken spezialisiert ist. Anwendungen erstrecken sich dabei von Kochfeldern bis hin zu Spiegelteleskopen. Wir sprachen mit dem Materialinformatiker über die Auswirkungen der Digitalisierung auf seinen Arbeitsalltag.

 

Die Schott AG befasst sich umfassend mit Spezialgläsern. Was sind die speziellen Herausforderungen dieser Materialklasse?

Wie die gesamten Materialwissenschaften kämpft auch die Glaswissenschaft mit einem Mangel an qualitativ hochwertigen Datenpunkten in hinreichender Menge für die Erstellung daten-getriebener Modelle. Datenpunkte sind für uns in den Materialwissenschaften teuer und werden z.B. im Vergleich zu Geschäftsdaten nicht nebenbei erhoben. Auch lassen sich Materialdaten für Glas teils schwieriger erzeugen als dies für andere Materialien der Fall ist. Unser „Schwestermaterial“ die Keramik lässt sich durch seine Kristallstruktur mit Transmissionselektronenmikroskopen bis runter zu den Korngrenzen ganzheitlich charakterisieren. Mit Glas ist das nicht so einfach – bei diesem homogenen, aber auch amorphen Feststoff, können wir nur mit sehr großem Aufwand Analytik zur Strukturaufklärung einsetzen.

Darüber hinaus ist die „Glaswelt“ auch eine relativ kleine, aber feine Community. Die Forschungsgemeinschaft für Stahl oder Kunststoffe ist weltweit deutlich größer. Trotzdem haben wir mit einigen Instituten seit Jahren intensive Kooperationen, müssen aber auch viel der benötigten Innovationskraft aus eigenen Stücken aufbringen, sodass eine firmeninterne starke R&D sehr wichtig für Schott ist.

 

Welche Rolle spielt dabei die Digitalisierung?

Die Digitalisierung nimmt bei Schott eine Schlüsselrolle ein. Meine Abteilung ist innerhalb der R&D angesiedelt. Ein Teil dieser Gruppe, die Materialmodellierung, hat den Auftrag mit Digitalisierung und Modellierung unsere Materialentwicklung zu unterstützen. 

Die Kosten für eine ganzheitliche Analyse einer Glaskomposition können sich auf einen 5-stelligen Betrag belaufen und wird daher nur sehr selten vorgenommen. An dieser Stelle kommen bei uns digitale Modellierungsverfahren ins Spiel. Sie sollen nicht nur die Kosten in der Materialentwicklung senken, sondern auch die Zeit bis ein Produkt den Markt erreicht signifikant reduzieren. Mit Hilfe der Materialinformatik zielen wir darauf ab, bereits in der frühen Phase einer Materialentwicklung die Anzahl von notwendigen Versuchsschmelzen zu reduzieren, indem simulierte Materialeigenschaften zur Auswahl der Schmelze hinzugezogen werden. Neue Modellierungsansätze werden von meiner Gruppe zunächst innerhalb von kleineren Projekten evaluiert und dann ggfs. zentral über Webapplikation den Materialentwicklern zur Verfügung gestellt. Darüber hinaus setzen wir unser Wissen über das Verhalten von Glas ein, um Produkte mithilfe strukturmechanischer Simulation z.B. widerstandsfähiger gegen Bruch zu designen.

 

Was für Projekte können das sein und wie lauten die Fragestellungen dazu?

Die Simulationsabteilung der Forschung arbeitet dabei entlang der gesamten Wertschöpfungskette. Daher sind wir in fast allen Bereichen aktiv.  Hier am Standort Mainz sind u.a. technische Gläser (z.B. für Pharmaverpackungen), optische Gläser (z.B. für Augmented Reality) und Glaskeramiken (z.B. für Kochfelder) für unser Team relevant.

Glasfläschchen für Pharmaka sind mit ca. 10 Milliarden Stück pro Jahr eins der Hauptprodukte der Schott AG und stellen ein Schlüsselfaktor in der Pandemiebekämpfung gegen das Corona-Virus dar. In diesem Bereich ist für den Kunden insbesondere die hohe chemische Resistenz der Verpackung wichtig. So darf diese nicht mit dem Pharmazeutikum reagieren. Borosilikatglas ist hier aufgrund der hohen chemischen Stabilität ein ideales Material. In der hoch getakteten Abfüllung entstehen aber auch weitere werkstoffmechanische Fragestellungen, beispielsweise zur Bruchfestigkeit, welche wir durch modellgestützte Optimierung der Geometrien der Produkte verbessern können.

Ähnlich sieht es bei unseren großen Optiken aus. Im demnächst weltweit größten Teleskop, dem gerade im Bau befindlichen Extemely Large Telescope, kommt als Spiegelträger unsere Glaskeramik ZERODUR® zum Einsatz. Wie der Produktname vermuten lässt, hat das Material einen extrem niedrigeren Ausdehnungskoeffizienten -  enorm wichtig für ein scharfes Bild des Teleskops. Die Glaskeramiken wurden von Schott im Vorfeld exakt für das Einsatzszenario eingestellt. Dazu wurden auch Wetterdaten hinzugezogen, so dass am Aufstellungsort in der chilenischen Wüste eine Ausdehnung nahe Null für lange Jahre gesichert ist. Modellierung spielte hierbei eine entscheidende Rolle.

 

Wie füttern Sie Ihre Modelle für so komplexe Fragestellungen?

Im Kontext des Datenmangels stehen wir in der Materialinformatik immer vor dem Problem der Modellerzeugung auf kleinen Datenmengen. Ein wichtiger Schritt zur Lösung ist für uns die Hybridmodellierung, also die Einbettung von Domänenwissen in datengetriebene Modelle. Diese reduzieren den Datenhunger der Modelle und führen insgesamt zu robusteren Modellen, die sich auch besser zur Extrapolation nutzen lassen.

Weiterhin nutzen wir möglichst alle Informationen, die uns zur Verfügung stehen. So verwenden wir komplementäre Daten aus verschiedenen Quellen wie Simulation, Literatur und Experimenten, um die Vorhersagekraft unserer Modelle zu erhöhen.

 

Welche Datenschätze kann die Digitalisierung da noch heben?

Aktuell gibt es insbesondere bei der Aufbereitung historischer Daten viel zu tun, da diese Daten selten in einer normalisierten Form vorkommen. Ein Glücksfall für unsere Forschung in dieser Hinsicht ist natürlich der große Datenfundus aus über 130 Jahren Firmengeschichte und die gute Vorarbeit von vielen meiner Kollegen. Die Frage wie man modellunterstützt neue Gläser entwickelt hat ja schon unseren Gründungsvater Otto Schott umgetrieben. Wir führen diesen Gedanken nun fort und verknüpfen diesen mit den in den letzten Jahren entstandenen Methoden der KI-Forschung. 

Die Forschung an Glas ist eine alte Wissenschaft, so profitieren wir auch sehr von sorgsamen wissenschaftlichen Arbeiten aus der Vergangenheit. Viele Messungen sind erfasst und digitalisiert worden. Sie sind zum Teil frei verfügbar, aktuellere Datenbanken lassen sich kommerziell erwerben. Hier systematisch die Unsicherheiten der Messungen zu quantifizieren, ist eine wichtige Aufgabe für uns.

 

Wo sehen Sie noch Verbesserungspotentiale für die Digitalisierung der Materialwissenschaften und wo geht die Reise hin?

Die Digitalisierung im Allgemeinen und nicht speziell für die Materialentwicklung ist immer noch ein Kulturthema. So bedeutet Digitalisierung für mich die stärkere Vernetzung und das Zusammenbringen von Daten- bzw. Wissenssilos. Zum anderen die Verwertung dieser Daten- und Wissensnetzwerke mithilfe von Methoden der Materialinformatik. Für mich ist der größte Gewinn den die Digitalisierung verspricht, die Chance den Materialentwicklern mehr Informationen zur Verfügung zu stellen und ihnen wieder mehr Zeit zum Denken zu geben.

Ein weiterer Punkt ist die Zusammenarbeit zwischen Industrie und wissenschaftlichen Instituten, die sich als sehr herausfordernd darstellt. Dies liegt zum Teil darin begründet, dass es wissenschaftlichen Instituten an Ressourcen fehlt, erarbeitete Lösungen auf eine industrielle Reife zu heben, die eine langfristige Anwendung in der Industrie ermöglicht. Darüber hinaus ist gerade aufgrund der Kritikalität der Materialdaten eine gemeinsame Algorithmenentwicklung auf diesen Daten schwierig. Hier könnten Fortschritte in der homomorphen Verschlüsselung dazu führen, dass gemeinsam auf der gleichen Datengrundlage Modelle entwickelt werden, ohne das ein Informationssicherheitsproblem besteht. Dies wäre ein wichtiger Schritt, der die Industrie und die Forschung wieder näher zusammenbringen könnte.

nach oben

Materialintensive Prozesse digitalisieren – Unternehmenswissen digital lesbar machen - Entwicklungsbausteine aus dem Projekt MaterialDigital Baden-Württemberg

Die Digitalisierung zahlt sich dort aus, wo viele Werkstoffdaten in Fertigungs- oder Betriebsprozessen erzeugt werden oder für die Prozesssteuerung erforderlich sind. Der systematische Umgang mit Werkstoffinformationen lohnt sich, wo Prozesse von der Materialexpertise langjähriger Erfahrungsträger im Unternehmen abhängen. Doch wie packt man diese Herausforderung an? In dem vom Land Baden-Württemberg geförderten Projekt MaterialDigital wurde vom Fraunhofer IWM zusammen mit Partnern das Rezept dafür exemplarisch für den Aluminium-Guss entwickelt und erprobt.

Auslöser dafür, sich der Digitalisierung werkstofftechnischer Sachverhalte zu widmen, sind ein hoher Aufwand bei der Erzeugung oder Beschaffung von Werkstoffdaten oder teure Rechenzeiten in der Produktentwicklung oder dem virtuellen Produktdesign. Der strukturierte und Kontext basierte Umgang mit Werkstoffdaten verspricht hier, dass dieselbe Informationsbasis schneller und wirtschaftlicher mit bestehenden Daten erzeugt werden kann. Übertragen auf den Anlagenbetrieb kann man sich die Frage stellen, welche Vorteile es bringt, wenn Erfahrungswerte des gesamten Maschinenparks in einer Wissensbasis digital zugänglich sind, statt mit Insellösungen zu operieren.

Im Forschungsprojekt MaterialDigital wurde u.a. am Beispiel Aluminium-Kokillenguss ein Procedere konzipiert, getestet und kontinuierlich verfeinert, wie werkstoffintensive Prozesse – ganz gleich ob diese die Entwicklung, die Herstellung oder den Betrieb betreffen – digital abgebildet und die werkstoffbestimmenden Prozessgrößen verknüpft werden können.

Ein entscheidender Baustein ist ein geeignetes Interviewformat, um mit den Prozesseignern eine Art Datenlandkarte erstellen zu können. Denn für Neueinsteiger in die Welt der digitalisierten Werkstofftechnik besteht die Mühe darin, „selbstverständliche“ und auf Erfahrung basierende Informationen einerseits zu identifizieren und zu benennen und andererseits strukturiert zu beschreiben. Erst durch die Verknüpfung von Rohdaten mit den zughörigen Metadaten entsteht der Kontext, der die rohen Daten wertvoll macht und letztlich Zusammenhänge erkennen lässt. Für den digitalen Workflow wurde darauf aufbauend ein Workaround entwickelt, wie die erzeugten Datenpakete ausgehend von einem einfach zu handhabenden Excel-Format in semantisch strukturierte Datensätze und schließlich in einen Wissensgraphen überführt werden können.

Das „Softwerkzeug“, um das Unternehmenswissen rund um ein Produkt oder ein Herstellungsverfahren digital darzustellen und abrufbar zu machen, ist zunächst die Festlegung auf eine grundlegende Datenstruktur (Ontologie), mit der die Sachverhalte zu einem Produkt oder Prozess strukturiert werden können. Die Geschichte zum Produkt oder Prozess mit allen wichtigen Verknüpfungen wird im Detail mit einem Wissensgraphen digitalisiert erzählbar. Für den Live-Betrieb des digitalisierten Workflows müssen Daten direkt an der Produktionsanlage möglichst automatisiert erfasst und die so entstehenden Datenpakete konvertiert und in den Datenraum überführt werden. Auch dazu wurden spezielle Apps entwickelt. Und letztlich braucht es eine Abfragesprache um im Wissensgraphen die entscheidungsrelevanten Zusammenhänge zu finden.

Der mit der systematischen Ablage und Verknüpfung (fast) aller prozessrelevanten Daten und Informationen entstehende Wissensgraph kann letztlich zu jedem hergestellten Produkt die Aussagen liefern, auf welchen Maschinen, mit welchen Parametern, aus welchen Rohstoffen dieses gefertigt wurde. Die Tragweite eines solchen Wissensgraphen wird deutlich, wenn beispielsweise die Entscheidung zum Wechsel eines Rohstofflieferanten oder zu einer Produktionsumstellung ansteht und mit einer Abfrage in der Graphdatenbank wissensbasiert untermauert werden kann. 

© Fraunhofer IWM

Das im Projekt MaterialDigital erarbeitete Portfolio an Projektergebnissen für den Anwendungsfall Aluminium-Kokillengussprozess mit zweistufiger Wärmebehandlung umfasst u.a. folgende Bausteine:

  • Digitaler Workflow zur Abbildung und Strukturierung von Prozessschritten mit Meta- und Rohdaten
  • Prozessgraphvorlage zur digitalen Abbildung von werkstoffintensiven Prozessen am Beispiel Al-Kokillenguss
  • BWMD-Ontologie für werkstoffintensive Prozesse
  • Digitaler Workflow zur Fusion von einzelnen Prozessschritten zu Prozessketten
  • Materialdatenraum für den Aluminium-Kokillengussprozess mit zweistufiger Wärmebehandlung
  • Die Integration des digitalen Zwillings (eines Guss-Demonstrators) in Simulations- und Bewertungsketten

Die Wissensbasis wächst mit der Zahl der beteiligten Informationsquellen – auch unternehmensübergreifend – Die Frage liegt auf der Hand, wie dabei wettbewerbsrelevante oder vertrauliche Daten geschützt werden können.

In einem Folgeprojekt werden momentan genau hierfür Lösungen getestet, mit dem Ziel dezentrale Wissensgraphen zusammenzuführen und den Datenaustausch zwischen verschiedenen Akteuren so zu organisieren, dass Mehrwerte für beide Seiten entstehen ohne dass geschütztes Wissen preisgeben werden muss.

 

Der Nutzen von Wissensgraphen für werkstoffintensive Prozesse

  • In Zeiten von Fachkräftemangel kann Unternehmens-Know-how mit Wissensgraphen langfristig gesichert werden. Die Entwicklung und Herstellung wissensintensiver Produkte wird durch eine umfassende Informationsbasis beschleunigt.
  • Wissensgraphen ermöglichen digitale Zwillinge von Produkten entlang der Prozesskette. Versuch-Irrtum-Schleifen in Entwicklung und Fertigung können durch Prozessparameterstudien ersetzt werden, denn diese erlauben schnelle und valide Entscheidungen.
  • Zwischen Kunden und Lieferanten eröffnen Wissensgraphen neue Kooperationsformen und Datenprodukte. Ohne die Preisgabe von Unternehmens-Know-how können beispielsweise Prozessdaten in aus Wettbewerbssicht weniger kritische Materialeigenschaften umgerechnet werden – also ohne Rückschlüsse, wie man diese erzeugt hat. Diese digitalen Zwillinge können Kunden zur Verfügung gestellt werden, damit diese eigene Vorhersagen durchführen können. Die Kooperation erfolgt in diesem Fall über das digitale Abbild des Produkts oder über einen gesicherten Datenraum, in dem die Berechnungsmodelle des Kunden die Prozesskennwerte des Herstellers, ohne Zugriff darauf zu haben, in Werkstoffeigenschaften übersetzen.
  • Präzise virtuelle Bewertungsketten, die mit einem Wissensgraph aufgesetzt werden können, führen effektiv und wirtschaftlich zu neuen Optionen für Materialeinsparungen, Kostenreduktion, Zeitersparnis und Risikominimierung.

 

Weitere Informationen:

Abschlussbericht

Pressemitteilung

Kontakt: Dr. Christoph Schweizer 

nach oben

Updates aus der Forschungscommunity - Nationale Forschungsdateninfrastruktur für Materialwissenschaft und Werkstofftechnik (NFDI-MatWerk) erhält Förderzusage

Die Ausschreibung zur Nationalen Forschungsdateninfrastruktur (NFDI) der Deutschen Forschungsgesellschaft (DFG) erzeugte 2020 auch im zweiten Jahr viel Aufmerksamkeit im akademischen Bereich in Deutschland. Das Frauhofer IWM war im vergangenen Jahr zentral am Aufbau eines Konsortiums für den Fachbereich Materialwissenschaft und Werkstofftechnik (NFDI-MatWerk) beteiligt und reichte seinen Antrag im vergangenen Herbst ein. Das Konsortium aus namhafter Forschungsorganisationen und Universitäten verfolgt dabei das Ziel eine gemeinsame Forschungsdateninfrastruktur aufzubauen, in der WissenschaftlerInnen in Zukunft ihre Daten FAIR, also “findable”, “accessible”, “interoperable” sowie “reusable” teilen und integrieren können.

Die große Arbeit hat sich nun ausgezahlt: Mit Entscheidung der gemeinsamen Wissenschaftskonferenz (GWK) aus Bund und Ländern am 2. Juli hat das Konsortium NFDI-MatWerk eine Förderzusage erhalten. Darüber freuen wir uns am Fraunhofer IWM gemeinsam mit unseren ca. 30 Konsortialpartnern natürlich sehr! Nun gilt es Arbeitsstrukturen aufzubauen, die so ein riesiges, komplexes Verbundprojekt stemmen können - offizieller Projektstart ist schon im Oktober 2021.

Kontakt: Markus Niebel

nach oben

DigiBites – Das Digitalisierungsglossar

G wie Git – Die vom Linuxentwickler Linus Torvaldts erdachte Versionierungssoftware „Git“ kommt häufig in der Softwareentwicklung zum Einsatz: ProgrammiererInnen können mit dem standardisierten Git-Protokoll leicht neue Features Ihrer eigenen Codeversion im gemeinsamen Projekt-Code umsetzen und die Änderungen dabei zeichengenau für andere nachvollziehbar machen. Sogenannte „Maintainer“ können dann feingranular entscheiden, ob bestimmte Änderungen so übernommen werden sollen oder nicht. In der Digitalisierung ist Git auch für andere Disziplinen und Anwendungen ein spannendes Werkzeug. Am Fraunhofer IWM kommt die Software in Form der frei verfügbaren Webapplikation „GitLab“ bei der kollaborativen (Weiter-)Entwicklung von Terminologien und Definitionen zum Einsatz. Denn erst durch geteilte Begrifflichkeiten wird es möglich Daten verschiedener Quellen interoperabel abzulegen.

nach oben