MaterialDigital INSIGHTS April 2019

Interviews mit Referenten des Workshops MaterialDigital2019

16.4.2019

Digitale Workflows werden materialbasierte Entwicklungs- und Fertigungsprozesse durchdringen. Die durchgängige Beschreibung der Materialeigenschaften und ihrer Veränderungen wird dem Management von Produktlebenszyklen eine neue Qualität geben. Auf dem Weg dahin gibt es noch etliche Hürden zu nehmen, aber viele Akteure aus Industrie und Wissenschaft arbeiten mit Hochdruck an praxisnahen Lösungen. Der Workshop MaterialDigital2019 am 14. und 15. Mai 2019 gab dem Gesamtbild der Digitalisierung in der werkstoffintensiven Wertschöpfung deutlichere Konturen und mehr Klarheit.

Im Folgenden stellen wir Ihnen einige Referenten und ihre Themen vor. Sie erfahren von der Herausforderung Materialdatenräume zu füllen, von Sensoren als Schlüsselfaktor der Digitalisierung, Sie lesen von der Verbindung zwischen Geschäftsmodellen und Digitalen Zwillingen und schließlich werden kulturelle Aspekte bei der Umsetzung der Digitalisierung beleuchtet.

Die Experten zeigen auf spannende Weise, welche Dynamik im Thema Digitalisierung in der werkstoffintensiven Wertschöpfung steckt und lassen erahnen, welcher Mehrwert entstehen kann, wenn unterschiedlichste Perspektiven miteinander wechselwirken.

Der Materialdatenraum will gefüllt werden - Christoph Schweizer, Fraunhofer IWM

Der digitale Umbruch in der Messtechnik - Sören Barteldes , QASS GmbH

Der Digitale Zwilling hält Einzug - Christof Gebhardt, CADFEM GmbH

Das Kulturproblem von Industrie 4.0 - Jochen Rühl , Scherdel.Siment

Der Materialdatenraum will gefüllt werden

Dr. Christoph Schweizer

Wenn der digitale Zwilling alle erforderlichen Informationen zu einem Werkstoff entlang der Wertschöpfungskette darstellen soll, wie müssen die Daten dann gespeichert und miteinander verknüpft werden? Wir sprachen darüber mit Dr. Christoph Schweizer, dem Leiter des Geschäftsfelds Werkstoffbewertung, Lebensdauerkonzepte am Fraunhofer-Institut für Werkstoffmechanik IWM in Freiburg.

Herr Schweizer, Sie haben schon auf dem ersten MaterialDigital-Workshop 2018 einen Vortrag zum Aufbau eines Werkstoffdatenraums gehalten. Was hat sich seither getan?
Schweizer: Beim Workshop 2018 haben wir mit einem Demonstrator die technologische Machbarkeit gezeigt. Durch den Einsatz einer Ontologie und eines Wissensgraphen, der das Grundgerüst des Werkstoffdatenraums darstellt, konnten wir exemplarisch die Werkstoffhistorien additiv gefertigter Proben und der resultierenden Werkstoffkennwerte mitsamt den zugehörigen Rohdaten in beliebiger Komplexität abbilden. Mit einer relativ generischen Benutzeroberfläche ließen sich im Werkstoffdatenraum bereits komplexe Abfragen ausführen. Des Weiteren konnte die Werkstoffhistorie detailliert zurückverfolgt werden. Das Einpflegen und Strukturieren der Daten war jedoch noch weitgehend Handarbeit.
In den letzten 10 Monaten haben wir uns deshalb intensiv mit dem digitalen Arbeitsfluss von der Datenerfassung bis zur Speicherung im Datenraum auseinandergesetzt. Gleichzeitig sind wir zur Verwaltung der Knoten und Kanten des Wissensgraphen auf eine Graphdatenbank umgestiegen. Seit einem Dreivierteljahr arbeiten wir im Rahmen des Landesprojekts MaterialDigital mit sechs anderen Forschungsinstituten aus Baden-Württemberg daran, dass die verarbeiteten Materialien zu einem Bestandteil einer digital durchgängigen und vernetzten Wertschöpfungskette werden. Hier betrachten wir zwei konkrete Anwendungsfälle aus den Bereichen Metalle und Polymere. Metallseitig befassen wir uns mit dem Aluminiumkokillengussprozess und im Falle der Polymere mit medizinischen Implantaten. Insgesamt ist ein großes Interesse der Industrie zu spüren und wir führen viele bilaterale Gespräche. Dabei geht es um die Frage, wie sich das Datenraumkonzept im Unternehmen umsetzen lässt.


Wie ist der Bezug zwischen Werkstoffdatenraum und digitalem Materialzwilling, von dem so häufig die Rede ist?
Schweizer: Der digitale Materialzwilling ist das virtuelle Abbild eines Materials und beschreibt dessen aktuellen Zustand. Das virtuelle Abbild ist in aller Regel lückenbehaftet, kann sich aber zeitlich verändern. Die Zustandsgrößen werden im Werkstoffdatenraum verwaltet bzw. zur Erzeugung eines digitalen Zwillings aus diesem abgefragt. Gerade in der Werkstoffmechanik stehen wir vor dem Problem, dass sich solche Zustandsgrößen, z.B. Materialeigenschaften, häufig nur zerstörend ermitteln lassen. Für die Ermittlung benötigen wir also mindestens eine Materialprobe, wobei die Werkstoffhistorie der Probe deren Eigenschaft maßgeblich bestimmt. Es wird also schnell sehr komplex und  damit unübersichtlich. Mit dem Datenraum sorgen wir dafür, dass diese Zusammenhänge nicht verloren gehen.

»Wir müssen beim Datenraum dafür sorgen, dass die Datenerzeuger keinen spürbaren Mehraufwand bei der Datenstrukturierung haben.«


Wo liegen die Hürden, um Ontologien und Wissensgraphen breitflächig einzusetzen?

Schweizer: Zur technologischen Architektur des Werkstoffdatenraums haben wir mittlerweile eine sehr konkrete Vorstellung entwickelt und wir sind auf einem guten Weg, diese umzusetzen. Dabei gibt es viele technische und wissenschaftliche Herausforderungen zu bewältigen, z.B. die Weiterentwicklung von Abfragealgorithmen, die eng mit der Ontologie und der Datenraumarchitektur verbunden sind. Das ist aber nur eine Frage des Aufwands. Aus meiner Sicht sind die beiden größten Hürden falsche Erwartungen und die Skalierbarkeit. Eigentlich möchten wir ja Daten analysieren und das am liebsten mit Methoden der Künstlichen Intelligenz. Da ist die Enttäuschung oft recht groß, wenn man zunächst zwei Schritte zurückgehen muss, um sich mit der Datenstrukturierung und -verwaltung auseinanderzusetzen. Zudem gab es in Instituten und Unternehmen in der Vergangenheit etliche gescheiterte Datenbankprojekte. Meist war der Aufwand für das Einpflegen der Daten sehr groß und/oder die Formblätter waren zu starr.
Das bringt mich auch schon zur Skalierbarkeit: Wir erkaufen uns die Flexibilität bei der Datenstrukturierung und Datenabfrage durch die Verwendung einer Ontologie. Wenn der Weg der Ontologieentwicklung bedeutet, dass wir in jedem Institut bzw. Unternehmen Gremien bilden müssen, um uns auf eine gemeinsame Ontologie zu verständigen, dann ist die Skalierbarkeit aus meiner Sicht nicht gegeben.


Wie können Sie die Skalierbarkeit bei der Ontologieentwicklung sicherstellen?
Schweizer: Eine Patentlösung haben wir ehrlich gesagt noch nicht, da wir uns zunächst auf die Datenstrukturierung und die Datenraumarchitektur fokussiert haben. Aus meiner Sicht gibt es aber zwei Wege: Entweder können wir im Datenraum mit vielen Domänenontologien umgehen, oder wir können automatisiert mehrere Domänenontologien zu einer gemeinsamen Ontologie zusammenführen. Hier sehe ich auf jeden Fall großen Forschungsbedarf. Selbstverständlich wird es auch Bereiche geben, in denen eine Domänenontologie vorgegeben wird. Ein gutes Beispiel ist die Terminologie und Taxonomie der DIN 8580 zu Fertigungsverfahren. Wenn sich ein Gremium die Arbeit bereits gemacht hat, dann müssen wir uns nicht nochmal den Kopf zerbrechen.


Sie haben bereits gesagt, dass die Nachfrage sehr hoch ist. Sehen Sie Anwendungsfelder, die besonders profitieren könnten?
Schweizer: Ich sehe einen großen Nutzen für mittelständische materialverarbeitende Betriebe, in denen viele Arbeitsprozesse erfahrungsbasiert ablaufen und bislang noch nicht digital abgebildet werden konnten.

nach oben

Der digitale Umbruch in der Messtechnik

Sören Barteldes, QASS GmbH

Daten sind der Rohstoff des 21. Jahrhunderts. Um zu erfahren, wie werkstoffintensive Betriebe  mit diesem Schatz umgehen, haben wir den Messtechnik-Experten Sören Barteldes zum Interview getroffen. Er ist Prokurist bei der QASS GmbH und dort zuständig für Entwicklungsprojekte.

Herr Barteldes, wie sieht Ihr Verständnis von der digitalen Transformation in der Werkstofftechnik aus?
Barteldes: Als Messtechniker und Werkstofftechniker stelle ich mir die Frage, was auf die deutsche Industrie zukommt. Klar ist, dass wir vieles in die Cloud verlagern werden, aber wo kommen die Daten her? Die Basis für die Industrie 4.0 sind nach wie vor die physischen Sensoren, denn ohne eine gute Datengrundlage können auch virtuelle Sensoren keine brauchbaren Daten liefern.
Natürlich gibt es auch in diesem Feld rasante Entwicklungen gerade im Hinblick auf smarte Sensoren, die vom Anwendungsfall unabhängig sind, und sich so sehr vielfältig einsetzen lassen oder der verstärkten Nutzung von Sensorfusion um neue Materialerkenntnisse im Prozess zu Berücksichtigen. In meinem Vortrag will ich zeigen, wo die zerstörungsfreien messtechnischen Potentiale insbesondere von magnetischen Sensoren liegen, um mechanische Kenngrößen von Werkstoffen inline bestimmen zu können und damit eine nachgehende Prüfung überflüssig machen zu können.

Sie sehen in ihrem Arbeitsalltag sehr viele verschiedene Anlagen. Wie beurteilen Sie die Anschlussfähigkeit deutscher Betriebe, können diese auf einer soliden Datengrundlage aufbauen?
Barteldes: Ich denke aus technischer Sicht sind wir insgesamt gut aufgestellt und setzen die richtigen Hebel in Bewegung.  Für die Datengrundlage einer zügigen Umsetzung einer Industrie 4.0 hinderlich ist aber, dass Daten teilweise noch regelrecht vergeudet werden. Damit meine ich, dass oftmals nur ein eingeschränktes Bewusstsein für die messtechnischen Potentiale von vorhandener Sensorik besteht.
Gerade bei Messauswertung und Visualisierung verharren viele Betriebe noch dem zweidimensionalen Standard von vor 20 Jahren. Die Transformation von Messsignalen durch das Zerlegen des Frequenzverhaltens liefert beispielsweise als Resultat ein dreidimensionales Spektraldatendiagramm in dem Fehler sich drastisch vom Input des Produktionsprozesses abheben und so sofort ins Auge fallen.
Da sich ein Großteil der erforderlichen Nachrüstung auch vor allem auf der Softwareseite abspielt und der Preis einer Aufrüstung nicht im Verhältnis zu den Einbußen durch die behebbaren Werkstoffprobleme darstellt, werden wir hier in den nächsten Jahren eine starke Entwicklung sehen.
Auch wenn die Befürchtung »was nützt es« da ist, haben wir nach wie vor einen sehr großen »Zuverlässigkeitsdruck« in der Branche. Das Wissen, welches bisher nur in altgedientem Bedienpersonal steckte, jetzt mit Hilfe der Digitalisierung in die Anwendungstechnik selbst einfließen zu lassen, ist natürlich ein Kostenvorteil, der immer stärker eine Rolle spielt.

»Nicht jede Kaffeekanne braucht einen Anschluss an das Internet-der-Dinge.«


Wie weit sind deutsche Unternehmen was diese strukturellen Herausforderungen angeht, beispielsweise beim Einsatz von autarken Entscheidungen? Was kommt da auf uns zu?

Barteldes: Da kommt auf jeden Fall eine Menge auf uns zu. Die Technik ist schon zu unglaublichen Dingen in der Lage, aber der Adaptionsprozess hat gerade erst begonnen. Vor allem fehlt oft noch die ganzheitliche Betrachtung in großen Betrieben.
Wir kommen beispielsweise teilweise zur Begutachtung auch in Werke, wo die entsprechende Messtechnik einfach ausgeschaltet ist. Da bekämpfen sich dann Produktion und Qualitätssicherung mit ihren Zielen gegenseitig. Der vom Sensor ermittelte Ausschuss senkt natürlich die Produktionsquote und die lässt sich nicht einfach an anderer Stelle wieder erhöhen. Digitalisierung eröffnet ja ein ganz neues Feld.
Seitens der Mitarbeiter, die direkt mit dem Sensor konkurrieren, ist ein gewisses Misstrauen und eine Abwehrhaltung natürlich nachvollziehbar. Im Produktionsalltag erleben wir an dieser Front allerdings auch sehr kuriose Geschichten. Teilweise werden da vom Roboter vorsortierte Ausschussteile wieder in die Produktion mit reingenommen mit dem Hinweis, dass man da »nicht dran glaubt«.

Wie stehen Sie persönlich zu diesen Veränderungen der Digitalisierung?
Barteldes: Man muss verstehen, nicht jede Kaffeekanne braucht einen Anschluss an das Internet-der Dinge, aber die Digitalisierung ist nicht aufzuhalten. Wo sie gebraucht wird, einen Mehrwert bietet, wird sie stattfinden, gnadenlos. Daher ist genau jetzt der Zeitpunkt diesen Prozess im eigenen Sinne mitzugestalten und nicht bloß mitzuerleben. Wir Gestalter tragen dabei die Verantwortung, wie die Zukunft aussieht, die wir bauen.

nach oben 

Der Digitale Zwilling hält Einzug

Christof Gebhardt, CADFEM GmbH

Was ist der digitale Zwilling und was sind die Herausforderungen bei der Implementierung für eine ganze Anlage, beispielsweise ein Wasserkraftwerk? Zu diesen Themen sprachen wir mit Christof Gebhardt, dem Leiter des Produktbereiches des interdisziplinären Twin Innovation Labs der CADFEM GmbH, einem der größten europäischen Anbieter für Computer-Aided Engineering.

Was ist der digitale Zwilling und warum kann er die deutsche Industrie revolutionieren?
Gebhardt: Der digitale Zwilling ist das digitale Abbild eines physischen Systems. Vernetzte Sensoren in diesem speisen ihre Sensordaten in den Zwilling ein und physikalische Simulationen liefern Informationen über den Degradationszustand oder reichern den messtechnischen Zugang der realen durch virtuelle Sensoren an.
Das heißt wir gelangen an neue Daten, auch von bisher nicht für Messungen zugängliche Stellen, beispielsweise innerhalb von starken Pumpen, Pressen oder ähnliches.  Das eröffnet für die Produktion nicht nur Einsparpotentiale durch extrem präzisen Werkstoffeinsatz, sondern ermöglicht auch prädiktive Wartungskonzepte für den Anlagenbetrieb. Ich  bin auch der Meinung, dass der über physikalische Modelle laufende digitale Zwilling eine viel höhere Aussagekraft besitzt, als das ebenfalls sehr populäre Big-Data-basierte Reverse Engineering.

Was sind die speziellen Herausforderungen bei Einführung eines digitalen Zwillings?
Gebhardt: Um einen Zwilling einzusetzen, sind drei Aspekte zu berücksichtigen: die Infrastruktur, also Plattform und Sensorik, das Simulationsmodell und das Geschäftsmodell. Diese verschiedenen Bausteine parallel zu entwickeln und zusammenzuführen ist größte Herausforderung. Je komplexer die abgebildete Struktur, desto komplexer ist natürlich auch die Integration im Unternehmen, weil der Zwilling ja nicht nur die Transparenz von technischen, sondern eben auch von Unternehmensprozessen erfordert und damit auch Unternehmensbereiche und Abteilungen übergreift. Aus diesem Grund ist für den Integrationsprozess ein Moderator hilfreich, der den Auftraggeber bei der Entwicklung und Einführung begleitet und alle Beteiligten zusammenbringt.
Selbstverständlich kann es sein, dass wir in so einem Prozess auch feststellen, dass ein digitaler Zwilling für das Unternehmen auch übertrieben wäre und das bereits eine Analyse einfacher Sensordaten hilfreich ist. Insbesondere in komplexen Szenarien spielt das Wissen über die Zusammenhänge, das im Digitalen Zwilling steckt, seine Stärken aus.

»Ich denke, in meinem Leben werde ich keine komplette digitale Abbildung einer Anlage mehr sehen – vor allem, weil es  gar nicht notwendig ist.«


Wie steht es um die technischen Anforderungen?

Natürlich gibt es auch noch technische Herausforderungen, zu allererst die der Komplexität. Die Frage: »Was muss der Zwilling alles leisten?«, steht an erster Stelle, denn es ist klar, dass eine vollumfängliche Simulation nicht möglich ist, aber auch vor allem gar nicht notwendig. Es sollte alles einfließen was relevant ist. Nicht mehr und nicht weniger.
Dann haben wir das Problem, dass viele Simulationsmodelle für die Live-Nutzung noch zu rechenintensiv sind und daher mit bis zu einigen Stunden zu hohe Laufzeiten aufweisen. In meinem Vortrag werde ich Lösungen zeigen, wie mit Reduced-order-Models ein reduziertes Verhaltensmodell mit geringerer Komplexität, aber gleicher Aussagekraft für die Anwendung möglich ist. So kommt der Anwender in den Sekundenbereich und damit zum Livebetrieb.

Sie zeigen in ihrem Vortrag ja unter anderem das Beispiel eines Wasserkraftwerkes. Wie können dort Geschäftsmodelle auf Basis des digitalen Zwillings aussehen?
Gebhardt: Das Geschäftsmodell zu evaluieren ist immer der Ausgangspunkt; sich also zu überlegen, was muss der Zwilling können und für den Kunden erreichen, um erfolgreich zu sein. Digitale Services betreffen dabei nicht nur den Hersteller von Bauteilen und System, sondern auch den Betreiber von Anlagen.
Auch hier ist es wieder wichtig, den Zwilling nicht rein technisch zu verstehen, sondern auch als Management-Werkzeug. Predictive Maintenance ist da nur eine Facette. Denken sie beispielsweise bei Kraftwerken an die Betriebsmodi. Da kommen im Zuge der Energiewende ganz neue Anforderungen auf die Betreiber zu. Ein hundertprozentiger Dauerbetrieb ist vielleicht bald sehr unwirtschaftlich, aber dafür natürlich in Punkto Materialbelastung eine sehr dankbare Ausgangslage. Die Umstellung zu einem netzgesteuertem Betrieb ermöglicht Ertragssteigerungen, aber die zyklischen Anfahrprozesse stellen ein ganz neues Materialbelastungsszenario dar. Mit Hilfe des digitalen Zwillings können Anlagenbetreiber ihre Betriebsintervalle völlig neu interpretieren und Geschäftsmodelle können Betriebsempfehlungen beinhalten oder mit »What-if-Szenarien« wirtschaftliche Potenziale bewerten.

nach oben 

Das Kulturproblem von Industrie 4.0

Jochen Rühl, Scherdel.Siment

In der Industrie 4.0 verzahnt sich die Produktion mit modernster Informations- und Kommunikationstechnik. Wir sprachen mit dem Materialwissenschaftler Jochen Rühl über die Schwierigkeiten bei der Umsetzung einer solchen Vernetzung. Rühl berät bei Scherdel.Siment, einer Tochterfirma der Scherdel GmbH, u.a. externe Firmen bei der Umsetzung von materialbasierten Prozesssimulationen.

In ihrem Vortrag wollen Sie ein »etwas anderes Verständnis von Industrie 4.0« präsentieren. Wie sieht das aus?
Rühl: Der Begriff »Industrie 4.0« bietet Spielraum. Vorrangig steht er für die Vernetzung der Produktion, um beispielsweise Prozesse beziehungsweise die gesamte Wertschöpfungskette zu optimieren. Denkbar wäre aber auch den Begriff weiter zu fassen, die Möglichkeit der individualisierten Massenfertigung. Vom Front End zu Hause in die digitale Fabrik.  In der aktuell vorgestellten Nationalen Industriestrategie 2030 des BMWi wird gerade diese Interaktion als Game Changer diskutiert. Diese Veränderungen stehen fest.
Für mich kann diese nur bedeuten, auf Grundlage der Digitalisierung weitere Methoden zu schaffen, die helfen, schnell, aktiv und erfolgreich auf neue Anforderungen reagieren zu können, also flexible Prozesse und agiles Management zu ermöglichen. Kurzum es muss das erklärte Ziel eine Verknüpfung der digitalen Fabrik mit wirtschaftlichen Größen, idealerweise in Echtzeit, sein.

Was brauchen wir dazu, was wir noch nicht haben?
Rühl: Unternehmen müssen nicht nur ihre technischen Größen und Kennzahlen vom Material bis zum Prozess zusammenbringen, sondern eben auch ihre wirtschaftlichen Daten. Oftmals werden schlichtweg nur einzelne Kostenblöcke verglichen. Das erlaubt aber beispielsweise keine schnellen Serienangebote, in denen komplett neue Umformprozesse mit anderen Taktzeiten, anderem Raumbedarf, dem Einsatz neuer Verfahren etc. abgebildet werden müssen. Will man erfolgreich handeln und gestalten ist dies  im internationalen Wettbewerb unabdingbar.
Was häufig fehlt ist die Durchgängigkeit des Entwicklungsprozesses. Verschaltet zu der materialbasierten Prozesssimulation muss parallel eine Kostensimulation laufen. Diese machen Firmen meistens nur mit ihren Standardprodukten, aber gerade bei neuen Produkten und Märkten lohnt sich das Durchspielen und die Prozesssimulation sollte dazu in der Ebene der unternehmensstrategischen Entscheidungen Einzug halten. In meinem Vortrag will ich veranschaulichen, wie Prozesse und Produkte am Beispiel der Metallumformung in digitalen Workflows ineinandergreifen können.

»Bei allen ungelösten technischen Fragen, welche Plattform, welche Standards, ist die Digitalisierung aber aus meinen Augen noch viel mehr ein Kultur- als ein Technik- oder Kostenproblem.«


Bis 2020 plant die deutsche Industrie jährliche Investitionen von 40 Mrd. Euro in Industrie 4.0 Anwendungen. Wird diese Durchgängigkeit nicht schon realisiert?

Rühl: Nein, nicht überall. Gerade kleinere Unternehmen scheuen den Aufwand. Eine materialbasierte Prozesssimulation alleine ist extrem teuer, die kann für einen Anwendungsfall alleine schon einmal sehr schnell im fünfstelligen Bereich liegen und das geht dann natürlich ebenfalls zu Lasten der Wettbewerbsfähigkeit.
Einige große Konzerne haben durchgängige materialbasierte Prozesssimulation schon im Haus, klar, aber das Methoden-Knowhow bleibt dort auch teilweise an Ressortgrenzen hängen bzw. ist es hier ggf. schwierig die simultane Kostensimulationen zu bewerkstelligen und die Resultate zu vereinen und kann somit  vom Management nicht für das Zukunftsgeschäft herangezogen werden. Ich sehe an dieser Stelle gute Chancen für größere mittelständische Unternehmen, in denen der Draht der Einheiten zum Management eng ist. Um die Initialzündung hinzubekommen oder ggf. Initialkosten klar im Blick zu haben gibt es ja auch unterschiedlichste denkbare Varianten wie Ausgründungen oder Corporate Venturing. Global gesehen habe ich aber den Eindruck, dass andere Nationen hier schon weiter sind.
Wir haben in weiten Teilen noch die klassische Arbeitsteilung. Die Wissenschaft muss Erkenntnisse liefern, teilweise ohne Verwertungsanspruch. Wirtschaftsingenieure setzen Geschäftsmodelle um, aber greifen selten technische Neuerungen ab. Simulationen sind mittlerweile unglaublich effektiv geworden, aber finden hauptsächlich im Engineering Anwendung. Dabei liegen so viele wertvolle Daten vor, die nicht verknüpft werden. Da müssen wir noch mehr vom Innovationsglauben zum Evolutionsglauben und einer ganzheitlichen Draufsicht.

Wie könnten Lösungsansätze dahin aussehen?
Rühl: Ich sehe zwei Wege. Wir müssen zum einen diskutieren wie sehr wir den Transformationsprozess national steuern wollen, indem wir beispielsweise übergreifende Prozessdatenbanken aufbauen, um international konkurrenzfähig zu bleiben. Materialdatenbanken gibt es zwar bereits, aber auf dem bisherigen Level können wir damit nicht bestehen.
Zum anderen ist in Deutschland die interne Konkurrenz sehr hoch. Gesunder Wettbewerb ja, aber aus volkswirtschaftlicher Sicht, gerade mit den Herausforderungen mit denen wir uns konfrontiert sehen, als Firmen, als Land, EU  braucht es eine Strategie. Hier würde es oft schon reichen wenn sich zwei oder drei Unternehmen zusammentun. Es gibt da erste Erfolgsprojekte. Im Maschinenbau haben sich beispielsweise Kooperationsmodelle zwischen anwendungsorientierter Forschung, Integratoren und Endanwendern bewährt. Die Kooperation funktioniert dort, eine verbindliche Zusammenarbeit eröffnet die Möglichkeit, attraktive Gesamtpakete anbieten zu können. Damit Firmen hier agil bleiben können, gerade der deutsche Mittelstand, muss da auf Verbands-, Bundes- und Community-Ebene aber noch Einiges passieren. Die Interdisziplinarität, die Fraunhofer auch mit dem MaterialDigital-Workshop anstrebt, ist genau das, wovon ich spreche und daher sehr wertvoll für die bevorstehenden Transformation der deutschen Industrie.

nach oben 

Workshop MaterialDigital2019 am 14. und 15. Mai 2019

Workshop MaterialDigital2019 am 14. und 15. Mai 2019

Beim zweiten Workshop MaterialDigital treffen sich Akteure aus Industrie und Wissenschaft mit der Überzeugung, dass sich Entwicklungs- und Fertigungsprozesse durch digitale Workflows wesentlich effizienter gestalten lassen. Sie vertreten die Auffassung, dass das Management des Produktlebenszyklus durch eine möglichst durchgängige Beschreibung der Materialeigenschaften und ihrer Veränderungen eine neue Qualität bekommt. Die Teilnehmerinnen und Teilnehmer arbeiten an Themen wie künstlicher Intelligenz, digitalen Repräsentationen, Datenplattformen, Datenformaten oder Hochdurchsatz-Methoden um damit digitale Workflows, Materialdatenflüsse und mehr Materialintelligenz in Produkten und Prozessen zu schaffen.

Die Digitalisierung in der Entwicklung, Verarbeitung und im Einsatz von Werkstoffen und Bauteilen erfolgreich nutzen


Nachdem der Workshop MaterialDigital2018 das sogenannte Big Picture der Digitalisierung in der werkstoffintensiven Fertigung behandelt hat, liegt der Fokus 2019 auf Werkzeugen und der Operationalisierung. Wie kann man einsteigen? Welche Entwicklungsstufen gibt es? Wie kann der digitale Veränderungsprozess bewältigt werden?

Zum Workshop MaterialDigital2019 

nach oben