Nano meets Big Data

Auf dem Weg zur digitalen Beschichtung

Mediendienst Oktober 2017 / 24.10.2017

Nanopartikel verändern Materialien zu Hochleistungswerkstoffen. Deshalb wird Nanotechnologie für vielfältige und unterschiedlichste Produkte auf dem Markt eingesetzt. Neue Partikel in Werkstoffe einzusetzen, bleibt jedoch eine Herausforderung, weil ungewiss ist, wie sie reagieren. Um die Entwicklungszeiten zu verkürzen und die Qualität der ganzen Prozesskette abzusichern, erfassen Wissenschaftler des Fraunhofer IPA die Prozessdaten und vernetzen die Produktion über die Cloud miteinander.

© Foto Fraunhofer IPA, Rainer Bez

Rolle-zu-Rolle-Beschichtungsanlage der Modellfabrik.

Sie gilt als eine der Schlüsseltechnologien des 21. Jahrhunderts und ihre Anwendungen haben nahezu geräuschlos den Markt erobert. Nanotechnologie steckt in Energiespeichern wie Batterien oder Akkus, Autozubehör, in Kleidung, Kosmetika, Medikamenten und sogar Lebensmitteln. Dank nanomodifizierter Hochleistungswerkstoffe werden Kunststoffe robuster, Metalle leichter und Energiespeicher effizienter.

Um dieses Ergebnis zu erreichen, werden konventionelle Werkstoffe mit nanoskaligen Füllstoffen modifiziert - winzigen Partikeln, zwischen einem und mehreren hundert Nanometern groß. – Ein Nanometer misst gerade mal einen Milliardstel Meter, ein menschliches Haar ist mit 80 000 Namometern schon ein Koloss. – Nanopartikel wie Graphen, Carbon Nanohorns, Carbon Nanotubes oder Nanosilberfasern werden in streng nacheinander folgenden, sogenannten Batch-Prozessen hergestellt. Ihre Produktion erfolgt ›stapelweise‹ und diskontinuierlich. Nanopartikel werden typischerweis20e in Reaktoren synthetisiert, anschließend oft funktionalisiert. Danach erfolgt eine Weiterverarbeitung in Form von Pulvern oder eine Dispergierung in Tinten oder Pasten. Das Endprodukt wird dann durch herkömmliche Fertigungsprozesse wie beispielsweise Druck- oder Beschichtungsprozesse hergestellt.


Batchprozesse führen zu Qualitätsproblemen

Erst beim letzten Schritt wird das Nanomaterial tatsächlich kontinuierlich, inline verarbeitet. Das große Problem bei diesen Batchprozessen sind die Qualitätsschwankungen. »Jedes Batch – das Rohmaterial und die Dispersion – haben andere Eigenschaften durch unterschiedliche Lagerdauern oder -Bedingungen, Transport- oder Umgebungseinflüsse. Es ist daher schwierig, die Qualität stabil zu halten«, erklärt Ivica Kolaric, der die Abteilung Funktionale Materialien am Fraunhofer IPA leitet.. »Jedes Batch muss neu eingefahren werden, denn Lagertechnik, Arbeitszeiten, Umrüstzeiten usw. haben Auswirkungen auf die Eigenschaften, sprich die Verteilung der Nanomaterialien in den Schichten, daraus resultierend auf die Schichteigenschaften, und damit auf die Entwicklungszeit und -kosten. Eine große Schwierigkeit für die Industrie.«
 

Theoriebasierte Simulationsmodelle helfen nicht weiter

Werden Schichten mit Nanomaterial optimier, kann der Herstellungsprozess die Mikrostruktur und damit auch die Materialeigenschaften ändern. Aus diesem Grund muss eine realistische Simulation den Herstellungsprozess als Grundlage nehmen, die daraus resultierenden Eigenschaften auf Materialebene ableiten und diese dann auf die Bauteilebene übertragen. Hierfür gibt es eine Reihe kommerzieller Tools, die auch eine nichtlineare Material- und Strukturmodellierung zulassen und somit in der Lage sind, herstellungsprozessbedingte Einflüsse auf Kompositmaterialien eingeschränkt zu erfassen und zu analysieren. Diese Tools werden jedoch meist prädiktiv angewendet und erfordern aktuell immer noch eine experimentelle Validierung, welche kosten- und zeitintensiv sein kann. Eine Hilfe dafür könnte die Kopplung von etablierten Struktursimulations-Tools mit simulationsgestützter Modellierung des Herstellungsprozesses sein. Dadurch könnten sowohl Batchprozesse als auch Rolle-zu-Rolle-Prozesse in einem Closed-loop-Verfahren automatisch an die Kundenanforderungen oder an veränderte Umgebungsbedingungen angepasst werden. »Wenn man ein neues Produkt auf den Markt bringen will, dann verlangt der Komponentenhersteller oder der Endanwender in der Regel experimentell oder simulativ validierte Materialdaten. Und Simulationsmodelle, die diese Daten generieren, gibt es  viele: beispielsweise Montecarlo oder Multiskalensimulationsmodelle, die Partikel beschreiben, und Simulationen, die Fluidkinematik und die Haftung beschreiben – aber diese sind schwer skalierbar und entsprechen nicht der Realität«, kritisiert Kolaric.


Dispersions- und Beschichtungsprozess werden vernetzt

Die Experten vom Fraunhofer IPA schlugen daher einen anderen Weg ein. Am Grundgedanken der Simulation hielten sie fest. Allerdings versuchten die Stuttgarter, Daten empirisch zu erfassen und anhand dieser Prozessparameter abzuleiten und zu postulieren. Kolaric nennt das Vorgehen einen »Big-Data-Ansatz«. »Und was wir jetzt auf Wunsch der Industrie gemacht haben, wir haben den Dispersionsprozess und den Beschichtungsprozess vernetzt. Die Pastenherstellung kann mit der Beschichtung über die Cloud kommunizieren. Wir haben ein kongruentes Datenmanagement von der Dispersion in die Beschichtung hinein.« Mit der digitalen Sprache zwischen Dispersion und Beschichtung werden die Daten erfasst und verglichen. Damit haben die Wissenschaftler die Grundlage dafür geschaffen, vom Partikel bis in die Beschichtung alle Daten einheitlich erfassen und bewerten zu können. Nicht ohne Stolz spricht Kolaric deshalb auch von einer Modellfabrik.


Neue Businessmodelle

Neben diesem entwicklungstechnischen Aspekt der am Institut aufgebauten Rolle-zu-Rolle-Beschichtungsanlage sieht Kolaric den Fokus der Digitalisierung in der Beschichtungstechnik in der Entwicklung neuer Businessmodelle zur gemeinsamen Nutzung von Maschinen, gemeinsamen ortsunabhängigen Produktentwicklungen und Pay-per-use-Konzepten zusammen mit der Industrie.