Forschende haben ein neues Modell der künstlichen Intelligenz (KI) entwickelt, das das Verständnis von metallorganischen Netzwerken (MOFs), vielversprechenden Materialien für die Speicherung von Wasserstoff und andere Anwendungen, erheblich verbessert.
Wie sagt ein Smartphone das nächste Wort voraus, das Sie in Ihre Nachrichten eintippen werden - Die Technologie hinter dieser Funktion - und das ist das Herzstück vieler KI-Anwendungen - wird Transformer genannt, ein Deep-Learning-Algorithmus, der Muster in Datensätzen erkennt.
Forschende der EPFL und des KAIST haben nun einen Transformator für metallorganische Netzwerke (MOFs) entwickelt. MOFs sind eine Klasse von porösen kristallinen Materialien. Durch die Kombination von organischen Liganden und Metallknoten können Chemiker Millionen verschiedener Materialien synthetisieren, mit potenziellen Anwendungen in der Energiespeicherung und der Gastrennung.
Der MOF-Transformer ist wie eine Art ChatGPT für Wissenschaftler, die MOFs studieren. Die Architektur des MOF-Transformers basiert auf einer KI namens Google Brain, die natürliche Sprache verarbeiten kann und den Kern von beliebten Sprachmodellen wie GPT-3 (dem Vorgänger von ChatGPT) bildet.
Die zentrale Idee hinter diesen natürlichen Sprachmodellen ist, dass sie auf eine große Textmenge vorgeformt werden. Wenn wir zum Beispiel auf einem Smartphone zu schreiben beginnen, treten solche Modelle in Aktion, die darauf trainiert sind, zu "raten" und das nächste, wahrscheinlichste Wort hinzuzufügen.
"Wir wollen diese Idee für MOFs erforschen, aber anstatt ein Wort vorzuschlagen, wollten wir, dass der Transformator eine Eigenschaft vorschlägt", sagt Professor Berend Smit, der das EPFL-Team des Projekts leitet. "Wir haben den MOF-Transformer mit einer Million hypothetischer MOFs vorgeformt, damit er die wesentlichen Eigenschaften lernt, die wir in Form eines Satzes dargestellt haben. Das Modell wurde dann so trainiert, dass es diese Sätze vervollständigt, um die korrekten Eigenschaften des MOFs zu liefern."
Die Forscher parametrisierten daraufhin den MOF-Transformator für Aufgaben im Zusammenhang mit der Wasserstoffspeicherung, wie die Wasserstoffspeicherkapazität, den Wasserstoffdiffusionskoeffizienten und die Bandlücke des MOF (eine "Bandlücke" ist eine Energiebarriere, die kontrolliert, wie leicht Elektronen ein Material durchdringen können).
Dieser Ansatz zeigte, dass der MOF-Transformer in der Lage war, Ergebnisse mit viel weniger Daten zu erzielen, verglichen mit konventionellen Methoden des maschinellen Lernens, die eine viel größere Menge an Daten benötigen. "Durch das Vortraining kennt der MOF-Transformer bereits die allgemeinen Eigenschaften von MOFs und dank dieses Wissens brauchen wir weniger Daten, um ihn für eine andere Eigenschaft zu trainieren", fügt Prof. Smit hinzu. Außerdem könnte das gleiche Modell für alle Eigenschaften verwendet werden, während beim herkömmlichen Machine Learning für jede Anwendung ein eigenes Modell entwickelt werden muss.
Der MOF-Transformer stellt eine Revolution in der Untersuchung von MOFs dar, da er mit weniger Daten schnellere Ergebnisse liefert und ein breiteres Verständnis des Materials ermöglicht. Die Forscher hoffen, dass der MOF-Transformer den Weg für die Entwicklung neuer MOFs mit besseren Eigenschaften für die Speicherung von Wasserstoff und andere Anwendungen ebnen wird.
Referenzen
Yeonghun Kang, Hyunsoo Park, Berend Smit, Jihan Kim. MOFTransformer: A multi-modal pre-training transformer for universal transfer learning in metal-organic frameworks. Nature Machine Intelligence 13 March 2023. DOI: 10.1038/s42256’023 -00628-2.
KI verändert die Suche nach metallorganischen Netzwerken
Advert