Physikalische Grundlagenforschung: „Zunahme der Datenmengen um den Faktor 50“

belle-ll-detektor

Welche sind die fundamentalen Bausteine der Natur? Wie ist das Universum entstanden und wie hat es sich entwickelt? Diesen grundlegenden Fragen gehen Wissenschaftler mit verschiedensten Methoden nach. Die Forscher verbindet aber eine gemeinsame Herausforderung: Die zunehmend höhere Auflösung der Messinstrumente und die Leistungssteigerung der Beschleuniger versprechen neue wissenschaftliche Erkenntnisse – damit steigen aber auch die Datenmengen rasant.

CERN: 50 Millionen Gigabytes Daten jährlich

Heute entstehen beispielsweise bei den Experimenten am CERN etwa 50 Petabyte Daten jährlich – das sind rund 50 Millionen Gigabytes. Die Datenmenge würde auf insgesamt zehn Millionen DVDs Platz finden. Damit nicht genug: „In den kommenden zehn Jahren erwarten wir aufgrund der Weiterentwicklungen von Detektoren und Beschleunigern eine Zunahme der Datenmengen um den Faktor 50“, sagt Professor Thomas Kuhr, der die Experimental Flavor Physics Group an der Ludwig-Maximilians-Universität München (LMU) leitet.

Neue Entwicklungen in der Speicher- und Prozessortechnologie können das Wachstum an Speicherbedarf bei Weitem nicht ausgleichen. Um auch künftig Forschungsdaten analysieren zu können, brauchen die Forscher daher komplett neue Rechenkonzepte. Wissenschaftler aus der Teilchenphysik, der Hadronen- und Kernphysik sowie der Astroteilchenphysik habe sich jetzt zu einem experiment- und fachübergreifenden Verbund zusammengeschlossen, um entsprechende Konzepte zu entwickeln.

Im Projekt „Innovative Digitale Technologien für die Erforschung von Universum und Materie“ vereinen die Forscher vielfältige Erfahrungen und Kenntnisse auf den Gebieten von verteilten Rechnerinfrastrukturen und Algorithmen-Entwicklung. Innerhalb der nächsten drei Jahre entwickeln und testen sie gemeinsam neue Computing-Systeme.

Big Data mittels KI analysieren

Ein vielversprechender Ansatz ist dabei der Einsatz von Virtualisierungs-Technologien, um bisher unzugängliche Ressourcen zu erschließen. Die Wissenschaftler denken auch an  neue Prozessor-Architekturen, die zum Beispiel in Grafikkarten eingesetzt werden und eine bessere Energieeffizienz versprechen (Green IT). Eine wichtige Säule sehen die Forscher in der Entwicklung verbesserter Algorithmen und dem Einsatz von künstlicher Intelligenz (KI) für Big-Data-Analysen. Dabei sollen innovative Methoden des „maschinellen Lernens“ eine wichtige Rolle spielen.

„Die riesigen Datenmengen sind für uns eine große Herausforderung“, so Verbundkoordinator Thomas Kuhr. „Innovative digitale Methoden sind künftig unabdingbar, um die Grundlagenforschung entscheidend voranzubringen. Auch andere Wissenschaftsbereiche benötigen über kurz oder lang leistungsstarke Rechenumgebungen und werden von den neuen Kompetenzen profitieren.“

Die LMU übernimmt im Verbund die Aufgabe, Simulationsrechnungen durch den Einsatz tiefer neuronaler Netze deutlich zu beschleunigen. Außerdem entwickeln LMU-Wissenschaftler neue Methoden zum effizienten Zugriff auf riesige Datenmengen über große Entfernungen. Denn nur wenn einfach und schnell auf entfernte Daten zugegriffen werden kann, lassen sich bisher ungenutzte Ressourcen für alle Experimente erschließen.

Das Bundesministerium für Bildung und Forschung (BMBF) fördert im Kontext des Rahmenprogramms „Erforschung von Universum und Materie – ErUM“ den Verbund mit insgesamt 3,6 Millionen Euro über die nächsten drei Jahre.

Bild: Belle II-Detektor © Van Thanh Dong/Belle II Collaboration