CORDIS - Forschungsergebnisse der EU
CORDIS

Fast Tracker for Hadron Collider Experiments

Article Category

Article available in the following languages:

Menschliches Gehirn als Vorlage für die Verarbeitung großer Datenmengen

Die Fähigkeit des menschlichen Gehirns, zur Lösung eines Problems nur relevante Daten herauszufiltern, inspirierte EU-finanzierte Forscher, neue Technologien für die Verarbeitung großer Datenmengen zu entwickeln. Der Durchbruch könnte medizinische Diagnosen vereinfachen, Sicherheitsmaßnahmen effektiver machen und Klimamodelle präzisieren.

Digitale Wirtschaft icon Digitale Wirtschaft
Grundlagenforschung icon Grundlagenforschung

Fortschritte in der IKT haben Ökonomie und Gesellschaft enorm verändert. Inzwischen kann man Menschen aus aller Welt in Sekundenschnelle zusammenbringen, Katastrophenschutz extern koordinieren, neue medizinische Diagnosen und Therapien vereinfachen sowie Wetterprognosen und Klimamodelle zuverlässiger machen. All dies – und vieles mehr – ist nur durch nachhaltige Verbesserung der Rechenleistung möglich, und Standardprozessoren können mit dem exponentiell wachsenden Datenvolumen kaum noch Schritt halten. Eine der künftig wichtigsten Aufgaben ist daher die Entwicklung neuer, schneller, kompakter und kostengünstiger Prozessoren. Technologien mit Köpfchen "Damit sich die Kluft zwischen wachsenden Datenmengen und niedriger Rechenleistung nicht noch verbreitert, sind neue Prozess- und Rechenmethoden sowie Speichersysteme gefragt", wie FTK-Projektkoordinatorin Prof. Chiara Roda von der Universität Pisa, Italien, erklärt. "Hierfür entwickelten wir Bildverarbeitungstechnologien mit einer Architektur, die der des Gehirns ähnelt. Dies testeten wir dann mit dem Large Hadron Collider (dem weltweit größten und leistungsstärksten Teilchenbeschleuniger) am CERN bei Genf, um ein spezifisches Problem mit Big Data zu lösen." Einige der interessantesten subatomaren Prozesse, die bei Teilchenkollisionen im Large Hadron Collider (LHC) stattfinden, sind sehr selten und werden von extrem großen Mengen an irrelevanten Ereignissen überdeckt. So müssen aus diesem "Hintergrundrauschen" die interessierenden Ereignisse in Echtzeit ausselektiert werden, um das experimentelle Potenzial voll ausschöpfen zu können. Das Projektteam entwickelte "Beschleuniger" für Algorithmen, die normalerweise viel Verarbeitungszeit und Ressourcen verbrauchen. "Unsere Technologie filtert wichtige Informationen zur Weiterverarbeitung von Bildern heraus, die zu komplex sind, um von Standardcomputern direkt verarbeitet werden zu können", erklärt Prof. Roda. "Dies ist die Art und Weise, wie ein Gehirn Bilder verarbeitet: für Prozesse auf höherer Ebene und die Langzeitspeicherung werden nur solche Daten ausgewählt, die bestimmten Sätzen gespeicherter Muster entsprechen. Unsere Technologie ahmt diese niedrigeren Gehirnfunktionen nach." Enormes Potenzial bei der Verarbeitung von Big Data Dieses Potenzial eröffnet viele weitere Anwendungsmöglichkeiten – in der Astrophysik und Meteorologie bis hin zu Roboterautomatisierung und Sicherheitsanwendungen. "Die Kommunikation mit interessierten Endnutzern in der Hochenergiephysik war hervorragend", sagt Prof. Roda. "So nutzten die Forscher vom Experiment ATLAS, die am CERN zu den Geheimnissen des Universums forschen, unsere Technologie zur Online-Verarbeitung riesiger Datenmengen, was zuerst mit herkömmlichen CPUs (zentralen Verarbeitungseinheiten) angedacht war. Außerhalb der Hochenergiephysik hatten wir uns die Beschleunigung und Automatisierung der Datenverarbeitung für die medizinische Diagnostik zum Ziel gesetzt." So ist das FTK-Projektkonsortium auch im Gespräch mit Unternehmen, die die Technologie für intelligente Kameras und medizinische Bildgebung nutzen wollen. Ein Nachwuchsforscher, der mit einem Marie-Curie-Stipendium in Pisa zu "Magnetresonanz-Fingerprinting" (MRF) forscht, untersucht derzeit, inwieweit sich mit der Technologie Algorithmen für den Mustervergleich beschleunigen lassen. "Mit verbesserter Rechenleistung und –effizienz wird die Technologie vielen Bereichen der Gesellschaft zugutekommen", sagt Prof. Roda. "Sie spart auch Energie und Platz und ist kostengünstiger als große CPU-Farmen. Meiner Meinung nach kann das kommende Problem der Datenfluten durch intelligenten, kombinierten Einsatz von Technologien gelöst werden, ohne dass riesige Mengen an Ressourcen benötigt werden. "

Schlüsselbegriffe

Large Hadron Collider, FTK, Daten, Gehirn, IKT, Klimamodelle

Entdecken Sie Artikel in demselben Anwendungsbereich