Quantum Machine Learning am Fraunhofer IIS: Ein Interview mit Dr. Daniel Scherer

21.07.2022 | Der Stand des Quantum Machine Learning am Fraunhofer IIS

Das Fraunhofer IIS arbeitet an den Technologien der Zukunft. Einen gewaltigen Sprung verspricht das Quantencomputing. Speziell im Bereich des Quantum Machine Learning (QML) wird dabei am Fraunhofer IIS erfolgreich geforscht. Worum es sich bei QML eigentlich handelt, wie weit diese Forschung inzwischen fortgeschritten ist und inwiefern man Ergebnisse schon anwenden kann, erfahren sie in diesem Interview.

Herr Dr. Scherer, was zeichnet Quantum Machine Learning aus?

Dr. Daniel Scherer: Kurz gesagt verstehen wir unter Quantum Machine Learning (QML) die Ausnutzung von Quantenressourcen für die Zwecke des Machine Learning. Mit Machine Learning (ML) bezeichnen wir datengetriebene, algorithmische Verfahren zur Erzeugung von Lösungen für z.B. Mustererkennungs-, Klassifikations- oder Entscheidungsproblemen. Quantenressourcen können Quantencomputer für die Daten- bzw. Informationsverarbeitung sein, oder aber auch Kommunikationskanäle, die Eigenschaften von Quantenzuständen zur Übermittlung von Information ausnutzen.

Theoretische Ergebnisse aus dem Bereich des Quantencomputing legen nahe, dass es spezielle Klassen von Problemen gibt, welche ein Quantencomputer, der quantenmechanische Effekte wie Überlagerung, Verschränkung und Interferenz zur Informationsverarbeitung ausnutzt, wesentlich effizienter lösen kann, als es mit konventionellen Rechnerarchitekturen möglich ist. Das relativ junge und dynamische Forschungsfeld des QML beschäftigt sich daher grob gesprochen mit der Frage, ob und wie sich ML-Verfahren durch den Einsatz von Quantencomputern effizienter bzw. akkurater umsetzen lassen.

Was bewegt das Fraunhofer IIS dazu, an Quantencomputern zu arbeiten?

Dr. Daniel Scherer: Quantencomputing ist nach dem Stand der Forschung ein Rechenparadigma unter Ausnutzung von Quanteneffekten, das dem konventionellen Rechenparadigma, dem unsere elektronischen Rechner unterworfen sind, überlegen ist. Auch wenn für die Verfügbarkeit eines idealen (also universellen, fehlertoleranten und -korrigierten) Quantencomputers noch viele Hürden in der Hardwareentwicklung genommen werden müssen, gilt es schon jetzt mögliche Anwendungsfelder zu erschließen und sich mit Algorithmen und Prinzipien z.B. der Programmierung von Quantencomputern vertraut zu machen. Die aktuell verfügbare Quantenhardware wird typischerweise mit dem Schlagwort „NISQ“ für „noisy intermediate-scale quantum“ belegt. Die Hardware hat nur begrenzte Kapazitäten zur Informationsverarbeitung und ist anfällig für Fehler, welche den eigentlichen Berechnungsprozess oder das Auslesen des Berechnungsergebnisses stören können. Dennoch wird spekuliert, dass es Anwendungsfelder gibt, für welche schon NISQ-Quantencomputer einen Vorteil gegenüber konventionellen Rechnern und Algorithmen liefern können. Im Bereich des QML nehmen wir sowohl die mittel- als auch langfristige Perspektive wahr und richten unsere Forschung entsprechend aus, um in Zukunft den Technologietransfer aus der Grundlagenforschung in Anwendung zu ermöglichen und Quantencomputing-basierte Lösungen entwickeln und anbieten zu können.   

Was hebt Konzepte und Lösungen des IIS von der Konkurrenz ab?

Dr. Daniel Scherer: Unsere Forschungsaktivitäten im Bereich des QML fokussieren auf das sogenannte Quantum Reinforcement Learning (QRL), also Reinforcement Learning (RL) unter Ausnutzung von Quantencomputern. Im RL interagiert ein lernender Agent – realisiert durch entsprechende algorithmische Komponenten – mit einer Umgebung, in der ein vorgegebenes Problem zu lösen ist. Von dieser bekommt er nach Ausführung von Aktionen ein entsprechendes Belohnungssignal. Ziel ist, dass der Agent durch so wenig Interaktion wie möglich mehr oder weniger autonom eine optimale Lösungsstrategie für das vorgegebene Problem findet. Aktuell legen wir den Schwerpunkt auf die Erforschung des Einsatzes von NISQ-Quantencomputern für diese Zwecke, schauen aber auch in die Zukunft, welche Typen von Quantenalgorithmen mit zukünftiger Hardware möglich wären. Durch unsere Kooperation mit Industriepartnern in entsprechenden Verbundprojekten können wir frühzeitig Anforderungen der industriellen Anwendung in unsere Algorithmen- und Software-Entwicklung einfließen lassen. Ebenso wichtig ist hier die sorgfältige Entwicklung von Benchmarking-Pipelines, die es uns ermöglichen, RL-Algorithmen untereinander sinnvoll zu vergleichen, und im Vergleich von RL- und QRL-Algorithmen mögliche Quantenvorteile zu identifizieren.

Wie weit ist die Forschung fortgeschritten?

Dr. Daniel Scherer: Die oben schon angesprochene Dichotomie in der Hardware, d.h. NISQ- vs. universelle, fehlertolerante und –korrigierte Quantencomputer, spiegelt sich auch auf der Ebene der Algorithmen wieder. Während die Algorithmen für die nahezu ideale, zukünftige Hardware, sehr gut erforscht sind und beweisbare Quantenvorteile mit sich bringen, sind NISQ-Algorithmen weit weniger gut erforscht, und häufig lassen sich von theoretischer Seite keine, oder nur sehr schwache Aussagen über mögliche Quantenvorteile machen. Während es insbesondere im Bereich des QML in den letzten Jahren Fortschritte beim Verständnis der Eigenschaften von sogenannten variationellen Quantenalgorithmen, die quasi für NISQ-Quantencomputer maßgeschneidert sind und auf welchen auch unser Forschungsschwerpunkt liegt, gegeben hat, bleiben starke Aussagen zu möglichen Quantenvorteilen bisher aus. Hier verfolgen wir die Entwicklungen in der akademischen Forschung sehr genau und stehen auch in regelmäßigem Austausch mit universitären Partnern. In unserer eigenen Forschung nehmen Aspekte wie die Kodierung von klassischer Information – also die Daten, die für das ML unabdingbar sind – in die Quantenalgorithmen sowie das Auslesen von Information einen großen Stellenwert ein. Hier liegt eine der großen Stellschrauben für die Leistungsfähigkeit von QML-Algorithmen. Perspektivisch wollen wir das Design von Kodierungs- und Dekodierungsstrategien basierend auf quanteninformationstheoretischen Kriterien, ebenso wie weitere Aspekte des Quantenalgorithmen-Designs, automatisieren und skalierbar machen. Aber auch auf der Seite des Software-Engineering gibt es Herausforderungen zu meistern. So spielen Reproduzierbarkeit von Ergebnissen, Zugriffsmodelle auf die Quantenhardware, optimiertes Job-Scheduling, optimierte Ausnutzung von Quantenressourcen uvm. eine entscheidende Rolle bei der Entwicklung unserer Methoden.

Inwiefern könnten diese Forschungsergebnisse angewendet werden?

Dr. Daniel Scherer: Da es zu QML basierend auf variationellen Quantenschaltkreisen aktuell noch keine starken Aussagen zu Quantenvorteilen gibt, bleibt die Frage nach der „QML Killer-App“ zum jetzigen Zeitpunkt leider offen. Wir richten unsere Forschungsbemühungen auf verschiedene Anwendungsprobleme, von der Steuerung industrieller Prozesse hin zur datengetriebenen Erlernung von Strategien zur optimierten Ausnutzung von Antennenarrays für Mobilfunkanwendungen. Erst durch systematische Skalierung der Problemgrößen und Analyse der Leistung unserer Quantenalgorithmen werden mögliche Quantenvorteile sichtbar werden.

Einzig für die Klasse der nativen Quantenanwendungen, also Simulationen von Quantensystemen, bspw. Molekülen in der Pharmazeutischen Forschung, gibt es stärkere Indikationen auf Quantenvorteile mit NISQ-Hardware und variationellen Algortihmen. Hier gilt es, ein intrinsisch quantenmechanisches Problem mithilfe eines Quantencomputers zu lösen. Da wir auch an Methoden forschen, wie sich klassische ML- und RL-Verfahren einsetzen lassen, um komplexe Berechnungsprobleme anzugehen, die beim Einsatz von Quantencomputern anfallen, beschäftigen wir uns auch mit der Frage, inwieweit diese Probleme sich als „native Quantenanwendung“ formulieren und mit QML-Methoden bearbeiten lassen. Wir wollen also QML einsetzen, um zur Entwicklung leistungsfähigerer Quantencomputer beizutragen.

Zuletzt noch ein kleiner Blick in die Zukunft: Wie weit sind wir von einem idealen Quantencomputer entfernt?

Dr. Daniel Scherer: Ich glaube, es ist immer noch schwer abzuschätzen, wie weit man davon entfernt ist. Bis zu bestimmten Problemgrößen ist das konventionelle Rechenparadigma, nach dem unsere Computer und Supercomputer arbeiten, immer noch ausreichend. Erst wenn man dann über diese Problemgröße hinauswill, wird sich der Einsatz von Quantencomputern lohnen. Wenn es um Quantensimulationen von z.B. Molekülen geht, glaube ich allerdings, dass wir gar nicht so weit von fehlerkorrigiertem Quantencomputing entfernt sind. Dort könnte eine Größenordnung von etwa 100 logischen, also fehlerkorrigierten Qubits wohl ausreichen, um langsam in den Bereich des Quantenvorteils vorzustoßen.

Sehr geehrter Herr Dr. Scherer, vielen Dank für das Gespräch

 

Das könnte sie auch interessieren

 

Die Zukunftsinitiativen des Fraunhofer IIS

 

Serie: Quantentechnologien

 

Quantentechnologien

BayQS – Bayerisches Kompetenzzentrum Quanten Security and Data Science

 

Quantentechnologien

QLindA – Quantum Reinforcement Learning

Kontakt

Sie haben Fragen, Kommentare oder Anmerkungen zum Fraunhofer IIS Magazin?

Schreiben Sie uns eine E-Mail.

Immer informiert

Der Newsletter zum Magazin

Abonnieren Sie den Newsletter des Fraunhofer IIS Magazins und erhalten Sie alle neuen Themen kompakt per Mail.

Startseite

Zurück zur Startseite des Fraunhofer IIS Magazins