Quantum Machines en Nvidia gebruiken machine learning om dichter bij een foutgecorrigeerde kwantumcomputer te komen


Over een anderhalf jaar geledenopstarten van kwantumbeheersing Kwantummachines en Nvidia kondigden een diepgaand partnerschap aan dat Nvidia's zou samenbrengen DGX-kwantum computerplatform en de geavanceerde kwantumbesturingshardware van Quantum Machine. We hoorden een tijdje niet veel over de resultaten van dit partnerschap, maar het begint nu vruchten af ​​te werpen en de industrie een stap dichter bij de heilige graal van een foutgecorrigeerde kwantumcomputer te brengen.

In een presentatie eerder dit jaar lieten de twee bedrijven dat zien ze kunnen een kant-en-klaar versterkingsleermodel gebruiken draait op Nvidia's DGX-platform om de qubits in een Rigetti-kwantumchip beter te controleren door het systeem gekalibreerd te houden.

Yonatan Cohen, mede-oprichter en CTO van Quantum Machines, merkte op hoe zijn bedrijf al lang probeert algemene klassieke rekenmachines te gebruiken om kwantumprocessors te besturen. Die rekenmachines waren klein en beperkt, maar dat is geen probleem met Nvidia's extreem krachtige DGX-platform. De heilige graal, zei hij, is het uitvoeren van kwantumfoutcorrectie. We zijn er nog niet. In plaats daarvan concentreerde deze samenwerking zich op kalibratie, en specifiek op het kalibreren van de zogenaamde “π pulsen'die de rotatie van een qubit in een kwantumprocessor regelen.

Op het eerste gezicht lijkt kalibratie misschien een eenmalig probleem: u kalibreert de processor voordat u het algoritme erop gaat uitvoeren. Maar zo eenvoudig is het niet. “Als je vandaag de dag naar de prestaties van kwantumcomputers kijkt, krijg je een zekere mate van hoge betrouwbaarheid,” zei Cohen. “Maar de gebruikers, wanneer ze de computer gebruiken, zijn doorgaans niet zo betrouwbaar. Het dwaalt de hele tijd af. Als we het regelmatig opnieuw kunnen kalibreren met behulp van dit soort technieken en onderliggende hardware, kunnen we de prestaties verbeteren en de betrouwbaarheid (hoog) houden gedurende een lange tijd, wat nodig zal zijn bij kwantumfoutcorrectie.”

Het alles-in-één OPX+ kwantumbesturingssysteem van Quantum Machine.Beeldcredits:Kwantummachines

Het voortdurend aanpassen van die pulsen in bijna realtime is een extreem rekenintensieve taak, maar omdat een kwantumsysteem altijd iets anders is, is het ook een controleprobleem dat zich leent om opgelost te worden met behulp van versterkend leren.

“Terwijl kwantumcomputers zich uitbreiden en verbeteren, zijn er al deze problemen die knelpunten worden, die echt rekenintensief worden”, zegt Sam Stanwyck, Nvidia's groepsproductmanager voor kwantumcomputing. “Kwantumfoutcorrectie is echt enorm. Dit is nodig om fouttolerante quantum computing te ontsluiten, maar ook om precies de juiste stuurpulsen toe te passen om het maximale uit de qubits te halen.”

Stanwyck benadrukte ook dat er vóór DGX Quantum geen systeem bestond dat de minimale latentie mogelijk maakte die nodig was om deze berekeningen uit te voeren.

Een kwantumcomputerBeeldcredits:Kwantummachines

Het blijkt dat zelfs een kleine verbetering in de kalibratie kan leiden tot enorme verbeteringen in de foutcorrectie. “Het rendement op investeringen in kalibratie in de context van kwantumfoutcorrectie is exponentieel”, legt Quantum Machines Product Manager Ramon Szmuk uit. “Als je 10% beter kalibreert, krijg je een exponentieel betere logische fout (performance) in de logische qubit die uit veel fysieke qubits is opgebouwd. Er is hier dus veel motivatie om heel goed en snel te kalibreren.”

Het is de moeite waard om te benadrukken dat dit nog maar het begin is van dit optimalisatieproces en deze samenwerking. Wat het team hier feitelijk deed, was simpelweg een handvol kant-en-klare algoritmen nemen en kijken welke het beste werkte (TD3in dit geval). Al met al was de daadwerkelijke code voor het uitvoeren van het experiment slechts ongeveer 150 regels lang. Uiteraard is dit afhankelijk van al het werk dat de twee teams ook hebben gedaan om de verschillende systemen te integreren en de softwarestack uit te bouwen. Voor ontwikkelaars kan al die complexiteit echter worden verborgen, en de twee bedrijven verwachten in de loop van de tijd steeds meer open source-bibliotheken te creëren om te profiteren van dit grotere platform.

Szmuk benadrukte dat het team voor dit project alleen met een heel basaal kwantumcircuit heeft gewerkt, maar dat dit ook kan worden gegeneraliseerd naar diepe circuits. Als je dit kunt doen met één poort en één qubit, kun je het ook doen met honderd qubits en duizend poorten”, zei hij.

“Ik zou zeggen dat het individuele resultaat een kleine stap is, maar het is een kleine stap in de richting van het oplossen van de belangrijkste problemen”, voegde Stanwyck eraan toe. “Nuttige kwantumcomputing zal de nauwe integratie van versnelde supercomputing vereisen – en dat zou wel eens de moeilijkste technische uitdaging kunnen zijn. Dus nu we dit in het echt kunnen doen op een kwantumcomputer en een puls kunnen afstemmen op een manier die niet alleen is geoptimaliseerd voor een kleine kwantumcomputer, maar een schaalbaar, modulair platform is, denken we dat we echt op weg zijn om een ​​aantal problemen op te lossen. van de belangrijkste problemen in quantum computing hiermee.”

Stanwyck zei ook dat de twee bedrijven van plan zijn deze samenwerking voort te zetten en deze tools in handen van meer onderzoekers te krijgen. Nu de Blackwell-chips van Nvidia volgend jaar beschikbaar komen, zullen ze voor dit project ook een nog krachtiger computerplatform hebben.



Source link