Der Horizont des Früheren - und darüber hinaus ...
der Technik

Der Horizont des Früheren - und darüber hinaus ...

Einerseits sollen sie uns helfen, Krebs zu besiegen, das Wetter genau vorherzusagen und die Kernfusion zu meistern. Andererseits besteht die Befürchtung, dass sie globale Zerstörung anrichten oder die Menschheit versklaven werden. Allerdings sind die Rechenmonster derzeit noch nicht in der Lage, gleichzeitig großes Gutes und universelles Böses zu bewirken.

In den 60er Jahren verfügten die effizientesten Computer über die nötige Leistung Megaflops (Millionen Gleitkommaoperationen pro Sekunde). Erster Computer mit Rechenleistung oben 1 GFLOPS (Gigaflops) war Kray 2, produziert von Cray Research im Jahr 1985. Das erste Modell mit Rechenleistung über 1 TFLOPS (Teraflops) war ASCI-Rot, 1997 von Intel entwickelt. Leistung 1 PFLOPS (Petaflops) erreicht Roadrunner, veröffentlicht von IBM im Jahr 2008.

Der aktuelle Rechenleistungsrekord gehört dem chinesischen Sunway TaihuLight und liegt bei 9 PFLOPS.

Obwohl, wie Sie sehen, die leistungsstärksten Maschinen noch nicht Hunderte von Petaflops erreicht haben, werden es immer mehr Exascale-Systemewobei die Leistung berücksichtigt werden muss exaflopsach (EFLOPS), d.h. etwa mehr als 1018 Operationen pro Sekunde. Allerdings befinden sich solche Entwürfe noch immer im Stadium von Projekten unterschiedlicher Komplexität.

ERMÄSSIGUNGEN (, Gleitkommaoperationen pro Sekunde) ist eine Einheit der Rechenleistung, die hauptsächlich in wissenschaftlichen Anwendungen verwendet wird. Er ist vielseitiger als der bisher verwendete MIPS-Block, also die Anzahl der Prozessorbefehle pro Sekunde. Ein Flop ist kein SI, kann aber als Einheit von 1/s interpretiert werden.

Sie benötigen eine Exa-Skala für Krebs

Ein Exaflop oder tausend Petaflops ist mehr als alle XNUMX besten Supercomputer zusammen. Wissenschaftler hoffen, dass eine neue Generation von Maschinen mit dieser Leistung Durchbrüche in verschiedenen Bereichen bringen wird.

Exascale-Rechenleistung gepaart mit schnell fortschreitenden Machine-Learning-Technologien soll beispielsweise endlich helfen Knacken Sie den Krebscode. Die Datenmenge, über die Ärzte zur Diagnose und Behandlung von Krebs verfügen müssen, ist so groß, dass herkömmliche Computer diese Aufgabe nur schwer bewältigen können. In einer typischen Einzeltumorbiopsiestudie werden mehr als 8 Millionen Messungen durchgeführt, bei denen Ärzte das Verhalten des Tumors, seine Reaktion auf eine pharmakologische Behandlung und die Auswirkungen auf den Körper des Patienten analysieren. Das ist ein wahrer Ozean an Daten.

sagte Rick Stevens vom Argonne Laboratory des US-Energieministeriums (DOE). -

Wissenschaftler arbeiten daran, medizinische Forschung mit Rechenleistung zu kombinieren CANDLE neuronales Netzwerksystem (). Dadurch können Sie einen Behandlungsplan vorhersagen und entwickeln, der auf die individuellen Bedürfnisse jedes Patienten zugeschnitten ist. Dies wird Wissenschaftlern helfen, die molekularen Grundlagen wichtiger Proteininteraktionen zu verstehen, prädiktive Modelle für die Arzneimittelwirkung zu entwickeln und optimale Behandlungsstrategien vorzuschlagen. Argonne geht davon aus, dass Exascale-Systeme die CANDLE-Anwendung 50- bis 100-mal schneller ausführen können als die leistungsstärksten heute bekannten Supermaschinen.

Daher freuen wir uns auf das Erscheinen von Exascale-Supercomputern. Allerdings werden die ersten Versionen nicht unbedingt in den USA erscheinen. Natürlich sind die USA im Rennen um ihre Schaffung und die lokale Regierung bei einem Projekt namens Polarlicht kooperiert mit AMD, IBM, Intel und Nvidia und strebt danach, ausländischen Konkurrenten einen Schritt voraus zu sein. Damit ist jedoch nicht vor 2021 zu rechnen. Unterdessen kündigten chinesische Experten im Januar 2017 die Erstellung eines Exascale-Prototyps an. Ein voll funktionsfähiges Modell einer solchen Recheneinheit ist − Tianhe-3 - es ist jedoch unwahrscheinlich, dass es in den nächsten Jahren fertig sein wird.

Die Chinesen halten fest

Tatsache ist, dass chinesische Entwicklungen seit 2013 die Liste der leistungsstärksten Computer der Welt anführen. Er dominierte jahrelang Tianhe-2und jetzt gehört die Palme zu den genannten Sunway TaihuLight. Es wird angenommen, dass diese beiden leistungsstärksten Maschinen im Reich der Mitte viel leistungsfähiger sind als alle einundzwanzig Supercomputer im US-Energieministerium.

Amerikanische Wissenschaftler wollen natürlich ihre Spitzenposition von vor fünf Jahren wiedererlangen und arbeiten an einem System, das ihnen dies ermöglicht. Es wird im Oak Ridge National Laboratory in Tennessee gebaut. Gipfel (2), ein Supercomputer, dessen Inbetriebnahme noch in diesem Jahr geplant ist. Es übertrifft die Leistung von Sunway TaihuLight. Damit sollen neue Materialien getestet und entwickelt werden, die stärker und leichter sind, das Erdinnere mithilfe akustischer Wellen simuliert werden und Astrophysikprojekte zur Erforschung des Ursprungs des Universums unterstützt werden.

2. Raumplan des Summit-Supercomputers

Im erwähnten Argonne National Laboratory planen Wissenschaftler bald den Bau eines noch schnelleren Geräts. Bekannt als A21Die Leistung soll 200 Petaflops erreichen.

Auch Japan nimmt am Supercomputer-Rennen teil. Obwohl es in letzter Zeit etwas von der Rivalität zwischen den USA und China überschattet wurde, ist es dieses Land, das den Start plant ABC-System () und bietet eine Leistung von 130 Petaflops. Die Japaner hoffen, dass mit einem solchen Supercomputer KI (künstliche Intelligenz) oder Deep Learning entwickelt werden kann.

Unterdessen hat das Europäische Parlament gerade den Bau eines EU-Milliarden-Supercomputers beschlossen. Dieses Rechenmonster wird zum Jahreswechsel 2022/2023 seine Arbeit für die Forschungszentren unseres Kontinents aufnehmen. Die Maschine wird darin gebaut EuroGPK-Projektund sein Bau wird von den Mitgliedstaaten finanziert – also wird sich auch Polen an diesem Projekt beteiligen. Seine prognostizierte Leistung wird allgemein als "Pre-Exascale" bezeichnet.

Bisher verfügt China laut der Rangliste von 2017 von den fünfhundert schnellsten Supercomputern der Welt über 202 solcher Maschinen (40 %), während Amerika 144 (29 %) kontrolliert.

China nutzt außerdem 35 % der weltweiten Rechenleistung, verglichen mit 30 % in den USA. Die nächsten Länder mit den meisten Supercomputern auf der Liste sind Japan (35 Systeme), Deutschland (20), Frankreich (18) und das Vereinigte Königreich (15). Es ist erwähnenswert, dass alle fünfhundert der leistungsstärksten Supercomputer unabhängig vom Herkunftsland unterschiedliche Versionen von Linux verwenden ...

Sie entwerfen sich selbst

Supercomputer sind bereits ein wertvolles Werkzeug zur Unterstützung der Wissenschafts- und Technologieindustrie. Sie ermöglichen Forschern und Ingenieuren stetige Fortschritte (und manchmal sogar große Fortschritte) in Bereichen wie Biologie, Wetter- und Klimavorhersage, Astrophysik und Atomwaffen.

Der Rest hängt von ihrer Macht ab. Der Einsatz von Supercomputern kann in den nächsten Jahrzehnten die wirtschaftliche, militärische und geopolitische Situation derjenigen Länder erheblich verändern, die Zugang zu dieser Art hochmoderner Infrastruktur haben.

Der Fortschritt auf diesem Gebiet ist so schnell, dass die Entwicklung neuer Generationen von Mikroprozessoren selbst für zahlreiche Humanressourcen bereits zu schwierig geworden ist. Aus diesem Grund spielen fortschrittliche Computersoftware und Supercomputer zunehmend eine führende Rolle bei der Entwicklung von Computern, auch solchen mit dem Präfix „Super“.

3. Japanischer Supercomputer

Pharmaunternehmen werden dank Rechenleistung bald voll funktionsfähig sein Verarbeitung einer großen Anzahl menschlicher Genome, Tiere und Pflanzen, die dazu beitragen werden, neue Medikamente und Behandlungen für verschiedene Krankheiten zu entwickeln.

Ein weiterer Grund (eigentlich einer der Hauptgründe), warum Regierungen so viel in die Entwicklung von Supercomputern investieren. Effizientere Fahrzeuge werden zukünftigen Militärführern dabei helfen, klare Kampfstrategien in jeder Kampfsituation zu entwickeln, die Entwicklung effektiverer Waffensysteme zu ermöglichen und auch Strafverfolgungs- und Geheimdienste dabei zu unterstützen, potenzielle Bedrohungen im Voraus zu erkennen.

Nicht genug Leistung für eine Gehirnsimulation

Neue Supercomputer sollen dabei helfen, den uns schon lange bekannten natürlichen Supercomputer zu entschlüsseln – das menschliche Gehirn.

Ein internationales Wissenschaftlerteam hat kürzlich einen Algorithmus entwickelt, der einen wichtigen neuen Schritt bei der Modellierung der neuronalen Verbindungen des Gehirns darstellt. Neu NICHT-Algorithmus, beschrieben in einem Open-Access-Artikel, der in Frontiers in Neuroinformatics veröffentlicht wurde, soll 100 Milliarden miteinander verbundene Neuronen im menschlichen Gehirn auf Supercomputern simulieren. An der Arbeit waren Wissenschaftler des deutschen Forschungszentrums Jülich, der norwegischen Universität für Biowissenschaften, der Universität Aachen, des japanischen RIKEN-Instituts und der KTH Royal Institute of Technology in Stockholm beteiligt.

Seit 2014 laufen auf den Supercomputern RIKEN und JUQUEEN am Rechenzentrum Jülich in Deutschland groß angelegte neuronale Netzwerksimulationen, die die Verbindungen von etwa 1 % der Neuronen im menschlichen Gehirn simulieren. Warum nur so viele? Können Supercomputer das gesamte Gehirn simulieren?

Susanne Kunkel vom schwedischen Unternehmen KTH erklärt.

Bei der Simulation muss an etwa alle 100 Menschen ein neuronales Aktionspotential (kurze elektrische Impulse) gesendet werden. Kleine Computer, sogenannte Knoten, sind jeweils mit einer Reihe von Prozessoren ausgestattet, die die eigentlichen Berechnungen durchführen. Jeder Knoten prüft, welche dieser Impulse mit den in diesem Knoten vorhandenen virtuellen Neuronen zusammenhängen.

4. Modellierung der Gehirnverbindungen von Neuronen, d.h. wir stehen erst am Anfang der Reise (1%)

Offensichtlich steigt die Menge an Computerspeicher, die Prozessoren für diese zusätzlichen Bits pro Neuron benötigen, mit der Größe des neuronalen Netzwerks. Um über die 1 %-Simulation des gesamten menschlichen Gehirns hinauszugehen (4), wäre dies erforderlich XNUMX-mal mehr Speicher als das, was heute in allen Supercomputern verfügbar ist. Von einer Simulation des gesamten Gehirns kann daher erst im Zusammenhang mit künftigen Exascale-Supercomputern gesprochen werden. Hier sollte der NEST-Algorithmus der nächsten Generation funktionieren.

TOP-5-Supercomputer der Welt

1. Sunway TaihuLight – Ein 93-PFLOPS-Supercomputer, der 2016 in Wuxi, China, gestartet wurde. Seit Juni 2016 führt er die TOP500-Liste der Supercomputer mit der höchsten Rechenleistung der Welt an.

2. Tianhe-2 (Milchstraße-2) ist ein von NUDT () in China gebauter Supercomputer mit einer Rechenleistung von 33,86 PFLOPS. Ab Juni 2013

Bis Juni 2016 war er der schnellste Supercomputer der Welt.

3. Piz Daint - ein von Cray entwickeltes Design, installiert am Swiss National Supercomputing Centre (). Es wurde kürzlich aktualisiert - Nvidia Tesla K20X-Beschleuniger wurden durch neue Tesla P100 ersetzt, wodurch die Rechenleistung im Sommer 2017 von 9,8 auf 19,6 PFLOPS gesteigert werden konnte.

4. Gyokou ist ein von ExaScaler und PEZY Computing entwickelter Supercomputer. Angesiedelt bei der Japan Agency for Marine Science and Technology (JAMSTEC) des Yokohama Institute of Geosciences; auf der gleichen Etage wie der Erdsimulator. Leistung: 19,14 PFLOPs.

5. Titan ist ein 17,59 PFLOPS Supercomputer, hergestellt von Cray Inc. und wurde im Oktober 2012 am Oak Ridge National Laboratory in den Vereinigten Staaten eingeführt. Von November 2012 bis Juni 2013 war Titan der schnellste Supercomputer der Welt. Er liegt derzeit auf dem fünften Platz, ist aber immer noch der schnellste Supercomputer der USA.

Sie konkurrieren auch um die Vorherrschaft im Quantenbereich

IBM geht davon aus, dass in den nächsten fünf Jahren keine Supercomputer auf Basis herkömmlicher Siliziumchips, sondern die Ausstrahlung beginnen werden. Laut den Forschern des Unternehmens beginnt die Branche gerade erst zu verstehen, wie Quantencomputer eingesetzt werden können. Ingenieure werden voraussichtlich in nur fünf Jahren die ersten großen Anwendungen für diese Maschinen entdecken.

Quantencomputer verwenden eine Recheneinheit namens eine Elle. Gewöhnliche Halbleiter stellen Informationen in Form von Folgen von 1 und 0 dar, während Qubits Quanteneigenschaften aufweisen und gleichzeitig Berechnungen als 1 und 0 durchführen können. Das bedeutet, dass zwei Qubits gleichzeitig Folgen von 1-0, 1-1, 0-1 darstellen können . ., 0-0. Die Rechenleistung wächst mit jedem Qubit exponentiell, sodass ein Quantencomputer mit nur 50 Qubits theoretisch mehr Rechenleistung haben könnte als die leistungsstärksten Supercomputer der Welt.

D-Wave Systems verkauft bereits einen Quantencomputer, von dem es angeblich 2 gibt. Qubits. Jedoch D-Wav-Kopiene(5) sind umstritten. Obwohl einige Forscher sie sinnvoll eingesetzt haben, haben sie klassische Computer immer noch nicht übertroffen und sind nur für bestimmte Klassen von Optimierungsproblemen nützlich.

5. D-Wave-Quantencomputer

Vor einigen Monaten stellte das Google Quantum AI Lab einen neuen 72-Qubit-Quantenprozessor namens vor Borstenkegel (6). Er könnte bald die „Quantenüberlegenheit“ erreichen und einen klassischen Supercomputer zumindest bei der Lösung einiger Probleme übertreffen. Wenn ein Quantenprozessor im Betrieb eine ausreichend niedrige Fehlerrate aufweist, kann er effizienter sein als ein klassischer Supercomputer mit einer klar definierten IT-Aufgabe.

6. Bristlecone 72-Qubit-Quantenprozessor

Als nächstes folgte der Google-Prozessor, denn im Januar kündigte beispielsweise Intel sein eigenes 49-Qubit-Quantensystem an, und zuvor stellte IBM eine 50-Qubit-Version vor. Intel-Chip, Loihi, es ist auch in anderer Hinsicht innovativ. Es ist der erste „neuromorphe“ integrierte Schaltkreis, der die Art und Weise nachahmen soll, wie das menschliche Gehirn lernt und versteht. Es sei „voll funktionsfähig“ und werde Forschungspartnern noch in diesem Jahr zur Verfügung stehen.

Dies ist jedoch nur der Anfang, denn um mit Siliziummonstern umgehen zu können, braucht man z Millionen Qubits. Eine Gruppe von Wissenschaftlern an der niederländischen Technischen Universität in Delft hofft, dass der Weg zu einer solchen Größenordnung der Einsatz von Silizium in Quantencomputern ist, denn ihre Mitglieder haben eine Lösung gefunden, wie man Silizium zur Entwicklung eines programmierbaren Quantenprozessors nutzen kann.

In ihrer in der Fachzeitschrift Nature veröffentlichten Studie kontrollierte das niederländische Team die Rotation eines einzelnen Elektrons mithilfe von Mikrowellenenergie. In Silizium würde sich das Elektron gleichzeitig auf und ab drehen und es so effektiv an Ort und Stelle halten. Nachdem das geschafft war, verband das Team zwei Elektronen miteinander und programmierte sie so, dass sie Quantenalgorithmen ausführen.

Es war möglich, auf Basis von Silizium herzustellen Zwei-Bit-Quantenprozessor.

Dr. Tom Watson, einer der Autoren der Studie, erklärte gegenüber der BBC. Sollte es Watson und seinem Team gelingen, noch mehr Elektronen zu verschmelzen, könnte es zu einer Rebellion kommen. Qubit-ProzessorenDamit kommen wir den Quantencomputern der Zukunft einen Schritt näher.

- Wer einen voll funktionsfähigen Quantencomputer baut, wird die Welt beherrschen sagte Manas Mukherjee von der National University of Singapore und leitender Forscher am National Centre for Quantum Technology kürzlich in einem Interview. Der Wettlauf zwischen den größten Technologieunternehmen und Forschungslabors konzentriert sich derzeit auf die sogenannten Quantenüberlegenheit, der Punkt, an dem ein Quantencomputer Berechnungen durchführen kann, die über alles hinausgehen, was die fortschrittlichsten modernen Computer bieten können.

Die oben genannten Beispiele für die Erfolge von Google, IBM und Intel zeigen, dass Unternehmen aus den USA (und damit dem Bundesstaat) in diesem Bereich dominieren. Chinas Alibaba Cloud hat jedoch kürzlich eine Cloud-Computing-Plattform auf Basis eines 11-Qubit-Prozessors veröffentlicht, die es Wissenschaftlern ermöglicht, neue Quantenalgorithmen zu testen. Dies bedeutet, dass China auch im Bereich der Quantencomputerblöcke die Birnen nicht mit Asche bedeckt.

Die Bemühungen, Quanten-Supercomputer zu schaffen, begeistern jedoch nicht nur mit neuen Möglichkeiten, sondern sorgen auch für Kontroversen.

Vor einigen Monaten, während der Internationalen Konferenz über Quantentechnologien in Moskau, sagte Alexander Lvovsky (7) vom Russian Quantum Center, der auch Professor für Physik an der Universität von Calgary in Kanada ist, dass Quantencomputer Zerstörungswerkzeugohne zu erschaffen.

7. Professor Alexander Lvovsky

Was hat er gemeint? Zunächst einmal die digitale Sicherheit. Derzeit werden alle über das Internet übertragenen sensiblen digitalen Informationen verschlüsselt, um die Privatsphäre interessierter Parteien zu schützen. Wir haben bereits Fälle gesehen, in denen Hacker diese Daten abfangen konnten, indem sie die Verschlüsselung knackten.

Laut Lvov wird das Erscheinen eines Quantencomputers es Cyberkriminellen nur leichter machen. Kein heute bekanntes Verschlüsselungstool kann sich vor der Rechenleistung eines echten Quantencomputers schützen.

Krankenakten, Finanzinformationen und sogar die Geheimnisse von Regierungen und Militärorganisationen wären in einem Topf verfügbar, was laut Lvovsky bedeuten würde, dass neue Technologien die gesamte Weltordnung bedrohen könnten. Andere Experten halten die Befürchtungen der Russen für unbegründet, da auch die Schaffung eines echten Quanten-Supercomputers möglich sein wird Quantenkryptographie initiierengilt als unzerstörbar.

Ein anderer Ansatz

Neben klassischen Computertechnologien und der Entwicklung von Quantensystemen arbeiten verschiedene Zentren an weiteren Methoden zum Bau von Supercomputern der Zukunft.

Die amerikanische Agentur DARPA finanziert sechs Zentren für alternative Computerdesignlösungen. Die in modernen Maschinen verwendete Architektur wird üblicherweise als bezeichnet Architektur von NeumannOh, er ist schon siebzig Jahre alt. Die Unterstützung der Verteidigungsorganisation für Universitätsforscher zielt darauf ab, einen intelligenteren Ansatz für den Umgang mit großen Datenmengen als je zuvor zu entwickeln.

Pufferung und paralleles Rechnen Hier sind einige Beispiele für die neuen Methoden, an denen diese Teams arbeiten. Ein anderer ADA (), das die Anwendungsentwicklung vereinfacht, indem CPU- und Speicherkomponenten mit Modulen in einer Baugruppe zusammengefasst werden, anstatt sich mit Problemen ihrer Verbindung auf dem Motherboard zu befassen.

Letztes Jahr hat ein Forscherteam aus Großbritannien und Russland diesen Typ erfolgreich nachgewiesen "Magischer Staub"aus denen sie bestehen Licht und Materie - letztendlich sogar den leistungsstärksten Supercomputern in "Leistung" überlegen.

Wissenschaftler der britischen Universitäten Cambridge, Southampton und Cardiff sowie des russischen Skolkovo-Instituts verwendeten Quantenteilchen namens von Polaritonwas als etwas zwischen Licht und Materie definiert werden kann. Dies ist ein völlig neuer Ansatz für Computer-Computing. Laut Wissenschaftlern könnte es die Grundlage für einen neuartigen Computer bilden, der derzeit unlösbare Fragen lösen kann – in verschiedenen Bereichen wie Biologie, Finanzen und Raumfahrt. Die Ergebnisse der Studie werden in der Fachzeitschrift Nature Materials veröffentlicht.

Bedenken Sie, dass heutige Supercomputer nur einen kleinen Teil der Probleme bewältigen können. Selbst ein hypothetischer Quantencomputer wird, wenn er endlich gebaut wird, bestenfalls eine quadratische Beschleunigung bei der Lösung der komplexesten Probleme bieten. In der Zwischenzeit werden die Polaritonen, die „Feenstaub“ erzeugen, durch die Aktivierung von Schichten aus Gallium-, Arsen-, Indium- und Aluminiumatomen mit Laserstrahlen erzeugt.

Die Elektronen in diesen Schichten absorbieren und emittieren Licht einer bestimmten Farbe. Polaritonen sind zehntausendmal leichter als Elektronen und können eine ausreichende Dichte erreichen, um einen neuen Materiezustand, den sogenannten, zu erzeugen Bose-Einstein-Kondensat (8). Die darin enthaltenen Quantenphasen der Polaritonen sind synchronisiert und bilden ein einziges makroskopisches Quantenobjekt, das durch Photolumineszenzmessungen nachgewiesen werden kann.

8. Diagramm, das ein Bose-Einstein-Kondensat zeigt

Es stellt sich heraus, dass in diesem speziellen Zustand ein Polaritonenkondensat das Optimierungsproblem, das wir bei der Beschreibung von Quantencomputern erwähnt haben, viel effizienter lösen kann als Qubit-basierte Prozessoren. Die Autoren britisch-russischer Studien haben gezeigt, dass sich bei der Kondensation der Polaritonen ihre Quantenphasen in einer Konfiguration anordnen, die dem absoluten Minimum einer komplexen Funktion entspricht.

„Wir stehen am Anfang der Erforschung des Potenzials von Polaritondiagrammen zur Lösung komplexer Probleme“, schreibt Nature Materials-Co-Autor Prof. Pavlos Lagoudakis, Leiter des Hybrid Photonics Laboratory an der University of Southampton. „Wir skalieren derzeit unser Gerät auf Hunderte von Knoten und testen gleichzeitig die zugrunde liegende Rechenleistung.“

In diesen Experimenten aus der Welt der subtilen Quantenphasen von Licht und Materie scheinen selbst Quantenprozessoren etwas Unbeholfenes und fest mit der Realität verbunden zu sein. Wie Sie sehen, arbeiten Wissenschaftler nicht nur an den Supercomputern von morgen und den Maschinen von übermorgen, sondern planen bereits, was übermorgen passieren wird.

An diesem Punkt wird das Erreichen der Exa-Skala eine ziemliche Herausforderung sein, dann werden Sie über die nächsten Meilensteine ​​auf der Flop-Skala (9) nachdenken. Wie Sie vielleicht schon vermutet haben, reicht es nicht aus, nur Prozessoren und Arbeitsspeicher hinzuzufügen. Glaubt man den Wissenschaftlern, können wir mit einer derart hohen Rechenleistung die uns bekannten Megaprobleme lösen, etwa die Entschlüsselung von Krebs oder die Analyse astronomischer Daten.

9. Die Zukunft des Supercomputings

Ordnen Sie der Frage die Antwort zu

Was kommt als nächstes?

Nun, im Fall von Quantencomputern stellt sich die Frage, wofür sie eingesetzt werden sollen. Ein altes Sprichwort besagt, dass Computer Probleme lösen, die es ohne sie nicht gäbe. Daher sollten wir wahrscheinlich zuerst diese futuristischen Supermaschinen bauen. Dann entstehen von selbst Probleme.

In welchen Bereichen können Quantencomputer nützlich sein?

Künstliche Intelligenz. AI () funktioniert nach dem Prinzip des Lernens durch Erfahrung, das mit dem Erhalt von Feedback immer genauer wird und das Computerprogramm „intelligent“ wird. Das Feedback basiert auf Berechnungen der Wahrscheinlichkeiten einer Reihe möglicher Optionen. Wir wissen bereits, dass beispielsweise Lockheed Martin plant, mit seinem D-Wave-Quantencomputer Autopilot-Software zu testen, die derzeit für klassische Computer zu komplex ist, und Google einen Quantencomputer verwendet, um Software zu entwickeln, die Autos von Orientierungspunkten unterscheiden kann.

Molekulare Modellierung. Dank Quantencomputern wird es möglich sein, molekulare Wechselwirkungen genau zu modellieren und nach den optimalen Konfigurationen für chemische Reaktionen zu suchen. Die Quantenchemie ist so komplex, dass moderne digitale Computer nur die einfachsten Moleküle analysieren können. Chemische Reaktionen sind Quantennatur, weil sie stark verschränkte Quantenzustände erzeugen, die einander überlappen, sodass ausgereifte Quantencomputer selbst die komplexesten Prozesse problemlos auswerten können. Google hat in diesem Bereich bereits Entwicklungen – sie haben das Wasserstoffmolekül modelliert. Das Ergebnis werden effizientere Produkte sein, von Solarmodulen bis hin zu Medikamenten.

Kryptographie. Sicherheitssysteme sind heute auf eine effiziente Primärerzeugung angewiesen. Dies kann mit digitalen Computern erreicht werden, indem alle möglichen Faktoren berücksichtigt werden. Der schiere Zeitaufwand dafür macht es jedoch kostspielig und unpraktisch, „den Code zu knacken“. Mittlerweile können Quantencomputer dies exponentiell und effizienter tun als digitale Maschinen, was bedeutet, dass die heutigen Sicherheitsmethoden bald überholt sein werden. Es werden auch vielversprechende Quantenverschlüsselungsmethoden entwickelt, um die unidirektionale Natur der Quantenverschränkung auszunutzen. Stadtweite Netzwerke wurden bereits in mehreren Ländern demonstriert, und chinesische Wissenschaftler gaben kürzlich bekannt, dass sie verschränkte Photonen erfolgreich von einem umlaufenden „Quanten“-Satelliten zu drei separaten Basisstationen zurück zur Erde schicken.

Finanzmodellierung. Moderne Märkte gehören zu den komplexesten Systemen überhaupt. Obwohl der wissenschaftliche und mathematische Apparat zu ihrer Beschreibung und Kontrolle entwickelt ist, ist die Wirksamkeit solcher Aktivitäten aufgrund des grundlegenden Unterschieds zwischen den wissenschaftlichen Disziplinen immer noch weitgehend unzureichend: Es gibt keine kontrollierte Umgebung, in der Experimente durchgeführt werden können. Um dieses Problem zu lösen, haben sich Investoren und Analysten dem Quantencomputing zugewandt. Ein unmittelbarer Vorteil besteht darin, dass die den Quantencomputern innewohnende Zufälligkeit mit der stochastischen Natur der Finanzmärkte übereinstimmt. Anleger möchten häufig die Verteilung der Ergebnisse in einer sehr großen Anzahl zufällig generierter Szenarien bewerten.

Wettervorhersage. NOAA-Chefökonom Rodney F. Weiher behauptet, dass fast 30 % des US-BIP (6 Billionen US-Dollar) direkt oder indirekt vom Wetter abhängig sind. für Lebensmittelproduktion, Transport und Einzelhandel. Daher wäre die Möglichkeit, die Aura besser vorhersagen zu können, in vielen Bereichen sehr nützlich, ganz zu schweigen von der längeren Zeit, die für den Schutz vor Naturkatastrophen vorgesehen ist. Die nationale meteorologische Abteilung des Vereinigten Königreichs, das Met Office, hat bereits damit begonnen, in solche Innovationen zu investieren, um den Leistungs- und Skalierbarkeitsbedarf zu decken, den sie ab 2020 bewältigen muss, und hat einen Bericht über ihren eigenen Exascale-Computing-Bedarf veröffentlicht.

Teilchenphysik. Modelle der Festkörperteilchenphysik sind oft äußerst komplexe, komplizierte Lösungen, die viel Rechenzeit für numerische Simulationen erfordern. Das macht sie ideal für Quantencomputing, und Wissenschaftler haben bereits davon profitiert. Forscher der Universität Innsbruck und des Instituts für Quantenoptik und Quanteninformation (IQOQI) nutzten kürzlich ein programmierbares Quantensystem, um diese Simulation durchzuführen. Laut einer Veröffentlichung in Nature verwendete die Gruppe eine einfache Version eines Quantencomputers, in dem Ionen logische Operationen ausführten, die grundlegenden Schritte jeder Computerberechnung. Die Simulation zeigte vollständige Übereinstimmung mit den realen Experimenten der beschriebenen Physik. sagt der theoretische Physiker Peter Zoller. - 

Kommentar hinzufügen