Mar 26, 2026

Optische Verbindung für die Disaggregation von Rechenzentren

Eine Nachricht hinterlassen

Durch die Disaggregation von Rechenzentren werden Rechenleistung, Speicher, Speicher und Netzwerk in unabhängige, gepoolte Ressourcen getrennt, anstatt sie innerhalb fester Servergrenzen zu sperren. Durch diese Trennung entsteht eine neue architektonische Abhängigkeit: Die Verbindungsschicht zwischen diesen Pools muss genügend Bandbreite, eine ausreichend niedrige Latenz und eine ausreichende Reichweite bereitstellen, damit sich das gesamte System wie eine koordinierte Struktur verhält. Optische Verbindungen sind die Transporttechnologie, die diese Rolle zunehmend übernimmt -, insbesondere dort, wo Kupferverbindungen an physische Grenzen hinsichtlich Entfernung, Leistung und Signalintegrität stoßen.

In diesem Artikel wird erläutert, wie optische Verbindungen disaggregierte Architekturen unterstützen, wo sie Kupfer übertreffen, wie sie sich auf CXL und co{0}}verpackte Optik beziehen und wann die Einführung praktisch sinnvoll ist.

Disaggregated data center linked by optical fabric

Was ist die Disaggregation von Rechenzentren?

In einem herkömmlichen serverzentrierten Modell sind CPU, Arbeitsspeicher, Speicher und Netzwerk in einem einzigen Gehäuse gebündelt. Sie kaufen einen Server und erhalten ein festes Verhältnis aller vier -, unabhängig davon, ob Ihre Arbeitslast dieses Verhältnis benötigt oder nicht. Durch die Disaggregation von Rechenzentren wird dieses Bündel auseinandergerissen. Jeder Ressourcentyp ist in einem eigenen Pool organisiert, und Workloads beziehen aus jedem Pool über eine gemeinsam genutzte Struktur nur das, was sie benötigen.

Dies ist wichtig, da moderne Arbeitsbelastungen selten ausgeglichen sind. Ein großer Trainingsauftrag für ein Sprachmodell kann den GPU-Speicher und die Ost-{1}West-Bandbreite überlasten, während der lokale Speicher kaum beansprucht wird. Eine Echtzeit-Analysepipeline benötigt möglicherweise enorme Speicherkapazität, aber nur mäßige Rechenleistung. In einem serverzentrierten Design führt diese Diskrepanz zu einer Ressourcensträngung: CPU-Zyklen im Leerlauf stehen neben erschöpftem Arbeitsspeicher oder Speicherkapazität, die von keiner Arbeitslast genutzt wird.

DerOpen Compute Project (OCP)treibt seit Mitte der 2010er Jahre disaggregierte Rack-Designs voran, und Hyperscaler wie Meta und Microsoft haben disaggregierte Speicher und Netzwerke in großem Maßstab bereitgestellt. Die Entstehung vonCompute Express Link (CXL)hat diese Vision auf die Speicherdisaggregation ausgeweitet und die Architektur für eine breitere Palette von Umgebungen immer praktischer gemacht.

Warum traditionelle serverzentrierte-Designs an ihre Grenzen stoßen

Zwei Kräfte treiben Infrastrukturteams in Richtung Desaggregation: Nutzungsdruck und Bandbreitendruck.

Auf der Nutzungsseite verursachen feste Serverpakete eine große Verschwendung. Branchenstudien deuten darauf hin, dass im Durchschnitt etwa 25 % der DRAM-Kapazität herkömmlicher Server ungenutzt bleiben, obwohl der Arbeitsspeicher fast die Hälfte der gesamten Serverkosten ausmacht. Über Tausende von Knoten multipliziert stellt diese verlorene Kapazität eine erhebliche Kapital- und Strombelastung dar.

Auf der Bandbreitenseite erzeugen KI-Trainingscluster und Hochleistungsanalysen Verkehrsmuster, die sich stark von den herkömmlichen Nord-{1}}Süd-Web--Bereitstellungslasten unterscheiden. Diese Arbeitslasten erzeugen starken Ost-West-Verkehr - GPU-zu-GPU, Beschleuniger-zu-Speicher und Knoten-zu-Knoten - über Hunderte oder Tausende von Endpunkten. Herkömmliche serverzentrierte Topologien mit kurzen Kupferleitungen zwischen festen Boxen waren für dieses Muster nicht konzipiert. Da die Verbindungsgeschwindigkeiten von 400 G auf 800 G und mehr steigen, werden die elektrischen Einschränkungen von Kupfer immer schwieriger zu umgehen.

Wie funktioniert die optische Verbindung in einem disaggregierten Rechenzentrum?

Sobald sich Rechen-, Arbeitsspeicher- und Beschleunigerressourcen in separaten Pools befinden, wird die diese Pools verbindende Struktur zur leistungskritischen Ebene. Optische Verbindungen dienen dieser Schicht, indem sie elektrische Signale in Licht umwandeln und Daten darüber übertragenEinzelmodus-oderMultimode-Faserund am Empfangsende wieder in Strom umwandeln.

Die Physik des optischen Transports verleiht ihm für diese Aufgabe strukturelle Vorteile. Lichtsignale in Glasfaser unterliegen einer weitaus geringeren Dämpfung pro Meter als elektrische Signale in Kupfer, was bedeutet, dass optische Verbindungen die Signalqualität über größere Entfernungen aufrechterhalten können, ohne die stromintensive Signalaufbereitung (Retimer, DSPs, Equalizer), die Kupfer bei höheren Geschwindigkeiten erfordert. Bei 800 Gbit/s ist passives Kupfer bis zu einer Entfernung von etwa 3–5 Metern praktisch. Aktive Elektrokabel verlängern das auf vielleicht 7 Meter. Optische Verbindungen erstrecken sich bei gleicher Datenrate routinemäßig über eine Entfernung von 100 Metern bis 2 Kilometern, und kohärente Optiken können mehrere zehn Kilometer erreichen.

Short copper links and longer optical connections

In einer disaggregierten Architektur ist dieser Reichweitenvorteil nicht abstrakt. Es bestimmt direkt, wie weit Ressourcenpools voneinander entfernt sein können, während sie sich dennoch wie ein einheitliches System verhalten. Speziell:

  • Im Rack:Kupfer dominiert immer noch für sehr kurze Verbindungen - Server-zur-Oberseite-des-Rack-Switches, GPU-zu-GPU innerhalb eines Fachs. Bei Entfernungen unter 2–3 Metern ist Kupfer einfacher, billiger und bietet eine geringere -Latenz.
  • Rack-zu-Rack (2–100 m):Hier wird die optische Verbindung ab 400G zum praktischen Standard. Das Anschließen eines Computer-Racks an einen Speicherpool in einem benachbarten Rack oder das Verbinden von GPU-Trays über eine Reihe hinweg erfordert normalerweise die Bandbreitendichte und Reichweite, die Glasfaser bietet.GlasfaserkabelbaugruppenUndMPO/MTP-Konnektivitätsind für diese Wege Standard.
  • Raum-zu-Raum und Gebäude-zu-Gebäude (100 m–10+ km):Bei diesen Entfernungen und Geschwindigkeiten ist nur der optische Transport möglich. Dieser Bereich ist für die Disaggregation auf Campusebene wichtig, bei der Speicherpools, Backup-Rechenressourcen oder Disaster-Recovery-Ressourcen in separaten Gebäuden untergebracht sind.

Optische Verbindung vs. Kupfer in disaggregierten Rechenzentren

Die Wahl zwischen optisch und Kupfer ist nicht binär -, sondern bereichsabhängig-. Hier sehen Sie, wie die beiden Faktoren verglichen werden, die in einem disaggregierten Design am wichtigsten sind:

Faktor Kupfer Optische Faser
Praktische Reichweite bei 800G 3–7 m (passiv/aktiv) 100 m – 10+ km (je nach Optiktyp)
Bandbreitendichte Niedriger pro Kabel; Kabel sind bei höheren Geschwindigkeiten dicker Höher pro Kabel; Dünne Fasern unterstützen eine hohe Portanzahl
Leistung pro Bit (größere Reichweite) Höhere - DSPs, Retimer und Signalaufbereitung erforderlich Bei gleicher Reichweite und Geschwindigkeit absenken
Latenz (kurze Reichweite) Sehr niedrig (passives Kupfer hat keinen Konvertierungsaufwand) Aufgrund der elektro-optischen Umwandlung etwas höher
EMI-Immunität Anfällig für elektromagnetische Störungen Immun -wichtig in dichten Umgebungen mit hoher-Leistung
Kabelgewicht und Luftstrom Bei höheren Zählwerten schwerer und sperriger Leichter und dünner, besser für die Luftzirkulation in dichten Racks
Kosten (kurze Reichweite, niedrige Geschwindigkeit) Vorne absenken Im Voraus höher
Kosten (Systemebene-im Maßstab) Kann unter Berücksichtigung von Leistung, Kühlung und Erreichen von Grenzwerten höher sein Oft niedrigere Gesamtbetriebskosten bei 400G+ und längeren Pfaden
Beste Passform im disaggregierten Design Intra-Tray, Intra-Rack-Kurzverbindungen Rack-zu-Rack, Reihe-zu-Reihe, Raum-zu-Raum und Campus-

Die praktische Erkenntnis: Verwenden Sie Kupfer, wenn die Einfachheit über kurze -Distanzen immer noch überwiegt. Verwenden Sie optische Kabel, wenn Reichweite, Bandbreitendichte, Energieeffizienz oder Kabelmanagement zur zwingenden Einschränkung werden. In einer disaggregierten Umgebung wächst der optische Anteil der gesamten Verbindung, da die Architektur selbst längere Pfade mit höherer -Bandbreite zwischen getrennten Ressourcenpools schafft. Einen ausführlicheren Vergleich der Medientypen finden Sie unterGlasfaser- oder Kupferkabel: Welches ist das Richtige für Ihren Einsatz?.

Copper versus optical interconnect comparison

Hauptvorteile der optischen Verbindung für die Disaggregation

Höhere Bandbreitendichte für getrennte Ressourcenpools

Durch die Disaggregation erhöht sich das Datenverkehrsvolumen, das die Verbindungsschicht überquert, da Ressourcen, die früher zusammen-gelegen waren, jetzt über die Fabric kommunizieren. Glasfaser unterstützt diesen Bedarf mit einer höheren Bandbreite pro-Faser und mehr Fasern pro Kabel. Eine SingleFlachbandkabelkann Hunderte von Fasern in einem kompakten Querschnitt-tragen und ermöglicht so die Art von Portdichte, die disaggregierte GPU-Cluster und Speicherpools erfordern.

Geringere Energie- und Wärmebelastung im großen Maßstab

Bei einem disaggregierten Design ist die Energieeffizienz wichtiger, da die Verbindungsschicht einen größeren Anteil des gesamten Systemverkehrs trägt. Bei 800G und höher erfordern Kupferverbindungen über mittlere Entfernungen eine stromintensive DSP-Verarbeitung an beiden Enden. Optische Verbindungen verbrauchen bei gleichen Geschwindigkeiten und Entfernungen weniger Strom pro Bit. In der technischen Dokumentation von NVIDIA zu seiner co-gebündelten Optik-Switching-Plattform heißt es a3,5-fache Reduzierung des Stromverbrauchsim Vergleich zu herkömmlichen steckbaren Transceivern. Auf Rechenzentrumsebene führt dieser Unterschied direkt zu niedrigeren Stromrechnungen und einer geringeren Kühlinfrastruktur.

Modulare, unabhängige Skalierung

Eines der Kernversprechen der Disaggregation besteht darin, dass Rechenleistung, Arbeitsspeicher und Speicher unterschiedlich schnell skaliert werden können. Optische Verbindungen unterstützen dieses Versprechen, da das Hinzufügen von Kapazität zu einem Ressourcenpool nicht eine Neugestaltung der gesamten Struktur erfordert.Steckbare optische Modulekann schrittweise - von 400 G auf 800 G auf 1,6 T - aufgerüstet oder hinzugefügt werden, ohne die zugrunde liegende Faseranlage zu ändern.

Flexibilität für heterogene Arbeitslasten

Wenn Ressourcen gebündelt und über eine hochleistungsfähige optische Struktur verbunden werden, können Infrastrukturteams Ressourcen dynamisch Arbeitslasten zuweisen, anstatt Arbeitslasten anhand fester Serverkonfigurationen zu gestalten. Diese Flexibilität ist besonders wertvoll in Umgebungen, in denen KI-Trainingsjobs, Echtzeit-Inferenz, Analyse-Pipelines und speicherintensive Anwendungen nebeneinander existieren und um verschiedene Ressourcentypen konkurrieren.

Wie optische Verbindung mit CXL und Co-Packaged Optics zusammenhängt

CXL: die Protokollschicht für die gemeinsame Nutzung von Speicher und Ressourcen

CXL (Compute Express Link) und optische Verbindung lösen verschiedene Teile des Disaggregationsproblems. CXL ist ein offenes Standardprotokoll -, das auf der physischen PCIe-Schicht - basiert und eine Cache-{3}kohärente Kommunikation zwischen CPUs, Speichergeräten und Beschleunigern ermöglicht. Es definiert, wie getrennte Ressourcen auf Software- und Protokollebene gebündelt und effizient gemeinsam genutzt werden können.

Das CXL-Konsortium, zu dessen Mitgliedern Intel, AMD, NVIDIA, Samsung, Microsoft, Google und Meta gehören, veröffentlichte CXL 3.1 im November 2023 mit ausdrücklicher Unterstützung fürMulti{0}}Switching und Fabric-basierte Disaggregationjenseits des Gestells. Mit CXL 3.0 wurde die Unterstützung für bis zu 4.096 Knoten in einer einheitlichen Fabric eingeführt, was Speicherpooling im Rack-- und potenziell Cluster-{5}}Maßstab ermöglicht.

Bei der optischen Verbindung handelt es sich um den physischen Transport, der CXL-Verkehr (und andere Protokolle) zwischen diesen verteilten Knoten übertragen kann. Ein Team, das CXL-basiertes Speicherpooling evaluiert, und ein Team, das optische Verbindungen evaluiert, arbeiten häufig an derselben Disaggregationsinitiative aus unterschiedlichen Blickwinkeln, - einer befasst sich mit der Protokoll- und Ressourcen-Sharing-Logik-, der andere befasst sich mit dem physischen Transport.

CXL over optical transport with co-packaged optics

Co-verpackte Optik: Optik näher an den Chip rücken

Co-packed optics (CPO) geht noch einen Schritt weiter, indem optische Engines direkt auf dem gleichen Gehäusesubstrat wie der Switch-ASIC oder die GPU integriert werden, anstatt sich auf separate steckbare Transceiver zu verlassen, die über elektrische Leiterbahnen auf einer Frontplatte verbunden sind. Dadurch entfallen die längsten und energieintensivsten Strompfade im System.

Auf der GTC 2025 kündigte NVIDIA sein erstes anCo-hat Silizium-Photonik-Schaltplattformen entwickelt(Quantum-X Photonics und Spectrum-X Photonics) mit einer Bandbreite von bis zu 409,6 Tbit/s mit 512 Ports bei 800 Gbit/s. Jensen Huang, CEO von NVIDIA, wies darauf hin, dass die Skalierung auf eine Million GPUs mit herkömmlichen steckbaren Transceivern allein etwa 180 MW an Transceiver-Leistung verbrauchen würde - eine unhaltbare Zahl, die CPO angehen soll.

CPO ist nicht etwas, das jedes Team, das die Disaggregation evaluiert, heute implementieren muss. Steckbare optische Module bleiben für die meisten der dominierende FormfaktorRechenzentrum GlasfaserBereitstellungen und werden noch mindestens bis Ende der 2020er Jahre andauern. Aber CPO stellt die Richtung der optischen Roadmap dar, und Teams, die große KI-Cluster oder disaggregierte Fabrics der nächsten -Generation planen, sollten deren Reife genau verfolgen.

Wann ist eine optische Verbindung am sinnvollsten?

KI- und beschleunigerintensive Umgebungen

KI-Trainingscluster gehören zu den stärksten Anwendungsfällen für optische Verbindungen in einem disaggregierten Kontext. Diese Systeme erzeugen massiven Ost-Westverkehr über GPU-zu-GPU- und GPU{4}}zu-Speicherpfade. Wenn die Clustergröße von Hunderten auf Tausende von GPUs wächst, übersteigen die Anforderungen an Reichweite und Bandbreite schnell das, was Kupfer unterstützen kann. In der GB200 NVL72-Architektur von NVIDIA beispielsweise machen die Netzwerkkosten (einschließlich optischer Transceiver) 15–18 % der gesamten Clusterkosten aus, und optische Transceiver machen etwa 60 % dieser Netzwerkkosten aus. Die wirtschaftlichen und leistungsbezogenen Argumente für die Optimierung der optischen Schicht sind erheblich.

Speicherpooling und zusammensetzbare Infrastruktur

Wenn Ihr Team CXL-basiertes Speicherpooling evaluiert, muss die physische Transportschicht diese Trennung unterstützen, ohne eine inakzeptable Latenz hinzuzufügen oder die Skalierung einzuschränken. CXL 3.1 zielt explizit auf die Fabric-Scale-Disaggregation über das Rack hinaus ab, was bedeutet, dass Verbindungspfade längere Distanzen überbrücken als herkömmliche Intra-{4}Server-Speicherbusse. Optische Verbindungen sind für diese Wege die natürliche Lösung.

Große -Umgebungen mit ungleichmäßigen Skalierungsanforderungen

Optische Verbindungen sind auch dann sinnvoller, wenn Rechenleistung, Arbeitsspeicher und Massenspeicher unterschiedlich schnell skaliert werden müssen. Wenn Ihre Rechenkapazität um das Dreifache pro Jahr wächst, der Speicher jedoch um das 1,5-fache, können Sie mit einer disaggregierten Architektur jeden Pool unabhängig erweitern - und die optische Verbindung macht dies physisch möglich, ohne die Verkabelungsanlage jedes Mal neu entwerfen zu müssen.

Wenn es KEINEN Sinn ergibt

Optische Verbindungen sind nicht für jede Umgebung der richtige Ausgangspunkt. Wenn in Ihrem Rechenzentrum hauptsächlich ausgewogene, allgemeine -Arbeitslasten auf herkömmlichen Servern ausgeführt werden und Ihr Rack-{2}}zu-Rack-Verkehr gering ist und gut{4}}durch die vorhandene Kupferinfrastruktur bedient wird, sind die Kosten und die Komplexität einer optischen -First Fabric möglicherweise nicht gerechtfertigt. Wenn Sie in einer Größenordnung arbeiten, in der ein paar Dutzend Server Ihren Anforderungen genügen, kann die Disaggregation selbst möglicherweise mehr betriebliche Komplexität mit sich bringen als sie einspart. Die Architektur zahlt sich aus, wenn Skalierung, Heterogenität und Ressourcenungleichgewicht real und messbar - und nicht hypothetisch sind.

Was vor der Bereitstellung zu bewerten ist

1. Kartieren Sie Ihren tatsächlichen Engpass

Beginnen Sie mit einer klaren Frage: Was ist die verbindliche Einschränkung? Ist die Reichweite (Kupferpfade zu kurz für Ihr Rack-Layout)? Bandbreitendichte (nicht genug Durchsatz pro Kabel, um Ihren GPU-Cluster zu versorgen)? Strom (elektrische Verbindungen verbrauchen bei 400G+ zu viel Watt)? Ressourcenauslastung (Server sind auf einer Achse überdimensioniert und auf einer anderen ausgehungert)? Optische Verbindungen sind am wertvollsten, wenn der Engpass physisch und messbar ist, und nicht, wenn sie als allgemeine Modernisierungsgeste übernommen werden.

2. Bewerten Sie die Gesamtsystemkosten, nicht die Kabelkosten

Ein häufiger Fehler besteht darin, den Preis eines Kupferkabels mit dem Preis eines Kupferkabels zu vergleichenoptisches Kabelin Isolation. Dieser Vergleich ist irreführend. Der aussagekräftige Vergleich umfasst den Stromverbrauch, den thermischen Overhead (und die dadurch verursachten Kühlkosten), die Portdichte pro Rackeinheit, die nutzbare Reichweite, die Upgrade-Flexibilität und die Kosten für verlorene Ressourcen in der breiteren Architektur. In vielen disaggregierten Umgebungen mit 400G und mehr sind die Gesamtbetriebskosten für Glasfaser niedriger als für Kupfer, wenn man das gesamte System berücksichtigt.

3. Kompatibilität und Betriebsbereitschaft prüfen

AuswertenPrüfung von GlasfaserkabelnAnforderungen, Modulinteroperabilität, Überwachungstools und die betriebliche Vertrautheit Ihres Teams mit Glasfaser. Steckbare optische Module (OSFP, QSFP-DD) sind gut-standardisiert und werden allgemein unterstützt, aber Ihr Betriebsteam sollte mit der Handhabung, Reinigung und Fehlerbehebung von Glasfasern vertraut sein, bevor Sie sie in großem Maßstab bereitstellen. Erwägen Sie, mit einer Pilotdomäne zu beginnen, in der Sie diese Betriebsfaktoren validieren können.

4. Planen Sie die Langlebigkeit der Faserpflanze

Ein wesentlicher Vorteil der Glasfaserinfrastruktur besteht darin, dass die passive Glasfaseranlage - die Kabel, Patchfelder und Pfade - mehrere Generationen der Transceiver-Technologie unterstützen kann. Ein gut-gestaltetesKonnektivität für RechenzentrenEine heute installierte Glasfaseranlage für 400G kann 800G- und 1,6T-Upgrades durch den Austausch von Transceivern unterstützen, ohne dass neue Kabel verlegt werden müssen. Dadurch ist die Erstinvestition in Glasfaser über einen Planungshorizont von 10 Jahren vertretbarer.

Ein praktischer Adoptionspfad

Schritt 1: Identifizieren Sie eine eingeschränkte Domäne.Suchen Sie nach der Stelle, an der die Kupferreichweite, die Leistung, die Bandbreitendichte oder die Ressourcenstränge bereits messbare Probleme verursachen. Dabei kann es sich um eine GPU-Cluster-Erweiterung, einen Rack-{1}}zu-Engpass in einer Analyseumgebung oder ein Pilotprojekt zum Speicher-Pooling handeln.

Schritt 2: Pilotieren und validieren.Stellen Sie in dieser Domäne eine optische Verbindung bereit. Messen Sie Latenzverhalten, Stromverbrauch, Betriebskomplexität und Erweiterungsökonomie anhand Ihrer bestehenden Basislinie.

Schritt 3: Erweitern Sie basierend auf Beweisen.Nutzen Sie die Pilotdaten, um geschäftliche und technische Argumente für eine breitere Akzeptanz zu erstellen. Disaggregation und optische Migration lassen sich selten am besten als ein einziges Big-{1}Big-Projekt handhaben. Mit der schrittweisen Einführung können Sie lernen, sich anpassen und organisatorisches Vertrauen aufbauen.

Entscheidungscheckliste: Ist optische Verbindung das Richtige für Ihre Disaggregationsinitiative?

  • Überschreiten die Verbindungsabstände zwischen Rack{0}}zu-Rack oder Raum-zu-die praktische Reichweite von Kupfer bei Ihrer Zielgeschwindigkeit?
  • Planen Sie, in naher Zukunft Verbindungsgeschwindigkeiten von 400G oder höher bereitzustellen?
  • Wird der Stromverbrauch durch elektrische Verbindungen zu einem bedeutenden Teil des Energiebudgets Ihres Rechenzentrums?
  • Erwägen Sie CXL-basiertes Speicherpooling, zusammensetzbare Infrastruktur oder GPU-Cluster-Erweiterung?
  • Ist die Ressourcenverknappung (Rechenleistung, Arbeitsspeicher oder in festen Servern gesperrter Speicher) ein messbares Kostenproblem?
  • Muss Ihre Umgebung Rechenleistung, Arbeitsspeicher und Massenspeicher unterschiedlich schnell skalieren?

Wenn drei oder mehr davon zutreffen, verdient die optische Verbindung eine ernsthafte Prüfung im Rahmen Ihrer Disaggregations-Roadmap.

FAQ

Was ist eine optische Verbindung in einem Rechenzentrum?

Optische Verbindung ist eine Transporttechnologie, die Lichtsignale nutztGlasfaserkabelzum Übertragen von Daten zwischen Netzwerkgeräten, Servern, Switches, Speichersystemen und Ressourcenpools innerhalb und zwischen Rechenzentren. Es bietet eine höhere Bandbreite, eine größere Reichweite und eine geringere Leistung pro Bit im Vergleich zu Kupfer bei gleichwertigen Geschwindigkeiten - und ist daher besonders wichtig für disaggregierte und KI-orientierte Architekturen-.

Wie unterscheidet sich die optische Verbindung von CXL?

Sie agieren auf unterschiedlichen Ebenen. Bei der optischen Verbindung handelt es sich um eine physikalische Transporttechnologie -, bei der Bits mithilfe von Licht von Punkt A nach Punkt B transportiert werden. CXL ist ein Protokollstandard, der definiert, wie CPUs, Speicher und Beschleuniger kohärent kommunizieren. Optische Verbindungen können CXL-Verkehr übertragen, CXL läuft jedoch auch über elektrische Verbindungen für Verbindungen mit kurzer{4}}Reichweite. Teams evaluieren häufig beide gleichzeitig, da durch die Disaggregation Nachfrage sowohl nach besseren Protokollen (CXL) als auch nach besserem physischen Transport (Optik) entsteht.

Können Kupfer- und Glasfaserkabel in einem disaggregierten Rechenzentrum nebeneinander existieren?

Ja, und das tun sie normalerweise. Die meisten disaggregierten Umgebungen verwenden Kupfer für sehr kurze Intra{1}}Rack-Verbindungen (unter 3–5 Meter), wo es einfacher und kostengünstiger bleibt, und Glasfaser für Rack-zu-Rack, Reihe-zu-Reihe und längere Pfade, bei denen die Reichweiten-, Leistungs- und Dichtebeschränkungen von Kupfer verbindlich werden. Die Entscheidung ist vom Umfang-abhängig, nicht alles-oder-nichts.

Was sind mitverpackte Optiken und benötige ich sie jetzt?

Co-packaged optics (CPO) integriert optische Engines direkt in das gleiche Paket wie der Switch-ASIC oder -Prozessor, wodurch die Notwendigkeit separater steckbarer Transceiver entfällt und der Stromverbrauch und die Latenz reduziert werden. NVIDIA und Broadcom setzen CPO in KI-Netzwerkplattformen der nächsten{2}}Generation ein. Die meisten Rechenzentren benötigen heute keinen CPO -steckbare optische Modulebleiben der Standard -, aber CPO steht auf der Roadmap für eine groß angelegte-KI-Infrastruktur im Zeitraum 2026–2028.

Wann sollte ich die Disaggregation mit optischen Verbindungen NICHT betreiben?

Wenn Ihre Arbeitslasten gut-auf Rechenleistung, Arbeitsspeicher und Speicher verteilt sind; Ihr Umfang ist bescheiden (einige Dutzend Server); und Ihre bestehende Kupferinfrastruktur bewältigt Ihren aktuellen und kurzfristigen Bandbreitenbedarf ohne Belastung. - Die zusätzliche Komplexität der Disaggregation und der optischen Migration ist die Investition möglicherweise nicht wert. Beginnen Sie mit dem Engpass, nicht mit dem Schlagwort.

Welche Glasfasertypen werden in der optischen Verbindung von Rechenzentren verwendet?

Single-mode-Faserwird für längere -Entfernungen und Verbindungen mit höherer-Geschwindigkeit verwendet (normalerweise von Rack-zu-Rack und darüber hinaus).Multimode-Faserist bei kürzeren Intra{0}}Datenzentren-Verbindungen von bis zu einigen hundert Metern üblich. Die Wahl hängt von der erforderlichen Reichweite, Geschwindigkeit und dem Kostenprofil jedes Links ab.

 

Anfrage senden