Compute Express Link

Compute Express LinkCXL)は、高性能なデータセンターコンピューター向けに設計された、CPU-デバイス間およびCPU-メモリ間を高速に接続するためのオープンスタンダードである[1][2][3][4]

Compute Express Link
開発年 2019年 (2019)
速度 Full duplex
1.x, 2.x (32 GT/s):
  • 3.938 GB/s (×1)
  • 63.015 GB/s (×16)
外部リンク www.computeexpresslink.org

CXLは、PCI Express(PCIe)の物理的・電気的インターフェイス上に構築されており、PCIeベースのブロック入出力プロトコル(CXL.io)、システムメモリ(CXL.cache)およびデバイスメモリ(CXL.mem)にアクセスするための新しいキャッシュコヒーレントプロトコルから構成される。

歴史

この標準は、主にIntelによって開発された。CXL Consortiumは、2019年3月にAlibaba GroupCiscoDell EMCFacebookGoogleHewlettPackard Enterprise(HPE)、HuaweiIntelMicrosoftからなる創設メンバーによって立ち上げられ[5][6]、2019年9月に正式に設立された[7]。2022年1月の時点で、取締役会の創設者にAMDNVidiaSamsungXilinxが加わり、contributing memberとしてARMBroadcomEricssonIBMKeysightKioxiaMarvellMellanoxMicrochipMicronOracleQualcommRambusRenesasSeagateSK HynixSynopsysWesternDigitalなどが参加した[8][9]。業界パートナーには、PCI-SIG[10]Gen-Z[11]SNIA[12]DMTFが参加している[13]

2020年4月2日、Compute Express LinkとGen-Zコンソーシアムは、両者のテクノロジー間の相互運用性を実装する計画を発表し[14][15]、最初の成果が2021年1月に発表された[16]。2021年11月10日、単一の業界標準の開発に注力するため、Gen-Zの仕様と資産がCXLに移管された[17]。この発表の時点で、Gen-Zメンバーの70%はすでにCXLコンソーシアムに参加していた。このコンソーシアムに参加していた企業には、OpenCAPI(IBM)、CCIX(Xilinx)、Gen-Z(HPE)オープンスタンダードなどのメモリコヒーレント相互接続テクノロジー、プロプライエタリのInfiniBand/RoCE(Mellanox)、Infinity Fabric(AMD)、Omni-PathおよびQuickPath/Ultra Path(Intel)、NVLink/NVSwitch(Nvidia)プロトコルの背後にある企業がある[18][19]

仕様

2019年3月11日、PCIe 5.0をベースにしたCXL Specification 1.0が公開された[6]。この仕様により、ホストCPUは、キャッシュコヒーレントプロトコルを使用して、アクセラレータデバイス上の共有メモリにアクセスできるようになった。 CXL Specification 1.1は、2019年6月に公開された。

2020年11月10日、CXL Specification 2.0が公開された。新しいバージョンでは、CXLスイッチングのサポートが追加され、分散共有メモリおよびdisaggregated storage構成で、複数のCXL1.xおよび2.0デバイスをCXL2.0ホストプロセッサに接続したり、各デバイスを複数のホストプロセッサにプールしたりできるようになった。また、デバイス整合性とデータ暗号化も実装している[20]。CXL 2.0は引き続きPCIe 5.0 PHYを使用するため、CXL 1.xからの帯域幅の増加はない。

次のバージョンのCXL仕様は2022年上半期に予定されており、PCIe 6.0 PHYをベースとしたものになる予定である[19][21]

実装

2019年4月2日、IntelはCXLを搭載したAgilex FPGAファミリを発表した[22]

2021年5月11日、Samsungは128 GByte DDR5ベースのメモリ拡張モジュールを発表した。これを利用すると、データセンターや潜在的な次世代のPCに適した、テラバイトレベルのメモリ拡張が可能になる[23]。2022年5月10日には、プロプライエタリなメモリコントローラーを利用した、更新版の512 GByteバージョンがリリースされた[24]

2021年には、IntelのSapphire Rapidsプロセッサ[25]、AMDのZen 4 EPYC「Genoa」および「Bergamo」プロセッサでのCXL1.1のサポートが発表された[26]

CXLデバイスは、Intel[27]、Astera、Rambus、Synopsys、Samsung、Teledyne LeCroyなどにより、SC21 Conferenceで展示された[28][29][30]

プロトコル

CXLの標準では、3種類の独立したプロトコルが定義されている[31][20]

  • CXL.io - いくつかの拡張機能を備えたPCIe 5.0に基づいており、コンフィギュレーション、リンクの初期化と管理、デバイスの検出と列挙、割り込み、DMA、非コヒーレントなロード/ストアを使用したレジスタI/Oアクセスを提供する。
  • CXL.cache - 周辺機器が低遅延のリクエスト/レスポンスインターフェイスでホストCPUメモリにコヒーレントにアクセス・キャッシュできるようにする。
  • CXL.mem - ホストCPUが、揮発性(RAM)ストレージと永続的な不揮発性(フラッシュメモリ)ストレージ両方のロード/ストアコマンドを使用して、キャッシュされたデバイスメモリにコヒーレントにアクセスできるようにする。

CXL.cacheとCXL.memプロトコルは、CXL.ioプロトコルリンクとトランザクションレイヤーとは別の共通のリンク/トランザクションレイヤーで動作する。これらのプロトコル/レイヤーは、Arbitration and Multiplexing(ARB/MUX)ブロックによって多重化されてから、4つの16バイトデータslotsと2バイトの巡回冗長検査(CRC)値からなる固定幅528ビット(66バイト)のフロー制御ユニット(Flow Control Unit、FLIT)ブロックを使用して標準のPCIe 5.0 PHYで転送される[31]。CXL FLITは、PCIe標準のトランザクション層パケット(TLP)とデータリンク層パケット(DLLP)データを可変フレームサイズ形式でカプセル化する[32][33]

デバイスタイプ

CXLは、次の3種類の主要なデバイスタイプをサポートするように設計されている[20]

  • Type 1(CXL.io、CXL.cache)- ローカルメモリのない特殊なアクセラレータ(スマートNICなど)。このタイプのデバイスは、ホストCPUメモリへのコヒーレントアクセスに依存している。
  • Type 2(CXL.io、CXL.cache、CXL.mem)- 高性能GDDRHBMローカルメモリを備えた汎用アクセラレータ(GPUASICFPGA)。このタイプのデバイスは、ホストCPUのメモリにコヒーレントにアクセスしたり、ホストCPUからデバイスのローカルメモリへのコヒーレントまたは非コヒーレントアクセスを提供できる。
  • Type 3(CXL.io、CXL.mem)- メモリ拡張ボードやストレージクラスメモリ。このタイプのデバイスは、ホストCPUにローカルのDRAMや不揮発性ストレージへの低遅延アクセスを提供する。

Type 2のデバイスは、デバイスドライバーが管理する2つのメモリコヒーレンスモードを実装する。デバイスバイアスモードでは、デバイスはローカルメモリに直接アクセスし、CPUによるキャッシュは実行されない。ホストバイアスモードでは、ホストCPUのキャッシュコントローラーがデバイスメモリへのすべてのアクセスを処理する。コヒーレンスモードは、4 KBページごとに個別に設定でき、Type 2のデバイスのローカルメモリの変換テーブルに保存される。他のCPU間メモリコヒーレンシプロトコルとは異なり、この配置では、ホストCPUメモリコントローラがキャッシュエージェントを実装するだけで済む。このような非対称的なアプローチにより、実装の複雑さが軽減され、待ち時間が短縮される[31]

関連項目

  • Cache coherent interconnect for accelerators (CCIX)
  • Coherent Accelerator Processor Interface (CAPI)
  • Gen-Z
  • Omni-Path
  • UCIe

出典

  1. ABOUT CXL (英語). Compute Express Link. 2019年8月9日閲覧。
  2. Synopsys Delivers Industry's First Compute Express Link (CXL) IP Solution for Breakthrough Performance in Data-Intensive SoCs”. finance.yahoo.com. Yahoo! Finance. 2019年11月9日閲覧。
  3. A Milestone in Moving Data”. Intel Newsroom. Intel. 2019年11月9日閲覧。
  4. Compute Express Link Consortium (CXL) Officially Incorporates; Announces Expanded Board of Directors (英語). www.businesswire.com. Business Wire (2019年9月17日). 2019年11月9日閲覧。
  5. Comment. Intel, Google and others join forces for CXL interconnect www.datacenterdynamics.com.
  6. Cutress. CXL Specification 1.0 Released: New Industry High-Speed Interconnect From Intel”. Anandtech. 2019年8月9日閲覧。
  7. Compute Express Link Consortium (CXL) Officially Incorporates; Announces Expanded Board of Directors”. www.businesswire.com (2019年9月17日). 2022年7月29日閲覧。
  8. Compute Express Link: Our Members”. CXL Consortium (2020年). 2020年9月25日閲覧。
  9. Papermaster (2019年7月18日). AMD Joins Consortia to Advance CXL, a New High-Speed Interconnect for Breakthrough Performance”. Community.AMD. 2020年9月25日閲覧。
  10. CXL™ Consortium and PCI-SIG® Announce Marketing MOU Agreement (2021年9月23日). 2022年7月31日閲覧。
  11. Industry Liaisons”. 2022年7月31日閲覧。
  12. SNIA and CXL™ Consortium Form Strategic Alliance (2020年11月3日). 2022年7月31日閲覧。
  13. DMTF and CXL™ Consortium Establish Work Register (2020年4月14日). 2022年7月31日閲覧。
  14. “CXL Consortium and Gen-Z Consortium Announce MOU Agreement”. Beaverton, Oregon. (2020年4月2日). https://b373eaf2-67af-4a29-b28c-3aae9e644f30.filesusr.com/ugd/0c1418_efb1cff3f41d486ea85d50ec638ea715.pdf 2020年9月25日閲覧。
  15. “CXL Consortium and Gen-Z Consortium Announce MOU Agreement”. (2020年4月2日). https://genzconsortium.org/cxl-consortium-and-gen-z-consortium-announce-mou-agreement/ 2020年4月11日閲覧。
  16. CXL™ Consortium and Gen-Z Consortium™ MoU Update: A Path to Protocol (2021年6月24日). 2022年7月31日閲覧。
  17. Consortium (2021年11月10日). Exploring the Future”. Compute Express Link. 2022年7月31日閲覧。
  18. Morgan (2021年11月23日). Finally, A Coherent Interconnect Strategy: CXL Absorbs Gen-Z”. The Next Platform. 2022年7月31日閲覧。
  19. Leopold, George (2021年12月9日). CXL Will Absorb Gen-Z”. EETimes. 2022年7月31日閲覧。
  20. Compute Express Link (CXL): All you need to know”. Rambus. 2022年7月31日閲覧。
  21. Rambus in two deals for datacentre interface eeNews Europe (2021年6月16日). 2022年7月31日閲覧。
  22. How do the new Intel Agilex FPGA family and the CXL coherent interconnect fabric intersect? (英語). PSG@Intel (2019年5月3日). 2019年8月9日閲覧。
  23. Samsung Unveils Industry-First Memory Module Incorporating New CXL Interconnect Standard (英語). Samsung (2021年5月11日). 2021年5月11日閲覧。
  24. Samsung Electronics Introduces Industry's First 512GB CXL Memory Module”. 2022年7月31日閲覧。
  25. Intel Architecture Day 2021”. Intel. 2022年7月31日閲覧。
  26. Paul Alcorn (2021年11月8日). AMD Unveils Zen 4 CPU Roadmap: 96-Core 5nm Genoa in 2022, 128-Core Bergamo in 2023”. Tom's Hardware. 2022年7月31日閲覧。
  27. Intel Sapphire Rapids CXL with Emmitsburg PCH Shown at SC21 (2021年12月7日). 2022年7月31日閲覧。
  28. https://www.eetimes.com/cxl-put-through-its-paces/
  29. CXL Consortium Showcases First Public Demonstrations of Compute Express Link Technology at SC21”. HPCwire. 2022年7月31日閲覧。
  30. Consortium (2021年12月16日). CXL Consortium Makes a Splash at Supercomputing 2021 (SC21)”. Compute Express Link. 2022年7月31日閲覧。
  31. Compute Express Link Standard | DesignWare IP | Synopsys”. www.synopsys.com. 2022年7月31日閲覧。
  32. Consortium (2019年9月23日). Introduction to Compute Express Link (CXL): The CPU-To-Device Interconnect Breakthrough”. Compute Express Link. 2022年7月31日閲覧。
  33. https://www.flashmemorysummit.com/Proceedings2019/08-07-Wednesday/20190807_CTRL-202A-1_Lender.pdf Template:Bare URL PDF

外部リンク

This article is issued from Wikipedia. The text is licensed under Creative Commons - Attribution - Sharealike. Additional terms may apply for the media files.