2021年08月10日
ムーアの法則が終焉するとどうなる?

あらゆる技術が常に高速化し、進化し続けるという仮定は、ムーアの法則のおかげでごく当たり前になりました。この法則が予言したように、1965年以降、集積回路 (IC) 上のトランジスタ数は一定のペースで倍増しており(当初は1年ごと、後に約2年ごとに修正)、計算能力は指数関数的に向上しました。半世紀以上にわたり、ムーアの法則が驚くほど正確に的中したことで、レンガの大きさほどあった電話機は携帯サイズのスーパーコンピューターへと変貌を遂げました。

テクノロジー業界では、ムーアの法則が進歩の軌道を定めてきました。さらなる小型化、低価格化、高速化を繰り返し、それがテクノロジーのロードマップとなりました。CPUは、データアーキテクチャの中心に位置し、システムハードウェアは開発目標を明確に設定することができました。プログラマーは、コンピューターの性能が上がれば自ずとアプリケーションの動作が速くなることがわかっていたので、新機能の開発に注力することができました。
ムーアの法則が世界を支配していたので、すべてが順調に進んでいました。その支配が終わるまでは。

ムーアの壁

ムーアの法則は、物理の法則という、手に負えそうもない壁にぶつかりました。CPU上のトランジスタは非常に小さくなり、今では原子わずか数個分の大きさしかありません。電力と熱の問題により、性能の向上は限界に達しています。これ以上トランジスタを小さくするには、困難に立ち向かう果敢な努力と、費用を惜しまないこころざしが必要になりました。
これは、チップに含まれるトランジスタを増やせば増やすほど、1個あたりの価格が下がるというムーアの法則の本質に反するものです。コンピューティング能力の問題よりも経済的な問題がありました。
技術と経済の成長エンジンが息切れしつつある今、コンピューティング技術が今後とも進歩するためには、抜本的に異なる方法を見つけ出し、従来の進め方を見直す必要があるでしょう。

CPUを迂回する

ウエスタンデジタルの技術兼戦略統括プレジデントであるシバ・シバラム(Siva Sivaram)博士は、最近のフラッシュメモリーサミットの基調講演(※1)で、「コンピューティングがデータアーキテクチャを支配するというのが従来の考え方」と述べています。しかし、ポストムーアの法則の時代には、この考え方を根本から変える必要があります。シバラム博士は、3名の経営幹部とともに、その変化の担い手となるテクノロジーについて語り合いました。
参加した1人は、ウエスタンデジタルの研究担当バイスプレジデントのリチャード・ニュー(Richard New)博士でした。彼のチームは、ニューロモルフィックコンピューティング、スピントロニクス、DNA、および新種の材料などの未来のコンセプトを探求しています。一方で、アーキテクチャを変えることが急務であることから、今後10年間の進歩を牽引する技術にも焦点を当てています。
「この10年間のコンピューティングにおける重要なトレンドの1つは、コンピューティング機能をCPUから、より効率的に処理できる他のデバイスに移すという考え方です」とニュー博士は述べています。
汎用CPUに頼らずに特定のアプリケーションを加速するために、カスタムデバイスが設計されています。例えばGPGPUは、多くの演算を同時に処理することができます。ただし、これらのタスクは同一である必要があります。この種の並列処理は、AIで何百万回もの数学的演算を実行するには最適ですが、ノートPCで必要とされるような基本的な計算には最適とは言えません。
CPUが消え去ることはありませんが、ヘテロジニアスなコンピューティングデバイスの一つとしてその海に飲み込まれてしまうでしょう。ストレージデバイスさえも同じです。

ムーアを超えて

「コンピュテーショナルストレージは、分散コンピューティングの概念を拡張し、CPU内の演算機能をストレージデバイスに移すというアイデアです」とニュー博士は語っています。これは、今日のデータアーキテクチャの根本的な欠陥を明らかにする概念と言えます。
ストレージ内のNAND型フラッシュメモリーおよびSSDの帯域幅は、ネットワークの帯域幅よりもはるかに大きくなります。大規模なゲノムデータをスキャンして特定のDNA配列を探すような、高い処理能力を必要とするワークロードでは、データをCPUとは別の場所で処理する方が、ボトルネックを通過しない限り効率的に処理できます。
「従来のデータアーキテクチャでは、すべてのデータをストレージからCPUやGPUなどの中央に位置するデバイスに移して処理していました。しかし、この移動には多大なエネルギーが必要で遅延時間も増加します。とにかく時間がかかるのです」と、ウエスタンデジタルのメモリ技術設計エンジニアリング担当バイスプレジデントであるヤン・リー(Yan Li)博士は述べています。200件以上の特許を取得しているリー博士は、慣習にとらわれず、現状に満足しない姿勢で知られています。(※2)
リー博士と彼女のチームは、コンピューティング機能をフラッシュストレージ自体の構成要素(NAND型フラッシュメモリー)の中に配置するという、画期的なコンピュテーショナルストレージの概念に取り組んでいます。
CPUとDRAMでは、ムーアの法則が鈍化している一方で、NANDはスケーリングの可能性を模索している段階に過ぎません。トランジスタを小さくすることでスケールするCPUとは異なり、3D NANDは、垂直方向(レイヤー)、横方向(レイヤーごとのセル)、論理(セルごとのビット)という複数のスケーリング方向で革新をもたらします。
リー博士とチームは、「小型化」に伴う物理的およびコスト的な課題を解決するために限界に挑戦し続けています。しかし、彼女の既成概念を打ち破る思考は、まったく別の驚くべき方法を探索しています。
「将来的には、NAND内部にインテリジェンスを構築する可能性があります。つまり、NANDはデータを保存できるだけでなく、演算、セキュリティのための暗号化、データインテグリティのためのECCメモリー、さらにはAI機能を追加することさえもできるのです」と彼女は述べています。
このコンセプトは非常に革新的であり、NAND型フラッシュメモリーおよびストレージ全体のアーキテクチャと機能を完全に変えてしまう可能性があります。

アーキテクチャーの中心を移す

ムーアの法則が続く限り、物事を変えるほどのインセンティブは働きません。ハードウェアの場合は、CPUが運転席に座って周りのほとんどのデバイスを支配してきたと言えます。
現在のサーバーのアーキテクチャでは、使用可能な「メモリースティック」の数や、プロセッサごと、さらにはシステムごとに割り当てることができるメモリーの最大量は、すべてCPUによって決定されることに気付いていない人も多いでしょう。また、GPU、DPU、FPGAなどの特殊なデバイスは、CPUを介してのみメモリーにアクセスできるようになっています。
シバラム博士は、将来的にはこのメモリーがCPUから独立し、テラバイト、さらにペタバイト単位にまで自由に拡張でき、コンピューティングデバイス間で共有されるようになると考えています。そしてこのメモリー中心のアーキテクチャは、すでに手の届くところまで来ています。シバラム博士のチームはOmniXtend(※3)と呼ばれるキャッシュコヒーレントファブリックを開発しました。このファブリックは、キャッシュコヒーレンシーを維持しながら、階層構造をなくし、環境内のすべてのコンピューティングデバイスに平等なメモリーへのアクセスを提供します。キャッシュコヒーレンシは、ヘテロジニアスコンピューティングにおける最大の課題の1つです。複数のプロセッサがデータを同期して見る必要がありますが、これらのプロセッサが同時にキャッシュに同じデータのコピーを持っている場合が生じています。
OmniXtendは、低コストのイーサネットを活用し、オープンスタンダードのインターフェースをベースとした、初のキャッシュコヒーレントメモリーファブリックです。業界のあらゆるデバイスに採用される可能性があります。最近のRISC-Vサミットの基調講演(※4)において、シバラム博士は、オープンソースコミュニティに対して、メモリー中心の革新における次のステップとして、統一されたオープンコヒーレンシー・バスを構築するよう呼びかけました。

ソフトウェアがスケールを飛躍的に加速する

ソフトウェアに関しては、ムーアの法則によってアプリケーションが絶え間なく高速化されました。プログラマーは、非効率性やオーバーヘッドを無視して機能の開発に注力しました。しかし、CPUが限界に達しつつある今は、ソフトウェアがそれを補うことになります。
幸いなことに、ソフトウェア言語は進化を続け、プログラマーは新しい言語を開発しています。最新の言語であるPythonの性能を1,000倍に改善することも可能という意見もあります。
しかし、それだけではありません。
アーキテクチャがワークロードに特化したハードウェアにシフトしていくのであれば、デバイスがエンドアプリケーションを深く理解しているときに最大のメリットが得られます。またその逆も然りです。効率とパフォーマンスを向上させるには、ハードウェアとソフトウェアを慎重な方法で結合させることにかかっています。
ニュー博士にとっては、この哲学こそが次世代のソリューションを推進します。「特定のハードウェア機能を実行するデバイスを開発するのは簡単ですが、それをソフトウェアでサポートできるようにしなければなりません」と彼は述べています。彼のチームが取り組んでいるZoned Storageは、ストレージデバイスとソフトウェアスタックの関係を根本的に変えてしまう概念です。
「データセンターでは、規模が深刻な問題になりつつあります。すべての非効率性が積み重なっていくからです」と、ウエスタンデジタルのシステムアーキテクチャチームを率いるフェローのイーハブ・ハマディ(Ihab Hamadi)は述べています。ハマディは、アプリケーション、ソフトウェアライブラリ、ミドルウェアから始まり、ファイルシステムやドライバを備えたOSに至るまで、ストレージスタック全体にわたって、最適化が必要な部分は事欠かないと考えています。
ハマディは、場合によっては複数のレイヤーが同じ基本操作を繰り返すことで、スペースを無駄にして障害を引き起こしているケースがあると説明しています。しかし、現状を変えるということは、ソフトウェアホストがデバイスとやりとりするための新しい方法を作り出すことになります。「大規模なデータセンターサービスでは、慣れ親しんだ使いやすいブロックレベルのインターフェースを見直すだけでなく、Zoned Namespaces (ZnS)を検討する必要があります。これは困難な作業ですが、私たちはソフトウェアの移行を容易にすることに重点を置いています」。

その先にある未踏の地

シバラム博士にとっては、業界はすでにデータ中心の時代に突入しており、パフォーマンスの向上だけでなく、急増したデータから最大限の価値を引き出すことが目標となっています。彼は、この変化はウエスタンデジタルにとって重大な責任があると考えています。「これほど膨大なデータは、保存されなければ役に立ちません。しかし保存されているということは、結局、どこかでビット反転が起きているということ」と彼は言います。

ムーアの法則は大変輝かしい旅路でした。その終焉は、ゴツゴツした岩山が待ち受けるといった劇的なものよりは、穏やかなものに近いですが、それが本当に意味することは異なります。技術革新は留まることはありませんが、業界がこれまでに知っていたものとは本質的に異なるものになるでしょう。創造的な破壊のための武器を求める声もあれば、革新への自由を求める声も聞こえてきます。

※1…フラッシュメモリーサミット2020講演の模様はこちら(英語)
※2…Yan Li(ヤン・リー)博士を紹介したコラムはこちら(6/25公開ブログ)
※3…「OmniXtend」を紹介したWestern Digital BLOGはこちら(英文)
※4…「RISC-V Sumit」基調講演の模様はこちら(英語)

著者:Sophie Dillon Ronni Shendar
※Western Digital BLOG 記事(FEBRUARY 23, 2021)を翻訳して掲載しています。原文はこちらから。

戻る