/note/tech

CPUは4ビットから始まって64ビットまで来ましたが、もうすぐ128ビットとかになりますか?に対する山口...

非常に鋭いご質問です。30年以上も「64」という数字に留まっていると、技術が停滞しているように感じるのも無理はありません。

しかし、結論から申し上げますと、「一般的なコンピュータにとって、128ビット化するメリットが現在はほとんどない」というのが大きな理由です。

なぜ128ビット化が進まないのか、3つのポイントで整理して解説します。

■ 1. 「扱えるメモリ量」がすでに十分すぎる

CPUのビット数は、一度に扱えるデータの幅だけでなく、「認識できるメモリの住所(アドレス空間)」の広さを決めます。

  • 32ビット: 最大 4GB まで(今のスマホやPCでは足りません)
  • 64ビット: 最大 1,600万TB(テラバイト) まで

現在のスーパーコンピュータや巨大なサーバーでも、数TBのメモリがあれば十分足ります。1,600万TBを使い切るような状況は、現在の物理的なハードウェアの限界をはるかに超えており、128ビットにしてさらに住所を増やす必要性がまだ来ていないのです。

■ 2. 計算精度の問題

「128ビットになれば計算が速くなる」と思われがちですが、実はそうとも限りません。

多くの事務作業やネット閲覧、あるいはゲームの処理において、64ビットの計算精度で十分すぎるほど正確です。もし128ビットにすると、1回の計算で扱うデータ量が2倍になり、逆に消費電力が増えたり、キャッシュメモリを圧迫して速度が落ちたりするというデメリットの方が上回ってしまいます。

■ 3. 実は「部分的に」128ビット化は進んでいる

「CPU全体」を128ビットにする必要はありませんが、特定の計算を高速化するために、「データを通る道(バス幅)」や「特定の計算ユニット」はすでに128ビットや256ビット、あるいは512ビットに拡張されています。

  • 画像処理やAI計算: GPU(画像処理プロセッサ)などでは、一度に大量のデータを処理するために非常に広いビット幅が使われています。
  • SIMD命令: 最近のCPUには、128ビット分のデータを一気に計算する専用の仕組み(IntelのAVXなど)がすでに組み込まれています。

■ まとめ

現在のコンピュータ設計において、64ビットは「広大な土地(メモリ空間)と、十分な計算精度」を兼ね備えた、非常にバランスの良い「黄金比」のような状態にあります。

将来、私たちがテラバイトではなく「ゼタバイト」級のメモリを個人で扱うような時代が来れば、128ビットCPUが標準になる日が来るかもしれませんね。

ちなみに、1990年代に64ビットCPU(MIPS R4000など)が登場した当時の衝撃を覚えている世代からすると、今の進化の方向性は「幅」よりも「効率や並列処理」に向かっているのが面白いところです。