第6章: ロジック半導体 — CPU・GPU・SoC・AIアクセラレータ
2023 年、NVIDIA の株価が 1 年で 3 倍になった。 理由はたった一つ ── 同社の GPU が、生成 AI を動かす唯一の現実的な計算機になったから。
10 年前まで、GPU はゲーム機やグラフィックボード用の脇役だった。
それがいま、世界経済の中心に座っている。
なぜ GPU が選ばれたのか。CPU では駄目だったのか。
そして、その背後にある ロジック半導体 という大陸はどうなっているのか。
6.1 ロジック半導体とは何か
ロジック半導体 とは、ひとことで言えば 「計算する半導体」。 プログラムの命令を読み、論理ゲートを駆使して計算を行い、結果を出力する ── これを全部担当するチップだ。
代表的なカテゴリは次の通り:
| カテゴリ | 主な役割 |
|---|---|
| CPU | 汎用計算。一つ一つの命令を順番に高速に処理 |
| GPU | 大量の並列計算。元はグラフィック、いまはAI |
| SoC | スマホ向け。CPU+GPU+NPU+モデム+その他を統合 |
| AIアクセラレータ / NPU / TPU | AI 推論・学習に特化 |
| MCU | 小型機器に組み込む小さい CPU + 周辺機能 |
| FPGA | 後から回路を書き換えられる柔軟チップ |
| ASIC | 特定用途専用のカスタムチップ |
6.2 CPU — 一人の天才が順番に解く
CPU (Central Processing Unit) は、汎用コンピュータの中央演算装置。 何でもできるが、本質的には 「複雑な命令を 1 つずつ順番に処理する」 設計だ。
CPU の内部には、命令を取り出す フェッチ、解読する デコード、実行する エグゼキュート、結果を書き戻す ライトバック という一連の流れがある(パイプライン)。
現代のCPU は、
- コアを増やす(マルチコア) ── 同時に何個の処理ができるか
- 命令を先読みする(投機実行・分岐予測) ── 待たずに次へ進む
- キャッシュを大きくする ── メモリアクセスを減らす
という工夫で性能を上げてきた。だが、根本的には「一人の天才が頭の中で順番に解く」 スタイルである。
CPU は 「複雑な仕事を順番に処理する」 専門家。
得意:分岐が多い処理、OS、ブラウザ、データベース、Excel。
不得意:単純な計算を何兆回も繰り返す処理(AI、グラフィック)。
主要プレイヤー:
- x86: Intel、AMD(PC、サーバ)
- Arm: Apple Silicon、Qualcomm、AWS Graviton(スマホ、最近はサーバ・PCも)
- RISC-V: 中国系を中心に台頭中(IoT、組み込み、最近は AI チップにも)
6.3 GPU — 大勢で同時に解く(なぜAIに化けたか)
GPU (Graphics Processing Unit) は元々、画面に絵を描くための専用チップだった。 3D グラフィックでは、画面の 数百万ピクセル に対して 同じ計算を並列に 行う必要がある。だから、GPU は CPU と真逆の設計になった。
| CPU | GPU | |
|---|---|---|
| コア数 | 数個〜数十個(大型・賢い) | 数千〜数万(小型・単純) |
| 得意 | 複雑な単体タスク | 大量の単純タスクを並列 |
| 設計思想 | 強い少数精鋭 | 大群衆 |
GPU は「大勢の素人を一斉に動かす」スタイル。1 人 1 人は CPU よりずっと弱いが、何千人もいる。
2010 年代、深層学習ブームが来たとき、研究者は気づいた ── 「ニューラルネットの学習って、要するに 行列の掛け算を死ぬほどやるだけ じゃないか?それなら GPU でやれる」
これが運命の分かれ目になった。 NVIDIA は CUDA という GPU 向けプログラミング環境を 2006 年から地道に整備していた。 AI ブームが来たとき、CUDA で動くソフトウェアエコシステムがすでに揃っていたのは NVIDIA だけだった。
GPU が AI の主役になったのは、技術的必然と CUDA という 20 年仕込み の組合せだった。
他社は同じ性能の GPU を作っても、ソフトの牙城に阻まれて勝てない。
ハードでなくソフトの堀 が NVIDIA の本当の強さ。
6.4 SoC — スマホの中の小さな都市
SoC (System on a Chip) は、CPU・GPU・NPU・モデム・カメラ ISP・各種コントローラなどを 1 枚のチップに統合 したもの。
スマホは小さくて、電池の制約が厳しい。だから「いろんな機能をそれぞれ別々のチップに載せる」のではなく、全部を 1 つのチップに統合 する設計が選ばれる。
代表例:
| SoC | メーカー | 主な搭載先 |
|---|---|---|
| Apple A シリーズ / M シリーズ | Apple(製造は TSMC) | iPhone、iPad、Mac |
| Snapdragon | Qualcomm | Android スマホ全般 |
| Dimensity | MediaTek | Android スマホ(中・廉価) |
| Exynos | Samsung | Galaxy 一部モデル |
| Tensor | Google(製造は Samsung) | Pixel |
| Kirin | HiSilicon(Huawei 系列) | Huawei スマホ |
スマホ 1 台に半導体は数百個入っているが、全体性能の 8 割は SoC が決める。 だから「Apple M4」「Snapdragon 8 Gen 4」などの SoC 名が、商品の世代を表す目印になる。
6.5 AIアクセラレータとNPU — 行列計算に特化する
GPU で AI が動くと分かったが、GPU は元来グラフィック用なので、AI 向けに最適化すればもっと速くなる。 そこで生まれたのが AI アクセラレータ たちだ。
| 略称 | 意味 | 代表 |
|---|---|---|
| NPU | Neural Processing Unit | Apple M シリーズ内蔵、Qualcomm SoC、Intel CPU |
| TPU | Tensor Processing Unit | Google(自社データセンター専用) |
| AI ASIC | AI 専用 ASIC | Amazon Trainium、Microsoft Maia、Meta MTIA |
| AI GPU | AI 向け強化 GPU | NVIDIA H100/H200/B200、AMD MI300 |
これら全部の共通点は、行列演算(特に積和演算)を高速・高効率で実行する こと。 ニューラルネットの本体は 巨大な行列の掛け算とソフトマックス なので、これに特化すれば消費電力あたりの性能は GPU の数倍〜数十倍にまで上がる。
エッジ AI とクラウド AIエッジ AI(スマホ・PC・カメラ上で動かす)→ NPU が主役 クラウド AI(データセンター)→ GPU と AI ASIC が主役 ニュースで AI 半導体と聞いたら、まずどちらの話か区別すると見通しが良い。
6.6 x86 / Arm / RISC-V — 命令セットという土俵
CPU や SoC の話で必ず出てくるのが 命令セットアーキテクチャ (ISA) だ。 これは「CPU がどんな命令を理解するか」のルール集。
| ISA | 主用途 | 持ち主 |
|---|---|---|
| x86 / x86-64 | PC、サーバ | Intel と AMD で実質的に独占 |
| Arm | スマホ、組み込み、最近サーバ・PC へ拡大 | Arm Ltd(英、ソフトバンク傘下) |
| RISC-V | IoT、組み込み、新興 AI チップ | オープン規格(誰でも使える) |
| POWER | 旧来の IBM 系 | IBM |
特に Arm は ライセンス販売モデル で、設計図を世界中のチップメーカーに提供する。Apple Silicon も Qualcomm Snapdragon も AWS Graviton も、根は Arm。
RISC-V はオープン規格で、ロイヤリティが不要。米中対立の中で 中国 が特に注力している。NVIDIA や Western Digital も内部マイコンに採用しており、台頭中。
2020 年に Apple が「Mac を x86 から自社 Arm SoC に切替える」と発表したとき、業界は震えた。
それまで PC = x86 という常識が崩れたからだ。
2024 年には Microsoft も Qualcomm の Arm SoC を載せた Copilot+PC を出した。
PC 市場の x86 独占が終わりつつある ── これがいまリアルタイムで起きている。
6.7 王者NVIDIAとライバルたち
ロジック半導体の現代の主役を、ここで一覧しておく。
データセンター向け GPU / AIチップ:
- NVIDIA: 圧倒的シェア(80%超)。H100→H200→B100→B200。CUDA エコシステムが堀
- AMD: MI300 シリーズで肉薄を狙う
- Google TPU, AWS Trainium, Microsoft Maia: ハイパースケーラーの内製チップ
- Cerebras, Groq, SambaNova: AI 専用スタートアップ
- 中国系: Huawei Ascend、Cambricon、Biren など(米国の輸出規制で苦戦)
PC・サーバ CPU:
- Intel: Core / Xeon シリーズ。シェアは AMD に少しずつ奪われている
- AMD: Ryzen / EPYC シリーズ。先端プロセスを TSMC で製造
- Apple: M シリーズで MacBook の世界を変えた
スマホ SoC:
- Qualcomm: 米国・サムスン・シャオミ系
- MediaTek: 中華系・廉価帯で世界一の出荷量
- Apple: 自社専用、iPhone のみ
- Samsung LSI: Exynos、自社 Galaxy 一部に採用
ロジック半導体は、設計 で価値が決まる世界。
製造(ファブ)は TSMC に外注するファブレスがほとんど。
だから NVIDIA・Apple・Qualcomm は「ファブを持たないが時価総額世界トップクラス」になれる。
詳しくは第 13 章「水平分業の地図」で扱う。
6.8 FPGA と ASIC ── 残りの2つ
最後に、ニュースで時々出るがやや脇役の 2 つを紹介。
FPGA (Field-Programmable Gate Array): 製造後にユーザー側で回路構成を書き換えられるチップ。試作・少量生産・通信機器・データセンター加速で使われる。AMD(旧 Xilinx を買収)と Intel(旧 Altera を吸収、後にスピンオフ)が二大勢力。
ASIC (Application-Specific Integrated Circuit): 特定用途専用に設計したカスタムチップ。設計コストはかかるが大量生産でコスパ最強。 ビットコインのマイニングチップ、Google TPU、各社の AI アクセラレータも広義の ASIC。
6.9 この章の振り返り
- ロジック半導体は 「計算する」半導体。CPU・GPU・SoC・AIアクセラレータ・MCU・FPGA・ASIC
- CPU は順番処理が得意、GPU は大量並列が得意。AI で GPU が主役になったのは行列演算と CUDA エコシステムの組合せ
- SoC は CPU+GPU+NPU+モデム等を 1 チップに統合したもの。スマホの心臓
- AI 専用アクセラレータ(NPU、TPU、AI ASIC)は 行列演算特化 で GPU 比効率が高い
- 命令セットは x86・Arm・RISC-V の三大勢力で動いている
- 王者は NVIDIA、ただしハイパースケーラーの内製化と中国勢の追い上げが進行中
この章で読めるようになるニュース
- 「NVIDIA H200 の出荷遅延、HBM 不足が原因」 → AI GPU の話。HBM は第 7 章で詳述
- 「Apple、M5 チップを TSMC の 2nm で量産開始」 → Apple の Arm SoC、製造は TSMC、最新プロセス、と即わかる
- 「RISC-V 採用が中国で急増、米国の制裁を回避」 → オープン命令セット RISC-V が地政学の文脈で重要、と理解できる
- 「Google TPU v6 でジェミナイ学習」 → Google 自社設計の AI アクセラレータ、と認識できる
次章は メモリ半導体。 “覚えておく” だけのチップが、いま AI 時代に GPU と並ぶ主役になっている話だ。