Apple M5のFusionアーキテクチャは何がすごい?専門家・植田雄輝がその本質とAIへの影響を解説

皆さん、もうこのニュースはご覧になりましたか?

3月3日、Appleが新チップ「M5 Pro」と「M5 Max」を発表しました。同時に新しいMacBook Proも登場して、ネット上ではかなり盛り上がっていますよね。

で、今回のポイントはひとつだけ。

「Fusionアーキテクチャ」という、まったく新しいチップの作り方を採用してきたことです。

 

これって要するにどういうこと?

これまでのAppleのMシリーズチップって、1枚の大きなチップにCPUもGPUもメモリも全部詰め込む「モノリシック(一枚岩)設計」だったんですね。つまり、ひとつの基板に全機能をギュッと載せる方式です。

今回のFusionアーキテクチャは、ここが根本的に変わりました。2つのチップ(ダイ)を1つにくっつけて動かすという設計になったんです。

わかりやすく言うと、これまでは「1人の天才に全部やらせていた」のが、「得意分野の違う2人のエキスパートを組ませた」ようなものです。CPUを担当するダイとGPUを担当するダイを、高速な通信でつないで1つのチップとして動かす。だからこそ、それぞれの性能を独立して伸ばせるようになったということなんですね。

 

数字で見ると、進化がエグい

実は今回、スペックの伸びがかなりすごいんですよ。

CPUは合計18コア。そのうち6つは「スーパーコア」と呼ばれる最高性能のコアで、Appleいわく”世界最速”だそうです。残りの12コアも新設計の高性能コアで、マルチスレッド処理に特化しています。前世代のM4 Pro/Maxと比べてプロ向けの処理性能が最大30%アップ、M1世代と比べると最大2.5倍というふうに言われています。

そしてGPUは最大40コア。面白いのはここで、各GPUコアに「Neural Accelerator」というAI専用の処理ユニットが入っているんです。これによって、AIの処理性能が前世代比で4倍以上になったと。M1世代からだと8倍です。

メモリもM5 Proが最大64GB、M5 Maxが最大128GB。帯域幅もM5 Maxで毎秒614GBと、大規模な言語モデル(LLM)をノートPC上で動かせるレベルに達しています。

 

これ何が関係あるの?

「いやいや、そんなハイスペックいらないよ」と思った方、ちょっと待ってください。

ポイントは「AIがクラウドじゃなくて手元のPCで動く時代が来ている」ということなんです。

今って、ChatGPTにしろ画像生成AIにしろ、ほとんどがクラウド(ネット上のサーバー)で処理していますよね。でもこの流れが少しずつ変わってきていて、手元のパソコンでAIを動かす「オンデバイスAI」が現実的になりつつある。

なぜかというと、クラウドだと月額費用がかかるし、機密データを外部に送ることへの不安もある。自分のPC上でAIが動けば、コストもセキュリティも自分でコントロールできるわけです。

今回のM5 Pro/Maxは、まさにそこを見据えた設計になっている。だからこそ「今すぐ買いましょう」という話ではなくて、「PCの性能がAI前提で進化し始めている」という流れを知っておくことが大事だというふうに思っています。

 

まとめ

Apple M5 Pro/M5 Maxは、新しいFusionアーキテクチャで2つのダイを1チップに統合し、CPU・GPU・AI性能すべてを大幅に引き上げてきました。新しいMacBook Proは3月11日から販売開始です。

個人的に一番注目しているのは、「ノートPCでローカルにAIを回せる」という方向性がどんどん加速しているということ。これは今後、業務の効率化やコスト削減にもつながってくるテーマなので、ぜひともね、頭の片隅に置いておいていただければと思います。