ForgeVision Engineer Blog

フォージビジョン エンジニア ブログ

【re:Invent 2025】「Why not?」から始まるエージェント AI 時代と、AWS のフルスタック戦略

こんにちは、AWS グループの尾谷です。

先週、re:Invent 2025 に参加しておりました。

自分の中で情報をまとめるのに時間がかかりましたが、AWS の今後数年間の方向性を示す、極めて重要なセッションである CEO キーノートを 4 つのテーマにまとめてみようと思います。

本ブログで説明すること

  • AWS は「エージェント AI スタック」を 4 レイヤーで整理し、フルスタック戦略を明確化
  • Trainium3 / P6e-GB300 / Graviton5 / AI Factories で AI インフラを強化
  • AgentCore + Strands で「エージェント本番運用の OS」を提供、PoC から本番へ一気に進める土台が揃った

Why not?

2024 年から 2 回目となる Matt Garman さんの Keynote。
テーマは「Why not?」でした。

techblog.forgevision.com

“Why not?”(なぜやらない?)

「制約や前提で自分たちの限界を決めてしまっていないか?」という問いかけから、限界を解き放つというメッセージに「Why not?」 が使われて、何度も登場しました。

オープニングムービーから登場し、その後、何度もリフレインされる Why not? 今年のキーノートのテーマです

最後の 10 分で 25 のサービスアップデートを一気に発表する、というタイムアタックを披露されたのですが、その際にも「Why not?」が登場しました。

本記事では、そんな Matt さんのキーノートで語られたテーマから、エンジニア目線で押さえておきたいポイントをまとめます。

Why not? – 限界を勝手に決めないというメッセージ

セッション前半では、「もし〜なら諦めるしかない」と考えてしまう典型的なシチュエーションがいくつか紹介されました。

  • GPU や電力が足りないから、大規模モデルは諦める
  • データ主権やコンプライアンスが厳しいから、最新 AI はクラウドに出せない
  • エンジニアが足りないから、業務の自動化は一部だけにとどめる

こうした「暗黙の制約」のような線を引いてしまうことこそが、イノベーションの敵だ、というメッセージだったと感じます。

The future belongs to - 未来は開発者が作る

AWS は 2006 年の創業当初から「開発者ファースト」を掲げ、「発明の自由を与えること」をミッションに、インフラ調達・運用の負荷をクラウドを介して肩代わりしてきました。
今回の re:Invent では、その発想を AI インフラとエージェント AI にまで拡張した形で語られていました。

このエピソードでは、パートナー企業、スタートアップだけでなく、AWS Hero や、User Community にも敬意が送られ、胸が熱くなりました。

この後、Hero だけでなく、User Community にも敬意をいただけました!

4 つのレイヤーで見る「エージェント AI スタック」

キーノートでは、エージェント AI を本番運用するための 4 つのコンポーネントとして、次のレイヤーが紹介されました。

  • AI インフラ
    カスタムシリコン(Trainium / Graviton / GPU)やネットワーク
  • 推論プラットフォーム
    Amazon Bedrock を中心としたマネージド推論基盤
  • データ活用
    企業データの取り込み・ベクトル化・検索・ガバナンス
  • エージェントを構築するためのツール
    AgentCore や各種SDK、フレームワーク

以降はこの 4 レイヤーに沿って、重要だと感じたポイントを整理します。

レイヤー 1:AI インフラ

モデルの推論や、学習に欠かせない AI インフラも昨年のアップデートから順当にアップデートされたイメージです。

AI インフラとして発表されたサービスたち

昨年の re:Invent 2024 では、Trn2 UltraServers と次世代のチップとして、Trn3 が発表されましたが、今年も順当にナンバリングがアップデートされました。

  • EC2 P6e インスタンス *1
  • AWS Trn3 UltraServers のアナウンス(2024 に発表された Trn2 UltraServers からのアップデート)*2
  • Trainium 4 チップ (アナウンスのみ)
  • Graviton 5 *3
  • AWS AI Factories *4

UltraServer に関しては、Anthropic や Ricoh などがすでに学習・推論で利用し、最大 50% のコスト削減を実現している事例も紹介されていました。

Trn3 UltraServers は「単一インスタンスで 362 FP8 ペタフロップス」という数字が強調されており、「GPU だけではない大規模 AI インフラの選択肢」として位置づけられていました。

Trainium 4 – 次世代チップ

キーノートでは、次世代となる Trainium 4 の開発に関しても言及がありました。
以下の性能が見込まれるとのことです。

  • Trainium 3 比で 最大 6 倍の演算性能 (FP4)
  • メモリ帯域・容量も大幅増
  • NVIDIA の NVLink Fusion と連携したラックスケールの AI インフラを構想

「GPU 不足で大規模モデルのトレーニングができない」というボトルネックに対して、カスタムシリコン + NVLink という別ルートを提示しているのが印象的でした。

Graviton 5 – 汎用ワークロード向けにも地道にアップデート

AI に目が行きがちですが、汎用 CPU の Graviton 5 も発表されました。

  • 1 チップあたり最大 192 コア
  • キャッシュが前世代から 5 倍になった
  • 既に 上位 1,000 社の 98% が Graviton を利用しているという数字も紹介

AI 以外の既存ワークロードを Graviton 世代に寄せていくことで、インフラ全体の TCO を下げつつ、AI 用リソースを捻出するストーリーが見えてきます。

AWS AI Factories – お客様 DC 内に AI リージョン を持ち込む

AWS AI Factories は、お客様のデータセンター内に、専用の AWS AI インフラを丸ごと展開するサービスです。

  • Trainium 3 UltraServers や NVIDIA GPU、AWS ネットワーク機器などをセットで提供
  • Amazon Bedrock や SageMaker AI などのAIサービスに プライベートに接続
  • データ主権や厳しいコンプライアンス要件を満たしつつ、クラウド並みのスピードでAIを活用

「完全オンプレ」か「完全クラウド」か、という二択ではなく、AWS が持ち込む半オンプレ AI 工場 という第三の選択肢が提示された形です。

レイヤー 2:推論プラットフォーム

推論プラットフォームも順当にアップデートされた印象を持ちました。

推論プラットフォームで発表されたサービスたち

  • Nova 2 とオープンウェイトモデルの拡充
  • Amazon Nova Forge *5
  • Amazon Bedrock モデル追加 *6

Amazon Nova 2 - Andy が発表した Amazon Nova がバージョンアップ

昨年のキーノートでは、Amazon の CEO である Andy Jassy が、Amazon のユースケースを話す流れから、Nova を発表しました。
今年のキーノートでは、Matt さんから AWS 自社モデルとして発表されました。

  • テキスト・画像・動画・音声・ドキュメントを扱える マルチモーダルモデル
  • 最大 100 万トークンのコンテキストに対応
  • 用途に合わせた複数のバリエーション
    • Nova 2 Lite: 日常的な推論・エージェントの「普段使い」向け、価格性能重視
    • Nova 2 Pro: マルチドキュメント解析、動画推論、ソフトウェア移行など 高度な推論タスク向け
    • Nova 2 Sonic: 音声入出力に最適化された speech-to-speech モデル

Nova 2 Lite では、分かりやすいステップごとの推論(extended thinking)を必要に応じて ON にするといった、エージェント志向の機能も強調されていました。

レイヤー 3:データ活用

Bedrock の内部で利用されるデータは、利用するモデルに漏れて学習に利用されることはないと説明されていました。
入力したデータが、学習に利用されることがないという仕様は、Amazon Bedrock が登場した 2023 年から変わっていません。

Amazon Bedrock doesn't store or log your prompts and completions. Amazon Bedrock doesn't use your prompts and completions to train any AWS models and doesn't distribute them to third parties. Data Protection

これに加え、どの企業も自社のデータを考慮した回答ができる独自のモデルを求めている という話の流れから、Nova Forge が発表されました。

Amazon Nova Forge – Frontierモデルを「自社モデル」にする道具

Amazon Nova Forge は、Nova ファミリーをベースに自社専用のフロンティアモデルを作るためのサービスです。

  • 既存の Nova モデルを「スターターモデル」として選択
  • 事前学習済みチェックポイント+Amazon のキュレーションデータ+自社データを組み合わせて学習
  • 「Novella」と呼ばれる、自社専用フロンティアモデルを作成

ただ、Amazon Nova Forge の価格は、年間 10 万ドルからとされており、スクラッチでモデルを作るよりは安価とはいえ、データを外部に流出できないエンタープライズ向けのサービスだとみました。
Nova Forge は、SONY でも利用されているようです。

Amazon Bedrock のモデル拡充

モデル選択肢としての Amazon Bedrock も大きく拡張されています。

  • Mistral Large 3 / Ministral 3 シリーズなど 18 のオープンウェイトモデルが追加
  • Google の Gemma 3 や NVIDIA の Nemotron など、主要ベンダーのモデルを幅広くサポート
  • 「1 つの API から多様なモデルを試し、入れ替えながら使う」前提のアーキテクチャ

特に、Google のモデルが Bedrock から使えるようになったのは非常に驚きました。
今年の 11 月には、OpenAI とのパートナーリングも発表されました し、特定ベンダーにロックインされない GenAI プラットフォーム としての方向性がよりはっきりしたように感じます。

レイヤー 4:エージェント構築 – Bedrock AgentCore とエージェントSDK

そして、最後のレイヤーとして、re:Invent 2025 のメインとも言える AI エージェントの話へと展開していきました。

AI エージェントとは何か

今回、AgentCore が多く発表されましたが、Matt さんは、AI エージェントに馴染みのないお客様に向けてかなり丁寧に説明されたように印象を受けました。

  • AI エージェントは「人間の介入を最小限に抑えながら、与えられたゴールを自律的に達成しようと振る舞うAIシステム」

例えば「AI市場を調査してレポートをまとめて」と依頼すると、エージェントは、

  • 競合調査
  • 市場レポートの解析
  • 社内データとの付き合わせ
  • レポートの執筆・校正

といったタスクに自動で細分化し、それぞれにツールとデータを組み合わせながらワークフローを進めていきます。
つまり、AI エージェントは、生成 AI モデルの OS 的な存在といえます。

AI エージェントは生成 AI の OS 的存在

AI エージェントは、本番 AI システムを安全に運用するためには欠かせない基盤だと感じました。
そして、その安全性を担保するために、Policy in AgentCore が発表されました。
Policy in AgentCore の裏側では、AWS が開発したポリシー言語である CEDAR が利用されるようです。

また、回答が正しいかどうかを評価するサービスとして、AgentCore Evaluations が発表されました。

Strands Agents など、エージェントSDKの進化

エージェントアプリケーションを構築するための OSS フレームワークとして、AWS 製の Strands Agents も紹介されています。

  • Python 版で 300 万ダウンロード以上
  • 新たに TypeScript 対応(プレビュー) が追加され、CDK と組み合わせてフルスタックに構築可能
  • エッジデバイス上で動くエージェントもサポートし、自動車・ゲーム・ロボティクスなどのユースケースにも対応

12/5 の Japan Wrap-up セッションでは「AgentCore がインフラ側の土台、Strands などのSDKがアプリケーション側の構築ツール」という位置づけで語られていました。

aws.amazon.com

個人的なポイント整理

キーノートと、Japan Wrap-up を聞いて個人的に「ここは特に押さえておきたい」と感じたポイントを整理します。

まず、AI インフラは GPU だけの話ではなくなったと感じます。

具体的には、以下のとおりです。

  1. Trainium 3、4、Graviton 5、AI Factories など、自社の制約条件に合わせて組み合わせる時代に入っています。
  2. 今年の 6 月に開催された re:Inforce でも、生成 AI は得意不得意があり、決め打ちではなく、使い所を見極める必要があると言われていました。
  3. re:Invent 2025 では、生成 AI モデルがさらに充実し、最適なものを選りすぐる ポートフォリオ管理 に完全移行したと感じました。
  4. Bedrock 上で Nova 2・Mistral・Gemma などを並列に試し、ワークロードごとに最適な組み合わせを選べる前提で設計すべきなのでしょう。

エージェントは「PoCで遊ぶもの」から「本番インフラの一等地」へ

AgentCore のような専用基盤が出てきたことで、「本番運用に耐えるエージェント」を作る難易度が一段下がりました。
さらに、今後は AWS AI Factories や、Amazon Nova Forge といったサービスが、自社内のクローズドなシステム構築を手助けしてくれるようになるはずです。

まとめ

まとめますと、今年の re:Invent は、「AI エージェントを前提としたフルスタック AI インフラ」 を一気に揃えてきた印象でした。

  • チップ(Trainium / Graviton / GPU)
  • インフラ(UltraServers / AWS AI Factories)
  • モデル(Nova 2 / オープンウェイトモデル)
  • プラットフォーム(Bedrock)
  • エージェント基盤(AgentCore / Strands)

という、多重レイヤーが充実したことで、「Why not?(なぜやらない?)」という問いが、単なるスローガンではなく技術的に支えられた現実的な選択肢に近づいてきたと感じる、そんなキーノートだったと思います!

本ブログでは、触れませんでしたが、Kiro や 10 分間で 25 のサービスアップデートを発表するタイムアタック、SONY や Adobe といった企業のゲスト登壇など盛りだくさんの CEO キーノートでした。

ご興味を持たれた方は、是非、以下リンクから YouTube 動画をご覧ください。

youtu.be