Google⁠Gemini 3 Proプレビューを提供開始 —⁠—エージェント活用する新しいIDE「Google Antigravity」リリース

Googleは2025年11月18日、最新AIモデル「Gemini 3」を発表し、同日よりGemini 3 Proのプレビューの提供を開始した。これまでのGemini 2.5を大きく上回る推論能力、マルチモーダルへの理解力、エージェント能力をもつモデルとなっている。また今回の発表にあわせて、Gemini 3 ProプレビューがGeminiアプリやGemini API、Gemini CLI、エンタープライズ向けのVertex AI、開発者向けのAI Studio、Android Studio、新しくリリースされたIDE「Google Antigravity」で利用可能になっていること、さらにGoogle検索のAIモードでの活用も始めている。

Gemini 3 ProとGenerative UI

Gemini 3 Proの推論能力や画像や動画、音声といったソースへの理解力、エージェントとしてのコード生成・タスク遂行能力について現時点でもっとも優れていることが、提供されているベンチマークから見て取れる。

Gemini 3自体がもっている知識はモデルカードによると2025年1月までのものだが、ツールとして検索も使えるため最新情報へのアクセスもできる。安全性については同社のFrontier Safety Frameworkによる評価に加え、専門家チームや外部機関との連携による評価が行われたことで、Geminiシリーズでもっとも安全性に配慮したモデルであることを強調している。今後、⁠Gemini 3 Deep Think」モードの提供予定や、Gemini 3のモデルファミリーとして追加モデルの投入を示唆している。

Gemini 3 Proを使うときには、入力プロンプトは明確で簡潔にすることが望ましく(冗長だったり過度に複雑なプロンプトは過度に分析される可能性がある⁠⁠、大規模なデータを扱う場合はデータコンテキストの後に、プロンプトの最後に具体的な指示や質問を配置するのが良いとのこと(詳しくは、Gemini APIのプロンプトエンジニアリングガイドのGemini 3の項を参照のこと⁠⁠。応答スタイルは、お世辞や定型的な表現を避けて簡潔で直接的な回答を返すように調整されており、ユーザーにとって「都合が良い」答えではなく「知るべきこと」を伝えるパートナーとして設計されている。ブログでは利用シナリオとして「学ぶ」⁠作る」⁠計画する」の3つに分けて取り上げている。

また、ユーザーのプロンプトに応じた画面構成やUIインタラクションをコードとして生成する能力を高めるために、Googleはツールアクセス・緻密なシステム指示・後処理を組み合わせた「Generative UI」を導入し、Gemini 3と組み合わせて活用している。これによって、GeminiアプリやGoogle検索のAIモードで、画像などを組み合わせたレイアウト、インタラクティブなインターフェースの埋め込みが強化されている(Generative UIの詳細は、Google Researchのブログを参照のこと⁠⁠。

Geminiアプリでの利用

Geminiアプリでは、Gemini 3 Proプレビューがすでに提供開始されている(18歳未満のユーザーには提供されていない⁠⁠。

モデルの選択は「Fast」「Thinking」から選べるようになっており、Thinkingを選択することでGemini 3 Proを利用した推論が可能になる。

Fastはスピードを重視して設計された強力で効率的な主力モデルと説明されているが、具体的なモデル名の言及がされていない。なお、Google AIプラン(相当)に加入していない場合はThinkingは1日5回、コンテキストウィンドウは3万2千に制限される。Google AI ProおよびUltraユーザーは1日100回/500回、100万トークンのコンテキストウィンドウを備える(詳しくはGeminiアプリのヘルプを参照のこと。なお1時間までの動画のアップロードが可能⁠。

Geminiアプリの回答において、Generative UIを使ったジェネレーティブインターフェース(ビジュアルレイアウトとダイナミックビュー)が実験的に導入された。機能が有効化されていれば、プロンプト入力欄においてビジュアルレイアウトまたはダイナミックビューを選択して利用できる。ビジュアルレイアウトは画像を含めた雑誌スタイルの見せ方で回答を生成する。Geminiに「来年の夏のローマへの3日間の旅行を計画して」と頼めば、実際に探索できるビジュアルな旅程表が表示される。またダイナミックビューは、カスタムユーザーインターフェースをリアルタイムで設計・コーディングする。Geminiに「ゴッホ美術館の各作品について、その作品の時代背景を交えて説明してください」と指示すると、タップやスクロールといった操作が可能なインタラクティブな応答が生成される。

また米国のGoogle AI Ultra加入者向けに、Geminiアプリで「エージェント」機能が実験的に提供開始されている。ディープリサーチ、Canvas、GmailやカレンダーなどのGoogle Workspaceアプリとの接続、ライブウェブブラウジングなど、ツールを使って複数ステップのタスクをGeminiアプリ内で処理できるようになる。たとえば、⁠旅行を予約する」⁠価格を比較する」といったことが可能になる。エージェントは、購入や重要なアクション前にはユーザーの確認を求めるように設計されている。

Google WorkspaceにおけるGemini 3についてはGoogle Workspace Updatesを、Gemini Enterpriseについてはそのリリースノートを参照のこと。

Google検索のAIモード

Google検索のAIモードにGemini 3が統合され、米国のGoogle AI Pro/Ultraのユーザーは、AIモードのモデル選択メニューから「Thinking」を選択することでGemini 3 Proを指定できるようになった。

Gemini 3の推論能力を用いることで、1回の質問を内部で複数のサブトピックに分解し、それぞれに関連する検索を並列におこなう「query fan-out technique」が強化され、より信頼性が高く関連性の高い情報を拾いやすくなったという(query fan-out techniqueの詳細は、2025年5月に公表したAI Overviews and AI Mode in Searchも参照のこと⁠⁠。

またThinkingを選択すれば、Gemini 3とともにGenerative UIが使われるため、回答によっては画像などが組み込まれたレイアウトやインタラクティブなツールの埋め込みがおこなわれるようになる。

さらに米国のGoogle AI Pro/Ultraのユーザーを対象に今後数週間のうちに、AIモードやAIによる概要(AI Overviews)において、検索の難易度に応じて回答を生成するモデルが自動で選択されるようになる。難易度の高い質問の場合にはGemini 3が選択されて回答が生成されることになる予定。

Gemini API⁠Gemini CLI⁠開発環境

Gemini 3 Proプレビューのコーディングの能力は、Genmini 2.5から比べると飛躍的に伸びている。また、エージェントを使ったワークフローや、複雑なゼロショットタスクへの対応も兼ね備えるという。Gemini APIで利用可能で、モデルの内部推論の深さを調整するthinking_level、ビジョントークンの使用を定義するmedia_resolution、マルチツールワークフローでエージェントの推論を維持するthought_signatureを使うことができる。

Gemini CLIでは現在、Google AI Ultraプランユーザーと有料のGemini APIキー契約者がGemini 3 Proプレビューを利用できる。

AI StudioAndroid StudioでもGemini 3 Proプレビューが利用可能になっている。それぞれ無料のデフォルト枠が設けられている。またFirebaseでは、AI Logic client SDKを通じてGemini 3を利用できるようになった。BlazeプランであればGemini API経由でGemini 3 Proプレビューに直接アクセスできる。

また、GeminiアプリのビジュアルレイアウトはFlutterが活用されているが、これに触発されてFlutter向けのGenUI SDKが開発したことが報告されている。このGenUI SDKは、GoogleのA2AチームとGoogle LabsのOpalチームとの協力のもと、近々リリース予定のA2UIプロトコルをベースに構築されているという。これを使うことでGeminiアプリのビジュアルレイアウトと同じような動的でインタラクティブな生成が可能になる。

Google Antigravity

GoogleはGemini 3の発表にあわせて、Agentic development platformとして新しいIDEGoogle Antigravityもリリースした。Windows、macOS、Linuxの各OSのアプリケーションが提供されいる。

Antigravityは、複数のワークスペースで動作するエージェントをまとめて扱えるようにし、開発者が「どのタスクをどう進めるか」に集中できるよう設計されている。エージェントはタスクを進めたり自分の考えをユーザーに伝えたりするために、リッチなMarkdown文書やdiffビュー、アーキテクチャ図、画像、ブラウザ録画、コードの差分などの「Artifacts(アーティファクト⁠⁠」を生成する。アーティファクトは主にPlanningモード中に作られ、Agent Managerとエディタの両方に表示される。Agent Managerはこれらのタスクとアーティファクトを整理・管理し、進捗や履歴を一覧するビューとして機能する。設定に応じて、エージェントが途中段階のアーティファクトについてレビューを求めることもあり、ユーザーはそこにフィードバックを入力することで、エージェントの思考や実装の方向性を細かく修正できるようになっている。

またエージェントは、エディタ/ターミナル/ブラウザを自律的に行き来し、タスクを実行する。このときブラウザエージェントは、ダッシュボードの閲覧やソースコード管理画面での各種操作、UIテストといった開発タスクをブラウザ上でおこなう。

Google Antigravityの利用にはGoogleアカウントが必要で現在は非Workspaceである個人のGoogleアカウントのみに対応⁠、現在月額0円の「Individual」プラン(公開プレビュー)が利用できる。IndividualプランではGemini 3 Proのほか、Claude Sonnet 4.5、GPT-OSSへアクセスが可能になっている。また、Tabの補完とCommandリクエストの無制限利用などが含まれる(以上、比較的ゆとりのあるレート制限とのこと⁠⁠。なお、Antigravityではモデルの評価・開発・改善のためのデータ収集がデフォルトで行われるが、アカウント管理画面でオフにできる。今後、少人数チーム・組織向けの「Team」プラン、企業向けサポートのある「Enterprise」プランの提供も予定されている。

おすすめ記事

記事・ニュース一覧