AI / Python / 動画生成
Google AntiGravity(Googleが提供するエージェント型AI)を本格的に検証する日にした。エージェント型AIとは、指示を受けて複数のステップを自律的に実行できるAIのこと。Claude Codeと似た立ち位置のツールだ。
Googleは画像生成・動画生成などの独自AIツールを持っているため、AntiGravityと組み合わせることで「テーマを渡すだけで動画が仕上がる」ようなパイプライン(一連の処理フロー)が現実的な射程に入っている感触があった。
今日は4つのテーマを一気に走らせた。
最初のテストは「ブラウザゲームを作ってもらう」こと。フレームワーク(Reactなどの開発補助ツール)を一切使わない縛りで、HTML・CSS・Vanilla JS(素のJavaScript)だけでテトリスを実装させた。
ダークモードとグラスモーフィズム(すりガラス風の半透明デザイン)を組み合わせたリッチなビジュアル、そして Gamepad API(ゲームコントローラーを認識するブラウザの機能)によるコントローラー操作にも対応させた。
エージェントAIが設計から実装まで一気通貫でやってくれる爽快さは、普通のチャットAIとは次元が違う。
「不思議な森に迷い込んだ女の子」をテーマに、1分・10カット構成のシナリオをAIと一緒に組み立てた。画像生成機能でキャラクターデザインと絵コンテ(カットの構図を描いたもの)を生成。
続いて、動画制作のパイプライン設計を行った。SeaDance 2.0(高品質動画生成AI)などのツールとローカルの FFmpeg(動画の変換・合成ができる無料ツール)を組み合わせる流れを整理した。
このセッションで一番手応えがあったのがこれだ。画像生成APIに頼らず、Pythonだけで動画を自動生成するシステムを構築した。テーマは「レンジで作る豚バラ塩ネギうどん」。
パイプラインは3ステップで完結する。
1. edge-tts(Microsoftの高品質テキスト読み上げエンジン)でナレーション音声を合成。
2. Pillow(Pythonの画像処理ライブラリ)でテキストをデザインしたスライド画像を自動生成。
3. MoviePy(Pythonの動画編集ライブラリ)で音声と画像をミリ秒単位で同期させて .mp4 ファイルとして書き出し。
このパイプライン、そのまま実用レベルに持っていける手応えがあった。料理レシピでも、旅の記録でも、テーマを変えるだけで動画が出てくる。
今回構築した自動動画生成のプロセスを、AntiGravityの「ワークフロー機能」としてローカルに保存した。次回から一言で呼び出せる状態になる——AIが「覚えて次回から使える状態にする」ところまでやってくれるのが、普通のチャットAIとの大きな違いだ。
さらに、Premiere Pro(Adobe製の動画編集ソフト)やDaVinci Resolve(高機能な動画編集ソフト)との XML連携(データをXML形式でやり取りすること)の設計も検討。AIが自動生成したタイムラインを編集ソフトに渡せれば、編集作業の自動化が一段と進む。
さらに先の構想として、マルチエージェント構成——「シナリオ生成はClaude、画像生成はGemini、動画合成はFFmpeg」という役割分担の設計も具体化してきた。
今日の検証を通じて実感したことがある。エージェントAIが「普通のAI」と違うのは、次の4つをひと続きでこなせる点だ。
設計する — 何をどう作るかの構造を考える。
実装する — 実際にコードを書いて動かす。
覚える — 今回作ったものをワークフローとして保存し、次回から呼び出せる状態にする。
つなぐ — 他のAIやツールと連携して、より大きな仕組みを作る。
エージェントAIが「設計する・実装する・覚える・つなぐ」を一通りこなせることを実地で確認できた日。特にPython自動動画生成パイプラインはそのまま実用レベルに持っていける手応えがあった。
Google AntiGravityはまだ触り始めたばかりだが、Googleの生成AIエコシステムとの連携ポテンシャルは高い。次のステップは「設計したパイプラインを実際に動かして、本物の映像として出力すること」だ。今日はとにかく「できそう」がたくさん見えた日だった。