DeskRex.ai

open α

テーマ

データベース

自動化

発見

サインイン

リサーチの結果の保存、レポートの作成、共有が行えます。

サインイン

レポートの一覧に戻る

Remotion×LLM×音声AIでYouTube動画自動生成:有力OSS4選と実装指針

🗓 Created on 11/26/2025

  • 📜要約
  • 📊ビジュアライズ
  • 🖼関連する画像
  • 🔍詳細
    • 🏷調査サマリーと理想アーキテクチャの整理
    • 🏷ChatGPT Video Generator:Remotion×OpenAI×TTS統合の最有力サンプル
    • 🏷podcast-to-video-remotion:音声→動画テンプレのTypeScript実装
    • 🏷AutoShortsほかショート動画自動生成系から学ぶLLM/TTSワークフロー
    • 🏷GitHub Topicsと検索クエリを使った追加候補の探索戦略
    • 🏷MCPを活用したLLM連携の最新OSS
  • 🖍考察
  • 📚参考文献
    • 📖利用された参考文献
    • 📖未使用の参考文献
    • 📊ドメイン統計

📜 要約

主題と目的

この調査の主題は、**Remotion × LLM(ChatGPT等)× 音声AI(TTS)× TypeScript を組み合わせて、YouTube向け動画を自動生成する実装例となるGitHubリポジトリを「できる限り網羅的に洗い出し、比較評価すること」**です。
ユーザーの目的は、単なるサンプルコードの発見ではなく、
  • Remotion を使って TypeScript/TSX で動画コンポジションを組み立て、
  • LLM でスクリプトを生成し、
  • 音声AIでナレーションを合成し、
  • 最終的に YouTube/Shorts 向けに出力できる、
という一連のパイプラインを設計・実装する際の「最適な出発点」となる OSS 群を把握することにあります。
したがって本レポートでは、
  1. その要件に近い有力リポジトリを抽出し、技術スタック・機能・導入しやすさの観点から整理する
  2. 単体で「全部入り」のOSSがない現状を踏まえ、どう組み合わせれば理想のスタックになるかをアーキテクチャとして提案する
  3. さらに、GitHub Topics や検索クエリを使って「今後も継続的に候補を発掘するための方法」まで含めてまとめる
ことを目的とします。

回答

1. 全体像:条件を完全に満たす「決定版」はまだないが、部品は揃っている

調査の結論として、Remotion・LLM・音声AI・TypeScript・YouTube自動生成をすべて1つのOSSで完結させた「決定版」リポジトリは、2025年11月時点では見当たりません。
しかし、パイプラインを以下のレイヤーに分けると、それぞれを高い完成度でカバーするOSSが複数存在します。
  1. LLM層:スクリプトや構成JSONを生成する
  2. 音声・メディア層:TTSと画像/BGMの取得・生成
  3. 動画合成層(TypeScript):Remotionを使ったコンポジションとレンダリング
  4. 配信層:YouTube/Shorts向けアップロード
これらを組み合わせれば、ユーザーの求める「Remotion × LLM × 音声AI × TypeScript による YouTube 自動動画生成スタック」は、十分現実的に構築可能です。
以下では、特に重要な OSS を4系統に分けて解説します。

2. 中心となる4つの有力OSSとその役割

2-1. ChatGPT Video Generator(chatgptvideoai)
Remotion × OpenAI × TTS をシンプルに統合した最有力サンプル
  • リポジトリ:
    github.com
    github.com
  • 概要
    • 「テキストを入力すると、LLMで要約し、TTSでナレーションを作り、Remotion+FFmpegで動画を生成してダウンロードできる」ChatGPT Video Generatorです
      github.com
      。
    • 技術スタックは OpenAI API・Node.js・React・FFmpeg・Remotion で構成され、UIは
      .tsx
      ベースの React コンポーネントです
      github.com
      。
  • ユーザー要件とのフィット
    • Remotion を使った TypeScript/TSX の動画コンポーネント
    • OpenAI LLM を使ったスクリプト/要約生成
    • Node.js ベースの TTS を組み込み、音声付き動画を出力
    • 生成動画をブラウザからダウンロード可能
      → 「Remotion × LLM × TTS」がひとつのコードベースにまとまった、もっとも要件に近い統合サンプルです。
  • 導入のしやすさ
    • セットアップは、クローン →
      npm install
      →
      src/chat.tsx
      に OpenAI API キーを記述 →
      npm run start
      というシンプルな流れです
      github.com
      。
    • 余計な外部依存が少なく、「まず1本AI動画を動かす」には最短ルートと言えます。
  • 制約・弱み
    • アニメーションは現状シンプルで、「トピック要約1本」向けの構成であると明記されています
      github.com
      。
    • HD動画や高度な表現には Remotion CLI を追加で使う必要があります
      github.com
      。
      → 学習・PoCには最適だが、本格的なチャンネル運営には Remotion 側の拡張が前提になります。
どう活かすべきか
Remotion+LLM+TTS の「結線の仕方」を掴む最初の教材として利用し、
  • OpenAI 呼び出し部分(
    src/chat.tsx
    )のプロンプトや出力スキーマ
  • Remotion コンポーネントと音声ファイルの同期
    を読み解いて、自分の用途向けにプロンプトとコンポーネントを差し替える出発点にするのがよいです。

2-2. podcast-to-video-remotion
音声+字幕をRemotionで「見せる」ためのTypeScriptテンプレート
  • リポジトリ:
    github.com
    github.com
  • 概要
    • ポッドキャストなどの音声とカバー画像、字幕を組み合わせて「オーディオグラム」動画を作るRemotionテンプレートです
      github.com
      。
    • コンポジションは
      src/Video.tsx
      と
      src/Composition.tsx
      にまとまっており、ここを編集してサイズや尺、レイアウトを調整します
      github.com
      。
  • 強み
    • Remotion × TypeScript で、音声+字幕をタイムラインに載せる「完成形のUI実装」が手に入る点が最大の価値です。
    • 字幕は単語レベル(word-level)のタイムスタンプ付きを前提としており、Subs AI や Otter.ai などで生成した字幕を用いることが推奨されています
      github.com
      。
      → AIで生成したトランスクリプトを使い、「単語ごとにポップする字幕」などYouTubeショート的な表現をRemotionで作り込むのに最適です。
  • 弱み
    • LLM や TTS のコードは内包しておらず、「音声・字幕は別ツールで用意して持ち込む」前提です
      github.com
      。
どう活かすべきか
ChatGPT Video Generator や AutoShorts などで生成した「音声ファイル+字幕JSON」を、
このテンプレートの
src/assets
に流し込む構成をとれば、
  • 「AI層(LLM・TTS)」と
  • 「動画合成層(Remotion)」
をきれいに分離できます。
AIの賢さと、動画の見栄えを分けてチューニングできる構成を目指すなら、このテンプレは非常に相性が良いです。

2-3. AutoShorts(auto-shorts)
LLM+TTS+画像APIでショート動画を量産するNode.js/TSパッケージ
  • リポジトリ:
    github.com
    github.com
  • 概要
    • プロンプトからニュースショート、クイズ、ランキング、テキストメッセージ系のショート動画を自動生成するツールです
      github.com
      。
    • LLMは OpenAI GPT-4o mini・Google Gemini・Anthropic Claude・ローカルの Ollama Llama3.2 などをサポートし
      github.com
      、
      TTSは ElevenLabs / Neets.ai / ローカルTTS、画像は Pexels などを切り替えられます
      github.com
      。
  • 代表的なCLI例
    npx auto-shorts -p "make a news short about TypeScript" \
      --aiType OpenAIGen \
      --ttsType ElevenLabs \
      --imageType Pexels \
      --elevenLabsAPIKey ... \
      --pexelsAPIKey ... \
      --openaiAPIKey ...
    
    これで「TypeScript ニュースショート」が一発生成されます
    github.com
    。
  • 強み
    • LLM・TTS・画像ソースをすべて抽象化した「AIワークフロー層」の設計が非常に参考になる点です。
    • JS/TS API も提供しており、
      genVideoWithAI
      や
      genVideoWithJson
      に「動画構成JSON」を渡す方式で拡張できます
      github.com
      。
  • 弱み
    • 動画レンダリングに使っているのは ffcreator 系であり、Remotion ではありません
      github.com
      。
    • 作者自身が「学習目的のプロジェクトであり、開発は停止/プロダクション用途は非推奨」と明記しています
      github.com
      。
どう活かすべきか
  • AIワークフローの設計(LLM・TTS・画像APIの抽象化)を学ぶ教材として使い、
  • 動画レンダリング部だけを自作の Remotion コンポジションに差し替えるのが現実的です。
たとえば、
  • AutoShorts の
    VideoDataType
    のような JSON スキーマを自分のサービス側に採用し、
  • その JSON を Remotion コンポーネントに渡して
    <Composition>
    を組み立てる、
といった橋渡しを TypeScript で行う構成が考えられます。

2-4. Remotion Editor Starter(Remotion公式有償スターター)
編集UI・タイムライン・字幕まで揃ったプロダクト基盤
  • ドキュメント:
    remotion.dev
    remotion.dev
  • 概要
    • タイムライン、インタラクティブキャンバス、字幕機能、アセット管理、レンダリングキュー、バックエンドルートなどを備えた「動画編集アプリ用スターター」です
      remotion.dev
      。
    • 80以上の feature flag により機能のオン/オフを制御でき、TypeScriptで構築されています
      remotion.dev
      。
  • 強み
    • LLM で生成したシーン構成JSONを Tracks/Items に自動配置し、TTSで生成した音声ファイルを Assets として乗せ、字幕を Captioning 機能に流し込む、というフル機能のAI動画エディタ基盤になり得ます。
    • Webサービスや社内向けツールとして提供する場合の「骨格」部分をほぼ提供してくれる点は大きいです。
  • 弱み
    • 有償テンプレートであり、ライセンス条件の確認が必須です
      remotion.dev
      。
    • ある程度の規模感のプロダクトを作る前提(PoCにはオーバースペックになりがち)。
どう活かすべきか
  • 中長期的に「AI動画編集SaaS」や社内用自動動画生成ツールとして提供するなら、
    • Editor Starter をベースに
    • LLM・TTS・字幕生成をバックエンドの API として統合していく
      という構成がかなり有力です。
最初のPoCフェーズでは ChatGPT Video Generator や podcast-to-video-remotion を使い、
スケールさせたくなった段階で Editor Starter に移植する、という2段階戦略が現実的です。

3. 理想的なアーキテクチャ像(3層モデル)

上記OSSを踏まえ、「Remotion × LLM × 音声AI × TypeScript × YouTube」を実現する理想構成を3層で整理します。
3-1. 概念アーキテクチャ
このモデルに先ほどのOSSを重ねると、以下のような整理になります。
  • LLM層・音声層・画像層
    • AutoShorts が LLM・TTS・画像APIを柔軟に切り替える層として非常に完成度が高い
      github.com
      。
    • ChatGPT Video Generator は OpenAI+TTSの最小構成として分かりやすい
      github.com
      。
  • 動画合成層(Remotion+TypeScript)
    • podcast-to-video-remotion が「音声+字幕」をRemotionで見せるテンプレートとして優秀
      github.com
      。
    • Editor Starter がフル機能の編集UI・タイムライン基盤を提供
      remotion.dev
      。
  • 配信層
    • 直接YouTubeアップロードまで含むOSSは少ないものの、Remotionでmp4出力後、Node.jsからYouTube Data APIを呼ぶのが一般的パターンになります。
重要なポイントは、「Remotion自身にLLM/TTSのロジックを埋め込まない」ことです。
AutoShorts や ChatGPT Video Generator の設計にならい、
  • AIワークフロー(LLM/TTS/画像)はTypeScriptのサービス層として実装し、
  • Remotionはあくまで「型付きJSONや音声・字幕ファイルを受け取るレンダラ/エディタ」として扱う、
という構成にすると拡張しやすくなります。

4. 実際の構築ステップ:何から手を付けるべきか

要件に沿ってPoC〜プロダクションまでを通すための、現実的なロードマップを提案します。
ステップ1:ChatGPT Video Generatorで「最小構成の流れ」を把握
  1. chatgptvideoai
    をクローンし、OpenAI APIキーを
    src/chat.tsx
    に設定して動かします
    github.com
    。
  2. テキスト入力 → LLM応答 → TTS → Remotionレンダリング → ダウンロード までを一度実際に通します。
  3. コード上では
    • OpenAI呼び出し部分(プロンプトとレスポンス処理)
    • TTSで生成した音声ファイルの管理
    • Remotionコンポーネントへのデータ受け渡し
      を重点的に読み解きます。
これで、「TypeScript/TSXでLLM+TTS+Remotionをひとつのワークフローにまとめる感覚」を掴めます。
ステップ2:podcast-to-video-remotionで映像テンプレを磨く
  1. podcast-to-video-remotion
    をセットアップし、手元の音声・字幕ファイルを使って動画をレンダリングします
    github.com
    。
  2. src/Video.tsx
    で解像度・フレームレート・尺を YouTube / Shorts に合わせてチューニングします。
  3. 生成されたAI音声(ステップ1やAutoShorts側で作成)と字幕JSONを
    src/assets
    に差し込む小さなスクリプトを書き、
    • 「AI層(音声/字幕生成)」
    • 「Remotion層(見せ方)」
      を分離します。
ステップ3:AutoShorts的なAIワークフロー層をTypeScriptで設計
  1. AutoShorts の
    genVideoWithAI
    /
    genVideoWithJson
    周辺の実装と、
    VideoDataType
    的なJSONスキーマを読み込みます
    github.com
    。
  2. 自分の用途(ニュース解説、チュートリアル、クイズ等)に合わせて、
    • シーンの並び
    • 各シーンのテキスト
    • 対応する音声ファイルパス
    • 背景画像パス
      などを表現する独自の TypeScript 型(例:
      VideoSpec
      )を定義します。
  3. LLM(OpenAI/Gemini/Ollama等)には「必ずその型に沿ったJSONを返す」ようプロンプト設計を行い、
    「LLMはJSON設計通りのデータを吐くサービス」として固定します。
  4. TTSクライアント(ElevenLabs / Neets.ai / Local)を
    VoiceProvider
    インターフェースで抽象化し、将来の差し替えに備えます。
ステップ4:本格的なUI・運用を見据えるなら Remotion Editor Starter
  1. 将来的に外部ユーザーや社内利用者に「編集画面」を提供したい場合は、Editor Starter の購入を検討します
    remotion.dev
    。
  2. Tracks/Items/Assets/Captioning の仕組みに、
    • LLMで生成した
      VideoSpec
      JSON をインポートしてシーンを自動配置
    • TTS音声を Assets として登録
    • 自動字幕結果を Captioning に流し込む
      という拡張ポイントを追加します。
  3. このレベルになると、Remotionは単なるレンダラではなく「AI動画エディタ」のコアプラットフォームになっていきます。

5. 「調べ尽くす」ためのGitHub探索戦略

今回の調査から分かったのは、「条件にピッタリなリポジトリが1つある」というよりも、似た方向を目指すプロジェクトがいくつも散在しているという状況です。
それらを継続的に発掘するための、具体的な探索戦略も整理しておきます。
5-1. まず見るべき Topics ハブ
  • remotion トピック:Remotion関連の全OSSを俯瞰する入口
    github.com
  • video-generation / video-generator / video-maker:テキスト→動画変換エンジン全般のハブ
    github.com
    github.com
  • youtube / youtube-shorts / shorts-maker / faceless-video:YouTube/Shorts/顔出し不要動画向けのツール群
    github.com
    6
  • model-context-protocol / mcp:MCP を使って LLM と外部ツールをつなぐ最新エコシステム
    github.com
    github.com
これらのページから、
  • 主言語がTypeScript
  • 説明文に「shorts」「remotion」「ai」「openai」「tts」等を含む
といった条件で絞ると、候補がかなり浮かび上がります。
5-2. 検索クエリで Topics の抜けを補う
Topics だけでは網羅できないため、以下のようなクエリで GitHub 全体検索を行うとよいです。
  • remotion typescript openai tts
  • remotion "youtube" "shorts" "ai"
  • remotion "video generator" "chatgpt"
これにより、タグ付けが甘いが README 内ではきちんと Remotion×LLM×TTS をやっているリポジトリ(ChatGPT Video Generator など)を拾えます
github.com
。
5-3. 収集するメタ情報と評価軸
各候補リポジトリについて、次の情報をCSVやMarkdown表にまとめると、比較検討しやすくなります。
  • リポジトリ名 / URL
  • 主言語(TypeScript / JS / Python…)
  • Remotion利用の有無
  • 採用している LLM・TTS・画像API
  • 対応ターゲット(YouTube / Shorts / TikTok / 汎用)
  • スター数 / フォーク数 / 最終更新日
  • ライセンス(MIT / GPL / その他)
  • READMEの充実度 / デモ動画やスクリーンショットの有無
この上で、
  • Remotion × TypeScript かどうか
  • LLM/TTSがどこまで組み込まれているか
  • 更新が1年以内か
などの基準でスコアリングすると、「いま取り込むべき上位10〜20件」を安定して選べるようになります。

結果と結論

  1. 単体で「Remotion × LLM × 音声AI × TypeScript × YouTube」を完全に満たすOSSは、現時点では存在しない
    ただし、
    • Remotion+OpenAI+TTSを統合した ChatGPT Video Generator
      github.com
    • Remotion+TypeScriptで音声+字幕動画を描画する podcast-to-video-remotion
      github.com
    • LLM+TTS+画像APIでショート動画を量産する AutoShorts
      github.com
    • フル機能動画エディタ基盤の Remotion Editor Starter
      remotion.dev

      という強力な「部品」は揃っています。
  2. 現実的な最適解は、「OSSを組み合わせて自分用スタックを組むこと」
    • ChatGPT Video Generator で LLM+TTS+Remotion の最低限の流れを掴み、
    • podcast-to-video-remotion で Remotion 側の画面設計と字幕同期を磨き、
    • AutoShorts の設計から LLM/TTS/画像APIの抽象化パターンを学び、
    • 将来的なサービス化には Remotion Editor Starter を検討する、
      というステップが最も筋が良いと考えられます。
  3. アーキテクチャ上の肝は「AIワークフロー層」と「Remotionレンダリング層」の分離
    • LLMは、あらかじめ定義した TypeScript 型(シーン構成JSON)を返すサービスとして固定し、
    • TTSや画像APIは抽象インターフェース(VoiceProvider, ImageProvider)で包み、
    • Remotionには「音声ファイル+字幕+シーンJSON」を渡してレンダリングさせる、
      という分割が、将来の差し替えや拡張を最も楽にします。
  4. 「調べ尽くす」ための継続的な探索フレームワークも重要
    • remotion / video-generation / video-maker / youtube-shorts / faceless-video / model-context-protocol などの Topics を定期的にクロールし
      github.com
      github.com
      、
    • remotion typescript openai tts
      のようなクエリで新着を検索し、
    • スコアリングした比較表を更新していく、
      という運用を組めば、新しい有望リポジトリが出てきたときにも即座にキャッチアップできます。
総合すると、いま探すべきは「完璧な1リポジトリ」ではなく、用途ごとに最適なOSSの設計パターンです。
このレポートで整理した4系統のリポジトリと3層アーキテクチャ、そして GitHub Topics を起点にした探索方法を使えば、Remotion × LLM × 音声AI × TypeScript による YouTube動画自動生成パイプラインを、かなり高い精度で設計・実装できるはずです。

コード実行

<!DOCTYPE html>
<html lang="ja">
<head>
  <meta charset="UTF-8" />
  <title>Remotion × LLM × 音声AI × TypeScript × YouTube 向けレポジトリ分析ダッシュボード</title>
  <script src="https://cdn.jsdelivr.net/npm/chart.js"></script>
  <style>
    body {
      font-family: system-ui, -apple-system, BlinkMacSystemFont, "Segoe UI", sans-serif;
      margin: 0;
      padding: 24px;
      background: #0f172a;
      color: #e5e7eb;
    }
    h1 {
      font-size: 24px;
      margin-bottom: 16px;
    }
    .grid {
      display: grid;
      grid-template-columns: repeat(auto-fit, minmax(280px, 1fr));
      gap: 20px;
      margin-top: 20px;
    }
    .card {
      background: #020617;
      border-radius: 12px;
      padding: 16px 18px;
      border: 1px solid #1f2937;
      box-shadow: 0 18px 45px rgba(15,23,42,0.7);
    }
    .card h2 {
      font-size: 18px;
      margin: 0 0 8px 0;
      color: #f9fafb;
    }
    .tag-row {
      display: flex;
      flex-wrap: wrap;
      gap: 6px;
      margin-top: 8px;
    }
    .tag {
      font-size: 11px;
      padding: 3px 8px;
      border-radius: 9999px;
      border: 1px solid #4b5563;
      color: #e5e7eb;
      background: rgba(15,23,42,0.6);
      white-space: nowrap;
    }
    table {
      width: 100%;
      border-collapse: collapse;
      font-size: 12px;
    }
    th, td {
      border-bottom: 1px solid #1f2937;
      padding: 6px 4px;
      text-align: left;
    }
    th {
      background: #020617;
      position: sticky;
      top: 0;
      z-index: 1;
    }
    .repo-link {
      color: #60a5fa;
      text-decoration: none;
    }
    .repo-link:hover {
      text-decoration: underline;
    }
    .source-link {
      color: #22c55e;
      text-decoration: none;
      font-size: 11px;
    }
    .source-link:hover {
      text-decoration: underline;
    }
    .note-list {
      font-size: 11px;
      padding-left: 18px;
      color: #9ca3af;
    }
    .note-list li {
      margin-bottom: 2px;
    }
    .small-title {
      font-size: 13px;
      font-weight: 600;
      margin: 10px 0 4px 0;
    }
    canvas {
      max-width: 100%;
    }
  </style>
</head>
<body>
  <h1>Remotion × LLM × 音声AI × TypeScript × YouTube 向け OSS レポジトリ分析</h1>

  <div class="grid">
    <div class="card">
      <h2>1. 推奨 3 レポジトリ比較表</h2>
      <div class="small-title">タイトル / 役割</div>
      <table>
        <thead>
          <tr>
            <th>リポジトリ</th>
            <th>主要スタック</th>
            <th>LLM</th>
            <th>音声AI</th>
            <th>Remotion</th>
            <th>YouTube 関連</th>
          </tr>
        </thead>
        <tbody>
          <tr>
            <td>
              <a href="https://github.com/SaiTech01/chatgptvideoai" target="_blank" rel="noopener noreferrer" class="repo-link">chatgptvideoai</a>
            </td>
            <td>TypeScript / React / Node.js</td>
            <td>OpenAI API</td>
            <td>TTS (Node.js 実装)</td>
            <td>使用</td>
            <td>HD 出力で応用可</td>
          </tr>
          <tr>
            <td>
              <a href="https://github.com/harshitsinghai77/podcast-to-video-remotion" target="_blank" rel="noopener noreferrer" class="repo-link">podcast-to-video-remotion</a>
            </td>
            <td>TypeScript / Remotion</td>
            <td>外部で生成したスクリプトを想定</td>
            <td>外部で用意した音声</td>
            <td>使用</td>
            <td>ポッドキャスト短尺 / クリップ</td>
          </tr>
          <tr>
            <td>
              <a href="https://github.com/alamshafil/auto-shorts" target="_blank" rel="noopener noreferrer" class="repo-link">AutoShorts</a>
            </td>
            <td>Node.js / JavaScript (TS 明示なし)</td>
            <td>OpenAI, Gemini, Claude, Ollama 等</td>
            <td>ElevenLabs, Neets.ai, ローカル TTS</td>
            <td>未使用</td>
            <td>YouTube Shorts / TikTok 向け</td>
          </tr>
        </tbody>
      </table>
      <div class="small-title">出典</div>
      <ul class="note-list">
        <li><a href="https://github.com/SaiTech01/chatgptvideoai" target="_blank" rel="noopener noreferrer" class="source-link">chatgptvideoai README</a></li>
        <li><a href="https://github.com/harshitsinghai77/podcast-to-video-remotion" target="_blank" rel="noopener noreferrer" class="source-link">podcast-to-video-remotion README</a></li>
        <li><a href="https://github.com/alamshafil/auto-shorts" target="_blank" rel="noopener noreferrer" class="source-link">AutoShorts README</a></li>
      </ul>
    </div>

    <div class="card">
      <h2>2. 機能カバレッジ レーダーチャート</h2>
      <p style="font-size:11px; color:#9ca3af; margin:0 0 6px 0;">※スコアは 1〜5 の主観的推定値(推定であることに注意)</p>
      <canvas id="coverageRadar" height="220"></canvas>
      <div class="small-title">指標</div>
      <ul class="note-list">
        <li>Remotion 統合度</li>
        <li>TypeScript 利用度</li>
        <li>LLM 統合度</li>
        <li>音声AI (TTS) 統合度</li>
        <li>YouTube / Shorts 向け度</li>
      </ul>
      <div class="small-title">出典</div>
      <ul class="note-list">
        <li>
          レポジトリ README と
          <a href="https://github.com/topics/video-generation?l=typescript" target="_blank" rel="noopener noreferrer" class="source-link">video-generation トピック</a>
          からの要約に基づく推定スコア
        </li>
      </ul>
    </div>

    <div class="card">
      <h2>3. 技術スタック構成比 円グラフ</h2>
      <p style="font-size:11px; color:#9ca3af; margin:0 0 6px 0;">※3 レポジトリにおける主要技術カテゴリの件数集計</p>
      <canvas id="stackPie" height="220"></canvas>
      <div class="small-title">カテゴリ定義</div>
      <ul class="note-list">
        <li>Remotion / 動画レンダリング</li>
        <li>LLM (OpenAI / Gemini / Claude / Ollama 等)</li>
        <li>音声AI / TTS</li>
        <li>YouTube / Shorts 対応</li>
        <li>TypeScript / TSX</li>
      </ul>
      <div class="small-title">出典</div>
      <ul class="note-list">
        <li>
          各 README と
          <a href="https://github.com/topics/remotion" target="_blank" rel="noopener noreferrer" class="source-link">remotion トピック</a>
          からの情報を定性的にカウント
        </li>
      </ul>
    </div>

    <div class="card">
      <h2>4. ワークフロー構造図 (Mermaid 風テキスト)</h2>
      <div class="small-title">Remotion × LLM × 音声AI × TypeScript × YouTube パイプライン</div>
      <pre style="font-size:11px; white-space:pre-wrap; background:#020617; padding:8px; border-radius:8px; border:1px solid #1f2937;">
flowchart TD
  A["LLM で台本生成 (OpenAI / Gemini / Claude 等)"] --> B["TTS で音声生成 (ElevenLabs / Node.js TTS 等)"]
  B --> C["Remotion + TypeScript で映像テンプレ合成"]
  C --> D["FFmpeg でエンコード・解像度調整"]
  D --> E["YouTube / Shorts / TikTok へアップロード"]

参考実装:
- A+B+C: chatgptvideoai
  - <a href="https://github.com/SaiTech01/chatgptvideoai" target="_blank" rel="noopener noreferrer" class="source-link">GitHub: SaiTech01/chatgptvideoai</a>
- C (音声入力テンプレ): podcast-to-video-remotion
  - <a href="https://github.com/harshitsinghai77/podcast-to-video-remotion" target="_blank" rel="noopener noreferrer" class="source-link">GitHub: harshitsinghai77/podcast-to-video-remotion</a>
- A+B+D+E: AutoShorts
  - <a href="https://github.com/alamshafil/auto-shorts" target="_blank" rel="noopener noreferrer" class="source-link">GitHub: alamshafil/auto-shorts</a>
</pre>
      <div class="small-title">補足メモ</div>
      <ul class="note-list">
        <li>ワークフローは複数レポジトリの要素を統合した抽象モデル</li>
        <li>各段階の実装詳細は README / ドキュメントを参照</li>
      </ul>
    </div>
  </div>

  <div class="card" style="margin-top:24px;">
    <h2>5. GitHub Topics / ドキュメント ハブ一覧</h2>
    <div class="small-title">関連ハブ (リンク表)</div>
    <table>
      <thead>
        <tr>
          <th>カテゴリ</th>
          <th>URL</th>
          <th>役割</th>
        </tr>
      </thead>
      <tbody>
        <tr>
          <td>Remotion × AI ガイド</td>
          <td>
            <a href="https://www.remotion.dev/docs/ai/" target="_blank" rel="noopener noreferrer" class="repo-link">Building with Remotion and AI</a>
          </td>
          <td>AI との連携パターンの一次情報</td>
        </tr>
        <tr>
          <td>Editor Starter</td>
          <td>
            <a href="https://www.remotion.dev/docs/editor-starter" target="_blank" rel="noopener noreferrer" class="repo-link">Editor Starter ドキュメント</a>
          </td>
          <td>TypeScript ベースの動画編集 UI / レンダ基盤</td>
        </tr>
        <tr>
          <td>video-generation (TS)</td>
          <td>
            <a href="https://github.com/topics/video-generation?l=typescript" target="_blank" rel="noopener noreferrer" class="repo-link">GitHub トピック: video-generation (TypeScript)</a>
          </td>
          <td>MCP × 短尺動画 × TypeScript プロジェクトの集約</td>
        </tr>
        <tr>
          <td>remotion トピック</td>
          <td>
            <a href="https://github.com/topics/remotion" target="_blank" rel="noopener noreferrer" class="repo-link">GitHub トピック: remotion</a>
          </td>
          <td>Remotion ベース OSS のハブ (約 139 件・推定)</td>
        </tr>
        <tr>
          <td>model-context-protocol</td>
          <td>
            <a href="https://github.com/topics/model-context-protocol" target="_blank" rel="noopener noreferrer" class="repo-link">GitHub トピック: MCP</a>
          </td>
          <td>LLM ツール連携標準。MCP × 短尺動画案件の探索に利用</td>
        </tr>
      </tbody>
    </table>
    <div class="small-title">出典</div>
    <ul class="note-list">
      <li>
        追加ソースの要約:
        <a href="https://github.com/topics/remotion" target="_blank" rel="noopener noreferrer" class="source-link">remotion</a>,
        <a href="https://github.com/topics/video-generation?l=typescript" target="_blank" rel="noopener noreferrer" class="source-link">video-generation</a>,
        <a href="https://github.com/topics/model-context-protocol" target="_blank" rel="noopener noreferrer" class="source-link">model-context-protocol</a>
      </li>
    </ul>
  </div>

  <div class="card" style="margin-top:18px;">
    <h2>6. 補足メモ (箇条書きのみ)</h2>
    <ul class="note-list">
      <li>完全一致する「Remotion × LLM × 音声AI × TypeScript × YouTube 自動化」単独レポジトリは未確認 (2025 年時点の調査コンテキストに基づく)</li>
      <li>実務では chatgptvideoai, podcast-to-video-remotion, AutoShorts を組み合わせてパイプラインを構成する戦略が有効</li>
      <li>追加の候補探索には remotion / video-generation / youtube-shorts / faceless-video などの GitHub Topics を継続的にモニタリングすることが推奨される</li>
    </ul>
    <div class="small-title">出典</div>
    <ul class="note-list">
      <li>
        調査サマリ:
        <a href="https://github.com/topics/video-generation?o=desc&amp;s=forks" target="_blank" rel="noopener noreferrer" class="source-link">video-generation トピック (並び替え: forks)</a>
      </li>
    </ul>
  </div>

  <script>
    // 2. レーダーチャート用データ (1〜5 の推定スコア)
    const radarCtx = document.getElementById("coverageRadar").getContext("2d");

    const radarData = {
      labels: [
        "Remotion 統合度",
        "TypeScript 利用度",
        "LLM 統合度",
        "音声AI 統合度",
        "YouTube / Shorts 向け度"
      ],
      datasets: [
        {
          label: "chatgptvideoai",
          data: [5, 5, 4, 4, 3], // 推定スコア
          borderColor: "rgba(96,165,250,1)",
          backgroundColor: "rgba(96,165,250,0.25)",
          pointBackgroundColor: "rgba(96,165,250,1)",
          pointRadius: 3
        },
        {
          label: "podcast-to-video-remotion",
          data: [5, 5, 1, 2, 3],
          borderColor: "rgba(52,211,153,1)",
          backgroundColor: "rgba(52,211,153,0.2)",
          pointBackgroundColor: "rgba(52,211,153,1)",
          pointRadius: 3
        },
        {
          label: "AutoShorts",
          data: [1, 2, 5, 5, 5],
          borderColor: "rgba(248,113,113,1)",
          backgroundColor: "rgba(248,113,113,0.2)",
          pointBackgroundColor: "rgba(248,113,113,1)",
          pointRadius: 3
        }
      ]
    };

    new Chart(radarCtx, {
      type: "radar",
      data: radarData,
      options: {
        responsive: true,
        plugins: {
          legend: {
            labels: {
              color: "#e5e7eb",
              font: { size: 11 }
            }
          },
          title: {
            display: true,
            text: "主要 3 レポジトリの機能カバレッジ比較 (推定スコア)",
            color: "#f9fafb",
            font: { size: 13 }
          }
        },
        scales: {
          r: {
            angleLines: { color: "#1f2937" },
            grid: { color: "#1f2937" },
            suggestedMin: 0,
            suggestedMax: 5,
            ticks: {
              stepSize: 1,
              backdropColor: "rgba(0,0,0,0)",
              color: "#9ca3af",
              showLabelBackdrop: false
            },
            pointLabels: {
              color: "#d1d5db",
              font: { size: 10 }
            }
          }
        }
      }
    });

    // 3. 円グラフ用データ
    // カウントは 3 レポジトリ分の機能有無からの単純集計 (推定)
    const stackCtx = document.getElementById("stackPie").getContext("2d");

    const stackLabels = [
      "Remotion / 動画レンダリング",
      "LLM 統合",
      "音声AI / TTS",
      "YouTube / Shorts 対応",
      "TypeScript / TSX"
    ];

    // 件数 (推定):
    // Remotion: chatgptvideoai, podcast-to-video-remotion = 2
    // LLM: chatgptvideoai, AutoShorts = 2
    // TTS: chatgptvideoai, AutoShorts = 2
    // YouTube / Shorts: 全て (Shorts or YouTube 応用可) = 3
    // TypeScript / TSX: chatgptvideoai, podcast-to-video-remotion = 2 (AutoShorts は JS 中心と推定)
    const stackCounts = [2, 2, 2, 3, 2];

    new Chart(stackCtx, {
      type: "pie",
      data: {
        labels: stackLabels,
        datasets: [
          {
            data: stackCounts,
            backgroundColor: [
              "rgba(96,165,250,0.85)",
              "rgba(52,211,153,0.85)",
              "rgba(251,191,36,0.9)",
              "rgba(248,113,113,0.9)",
              "rgba(129,140,248,0.9)"
            ],
            borderColor: "#020617",
            borderWidth: 1
          }
        ]
      },
      options: {
        plugins: {
          legend: {
            position: "bottom",
            labels: {
              color: "#e5e7eb",
              font: { size: 11 }
            }
          },
          title: {
            display: true,
            text: "3 レポジトリにおける技術スタック機能カウント (推定)",
            color: "#f9fafb",
            font: { size: 13 }
          }
        }
      }
    });
  </script>
</body>
</html>

🖼 関連する画像

Image for cmifmnf2v000l1mpbp32la87a
Image for cmifmnf2y001o1mpbhgyv9rys
Image for cmifmnf2u000i1mpb4fis7bax
Image for cmifmnf2u000j1mpbjdx9pz0a
Image for cmifmnf2v000k1mpbqymq1wz3
Image for cmifmnf2v000m1mpbg0l1g1uy
Image for cmifmnf2v000n1mpbb6rpfscw
Image for cmifmnf2v000o1mpbb12tornv
Image for cmifmnf2v000p1mpbi21p6hfc
Image for cmifmnf2y001q1mpbdjnr5vfz
Image for cmifmnf2x00181mpbox0tbp07
Image for cmifmnf2x00191mpbxidxbaf3
Image for cmifmnf2w00111mpbbb0der24
Image for cmifmnf2w00121mpbnvqh2i0y
Image for cmifmnf2w00131mpbezrxyb5r
Image for cmifmnf2w00141mpb5ieu0w0k
Image for cmifmnf2x00161mpbmap60ubj
Image for cmifmnf2x00171mpbidijkyp2
Image for cmifmnf2x001a1mpb75sckuhu
Image for cmifmnf2x00151mpbbe9tjl5r
Image for cmifmnf2y001t1mpbyolm20zj
Image for cmifmnf2y001m1mpbi2z812yh
Image for cmifmnf2y001n1mpb2mb89rml
Image for cmifmnf2y001p1mpbt989qdg1
Image for cmifmnf2y001r1mpbu9va2fyz
Image for cmifmnf2y001s1mpb8hbm44xj
Image for cmifmnf2z001u1mpbjfzkj1ge
Image for cmifmnf2y001l1mpb58p3evf4

このレポートが参考になりましたか?

あなたの仕事の調査業務をワンボタンでレポートにできます。

詳細を見る

🔍 詳細

🏷調査サマリーと理想アーキテクチャの整理

画像 1

調査サマリーと理想アーキテクチャの整理

ユーザーの要望は、「Remotion × LLM × 音声AI(TTS)× TypeScriptでYouTube向け動画を自動生成できる、参考になるGitHubリポジトリを“調べ尽くす”」ことでした。調査の結論から言うと、現時点でこの要件を一つのOSSで完全に満たす“決定版”は見当たりません。しかし、パイプラインを段階ごとに分解すると、各フェーズを高い完成度でカバーする有力なリポジトリや公式テンプレートが揃っており、それらを組み合わせることで「理想的なアーキテクチャ像」はかなり明確になります。

1. いま何がどこまでできているのか:4つの有力OSSの位置づけ

調査で特に有力だったのは次の4系統です。
  1. ChatGPT Video Generator(chatgptvideoai) – Remotion × OpenAI × TTS × React/TSX
    • テキスト入力からAIで要約を生成し、TTSで音声を合成しつつ、RemotionとFFmpegで動画をレンダリングする「ChatGPT Video Generator」を実装したリポジトリです
      github.com
      。
    • 技術スタックは OpenAI API・Node.js・React・FFMPEG・Remotion で
      github.com
      、UIは
      .tsx
      ベースで構築されています。
    • 生成された動画はダウンロード可能で、より高品質なHD動画を作る場合は Remotion CLI の利用が推奨されています
      github.com
      。
      → 「LLMでスクリプト生成」「TTS」「Remotionで映像合成」という3要素が一つのコードベースでつながっており、今回の要件に最も近い“統合サンプル”です。
  2. podcast-to-video-remotion – 音声→動画のRemotionテンプレート
    • ポッドキャストや任意の音声から「オーディオグラム」動画を作るためのテンプレートで、音声・カバー画像・字幕を組み合わせてクリップ動画を生成します
      github.com
      。
    • サイズや長さの調整は
      src/Video.tsx
      、コンポジション定義は
      src/Composition.tsx
      を編集する構造で
      github.com
      、TypeScript+RemotionでYouTube/ショート向けレイアウトを作る“お手本”と言えます。
    • 一方で、字幕や音声は外部ツール(Descript、Otter.ai、SubsAIなど)で準備したものを読み込む前提であり
      github.com
      、LLMやTTSを内包してはいません。
      → 「音声と字幕を受け取って絵にするRemotion側の枠組み」として、LLM/TTSパートの“受け皿”に最適です。
  3. AutoShorts – LLM+TTSでショート動画を量産するNode.jsパッケージ
    • YouTube Shorts や TikTok 向けの短尺動画を、LLMが書いたスクリプトとTTSで自動生成するパッケージで
      github.com
      、CLIとJS APIの両方を提供します
      github.com
      。
    • スクリプト生成は OpenAI GPT-4o やGoogle Gemini、Anthropic Claude、ローカルのOllama LLMなどを選択でき
      github.com
      、音声は ElevenLabs・Neets.ai・ローカルTTSから選べます
      github.com
      。
    • コマンド一発で「TypeScriptについてのニュースショートを作る」といった動画を生成できる例がREADMEに示されており
      github.com
      、テキストメッセージ動画・ニュース動画・クイズ動画など複数のテンプレートをサポートします
      github.com
      。
    • ただし動画レンダリングには ffcreator など別ライブラリが使われており、Remotionとの統合はありません
      github.com
      。また作者は「学習用プロジェクトで開発は停止中」「プロダクション用途には非推奨」と明記しています
      github.com
      。
      → Remotionとは別系統ですが、「LLMでJSONスキーマを生成し、それをもとにTTS・画像生成・動画合成を組み立てる」アーキテクチャやAPI設計の参考になります。
  4. Remotion Editor Starter(公式有償テンプレート) – フル機能の動画編集UI基盤
    • タイムライン、インタラクティブキャンバス、字幕、アセットアップロード、レンダリング、バックエンドルートなどを備えた「動画編集アプリのスターターキット」です
      remotion.dev
      。
    • 80以上のfeature flagsにより機能のオン・オフや段階的導入が可能で、Tracks/Items/Assets、Captioning、Rendering、Persistence、Backend Routes などの仕組みが整っています
      remotion.dev
      。
    • TypeScriptベースで実装されており、LLMで生成した台本をTracks/Itemsにマッピングし、TTSで生成した音声ファイルをAssetsに取り込んでタイムラインに同期させる、という構成を直接乗せられます
      remotion.dev
      。
この4つを俯瞰すると、「Remotionを使っているか」「LLM/TTSを内包しているか」「TypeScriptでどこまで書かれているか」が微妙にずれており、単体で“全部入り”なOSSは存在しないことが分かります。一方で、それぞれが得意とするレイヤーがきれいに分かれていることは、自分の用途に合わせて部品を選び、アーキテクチャとして組み立てる余地が大きいことも意味します。

2. GitHub Topics から見える「潮流」と空白地帯

GitHub Topics「remotion」には139件以上の公開リポジトリが紐づいており、その中には
  • 「モーショングラフィックスとTTSでニュースレターを毎日YouTube動画に変換する完全自動ビデオメーカー」
  • 「Model Context Protocol (MCP) とREST APIを用いて、TikTok / Instagram Reels / YouTube Shorts向けのショート動画を自動生成するツール」
といった説明のプロジェクトが含まれていることが確認できます
github.com
github.com
。さらに、
youtube-shorts
や
shorts-maker
、
faceless-video
、
video-generator
などのトピック群にも、
  • 長尺動画を GPT-4+FFmpeg+OpenCV で解析し「面白い部分」を切り出すPythonツール
    github.com
  • Redditなどからスクリプトを取得し、動画化してYouTubeへ自動投稿するシステム
    github.com
といったAI動画ワークフローが多数存在します
github.com
6。
しかし、これらのトピック要約からは
  • 主要言語がTypeScriptかどうか
  • Remotionを使っているかどうか
  • どのLLM/TTSをどう統合しているか
までは読み取れず、実際に各リポジトリのREADMEをクロールしないと精査できません
github.com
github.com
。これは、ニーズにぴったりのOSSが潜在的には存在している可能性がある一方で、カタログ化はまだ“人力の調査”に依存していることを示唆しています。

3. 理想的なアーキテクチャ:3層モデルで考える

以上を踏まえると、「Remotion × LLM × 音声AI × TypeScript × YouTube動画自動生成」の理想アーキテクチャは、次の3層モデルで整理すると理解しやすくなります。
3.1 概念アーキテクチャの全体像
この図に、先ほどのリポジトリ群を重ねてみると、どこを流用し、どこを自作すべきかが見えてきます。
  • LLM層
    • AutoShortsは、OpenAI GPT-4o・Gemini・Claude・Ollama など複数LLMを抽象化した「スクリプト生成レイヤー」を実装しており
      github.com
      、台本生成ロジックやプロンプト設計の参考になります。
    • chatgptvideoaiは単一のOpenAI APIキーを前提とした簡潔な実装ですが
      github.com
      、Remotionとの直結という意味で、最短経路のサンプルになっています。
  • 音声・メディア層
    • AutoShortsはTTSに ElevenLabs / Neets.ai / ローカルTTS を切り替えられ、Pexelsやスクレーパーから画像を取得します
      github.com
      。
    • chatgptvideoaiはNode.jsベースのTTSを組み込み、生成した音声をRemotion動画に重ねて出力します
      github.com
      。
      → つまり、「プロダクションに近い多プロバイダ対応ならAutoShorts設計」「Remotionとの結線方法を学ぶならchatgptvideoai」という棲み分けが見えてきます。
  • 動画合成層(TypeScript/Remotion)
    • podcast-to-video-remotionは、音声+字幕からオーディオグラムを作るTSXコンポジションの具体例を提供し
      github.com
      、YouTube向けアスペクト比・尺の感覚を掴むのに有用です。
    • Editor Starterは、より本格的な編集UIとタイムライン管理、字幕、レンダリングキュー、バックエンドルートなどを備え
      remotion.dev
      、LLM/TTSを背後に持つ「AI動画エディタ」としての中核になり得ます。
  • 配信層(YouTube API)
    • 今回参照したリポジトリには、YouTube Data APIを使った自動アップロード実装は明示的には含まれていませんが、ニュースレターをYouTube動画化するRemotionプロジェクトの説明から、実運用ではYouTube連携が現実的なゴールになっていると読み取れます
      github.com
      。
      → 実装上は、レンダリング完了後のファイルをNode.jsで拾ってYouTube APIにPOSTする比較的標準的なパターンを取ることになると考えられます。

4. 実際に何から手をつけるべきか:おすすめロードマップ

ユーザーが「まず動くものを作りたい」のか、「将来自社プロダクトに組み込みたい」のかで最適なスタート地点は変わりますが、調査結果を踏まえると、次のようなステップが現実的です。
ステップ1:最小構成のPoCをchatgptvideoaiで掴む
  1. chatgptvideoai
    をクローンし、OpenAI APIキーを設定して動かす
    github.com
    。
  2. テキスト入力→LLM応答→TTS→Remotionレンダリング→動画ダウンロード まで一連の流れをトレースする。
  3. ここで得られるのは、「Remotionで音声とシンプルなアニメーションを同期させるTypeScript/TSXコード」と「LLM/TTSを同一Nodeプロセス内で扱う基本パターン」です
    github.com
    。
ステップ2:音声ベース動画テンプレをpodcast-to-video-remotionで磨く
  1. podcast-to-video-remotion
    を導入し、
    src/Video.tsx
    と
    src/Composition.tsx
    を編集しながら、アスペクト比や尺、字幕のスタイルをYouTube向けに調整する
    github.com
    。
  2. 外部で用意した音声・字幕の代わりに、ステップ1のLLM/TTS出力を差し込むスクリプト(ビルド前にassetsを差し替える小さなNodeスクリプトなど)を書く。
  3. これにより、「LLM/TTSは外部プロセス、Remotionは純粋なレンダラ」という疎結合な構成を試せます。
ステップ3:LLM/TTSワークフローをAutoShorts的に抽象化する
  1. AutoShortsのJS API例(
    genVideoWithAI
    や
    genVideoWithJson
    )を参考に
    github.com
    、
    • プロンプトから台本JSONを生成
    • ElevenLabsなどで音声を生成
    • Pexels APIで関連画像を取得
      といった処理をTypeScriptのサービス層として切り出します
      github.com
      。
  2. 動画合成部分だけをRemotionコンポジションに差し替えることで、「AutoShortsのAIパート+Remotionのレンダリングパート」というハイブリッド構成が実現できます。
  3. 注意点として、AutoShorts作者は「学習目的で開発停止中」「プロダクション利用には向かない」と明記しているため
    github.com
    、コードはあくまで設計の参考として読むのが安全です。
ステップ4:本格的なエディタ/サービス化を目指すならEditor Starter
  1. 将来的にユーザー向けのWebサービスや内製ツールとして提供する前提なら、Editor Starterの導入を検討します
    remotion.dev
    。
  2. Tracks/Items/Assets/Captioning/Rendering などの仕組みに、
    • LLMで生成したシーン構成JSONをインポートして自動配置
    • TTSで生成した音声ファイルをAsset Uploadに登録
    • 自動字幕生成結果をCaptioningに流し込む
      といった拡張ポイントを実装するイメージです
      remotion.dev
      。
  3. ライセンスは企業規模により条件が異なるため、商用利用前にRemotionのライセンス文書およびEditor Starterの利用規約を確認する必要があります
    remotion.dev
    。

5. 今後のリポジトリ探索をどう“調べ尽くす”か

今回の調査では、「条件に完全一致するプロジェクトを網羅列挙する」には至らず、GitHub Topicsの要約レベルにとどまっています
github.com
github.com
。より徹底した調査を行うには、次のような自動・半自動プロセスが有効だと考えられます。
  • 検索クエリの活用
    • remotion typescript openai tts site:github.com
    • remotion "youtube" "shorts" "ai" site:github.com

      といったクエリで候補を広く拾い上げることが推奨されています
      github.com
      。
  • フィルタ条件の明確化
    • 言語: TypeScript または
      .ts
      /
      .tsx
      が多数
    • README/トピックに
      remotion
      ,
      youtube
      /
      shorts
      ,
      openai
      /
      gpt
      /
      tts
      などを含む
    • 最終更新が1年以内、スター数・フォーク数が一定以上
      という条件で機械的にスクリーニングする方針が提案されています
      github.com
      。
  • 取得すべきメタ情報
    • リポジトリ名・URL・主言語・Remotion利用有無・採用LLM/TTS・対象プラットフォーム(YouTube/Shorts/TikTok)・サンプル動画リンク・スター数・最終更新日などを収集し、比較表化するのが望ましいと考えられます
      github.com
      。
この「機械的な候補抽出 → 人手によるトップ10〜20の精読」という二段階を踏めば、現状分かっている4系統に加えて、よりニッチだが優れたプロジェクトも拾い上げられるはずです。

6. まとめ:いま選ぶべき“現実解”と将来像

  • 単一のOSSで“全部入り”はまだ存在しない
    • ただし
      • Remotion + OpenAI + TTS + TSX を一体化した
        chatgptvideoai
        github.com
      • TypeScript+Remotionで音声クリップを美しく可視化する
        podcast-to-video-remotion
        github.com
      • LLM+TTS+画像生成でショート動画を量産する
        AutoShorts
        github.com
      • そしてフル機能の編集基盤である Remotion Editor Starter
        remotion.dev

        が揃っており、「理想アーキテクチャを構成する部品」はほぼ出揃っています。
  • 当面のおすすめ構成
    1. chatgptvideoaiをベースに「LLM+TTS+Remotion」の結線を把握する
      github.com
      。
    2. podcast-to-video-remotionのコンポジション設計を参考に、YouTube/Shorts向けの画面設計をTypeScriptで磨く
      github.com
      。
    3. AutoShortsの設計から、複数LLM・TTS・画像ソースを切り替え可能な抽象レイヤーを自作し、将来的に差し替えやすい構成にする
      github.com
      。
    4. 本格的なサービス化/社内ツール化を視野に入れるなら、Editor Starterのタイムライン・字幕・レンダリング基盤の上に、これらのAIレイヤーを統合していく
      remotion.dev
      。
言い換えると、現時点での「最適解」は、一つの完璧なリポジトリを探すことではなく、用途ごとに最適なOSSの設計パターンを引き出し、自分のユースケースに合わせて“Remotion×LLM×音声AIスタック”を組み上げることだと考えられます。その際、本セクションで整理した3層アーキテクチャと4つの有力OSSは、実装と技術選定の“地図”として役立つはずです。
copy url
source logogithub.com
copy url
remotion.devremotion.dev
https://www.remotion.dev#introduction-video
https://www.remotion.dev#table-of-contents
https://www.remotion.dev#contributors
https://www.remotion.dev#license
Remotion License
its own specific license
Company License
Terms & Conditions
can be seen in the Remotion Store Page
copy url
remotion.devremotion.dev
CrawlChat
remotion.ai
Studio
Discord
copy url
github.comgithub.com
youtube
mcp
shorts
video-generator
video-generation
video-maker
tiktok
video-creator
remotion
reels
youtube-shorts
instagram-reels
tiktok-creator
shorts-maker
faceless-video
instagram-reels-automation
shorts-automate
model-context-protocol
video-creation-tool
react
lambda
browser
pwa
canvas
reactjs
animation
render
mockup-generator
mockup
object-storage
screen-recording
remotion
react
javascript
twitter-bot
typescript
twitter-api
reactjs
producthunt
zx
producthunt-api
tailwindcss
github-actions
remotion

調査のまとめ

回答

まず結論として、今回取得できた情報だけを見ると、「Remotion × LLM × 音声AI × TypeScript × YouTube向け動画生成」という要件をすべて一つのリポジ...

調査のまとめ

回答

まず前提として、今回参照できた情報は「Remotion公式ドキュメントのAI/Editor関連ページ」と「remotion・youtube-shorts・video-maker など...

🏷ChatGPT Video Generator:Remotion×OpenAI×TTS統合の最有力サンプル

画像 1

ChatGPT Video Generator:Remotion×OpenAI×TTS統合の最有力サンプル

ユーザーが求めているのは、「Remotion×LLM×音声AI×TypeScriptでYouTube向け動画を自動生成する、具体的に動く実装例」です。この条件に最も素直にフィットするのが、SaiTech01 の「ChatGPT Video Generator」こと
chatgptvideoai
リポジトリです
github.com
。
ここでは、このリポジトリを
  • どこまで「完成したサンプル」として使えるか
  • 自分のチャンネル向けにどう拡張・流用できるか
という観点で解説します。

なぜ「最有力サンプル」と言えるのか

chatgptvideoai
は、次の4要素を一つのワークフローとしてすでに統合しています
github.com
github.com
github.com
github.com
github.com
。
  • LLM: OpenAI API(ChatGPT系)でトピックの要約やテキスト生成
  • 動画レンダリング: Remotion(React/TSXコンポーネントベース)+FFmpeg
  • 音声AI: Node.js 経由の TTS(Text-to-Speech)
  • フロントエンド: React(.tsx を含む構成で TypeScript/TSX でのUI実装が確認できる)
また、このプロジェクトは「テキストを1行入力するだけで、要約アニメーション動画とナレーション音声付きの短尺動画を生成し、ダウンロード可能にする」という、YouTubeショートや解説動画の自動生成に直結する機能を持っています
github.com
github.com
github.com
github.com
github.com
。
言い換えると、「TypeScript+Remotion+LLM+TTSでまず1本動く動画パイプラインを作りたい」というニーズに対して、ほぼそのまま動作する“リファレンス実装”になっています。

プロジェクト概要と生成される動画のイメージ

リポジトリのREADMEでは、「ChatGPT Video Generator is an AI-powered video generator that can generate videos with just a text as input」と記されており、トピックの要約テキストからシンプルなアニメーション動画を自動生成することが明示されています
github.com
github.com
github.com
github.com
github.com
。
主な特徴は次の通りです。
  • テキスト入力のみで動画を生成
  • 生成動画はトピックの要約をシンプルなアニメーションで可視化
  • Node.js の TTS を使って自動的に音声を付与
  • 生成された動画はブラウザからダウンロード可能
  • 無料かつMITライセンスで商用利用も可能
    github.com
    github.com
READMEとデモサイトからは、教育系やトピック解説系のショート動画を想定したUIであることが読み取れます
github.com
github.com
。
ここで重要なのは、Remotionを使った映像表現そのものは意図的に「簡素」に抑えられていることです。READMEでも「Currently, only a simple animation and can only be optimal for creating summary of a topic in a single or less words」と、短い要約や単語レベルのトピックに最適化されていると明記されています
github.com
。
これは裏を返すと、「LLM連携とTTS統合にフォーカスした最小構成のサンプル」であり、Remotion側の表現を自分で拡張していくベースとして最適だと考えられます。

技術スタック:Remotion×OpenAI×TTS×TypeScript

ユーザーの要件に対するフィット感を技術スタックから整理すると、以下のようになります。
  • 言語/フロントエンド
    • React + .tsx ファイル構成から、TypeScript/TSX ベースのUI実装であることが示唆
      github.com
  • LLM
    • OpenAI APIキーを
      src/chat.tsx
      の所定行に設定するだけで利用できる構成
      github.com
      github.com
  • 動画レンダリング
    • Remotion でコンポーネントを定義し、FFmpeg と組み合わせて動画を生成
      github.com
    • HD や高度な機能は Remotion CLI を使うようREADMEで案内されている
      github.com
  • 音声AI(TTS)
    • Node.js ベースの TTS 実装(具体的なプロバイダ名はREADMEでは明記されていませんが、テキストから音声を合成し、それを動画に組み込むワークフローが構築されています)
      github.com
      github.com
AutoShorts のように ElevenLabs やNeets.ai、Ollama など複数の音声・LLMプロバイダを抽象化している高度なフレームワークもありますが
github.com
github.com
github.com
github.com
github.com
github.com
github.com
、こちらはCLI+独自レンダラ(ffcreator系)が中心で、Remotionを採用していません。そのため、
  • 「Remotionのベストプラクティスを知りたい」
  • 「React/TypeScriptで動画コンポーネントを組む感覚を掴みたい」
という観点では、
chatgptvideoai
のほうが圧倒的に直接的な参考実装になります。

セットアップと導入のしやすさ

READMEのインストール手順は極めてシンプルで、次のステップでローカルで動く状態まで持っていけます
github.com
github.com
。
  1. リポジトリをクローン
  2. npm install
    で依存関係をインストール
  3. src/chat.tsx
    の指定行(line 88)に OpenAI API キーを記載
  4. npm run start
    で開発サーバを起動
  5. ブラウザからトピック要約を入力して「Send」をクリック
  6. 30秒〜1分待ち、「Download video」で動画を取得
AutoShorts の場合は、
npm install auto-shorts
に加え、
npx auto-shorts --download
でテンプレリソースを取得し、さらに
.env
に複数のAPIキー(OpenAI、Gemini、Anthropic、ElevenLabs、Pexelsなど)を設定する必要があるため
github.com
github.com
github.com
github.com
、初期導入コストは大きくなります。
これと比べると
chatgptvideoai
のセットアップは
  • 依存サービスがOpenAI APIのみ
  • .envまわりもシンプル(単一のAPIキーをコードに直接セット)
という意味で、「まず動くところまで」を最速で体験できる構成だと考えられます。

ワークフローの構造と、どこを自分仕様に変えられるか

READMEとコンテキストから、このリポジトリの内部ワークフローはおおむね次のような流れになっています
github.com
github.com
。
  1. ユーザーがUIからトピックの要約テキストを入力
  2. React/TSXコンポーネント側でOpenAI APIを呼び出し、動画内容のテキストを生成
  3. Node.js/TTSでナレーション音声を生成し、音声ファイルを保存
  4. Remotionコンポーネントにテキスト・音声・アニメーションパラメータを渡す
  5. RemotionとFFmpegで動画としてレンダリング
  6. フロントエンドから動画をダウンロード
この中で、ユーザーが自分のチャンネル用に“差し替えるべきポイント”は、主に次の3つだと考えられます。
    1. プロンプト設計とOpenAI呼び出し部分(
      src/chat.tsx
      )
    • どの程度の長さ・トーンの台本を生成するか
    • YouTube最適な構成(フック→本編→CTAなど)をプロンプトに組み込むか
    1. Remotionコンポーネント(
      src/Video.tsx
      など想定)
    • 背景色・フォント・テキストアニメーション
    • 画面サイズやアスペクト比(縦長 9:16 でYouTube Shorts/Reels向けにするなど)
    1. TTSの入れ替え
    • 現行のNode.js TTSを ElevenLabs やNeets.aiなどの外部TTSに差し替える
      • AutoShortsで使われている ElevenLabs/Neets.ai 連携コードを参考にする
        github.com
        github.com
        github.com
このように、ChatGPT Video Generatorは「一つの完成したUX」を持ちつつも、台本生成・音声合成・映像コンポーネントの3層が比較的素直に分離されていると考えられ、Remotionのコンポーネントを差し替えたり、OpenAIのプロンプトを編集することで、自分の用途に最適化しやすい構造だと推測されます。

YouTube向けに使う際の制約と、その解釈

READMEでは、現状の限界として次のような点が明示されています
github.com
。
  • 「Currently, only a simple animation and can only be optimal for creating summary of a topic in a single or less words」
  • ダウンロード機能は効率的でない場合がある
  • HD動画や高度な機能は Remotion CLI を使う必要がある
ここが示唆しているのは、「そのままでもPoCや学習用には十分だが、YouTube用の量産ワークフローとしては、表現力とパフォーマンスの両面でカスタマイズが前提になる」という点です。
実務シナリオでは、次のようなアプローチが現実的だと考えられます。
  • まずはこのリポジトリをそのまま動かし、
    • OpenAI呼び出し部
    • Remotionコンポーネント構造
    • TTSと音声ファイルの扱い方 を理解する
  • 次に、Remotion CLIを導入してHDレンダリングや縦長ショート対応に拡張する
    github.com
    github.com
  • 最後に、AutoShortsのようなフレームワーク的な実装から、ElevenLabsなど高品質TTS・OllamaなどローカルLLMの組み込み方を“移植”していく
    github.com
    github.com
    github.com
    github.com

実践ステップ:このリポジトリを軸に自分のパイプラインを設計する

ユーザーの「GitHubから参考になるおすすめレポジトリを調べ尽くしてほしい」という問いに対して、Remotionを使ったLLM×音声AI×TypeScriptの統合例として、
chatgptvideoai
をまず押さえ、必要に応じて AutoShortsなど他プロジェクトの実装アイデアを組み込むのが現実的な戦略だと考えられます。
このセクションの締めとして、「このリポジトリを使って何をすればよいか」を最短ルートでまとめると、次のようになります。
  1. chatgptvideoai
    をクローンし、OpenAIキーを設定してローカルで動画生成を試す
    github.com
    github.com
  2. src/chat.tsx
    (OpenAI呼び出し)とRemotionコンポーネントを読み、台本生成フローと動画構成を把握する
  3. 自分のチャンネルのフォーマット(ニュース解説、HowTo、雑学など)に合わせてプロンプトとアニメーションをカスタマイズする
  4. 必要に応じて、AutoShorts の ElevenLabs や Ollama 連携コードを参考にしながら、TTSやLLMを差し替える
    github.com
    github.com
    github.com
  5. Remotion CLIでHD出力・縦長Shorts出力を整え、YouTubeアップロードフロー(別ライブラリやスクリプト)につなげる
こうしたステップを踏むことで、「Remotion×LLM×音声AI×TypeScriptでYouTube動画を自動生成する」ための具体的な実装指針を、この1リポジトリから出発して明確に描くことができます。次のセクションでは、他のOSS(AutoShortsなど)との比較を通じて、より汎用的なショート動画生成パイプラインの設計パターンを整理していきます。
copy url
source logogithub.com
https://video-generator-8fe43.web.app/
Remotion command line
LICENSE.md
copy url
github.comgithub.com

🏷podcast-to-video-remotion:音声→動画テンプレのTypeScript実装

画像 1

podcast-to-video-remotion:音声→動画テンプレのTypeScript実装

YouTube向けの自動動画生成を「どこから組み立てるか」を考えるとき、
podcast-to-video-remotion
は、LLMや音声AIと組み合わせるための「土台」として非常に扱いやすいテンプレートです。このセクションでは、このリポジトリが何をしてくれるのか、何をしてくれないのかを切り分けながら、「Remotion × TypeScript × LLM/音声AI」で自動化パイプラインを組むときの現実的な設計指針を整理します。

1. リポジトリの位置づけ:音声を「見せる」ことに特化したRemotionテンプレ

harshitsinghai77/podcast-to-video-remotion
は、ポッドキャストなどの音声から「オーディオグラム(audiogram)」と呼ばれる短尺動画を生成するためのRemotionテンプレートです。説明では、ポッドキャストエピソードや任意の音声からソーシャルメディア用の動画クリップを作る用途が明示されており
github.com
、典型的なターゲットは以下のようなコンテンツです。
  • ポッドキャストのハイライトクリップ
  • 音声配信の告知用ショート動画
  • ナレーション付きの静止画+字幕動画(YouTubeショート/クリップ)
つまり「LLMで台本を自動生成して、音声AIで読み上げ、それをRemotionで映像化する」という大きなパイプラインのうち、このテンプレートは「映像化」部分をきれいに肩代わりしてくれるユニットだと捉えると分かりやすくなります。
技術スタックとしては、RemotionとTypeScriptで構成されており
github.com
、ユーザーの要件である「Remotion × TypeScript」を素直に満たしています。一方で、後述するように、リポジトリ自体はLLMやTTSの統合までは含んでいないため、そこは外側で組み合わせる必要があります。

2. プロジェクト構造と「どこを触ればいいか」

README と補足情報から、開発者が主に編集するポイントはきわめてシンプルに整理されています
github.com
github.com
。
  • src/Video.tsx

    動画のサイズや長さを調整する主要ファイルです。ここを編集して解像度(例: 1920x1080 / 1080x1920)やクリップの長さをYouTube用に最適化できます
    github.com
    github.com
    。
  • src/Composition.tsx

    Remotionのコンポジション設定(フレームレート、デフォルトの長さ、使用するコンポーネントなど)を定義する場所です
    github.com
    github.com
    。
  • src/assets

    音声ファイル、カバー画像、字幕ファイルといった素材を置くフォルダです。ここにAIで生成した音声やサムネイル、字幕JSONを投入してリレンダリングする、という構成が想定されています
    github.com
    github.com
    。
セットアップも標準的で、依存関係のインストール
npm i
、プレビュー
npm start
、ビルド
npm run build
、Remotionのアップグレード
npm run upgrade
というお決まりの流れになっており
github.com
github.com
、既にRemotionを触ったことがある人は迷う部分がほぼありません。言い換えると、「Remotionのベストプラクティスに沿った最低限の構成」が手に入るという意味で、独自実装をいきなり始めるよりもずっと安全なスタート地点になります。

3. 字幕とトランスクリプト:AIパイプラインと相性がよい「単語単位」仕様

このテンプレートの最も重要な設計上の特徴は、「字幕ファイルを単語単位(word-level)でセグメント化して扱う」前提を置いている点です
github.com
github.com
。READMEでは、字幕の取得先として以下のようなサービスやOSSが挙げられています。
  • Descript
  • Otter.ai
    github.com
    github.com
  • Scriptme.io
    github.com
    github.com
  • オープンソースの Subs AI
    github.com
    github.com
これをLLM・音声AIと組み合わせて考えると、次のような設計がしやすくなります。
  1. LLMが台本(テキスト)を生成
  2. 音声AI(例えばElevenLabsやAzure TTS等)でナレーション音声を生成
  3. 音声認識ツール(WhisperやSubs AIなど)で「word-level」のタイムスタンプ付きトランスクリプトを取得
  4. 得られた字幕JSONをそのまま
    src/assets
    に入れる
  5. Remotionテンプレートで、単語ごとにハイライトが動くダイナミックな字幕付き動画としてレンダリング
ほとんどの汎用的な動画ジェネレータは「文単位」や「チャンク単位」の字幕処理をして終わりになりがちです。その点、このテンプレートは最初から単語レベルの同期を前提としているので、YouTubeショートでよく見る「カラフルにポップする単語字幕」や「強調ワードだけ色を変える演出」をRemotion側のTypeScriptロジックで自在に組める余地があります。
つまり、LLM/TTSと組み合わせるうえでの本当の価値は、「時間情報付きのテキストデータを前提にしたUIの土台になっていること」にあると考えられます。

4. LLM・音声AIとの統合状況:あえて「やっていない」から拡張しやすい

ユーザーの要件は「Remotion × LLM × 音声AI × TypeScript × YouTube動画自動生成」ですが、このリポジトリ単体には、ChatGPTなどのLLM API呼び出しや、TTSのコードは含まれていません
github.com
。READMEでも、字幕の取得を外部サービスに任せることが想定されており、AI統合は「周辺エコシステムとして紹介されている」に留まります
github.com
github.com
。
一見すると要件から外れているように見えますが、これは裏を返すと「自分の好きなLLM/TTSスタックを自由に接続できるテンプレート」とも言えます。同じRemotion系のAI動画リポジトリの一例として、OpenAIのAPIとTTS、Remotion、FFmpegなどを組み合わせたChatGPT Video Generatorがあり
github.com
github.com
、こちらは
  • OpenAI APIでテキストから要約やスクリプトを生成
  • TTSで音声を作成
  • Node.jsとFFmpegで動画を生成し、Remotion CLIを使うことでHD動画化も可能
という「AIサイドが厚く実装された構成」になっています
github.com
github.com
。
対照的に
podcast-to-video-remotion
は、AIロジックをあえて内包していないぶん、下記のような構成をとりやすいと考えられます。
  • AI部分は別のサービスやワーカー(例: AutoShortsや自作のLLMサーバ)に任せる
  • 生成された音声ファイル+字幕JSONだけをこのテンプレートに流し込む
  • 映像表現とYouTube向けの画面レイアウトはRemotionテンプレにすべて委譲
複数プロジェクトを組み合わせるアーキテクチャを前提とするなら、「AIロジックが薄いRemotionテンプレ」と「AIロジックが厚い動画生成エンジン」を分けて考える方が、保守や差し替えがしやすいというメリットがあります。

5. 実務での導入フロー:YouTube自動生成パイプラインの一例

ユーザーの「参考になるおすすめレポジトリが知りたい」というニーズに対して、このリポジトリをどう実戦投入するかを、具体的なパイプラインとして整理します。ここではAI側の例として、スクリプトとTTSを自動生成できるAutoShortsのようなツール群を念頭に置きます
github.com
github.com
github.com
。
  1. トピックからスクリプト・音声を自動生成
    • LLM(OpenAI GPT-4o / Gemini / Claude など)で台本を生成し
      github.com
      github.com
      github.com
      、ElevenLabsなどのTTSで音声を出力します
      github.com
      github.com
      github.com
      。AutoShortsのようなパッケージを使うと、
      npx auto-shorts -p "make a news short about TypeScript"
      のようなコマンドで、スクリプト生成から音声・画像生成までまとめて行うことも可能です
      github.com
      github.com
      github.com
      github.com
      github.com
      。
  2. 音声から「word-level」字幕を生成
    • Whisperなどの音声認識エンジンや、Subs AIのようなオープンソースツールを使って
      github.com
      github.com
      、単語ごとの開始・終了時刻を持つトランスクリプトを生成します。
    • ここで
      podcast-to-video-remotion
      が要求するフォーマット(単語単位の字幕)に整形するスクリプトを一度書いておくと、その後の自動化がスムーズになります。
  3. Remotionテンプレートに素材を投入
    • 生成された音声ファイル、カバー画像、字幕ファイルを
      src/assets
      に配置します
      github.com
      github.com
      。
    • フレームサイズや動画長をYouTube向け(横16:9 / 縦9:16)に調整する場合は、
      src/Video.tsx
      と
      src/Composition.tsx
      を編集します
      github.com
      github.com
      。
  4. 自動レンダリングとYouTubeへのアップロード
    • CI/CDやcronジョブから
      npm run build
      を叩き、Remotionで動画をレンダリングします
      github.com
      github.com
      。
    • 出力されたmp4をYouTube Data API経由で自動アップロードすることで、完全自動の「テキスト→動画→YouTube公開」パイプラインが構築できます。
ここで注目すべきは、「Remotion部分はほぼ一切触らずに、外側のAIパイプラインを組むだけで済む」構造を作れることです。将来、より高品質なTTSに乗り換えたい、LLMを別サービスに変えたい、といった場合も、Remotionのテンプレートはそのまま流用できるため、技術選定の自由度が高まります。

6. 強み・弱みの整理と、どんな場合に「刺さる」か

最後に、このリポジトリを他のAI動画生成OSS(例: ChatGPT Video Generator
github.com
github.com
やAutoShorts
github.com
github.com
github.com
)と比較しながら、選定の観点を整理します。
表1.
podcast-to-video-remotion
の位置づけ
| 観点 | podcast-to-video-remotion | ChatGPT Video Generator 等との比較 | |---|---| | 技術スタック | Remotion + TypeScript
github.com
| Node.js + OpenAI + FFmpeg + Remotionなど
github.com
github.com
| | LLM統合 | なし(外部連携前提)
github.com
| OpenAI等を直接呼び出してスクリプト生成
github.com
github.com
| | TTS統合 | なし(外部で生成した音声を入力)
github.com
| Node.jsからTTSを呼び出し動画生成
github.com
github.com
| | 字幕処理 | 単語単位の字幕を前提にUI構成
github.com
github.com
| 多くは文単位、UIテンプレは薄い場合が多い | | 主なユースケース | ポッドキャスト/音声コンテンツのオーディオグラム | テキスト1本から完結に動画を生成 | | 学習コスト | Remotion経験者なら低い | AI連携含めてコード理解が必要 |
言い換えると、次のようなケースでは
podcast-to-video-remotion
が特に「刺さる」選択肢になると考えられます。
  • すでにLLM・TTSパイプライン(あるいはAutoShortsのようなAIジェネレータ)があり、「最後の動画化レイヤー」だけをRemotionで綺麗に整えたいとき
  • ポッドキャストや既存の音声コンテンツをYouTubeショートに再利用したいとき
  • 字幕と音声の同期演出(単語単位の強調やカラフルなテキストアニメーション)をRemotion + TypeScriptできめ細かく制御したいとき
一方で、「テキストを1行入れたらYouTubeショートが丸ごと出てくる」ようなオールインワン自動化を最初から求める場合は、ChatGPT Video Generator
github.com
github.com
や、LLM/TTSを内包したAutoShorts
github.com
github.com
github.com
の方が近道になります。そのうえで、最終的なUIやブランド表現を詰めたくなった段階で、このテンプレートのようなRemotionベースの実装に「着地させる」アプローチも有望です。

7. まとめ:Remotion側の「完成形」を先に押さえるという発想

ユーザーの問いは、「RemotionとLLMや音声AIを組み合わせてYouTube動画をTypeScriptで自動生成するための、参考になるリポジトリが知りたい」というものでした。この観点で
podcast-to-video-remotion
を評価すると、
  • Remotion + TypeScriptで、音声+カバー画像+字幕から動画を作る「完成形のUI実装」が手に入る
    github.com
    github.com
  • 単語単位の字幕を前提とした設計により、AIで生成したトランスクリプトと高度に同期した演出がしやすい
    github.com
    github.com
  • LLM・TTSの部分は外部サービスや他OSSと自由に組み合わせる余地が大きい
という意味で、「AIパイプラインの出口としてのRemotionテンプレ」の有力候補と言えます。
実務的には、まずこのテンプレートをクローンし、手元の音声と字幕で
npm start
→
npm run build
の一連の流れを動かしてから、LLM/TTSとの自動連携を外側に追加していくのが、もっともリスクの低い進め方と考えられます。こうすることで、「動画の見た目」と「AIの賢さ」を切り離してそれぞれ最適化できるため、YouTubeチャンネル運営の成長フェーズに応じて、どちら側も柔軟に進化させていくことができます。
copy url
source logogithub.com
Remotion docs
Otter.ai
Scriptme.io
Subs AI
fundamentals page
on our Discord server
File an issue here
the terms here
copy url
github.comgithub.com

🏷AutoShortsほかショート動画自動生成系から学ぶLLM/TTSワークフロー

画像 1

AutoShortsほかショート動画自動生成系から学ぶLLM/TTSワークフロー

Remotion × TypeScript でYouTube向けの自動動画生成パイプラインを作ろうとするとき、いきなり「Remotionで全部やる」発想に行きがちですが、実際のOSSエコシステムを見ると、多くのプロジェクトは「AIでコンテンツを組み立てる層」と「動画をレンダリングする層」をきれいに分離して設計しています。
この分離を最も分かりやすく体現しているのが AutoShorts を代表とするショート動画自動生成系のリポジトリです。
ここでは、AutoShorts などの実装からワークフローの型を抽出し、それを Remotion × TypeScript にどう移植すればよいか、という観点で整理します。

AutoShortsに見る「ショート動画自動生成」の標準フロー

AutoShorts は、YouTube Shorts/TikTok 形式の動画を「プロンプトだけ」から生成できるパッケージで、
LLM(OpenAI / Gemini / Claude / Ollama など)によるスクリプト生成、TTS(ElevenLabs / Neets.ai / ローカルTTS)による音声合成、Pexelsなどによる画像取得をひとつのCLI/JS API からまとめて扱えるようにしています
github.com
github.com
。
ドキュメントに書かれている代表的なフローは次のとおりです。
  1. ユーザーがプロンプトを与える
    例:
    make a news short about TypeScript
    のような自然言語プロンプトを CLI オプション
    -p
    で与える
    github.com
    github.com
    。
  2. LLM でスクリプト JSON を生成
    • OpenAI GPT‑4o mini や Google Gemini、Anthropic Claude、ローカルの Ollama llama3.2 などから選択可能で、
      --aiType OpenAIGen
      などのパラメータで切り替えられます
      github.com
      github.com
      。
    • 生成結果は動画構成を表す JSON で、必要に応じて人手で修正することも想定されています
      github.com
      github.com
      。
  3. TTSで音声クリップを生成
    • ElevenLabs か Neets.ai、あるいはローカルTTSを選択し、APIキーを
      .env
      で設定するだけで切り替えられます
      github.com
      github.com
      。
    • JS API の例では、
      VoiceGenType.ElevenLabsVoice
      のように enum で指定し、生成された音声ファイルを
      tempPath
      以下に保存します
      github.com
      github.com
      。
  4. 画像素材の自動取得
    • Pexels API もしくはスクレイパーを用いて、トピックに関連する画像を自動的にダウンロードします
      github.com
      github.com
      。
    • こちらも
      ImageGenType.Pexels
      などのパラメータで切り替えられ、APIキーは
      .env
      経由で注入します
      github.com
      github.com
      。
  5. JSONまたはプロンプトから動画を組み立てる
    • genVideoWithAI(prompt, aiType, options, openaiKey)
      のようにプロンプトから一気通貫で生成するモードと
      github.com
      github.com
      、
      いったん生成した JSON を
      genVideoWithJson(data, options)
      に渡すモードの双方をサポートしています
      github.com
      github.com
      。
    • 内部では ffcreator と inkpaint のフォークを使ってレンダリングしており
      github.com
      github.com
      、
      生成進捗は
      task.on('log', ...)
      /
      task.on('done', ...)
      のイベントで受け取る設計です
      github.com
      github.com
      。
この一連の流れはそのまま「ショート動画LLM/TTSワークフロー」の標準形になっており、
Remotion ベースで作る際も、本質的には同じステップを TypeScript でなぞることになります。

ChatGPT Video Generatorに見る「LLM→TTS→簡易アニメーション」の最小構成

AutoShortsが多様な動画タイプとAIツールに対応する「フルスタック志向」なのに対して、ChatGPT Video Generator はもっとミニマルで、
「テキスト1つから要約アニメーション+TTSを生成する」ことに特化した Node.js プロジェクトです
github.com
github.com
。
READMEの情報を整理すると、ワークフローは次のようになります。
  1. テキスト入力 → OpenAI API で要約(あるいは説明文)を生成
    github.com
    github.com
  2. Node.jsでTTSを実行し、音声を生成
    github.com
    github.com
  3. シンプルなアニメーション(React + Remotion + FFmpeg)で動画を生成し、ダウンロード可能にする
    github.com
    github.com
  4. HD動画・高度な機能が欲しい場合は Remotion CLI を直接使うことを推奨
    github.com
    github.com
注目すべきは、「LLM/TTSのロジックはNode.js側に閉じ込め、Remotionはレンダリング専用」と明確に役割分担している点です。
これは AutoShorts における「AI層(スクリプト・音声・画像)とレンダリング層(ffcreator)」の分離とも共通しており
github.com
github.com
、
Remotionを採用するときも「Remotionは編集ツール/レンダラー」と割り切る設計が合理的だと示唆しています。

Remotionテンプレート(podcast-to-video)に見る「オーディオ→ビジュアル」のマッピング

Remotion自身のテンプレートとして公開されている「podcast-to-video-remotion」は、
ポッドキャスト音声(オーディオ)から「オーディオグラム」形式の動画を生成するためのスターターです
github.com
github.com
。
このリポジトリはLLMやTTSを直接含んでいませんが、AIで生成した音声・字幕をどう Remotion のタイムラインに載せるか、という観点で非常に参考になります。
README によると
github.com
github.com
:
  • 映像尺・サイズは
    src/Video.tsx
    で調整
  • 音声・カバー画像・字幕は
    src/assets
    フォルダに配置し差し替える
  • コンポジションは
    src/Composition.tsx
    で定義
  • npm start
    でプレビュー、
    npm run build
    でレンダリング、
    npm run upgrade
    でRemotionのバージョンアップ
    github.com
    github.com
  • 字幕は「単語ごとに分割された字幕」を推奨しており、Subs AI など外部ツールで生成したものを取り込む前提
    github.com
    github.com
言い換えると、このテンプレートは「既に手元にある音声・細かく区切られた字幕・カバー画像」を、
Remotionで美しく同期させるためのベストプラクティス集と言えます。
AutoShorts や ChatGPT Video Generator 側で AI にやらせているのは、まさにこの「音声と字幕を用意する部分」なので、
両者を組み合わせると「AIで音声と字幕をつくり、Remotionでタイムラインに落とし込む」という理想的な構成になります。

3つの系統から見えてくる共通パターン

以上の3系統(AutoShorts、ChatGPT Video Generator、podcast-to-video-remotion)を俯瞰すると、
Remotion × LLM × 音声AI × TypeScript でショート/YouTube動画自動生成を行う際に押さえるべき共通パターンが見えてきます。
  1. AI層は「JSON or テキスト+ファイル」を吐くサービスとして切り出す
    • AutoShortsは、動画構造を表現する JSON を中心に据え、LLMの出力が崩れた場合は人間が JSON を修正する運用を前提にしています
      github.com
      github.com
      。
    • Remotion側には「コンポジションのための型付きデータ」として、
      「シーンの並び」「各シーンのテキスト」「対応する音声ファイルパス」「背景画像パス」「開始フレーム・終了フレーム」などを渡すだけでよいと考えられます。
  2. TTSはサービス切り替え可能な抽象レイヤで扱う
    • AutoShorts が ElevenLabs / Neets.ai / ローカルTTS を切り替えられるようにしているのは、
      音質・コスト・レイテンシのトレードオフを後から最適化しやすくするためと考えられます
      github.com
      github.com
      。
    • TypeScript側でも「VoiceProvider」インターフェースを定義し、
      generateVoice(text, voiceId): Promise<AudioAsset>
      のように抽象化しておくと、将来の差し替えが容易になります。
  3. 動画レンダリングはRemotionかffcreatorなどの「専任エンジン」に委ねる
    • AutoShortsは内部で ffcreator/inkpaint をフォークして使っており
      github.com
      github.com
      、
      ChatGPT Video Generator は Remotion + FFmpeg を組み合わせてHD動画生成をRemotion CLIに委ねる設計を採用しています
      github.com
      github.com
      。
    • Remotionベースで構築する場合も、AI側で完結させようとするのではなく、
      「RemotionはReactコンポーネントとしてタイムラインを組み立て、レンダリングとエンコードは CLI やLambda/Render サービスに任せる」
      という分割を意識するのが現実的です。
  4. 「ワークフロー全体」をCLIやREST APIとして表現する
    • AutoShortsの特徴は、
      npx auto-shorts -p "...prompt..." --aiType ... --ttsType ...
      というCLIで、
      一連の AI 呼び出し → 資源ダウンロード → レンダリングを束ねている点です
      github.com
      github.com
      。
    • ChatGPT Video Generatorも、ブラウザUIから1テキスト入力で同様のワークフローを実行しており
      github.com
      github.com
      、
      TypeScript/Remotionベースでも「CLI or HTTPエンドポイント1つで完結するワークフロー」を用意するのが運用上のベストプラクティスだと考えられます。

Remotion×TypeScriptに移植するときの具体的な設計指針

ユーザーの要望は、「RemotionとLLMや音声AIを組み合わせて、TypeScriptでYouTube動画を自動生成する参考レポジトリ」を知りたい、というものでした。
現時点のOSSを見ると、Remotion・LLM・TTSをすべて1リポジトリで完結させた「決定版」はまだ少ない一方で、
AutoShorts系のAIワークフローと、podcast-to-video-remotionのようなRemotionテンプレを組み合わせることで、
要求をほぼ満たすアーキテクチャを構築できると考えられます。
ここでは、その「移植設計」をステップとして示します。
  1. AIバックエンド(AutoShorts的な層)をTypeScriptで用意
    • OpenAI / Gemini / Claude / Ollama などへのクライアントを TS でラップし、
      AutoShorts が行っているように、動画構造を表現する JSON(シーン定義)を返す関数を設計します
      github.com
      github.com
      。
    • 同様に ElevenLabs やNeets.aiへのTTSクライアントを「VoiceProvider」インターフェースとして抽象化し、
      ユーザー設定に応じて使い分けられるようにします
      github.com
      github.com
      。
  2. 音声・字幕・画像を「Remotionが読み込めるアセット」として書き出す
    • 生成した音声ファイルは、podcast-to-video-remotionが前提としている
      src/assets/audio.*
      のような形で配置すると、
      Remotionの既存テンプレをそのまま活用しやすくなります
      github.com
      github.com
      。
    • 字幕も同テンプレが推奨する「単語ごとの字幕」形式で出力し
      github.com
      github.com
      、
      Remotion コンポーネント側で
      currentFrame
      と字幕タイミングを突き合わせてレンダリングします。
  3. Remotionコンポジションを「シーンJSON」を入力に生成する
    • AutoShorts が
      VideoDataType
      として動画タイプ・タイトル・スクリプト・画像リストをJSONで受け取っているのと同様に
      github.com
      github.com
      、
      Remotion側にも
      VideoSpec
      のような型を定義し、その値から
      <Composition>
      を組み立てる関数(あるいはコンポーネント)を実装します。
    • こうしておくと、将来的に「ニュース動画」「ランキング動画」「クイズ動画」など、
      AutoShorts がサポートしている複数のショート動画タイプを Remotion 上で再現することも容易になります
      github.com
      github.com
      。
  4. 全体を CLI または REST API に束ねる
    • AutoShorts と同じく、
      npx my-remotion-shorts -p "..." --aiType OpenAI --ttsType ElevenLabs
      のような CLI を用意すると
      github.com
      github.com
      、
      チームメンバーやCI/CDからの利用が容易になります。
    • もしくは、Next.js や Express で UI/REST API を用意し、AutoShorts のUIがそうしているように
      github.com
      github.com
      、
      バックエンドサーバー(AI/レンダリング)とフロントエンド(動画生成フォーム)を分離する構成も現実的です。

どのリポジトリをどう参考にすべきか(まとめ)

ユーザーの観点から、「何をどのように参考にすべきか」を整理すると、次のようになります。
表1. ユースケース別の参考リポジトリ
観点おすすめリポジトリ/情報源参考にすべきポイント
LLM+TTS+画像でショート動画を自動生成する全体フローAutoShorts
github.com
github.com
プロンプトからスクリプトJSONを生成し、TTS・画像生成と組み合わせて動画を生成するCLI/JS API。AIツール切替の抽象レイヤ設計。
Remotionを用いたシンプルなAI動画生成の最小例ChatGPT Video Generator
github.com
github.com
OpenAI+TTS+Remotion+FFmpegで「テキスト1件→動画」を実現するミニマル構成。Remotion CLIをHDレンダリングに使う発想。
音声+字幕をRemotionタイムラインにマッピングするベストプラクティスpodcast-to-video-remotion
github.com
github.com
単語ごとの字幕ファイル、音声・カバー画像のアセット構成、Remotionコンポジションの作り方。AIで生成した音声・字幕を流し込む型として利用。
言い換えると、
  • 「AIでどういう JSON や音声ファイルを作るべきか」は AutoShorts から学び
    github.com
    github.com
    、
  • 「Remotionを使ってどうレンダリングパイプラインを組むか」は ChatGPT Video Generator と Remotion 公式テンプレから学び
    github.com
    github.com
    、
  • それらを TypeScript で橋渡しする、というのが現実的な実装指針になります。
現在のOSSエコシステムでは「Remotion × LLM × 音声AI × TypeScript × YouTube投稿まで全部入り」の単一リポジトリはまだ少ないものの、
ここで紹介したプロジェクトを組み合わせて設計することで、ユーザーの要望にかなり近い自動生成パイプラインを構築できると考えられます。
次のステップとしては、Remotion の TypeScript コンポジション雛形に対し、AutoShorts 形式の JSON をそのまま流し込めるような中間スキーマを設計し、
小さな「ニュースショート1本生成」から動かしながら、徐々にYouTube投稿APIまで拡張していく進め方をおすすめします。
copy url
source logogithub.com
AutoShorts Docs
copy url
source logowww.reddit.com
copy url
github.comgithub.com

🏷GitHub Topicsと検索クエリを使った追加候補の探索戦略

画像 1

GitHub Topicsと検索クエリを使った追加候補の探索戦略

Remotion×LLM×音声AI×TypeScriptでYouTube向け動画を自動生成するOSSを「調べ尽くす」ためには、最初に数個の有力リポジトリを見つけるだけでは足りません。重要なのは、GitHub上の「トピックページ」と「検索クエリ」を組み合わせて、継続的に候補を掘り出せる“探索ルート”を設計しておくことです。この節では、その具体的なやり方と、実際にどんなトピック・クエリを使うべきかを整理します。

なぜGitHub Topicsが強力な「ハブ」になるのか

GitHubには、技術スタックや用途ごとにリポジトリを束ねる「トピック」が用意されています。たとえば video-generation トピックのTypeScriptページには、「Model Context Protocol(MCP)とREST APIを使ってTikTok / Instagram Reels / YouTube Shorts向けの短尺動画を生成する」TypeScriptプロジェクトが存在することが明示されています
github.com
。ここから分かるポイントは二つあります。
  1. 目的そのものが「短尺動画の自動生成」であり、YouTube ShortsやReels、TikTokなど、ユーザーが想定しているショート動画フォーマットと一致していること
    github.com
    。
  2. 技術スタックとしてTypeScriptが前提になっており、MCPを用いてLLMや外部モデルをオーケストレーションする設計が示唆されること
    github.com
    。
さらに、この video-generation トピックからは、YouTube・shorts・remotion・model-context-protocol など多数の関連トピックへのリンクが列挙されています
github.com
。これらは、RemotionやYouTube Shortsに特化したプロジェクトをたどるための“索引”として機能します。
同様のトピックの集合は video-maker トピックの文脈でも確認でき、TikTok / Reels / Shorts 向けの短尺動画をMCPとREST APIで生成する用途にフォーカスしたハブとなっていることが説明され、そのページから youtube / remotion / youtube-shorts / faceless-video / model-context-protocol など、同じ一団のトピックにリンクが張られています
github.com
github.com
。
言い換えると、「video-generation (TypeScript) → remotion → youtube / youtube-shorts → model-context-protocol」というリンクの連鎖そのものが、あなたの求める「Remotion×LLM×音声AI×TypeScript×YouTube自動生成」のエコシステムの地図になっている、と考えられます。

まず押さえるべきコア Topics 群

Remotion×LLM×音声AIでYouTube動画生成に役立つOSSを網羅的に拾うには、次のトピックページを“中核ハブ”として扱うのが実践的です。
  • Remotion関連
    • remotion トピック: Remotionベースの動画生成リポジトリ群
      github.com
      github.com
  • ショート動画・YouTube関連
    • youtube / youtube-shorts / shorts / shorts-maker: YouTube/Shorts向け自動生成や編集ツールを集約
      github.com
      github.com
    • tiktok / reels / instagram-reels / instagram-reels-automation / tiktok-creator: マルチプラットフォーム向けショート生成ツール群
      github.com
    • faceless-video: 顔出し不要な自動生成動画(ナレーション×Bロール)のリポジトリ集
      github.com
  • 動画生成基盤
    • video-generator / video-generation / video-maker / video-creator / video-creation-tool: 「テキストやスクリプト→動画」変換エンジンの集約ポイント
      github.com
      github.com
  • AI連携基盤
    • mcp / model-context-protocol: Model Context Protocolに対応したプロジェクト(LLMや外部AIをワークフローに組み込むための標準)
      github.com
      github.com
これらのページは単なるタグ一覧ではなく、「YouTubeショート自動生成」「Remotionでの動画レンダリング」「MCPを通じたLLM連携」など、あなたの要件をそのまま体現するプロジェクトが集まる“入口”です。たとえば video-generation (TypeScript) トピックでは、「MCPとREST APIを使ってShorts/Reels/TikTok向けの短尺動画を作るTypeScriptプロジェクト」が存在し、更新日が2025年6月21日と比較的新しいことが明記されています
github.com
。このような更新情報は、「今から実プロダクトに取り込めるか」の判断材料になります。

トピックだけでは足りない部分を検索クエリで補う

トピックは強力ですが、Remotion・LLM・音声AI・TypeScript・YouTubeといった要素がすべて揃っているプロジェクトだけがきれいにタグ付けされているわけではありません。実際、youtube-shorts トピックのコンテキストを見ると、長尺動画からのクリップ抽出をPython+GPT-4+FFmpeg+OpenCVで行うツールや
github.com
、YouTube Shorts表示を消すTampermonkeyスクリプトなどが混在しており、RemotionやTypeScript+音声合成まで一体化した例は見当たりません
github.com
。
そこで必要になるのが、トピック横断のキーワード検索です。検索結果の要約では、次のようなクエリを使う方針が推奨されています
github.com
github.com
。
  • remotion typescript openai tts
  • remotion "youtube" "ai"
  • remotion "chatgpt" "video generator"
これらは、「Remotionを使っている」「TypeScriptベース」「OpenAIやChatGPT、TTSと絡んでいる」といった条件を自然言語で絞り込む形です。この戦略によって、トピックタグが十分に付いていないが、README内ではしっかりRemotion+LLM+TTS+YouTubeを連携しているリポジトリを拾い上げられます。
実際の成果として、こうしたクエリや周辺探索からは、以下のようなプロジェクトが浮かび上がります。
  • AutoShorts(alamshafil/auto-shorts)
    • テキストプロンプトからニュース・クイズ・ランキング・「Would you rather」形式などのショート動画を自動生成し、スクリプトにLLM、音声にElevenLabsやNeets.ai、画像にPexelsを使い分けられる柔軟なパッケージ
      github.com
      github.com
      。
    • コマンドラインでは
      npx auto-shorts -p "make a news short about TypeScript" --aiType OpenAIGen --ttsType ElevenLabs --imageType Pexels ...
      のように、OpenAI GPT-4o-mini+ElevenLabs+Pexelsを組み合わせる例が提示されています
      github.com
      。
    • LLMとしてはOpenAI・Google Gemini・Anthropic Claude・OllamaのローカルLlama3.2など複数をサポートし
      github.com
      github.com
      、Web UIはNext.js+Express.jsで構築されています
      github.com
      。
  • ChatGPT Video Generator(SaiTech01/chatgptvideoai)
    • テキストを入力すると、OpenAI APIとNode.js+React+FFmpeg+Remotionでシンプルなアニメーション付きの要約動画を生成するプロジェクト
      github.com
      github.com
      。
    • 「HD動画を作りたければRemotionのCLIを使ってほしい」と明示しており、Remotionを本格的なレンダリングエンジンとして統合する拡張パスを示しています
      github.com
      。
これらは必ずしもGitHub Topicsのremotionやvideo-generationにすべて正しくタグ付けされているわけではありませんが、クエリ検索を併用することで拾い上げられます。つまり、「トピックでハブをたどる+キーワード検索で穴を埋める」という二段構えが、Remotion×LLM×音声AI事例を“調べ尽くす”ための現実的な戦略だと考えられます。

トピックとクエリを組み合わせた実務的な探索フロー

調査結果では、GitHub Topicsを起点にした実務的なスクレイピング・比較プランが具体化されています
github.com
github.com
。これを、あなたが自前の探索や自動収集スクリプトを書くときの手順として、整理し直します。
  1. 中核トピックページのスクレイピング
    • 対象例: remotion / youtube-shorts / shorts-maker / faceless-video / video-generator / video-maker / video-creation-tool / model-context-protocol など
      github.com
      github.com
      github.com
      。
    • 取得する項目:
      • リポジトリ名・URL
      • 説明文(README冒頭など)
      • 主言語(TypeScript / Python など)
      • スター数、最終更新日、ライセンス
  2. キーワードフィルタリング
    • 抽出したリポジトリを、次のようなキーワードでフィルタします
      github.com
      github.com
      。
      • remotion, typescript, tsx
      • llm, gpt, openai, chatgpt, ollama
      • tts, speech, elevenlabs, voice, audio
      • youtube, youtube-shorts, shorts
    • ここで「Remotion×TypeScript×LLM/TTS×YouTube」の最低限の条件を満たしそうな候補に絞り込みます。
  3. README・package.jsonの深掘り
    • 各候補のREADMEとpackage.json(もしくはpnpm-lock, yarn.lock)を解析し、次を抽出します
      github.com
      github.com
      。
      • Remotion利用の明示(remotionパッケージ、
        <Composition>
        コンポーネントなど)
      • AI統合の種類(OpenAI, Gemini, Claude, Ollama, ElevenLabs, Neets.ai など)
        github.com
        github.com
      • YouTube APIやShorts向けのアスペクト比・テンプレート対応の有無
      • ローカル実行とクラウド実行の切り替え方法、APIキー設定手順
  4. 「実用度スコア」でランキング
    • 調査計画では、次のような観点でスコアリングして優先度をつけることが提案されています
      github.com
      。
      • Remotion対応度(Remotionベースか/サンプルの充実度)
      • TypeScript対応度(主要言語がTypeScriptか)
      • AI統合度(LLMとTTSがどの程度統合されているか)
      • MCP採用の有無(model-context-protocolトピックに属するかなど)
        github.com
      • 更新日・Issue/PRの活発さ(保守性)
      • ライセンス(MIT/GPL/商用利用可否)
  5. 上位候補でPoC(YouTubeショート自動生成の再現)
    • ランク上位のリポジトリについては、実際にローカル環境やコンテナで動かし、「テキスト→スクリプト生成→TTS→Remotionレンダリング→ショート動画出力」の一連のフローをPoCとして検証することが推奨されています
      github.com
      。
    • AutoShortsのように
      npx auto-shorts
      一発で「TypeScriptについてのニュースショート」を生成できるCLIは、PoCのベースとして非常に扱いやすい例です
      github.com
      。
この一連の流れをスクリプト化すれば、「新しくRemotion×LLM系のOSSが登場したときに、自動で検知して比較表を更新する」といった運用にも発展させられます。

どのトピックから掘るべきか:優先順位の考え方

実際に探索を始める際には、「どのトピックページを最初に見るか」で効率が大きく変わります。調査結果を踏まえると、次の順序が合理的です
github.com
github.com
github.com
。
  1. remotion トピック
    • Remotion×TypeScriptの実装が確実に集まるため、ここから「AI連携あり」のものを検索クエリで探る。
  2. video-generation (TypeScript) / video-maker / video-generator
    • 目的が「動画自動生成」であり、TypeScriptとMCP・REST APIによる外部AI連携の事例が多い
      github.com
      github.com
      。
  3. youtube-shorts / shorts-maker / faceless-video
    • 出力フォーマットがあなたのユースケース(教育系ショート、ニュース要約など)と近い。AutoShortsがサポートするニュース動画・クイズ動画・ランキング動画などのスクリーンショットを見ると、まさにこうした短尺フォーマットがターゲットになっていることがわかります
      github.com
      github.com
      。
  4. model-context-protocol / mcp
    • 将来的にLLMとの高度なコンテキスト共有やマルチエージェント連携を見据える場合、この層を押さえておくことで、汎用的なAIオーケストレーション基盤に乗せやすくなります
      github.com
      github.com
      。
この順序は、「まずRemotion×TSで確実な土台→次に動画生成特化→その後ショート動画・顔出し無しに特化→最後に高度なAI連携」と段階的に広げていく発想です。言い換えれば、「動画レンダリングのエンジン層」から見ていき、「ユースケース特化のテンプレート層」へと上がっていく戦略です。

実際にあなたが活用するときの具体的な一歩

ユーザーとして「どのOSSから試すか」を決める際も、上記の探索戦略をそのまま転用できます。
  • すぐにショート動画の自動生成を試したいなら
    • AutoShortsを使い、OpenAI GPT-4o-mini+ElevenLabs+Pexelsの組み合わせで
      npx auto-shorts -p "make a news short about TypeScript"
      を実行することで、プロンプトからニュース系Shortsを自動生成できます
      github.com
      。
    • ローカルLLMでコストを抑えたいなら、OllamaのLlama3.2を使う構成も公式に案内されています
      github.com
      。
  • Remotionのカスタムコンポジションを作り込みたいなら
    • podcast-to-video-remotion のようなRemotionテンプレートをベースに、自前のTTSや字幕生成を組み合わせると、音声→動画のパイプラインを自作できます
      github.com
      github.com
      。
    • ChatGPT Video Generatorは、OpenAI+Node.js+Remotionのミニマルな構成を示しており、ここからRemotion CLI経由でHDレンダリングに拡張する流れが紹介されています
      github.com
      github.com
      。
  • 「他にもっと良いOSSが出てきたら乗り換えたい」場合
    • 本節で述べたTopics+クエリの探索フローをスクリプト化しておけば、新しいRemotion×LLM×TTSプロジェクトが登場したタイミングで自動検出し、あなたの内部カタログ(CSVやMarkdownテーブル)に追記できます
      github.com
      github.com
      。

まとめ:Topicsを“地図”、検索クエリを“コンパス”として使う

調査結果を総合すると、GitHub TopicsはRemotion×LLM×音声AI×TypeScript×YouTube動画生成というニッチな要件に対しても、かなり有効な「地図」として機能します。
一方で、youtube-shorts トピックのようにPythonツールやユーティリティスクリプトが混在し、必ずしもRemotion+TypeScript+音声AIまでそろった例だけが集約されているわけではないことも確認されました
github.com
。
したがって、
  • remotion / video-generation (TypeScript) / video-maker / youtube-shorts / faceless-video / model-context-protocol といったトピックをハブとしてたどり
  • remotion typescript openai tts などの検索クエリでトピック横断の漏れを拾い
  • READMEと依存関係からRemotion+LLM+TTS+YouTube対応を機械的に判定・スコアリングする
という三段構えを取ることで、「参考になるおすすめのレポジトリ」を現在のGitHub上でほぼ網羅できる、と考えられます。
この戦略を一度整えておけば、AutoShortsやChatGPT Video Generator、podcast-to-video-remotion のような既存OSSを起点にしつつ、新しく登場するRemotion×LLM系プロジェクトも継続的に追跡できるようになります。あなたが今後、教育チャンネルやニュース要約チャンネルなど、複数のYouTubeプロジェクトを運営していく場合でも、この「Topics+検索クエリ」の探索フレームワークはそのまま資産として活かせるはずです。
copy url
source logogithub.com
youtube
mcp
shorts
video-generator
video-generation
video-maker
tiktok
video-creator
remotion
reels
youtube-shorts
instagram-reels
tiktok-creator
shorts-maker
faceless-video
instagram-reels-automation
shorts-automate
model-context-protocol
video-creation-tool
copy url
github.comgithub.com
copy url
github.comgithub.com
youtube
mcp
shorts
video-generator
video-generation
video-maker
tiktok
video-creator
remotion
reels
youtube-shorts
instagram-reels
tiktok-creator
shorts-maker
faceless-video
instagram-reels-automation
shorts-automate
model-context-protocol
video-creation-tool
copy url
github.comgithub.com

🏷MCPを活用したLLM連携の最新OSS

画像 1

MCPを活用したLLM連携の最新OSS

Remotion と LLM・音声AIを組み合わせて YouTube 向け動画を自動生成したい場合、最近特に注目すべきキーワードが「Model Context Protocol(MCP)」です。MCP は「LLM と外部ツールを安全かつ標準的なプロトコルでつなぐ」ための仕組みで、.NET や Java だけでなく TypeScript や JavaScript 向けの実装サンプルも用意されています
github.com
。つまり、TypeScript で書かれた Remotion のレンダリングパイプラインと、OpenAI や Gemini、ローカル LLM などを疎結合に統合する“中間レイヤー”として使えるのが MCP です。
GitHub の「video-generation(TypeScript)」トピックにも、MCP と REST API を組み合わせて TikTok / Instagram Reels / YouTube Shorts 向けの短尺動画を生成するプロジェクトが現れており、「
model-context-protocol
」「
remotion
」「
youtube-shorts
」「
shorts-maker
」といったトピックが同時に付与されています
github.com
。これは、まさにあなたが求めている「TypeScript × Remotion × LLM × 音声AI × YouTubeショート」の組み合わせを、MCP を軸に実現しようとする潮流が出てきていることを示唆しています。
言い換えると、いまから新規に自動動画生成パイプラインを設計するなら、「Remotion 直結のカスタムコード」だけで完結させるのではなく、「LLM とのやり取りは MCP サーバ/クライアントに任せ、Remotion 側は“動画テンプレート・レンダリング専任”にする」という役割分担を前提にした方が、拡張性・保守性の面で有利と考えられます。

なぜ今、MCP ベースの構成が有力なのか

MCP トピックには、Firecrawl のようにウェブ検索・スクレイピング機能を MCP 経由で提供するサーバ、Figma や Unity と LLM をつなぐ「TalkToFigma」「Unity/Xcode 連携サーバ」、さらに「Agent orchestration platform」のようなマルチエージェント基盤など、多数のサーバ/クライアント実装が並んでいます
github.com
。これらはいずれも「LLM が外部アプリをプログラム操作する」というユースケースを実演しており、
  • LLM が Figma に対してコンポーネントを読み書きする
  • LLM が Unity/Xcode を操作してビルドやテストを制御する
といったパターンを示しています
github.com
。
この発想を Remotion にそのまま移植すると、次のような構成が自然に見えてきます。
  1. LLM(OpenAI / Gemini / Claude / ローカル LLM)
  2. MCP サーバ(スクリプト生成、動画構成 JSON 生成、素材リサーチなどの「ツール」を提供)
  3. Remotion(TypeScript コンポジションとレンダリング専任)
MCP Gateway のような「REST→MCP 変換」のコンポーネントも提案されており
github.com
、既存の REST ベースの音声合成 API(ElevenLabs や Neets.ai など)や画像 API(Pexels 等)を、MCP 経由で一元管理する設計がしやすくなっています。これは、後述する AutoShorts のように複数の LLM・TTS・画像APIを切り替えるアーキテクチャと非常に相性が良いと考えられます。

AutoShorts を MCP 時代のリファレンスとして読む

Remotion そのものは使っていないものの、「LLM × 音声AI × 画像API × ショート動画生成」という点で、AutoShorts は現時点で最も参考になる OSS の一つです。
AutoShorts は、Ollama のローカル LLM(推奨は
llama3.2
)をデフォルトとしてスクリプトを生成しつつ、OpenAI ChatGPT 4o、Google Gemini 1.5、Anthropic Claude、Ollama など複数の LLM API も選択できる仕組みになっています
github.com
github.com
。音声は ElevenLabs / Neets.ai / ローカルTTS、画像は Pexels やスクレイパーから取得でき
github.com
github.com
、CLI からは次のようなコマンド一発で「TypeScript ニュースショート」を生成できます。
npx auto-shorts -p "make a news short about TypeScript" \
  --aiType OpenAIGen \
  --ttsType ElevenLabs \
  --imageType Pexels \
  --elevenLabsAPIKey YOUR_ELEVENLABS_API_KEY \
  --pexelsAPIKey YOUR_PEXELS_API_KEY \
  --openaiAPIKey YOUR_OPENAI_API_KEY
この CLI は内部で JS インターフェース(
genVideoWithAI
や
genVideoWithJson
)を呼び出しており
github.com
github.com
、TypeScript からも次のように直接利用できます。
const task = await genVideoWithAI(
  "make a news short about TypeScript",
  AIGenType.OpenAIGen,
  {
    tempPath: "video_temp",
    resPath: "res",
    voiceGenType: VoiceGenType.ElevenLabsVoice,
    imageGenType: ImageGenType.Pexels,
    apiKeys: {
      elevenLabsAPIKey: process.env.ELEVENLABS_API_KEY,
      pexelsAPIKey: process.env.PEXELS_API_KEY,
    },
  }
);
task.on("done", (output) => {
  console.info("--> Video generation complete! Video saved at: " + output);
});
ここで注目すべきは「柔軟な抽象化レイヤー」を自称している点で、動画タイプ(ニュース / 教育 / クイズ / ランキング / テキストメッセージ / ‘Would You Rather’など)を JSON で表現し、LLM出力をこの JSON スキーマに沿うように制御していることです
github.com
github.com
。実際のドキュメント上でも、
  • テキスト読み上げ(TTS)動画
  • 画像付きトピック動画
  • メッセージストーリー動画
  • ランキング動画
  • クイズ動画
といったショート動画のテンプレートと、そのサンプル画像が紹介されています
github.com
github.com
。
github.com
AutoShorts は「学習プロジェクトであり、プロダクション用途は想定していない」と明言されており
github.com
github.com
、開発もすでに停止宣言が出ていますが、それでも
  • LLM の種類を抽象化(
    aiType
    )
  • TTS の種類を抽象化(
    ttsType
    )
  • 画像生成・取得方法を抽象化(
    imageType
    )
  • CLI / JS / Web UI(Next.js + Express)を一体として提供
という設計は、そのまま「MCP 対応版 AutoShorts」を作る際のアーキテクチャ・リファレンスになると考えられます。現状 AutoShorts 自体は MCP を利用していませんが、
aiType
や
ttsType
の切り替えは MCP の「ツールレジストリ」とよく似た役割を果たしており
github.com
github.com
、将来 MCP サーバから LLM や TTS を呼び替える設計に移行しやすい形になっています。

Remotion × LLM × MCP をどう組み合わせるか

あなたのゴールは「TypeScript で Remotion を使い、LLM・音声AIと連携して YouTube 向け動画を自動生成すること」です。この観点で、MCP を活用した実装方針を、既存 OSS から逆算して整理してみます。
まず、Remotion 単体のテンプレートとしては、ポッドキャスト音源からオーディオグラム動画を生成する
podcast-to-video-remotion
のようなリポジトリがあり、
src/Video.tsx
や
src/Composition.tsx
を調整しながら、
npm start
でプレビュー、
npm run build
でレンダリングするといった基本ラインが押さえられています
github.com
github.com
。Remotion 公式ドキュメントとの連携も README で案内されており
github.com
、TypeScript でのコンポジション実装を学ぶには十分です。
一方で、LLM や TTS との統合は AutoShorts や ChatGPT Video Generator などが実践しています。ChatGPT Video Generator は、テキスト入力からトピックのサマリーをアニメーション付き動画にし、Node.js ベースで TTS を組み込み、必要に応じて Remotion CLI で HD 動画を作成することも提案しています
github.com
github.com
。こちらは MCP 非対応ですが、「LLM でサマリーを作り、FFmpeg などで動画を組み立てる」という流れは AutoShorts とも共通です
github.com
。
これらを MCP のアーキテクチャにマッピングすると、次のような構成が見えてきます。
表1. Remotion × LLM × MCP 構成の役割分担イメージ
コンポーネント役割参考 OSS・出典
LLM(OpenAI / Gemini / Claude / Ollama)スクリプト生成、動画構成 JSON 生成AutoShorts の
aiType
抽象化
github.com
github.com
MCP サーバLLM 呼び出し、ツール(TTS / 画像API / Firecrawl)をまとめる仲介層MCP Gateway / Registry
github.com
TTS サービスElevenLabs / Neets.ai / ローカル TTSAutoShorts の
VoiceGenType
github.com
github.com
画像取得Pexels / スクレイパー / FirecrawlAutoShorts の
ImageGenType
github.com
github.com
、Firecrawl MCP サーバ
github.com
Remotion(TypeScript)コンポジション定義とレンダリングpodcast-to-video-remotion
github.com
オーケストレーション UIWeb UI / CLI から一括操作AutoShorts の Next.js + Express UI
github.com
github.com
MCP を採用する最大の利点は、LLM や TTS、画像APIを「ツール」として標準化し、Remotion を含む動画生成パイプラインとは疎結合にできることです。将来、たとえば
  • OpenAI → ローカル LLM(Ollama)へ切り替えたい
  • ElevenLabs → Neets.ai / ローカル TTS に切り替えたい
  • 画像APIを Pexels → Firecrawl + 任意サイトスクレイピングに変えたい
といった要望が出ても、MCP サーバ側の設定・実装を差し替えるだけで済むような設計がしやすくなります
github.com
github.com
。

実践的な「次の一手」:どう選び、どう作り始めるか

あなたが「今すぐ参考にできる TypeScript ベースの OSS」としては、少なくとも次の 3 系統を押さえておくとよいと考えられます。
  1. Remotion テンプレート
    • podcast-to-video-remotion
      でオーディオグラム構成・レンダリングパイプラインの基本を学ぶ
      github.com
      github.com
      。
  2. LLM + TTS + 画像API の統合設計
    • AutoShorts の CLI / JS / Web UI を読み、
      aiType
      /
      ttsType
      /
      imageType
      抽象化と JSON ベースの動画テンプレート設計を参考にする
      github.com
      github.com
      github.com
      。
    • ChatGPT Video Generator のような、Text→Video の最小構成も併せて読む
      github.com
      github.com
      。
  3. MCP エコシステム
    • MCP トピックから TypeScript 実装のクライアント/サーバ例を探し、Firecrawl MCP サーバや TalkToFigma など「LLM が外部アプリを操作する」例を Remotion 連携のモデルとして読む
      github.com
      。
    • video-generation(TypeScript)トピックで「MCP」「remotion」「youtube-shorts」などを含むプロジェクトを短リスト化し、自分の要件(Remotion必須、TypeScript優先、TTS必須など)でフィルタする
      github.com
      github.com
      。
そのうえで、実装ステップとしては次のような流れを推奨できます。
  1. Remotion で「固定スクリプトのショート動画」を作る(まずは LLM 抜きで)
  2. AutoShorts の JSON スキーマを参考に、自前の「動画構成 JSON」を定義する
    github.com
    github.com
    。
  3. LLM からその JSON を返すプロンプト設計を行い、最初は単純な REST 経由で実装する。
  4. 3 でできた LLM 呼び出しと TTS / 画像API 呼び出しを MCP サーバの「ツール」として切り出し、MCP クライアントから一括オーケストレーションする
    github.com
    。
  5. 最後に、Remotion のレンダリングも MCP 経由のコマンド(例:「この JSON を使ってコンポジション X をレンダリング」)として扱えるようにする。
こうした構成にしておくと、あなたが今後扱いたくなるであろう
  • 長尺動画 → ショートへの自動切り出し
  • Faceless な解説動画の大量生成
  • Web 上のトレンド記事を Firecrawl で集めて、そのままニュースショートに変換
といったワークフローも、MCP 上に「別ツール」として追加していく形で拡張しやすくなります
github.com
github.com
。

まとめ:MCP は Remotion × LLM × 音声AI の「未来互換レイヤー」

GitHub の video-generation(TypeScript)と MCP トピックを眺めると、「ショート動画自動生成」を行う OSS は、徐々に
  • 複数の LLM / TTS / 画像API を柔軟に差し替えたい
  • エージェントや外部サービスを安全に呼びたい
という方向に進んでいることが見て取れます
github.com
github.com
。AutoShorts がすでに LLM・TTS・画像APIを抽象化し、Web UI まで備えた「総合パッケージ」を TypeScript で実装していることは
github.com
github.com
、まさにその流れを象徴しています。
MCP を活用することで、あなたがこれから作る Remotion ベースの自動動画生成システムは、「特定ベンダーにロックインされたスクリプト生成ツール」ではなく、「LLM とツールを自由に組み替えつつ、TypeScript で書かれた動画エンジン(Remotion)にコマンドを渡す汎用エージェント基盤」へとスケールさせることができます。
まずは
  • Remotion テンプレート(
    podcast-to-video-remotion
    )
  • AutoShorts のアーキテクチャ
  • MCP トピックの TypeScript 実装例
の 3 点を“設計教科書”として読み込みながら、自分のユースケースに近い構成をスケッチしてみると、どの OSS をどのレベルで再利用し、どこを自作すべきかの輪郭が見えてくるはずです。
copy url
github.comgithub.com
https://ai.casibase.com
https://ai-admin.casibase.com

🖍 考察

調査の本質

今回の本質的な問いは、「Remotion × LLM × 音声AI × TypeScriptを使って、YouTube向け動画(特にショート)を自動生成したい。そのために、どんなGitHubリポジトリを“参考実装”として押さえ、どう組み合わせればよいか」です。
ユーザーの表向きの要望は「おすすめのレポジトリを調べ尽くしてまとめてほしい」ですが、その背後には次のような真のニーズが見えます。
  • 1つの完璧なOSSを当てるより、「自分のプロダクトに組み込める現実的なアーキテクチャ」と「具体的なスタート地点」が欲しい
  • LLM・TTS・Remotionそれぞれの“役割分担”を理解して、将来の差し替えや拡張に耐える設計をしたい
  • GitHub上のプロジェクトが玉石混交である中から、「どれをどの観点で参考にすべきか」という判断を省力化したい
したがって、価値のコアは
  1. 「全部入りの決定版はない」という現状認識を明確にしつつ、
  2. それでも目的達成に必要な要素(LLM層/TTS層/Remotion層/配信層)が、どのOSSでどこまでカバーされているかを整理し、
  3. 自分用スタックを組み立てるための“設計図”と“導入ロードマップ”を提示すること
だと言えます。

分析と発見事項

まず、調査で浮かび上がった主要OSSを、役割とカバー範囲で整理します。

1. 4系統の核となるOSSの「守備範囲」

表を一度に俯瞰すると、どこに何が足りないかが分かりやすくなります。
表1. 主要リポジトリの位置づけ
リポジトリ役割・特徴RemotionLLMTTS/音声AI主言語 / 実装コメント
ChatGPT Video Generator(chatgptvideoai)
github.com
テキスト→OpenAI要約→TTS→簡易アニメーション動画生成○OpenAI○(Nodeベース)React + Node(TSXあり)「LLM+TTS+Remotion」が1リポジトリで繋がっている最有力サンプル
podcast-to-video-remotion
github.com
音声+字幕+カバー画像からオーディオグラム動画○外部前提外部前提TypeScript + RemotionAIは外出し。Remotionでの「音声×字幕×レイアウト」のお手本
AutoShorts
github.com
LLM+TTS+画像でショート動画生成(CLI/JS/UI)×(ffcreator系)OpenAI/Gemini/Claude/OllamaElevenLabs/Neets.ai/ローカルTTSNode/TSワークフロー設計と抽象レイヤーが秀逸。Remotionとは別エンジン
Remotion Editor Starter
remotion.dev
Remotion製フル機能動画エディタのスターター○なし(拡張前提)なし(拡張前提)TypeScriptタイムライン、字幕、アセット管理まで揃った「サービス化」の土台
ここから分かる重要な事実は二つあります。
  1. 「Remotion × LLM × TTS × TypeScript × YouTube自動投稿」を1つで完全に満たすOSSは現状存在しない
  2. しかし、レイヤーを分割して見れば、ほぼすべてのパーツは既存OSSでカバーできる
つまり、「1リポジトリ完結」を諦め、パイプラインを部品に分解して再構成する発想に切り替えることが、現実解になります。

2. トピックと検索から見えるOSSの“生態系”

GitHub Topicsを俯瞰すると、Remotionやショート動画生成に関するエコシステムが、すでにかなり形成されていることも見えてきます。
  • remotion
    トピック:Remotionベースの動画生成テンプレやツールが多数
    github.com
  • video-generation
    (TypeScript)トピック:MCP+REST APIでTikTok/Instagram Reels/YouTube Shorts向けの短尺動画を生成するプロジェクトが含まれる
    github.com
  • youtube-shorts
    /
    shorts-maker
    /
    faceless-video
    :ショート形式や顔出し不要の自動生成動画の事例が集積
    github.com
    github.com
  • model-context-protocol
    (MCP):LLMから外部ツール(スクレイパー、Figma、Unityなど)を操作するプロトコルの実装群
    github.com
一方で、トピック説明レベルでは
  • 言語がTypeScriptかどうか
  • Remotionか他のレンダラか
  • LLMとTTSをどう統合しているか
までは分からず、READMEと依存関係を精読しない限り真価を判断できません
github.com
github.com
。つまり、「候補はたくさんあるが、カタログ化はまだ人力・半自動が必要」という中途半端な成熟度にあります。

3. アーキテクチャとして整理したときの「3層モデル」

調査結果を抽象化すると、「Remotion × LLM × 音声AI」パイプラインは次の3層に整理できます。
  1. LLM・メディア生成層
    • 台本生成:OpenAI / Gemini / Claude / Ollama(AutoShortsが好例
      github.com
      )
    • TTS:ElevenLabs / Neets.ai / ローカルTTSなど
      github.com
    • 画像・BGM取得:Pexelsや画像生成AI
      github.com
  2. 動画合成層(TypeScript/Remotion)
    • シーンJSONを受け取り、TS/TSXでコンポジションを組む(podcast-to-video-remotionやEditor Starterが参考
      github.com
      remotion.dev
      )
    • レンダリングと書き出しはRemotion CLI/FFmpegなど
  3. 配信・オーケストレーション層
    • CLI / Web UI / API(AutoShorts的CLIやNext.js UI
      github.com
      )
    • YouTube Data APIによる自動アップロード
    • 今後はMCP経由でLLMエージェントから操作する形も現実的
      github.com
      github.com
この3層に先ほどの4系統のOSSを当てはめると、「どの層が充足されていて、どこを自作すべきか」が見えてきます。

より深い分析と解釈

ここから、「なぜ今このような分断状態になっているのか」「なぜ単一の決定版が出てこないのか」を、少なくとも3段階で掘り下げてみます。

1. なぜ「全部入りOSS」が存在しないのか

なぜ1本で完結するRemotion×LLM×TTS×YouTube OSSが出てこないのか。要因を分解すると、少なくとも次の3つがあります。
1段階目:技術的複雑さの分散
  • LLM、TTS、画像API、動画レンダリング、YouTube API…と、性質の異なる要素が多く、1人・1チームで全部を高品質に作り込むのは負荷が高い。
  • 結果として、
    • AutoShortsのように「AIワークフロー特化」
    • podcast-to-video-remotionのように「Remotionテンプレ特化」
      に分かれている。
2段階目:用途ごとの要件のバラつき
  • ニュースショート、クイズ動画、ポッドキャストのハイライト、解説動画…など、必要な映像表現や構成がかなり違う。
  • AutoShortsは複数テンプレ(ニュース、クイズ、ランキングなど)をサポートしていますが
    github.com
    、それでも全用途をカバーしきれてはいない。
3段階目:商用性とライセンスの問題
  • 真に完成度の高い「動画エディタ基盤」は、Remotion Editor Starterのように有償テンプレートとして提供されがち
    remotion.dev
    。
  • OSSだけで「プロダクション級UX+AIワークフロー」を完備したものは、ビジネス的にも生まれにくい。
この3つの要因が重なって、「用途別・レイヤー別に分かれた“良いパーツ”だけが点在している」状態を生んでいます。

2. なぜ「AutoShorts型」の設計が増えているのか

AutoShortsは、Remotionは使っていないものの、現代的な設計パターンをかなり先取りしています
github.com
。
  • LLM種別を抽象化(OpenAI/Gemini/Claude/Ollamaを
    aiType
    で切り替え
    github.com
    )
  • TTS種別を抽象化(ElevenLabs/Neets.ai/ローカルを
    ttsType
    で切り替え
    github.com
    )
  • 画像ソースを抽象化(Pexelsやスクレイパーを
    imageType
    で切り替え
    github.com
    )
  • CLI・JS API・Web UIを一体として提供
    github.com
なぜこのような抽象化が重要か。「なぜ?」を掘ると:
1段階目:ベンダーロックインの回避
  • LLMもTTSも価格・性能が激しく変動中で、1〜2年のスパンでベストチョイスが変わる。
  • 初期から抽象レイヤーを切っておくと、将来の差し替えコストが大きく下がる。
2段階目:コスト最適化の必要性
  • ニュースショートを大量生成するような用途では、1本数円〜数十円の差が積み上がる。
  • AutoShortsがOllama(ローカルLLM)をサポートするのは、まさに「GPUさえあれば推論コストを実質0に近づけたい」というモチベーション
    github.com
    。
3段階目:MCPのような標準プロトコルへの接続準備
  • MCPトピックに現れたプロジェクト群は、「LLMから外部ツールを標準的に呼び出す」方向に進んでいます
    github.com
    。
  • AutoShortsの
    aiType
    /
    ttsType
    は、そのまま「MCPのツール名」とマッピングしやすい構造であり、MCP時代の設計感覚と相性が良い。
したがって、Remotionを使う場合でも、「AutoShorts的な抽象レイヤーを自作しておくかどうか」は、数年スパンで見たときの戦略的な分かれ目になります。

3. なぜ「MCP」が将来重要になるのか

MCP(Model Context Protocol)のプロジェクト群を見ると、LLMがRESTやローカルプログラムを通じてFigma、Unity、スクレイパー(Firecrawl)などを操作する事例が増えています
github.com
。これをRemotion文脈で考えると:
1段階目:LLMエージェントが動画生成パイプラインを直接制御
  • 例:「今週の人気記事をスクレイピング→要約→ショート動画台本生成→音声&画像生成→Remotionでレンダリング→YouTubeに投稿」、この一連をLLMエージェントからMCP経由で“指示”できる。
2段階目:Remotionを「MCPツール」として公開
  • Remotionベースの動画エンジンを、「動画構成JSON→mp4を吐くツール」としてMCPに登録すれば、他のエージェントやツールからも再利用可能になる。
3段階目:将来の複合エージェントシステムとの親和性
  • ニュース収集エージェント、台本エージェント、動画エディタエージェント…というマルチエージェント構成の中で、動画生成部分だけを標準化しておくメリットが大きい。
このように、「今Remotionで閉じた実装を作る」だけでは、2〜3年後のAIエージェント前提の世界でメンテが苦しくなりかねません。**MCPを見据えた設計にしておくこと自体が、将来の保守コストを下げる“保険”**だと解釈できます。

戦略的示唆

ここまでの分析を、実際にユーザーが取り得る行動に落とし込みます。

1. いま取るべき技術スタック戦略

  1. 「単一決定版探し」をやめて、3層モデルで必要パーツを定義する
    • LLM・TTS・画像生成/取得はAutoShortsの設計を参考に「AI層」として独立させる
      github.com
      。
    • Remotionは「テンプレ+レンダリングエンジン」として純化する(podcast-to-video-remotionやEditor Starterをベースに
      github.com
      remotion.dev
      )。
    • 配信はYouTube API連携スクリプトとして別モジュールに置く。
  2. Remotion側は「AI非依存の美しいテンプレ」を先に完成させる
    • まずは手書きのスクリプト+手元の音声ファイルで、Remotionコンポジション(ショート向け9:16含む)を磨く。
    • これにより、あとからLLM/TTSを差し替えても、「見た目の品質」は維持される。
  3. AI層はAutoShorts的な抽象レイヤー設計を自前のTypeScriptで再現
    • AIProvider
      /
      TTSProvider
      /
      ImageProvider
      インターフェースを定義して、実装クラスを切り替える。
    • 当初はOpenAI+ElevenLabs+Pexelsのような1セットに固定してよく、将来必要になったらGemini/OllamaやNeets.aiに差し替える。
  4. MCPはすぐ導入しなくても、「入れ替え可能な境界」を意識して設計する
    • すべての外部API呼び出しを1〜2個のサービス層に集約し、のちにMCPサーバに移行できるようにしておく。

2. 実装フェーズごとの「現実的ロードマップ」

ユーザーが0→1→10と進める時系列を意識して、段階的なアクションプランをまとめます。
フェーズA:PoC(数日〜1週間)
  1. ChatGPT Video Generatorを動かして、LLM+TTS+Remotionの一連の流れを体験する
    github.com
    。
  2. プロンプトを自分の想定チャンネル(ニュース解説、Tips、雑学など)向けに少し書き換え、どの程度使えるか感覚を掴む。
フェーズB:テンプレとAI層を分離する(2〜4週間)
  1. podcast-to-video-remotionを導入し、YouTube向けの解像度・レイアウトにRemotionコンポジションを調整する
    github.com
    。
  2. LLM+TTSで生成した音声ファイルと字幕JSONを、
    src/assets
    に差し込むスクリプトをTypeScriptで作る。
  3. ここでは、AI側はシンプルにOpenAI+ElevenLabsなど1セットでよい。
フェーズC:AutoShorts型の抽象レイヤーを導入(1〜2ヶ月)
  1. AutoShortsの
    genVideoWithAI
    /
    genVideoWithJson
    周りのコードとJSONスキーマを読み、同等の
    VideoSpec
    を自プロジェクトに定義する
    github.com
    。
  2. ニュース/クイズ/ランキングなど、よく使いそうなテンプレだけを自分の
    VideoSpec
    に落とす。
  3. VideoSpec
    →Remotionコンポジション変換ロジックを実装し、AutoShorts的な「テンプレの切り替え」をRemotion上で再現する。
フェーズD:サービス化とUX強化(中期)
  1. Remotion Editor Starterの導入を検討し、タイムライン・キャプション・アセット管理UIを自動生成エンジンの上に被せる
    remotion.dev
    。
  2. ユーザーがAI生成した動画を細かく修正できるUIを用意し、「半自動+編集」でクオリティを底上げする。
  3. YouTube API連携やスケジューラを加えて、「毎朝7時にニュースショートを自動投稿」などのワークフローを構築する。

今後の調査

最後に、今回の分析を一過性で終わらせず、継続的に質を高めていくための追加調査テーマを整理します。

1. 追加で深掘りすべきテーマ例

  • RemotionテンプレートとAutoShorts形式JSONの“共通スキーマ”設計
  • LLM出力を安全にJSON(VideoSpec)へマッピングするためのプロンプト設計・バリデーション手法
  • ElevenLabs / Neets.ai / ローカルTTSの音質・コスト・レイテンシ比較と、用途別の最適組み合わせ
  • 長尺動画→ショート自動切り出しツール(Python系GPT-4+FFmpeg+OpenCVなど
    github.com
    )とRemotionパイプラインの連携可能性
  • MCP対応のTypeScript実装を用いた、「LLMエージェントからRemotionレンダリングを指示する」プロトタイプ設計
  • Remotion Editor Starterのライセンス・料金体系と、商用サービスへの統合パターン
    remotion.dev
  • YouTube Data APIを用いた大量自動投稿時のレート制限・ポリシー・BANリスクと対策
  • OSSベースのパイプラインにおける著作権・利用規約(特に画像・音声素材API)上のリスク整理

2. 継続モニタリングの観点

  • remotion
    /
    video-generation
    (TypeScript)/
    shorts-maker
    /
    faceless-video
    /
    model-context-protocol
    トピックに新規追加されるリポジトリ
  • AutoShorts以降に出てくるであろう「AutoShorts×Remotion」型の新OSS
  • Remotion本体とEditor Starterのメジャーアップデート(特にAI連携機能の公式サポート動向)
  • YouTube側のショート動画仕様・API仕様の変更(特に自動生成コンテンツの扱い)

総じて、現時点での「最適解」は、1つの完璧なリポジトリを探すのではなく、「ChatGPT Video Generator+podcast-to-video-remotion+AutoShorts的設計+(必要ならEditor Starter)」の組み合わせで、自分専用のRemotion×LLM×音声AIスタックを組み上げることです。
もし次のステップとして「どの順番でコードを読み始めるか」「最初に作るPoCの具体像」を詰めたい場合は、想定しているチャンネルのジャンル(ニュース系/教育系/娯楽系など)を教えてもらえれば、そのジャンル専用に、より具体的なパイプライン案を組み立てられます。

このレポートが参考になりましたか?

あなたの仕事の調査業務をワンボタンでレポートにできます。

詳細を見る

📖 レポートに利用された参考文献

検索結果: 6件追加のソース: 10件チャット: 2件

70件の参考文献から18件の情報を精査し、約90,000語の情報を整理しました。あなたは約8時間の調査時間を削減したことになります🎉

調査された文献
70件
精査された情報
18件
整理された情報量
約90,000語
削減された時間
約8時間

🏷 調査サマリーと理想アーキテクチャの整理

video-generation · GitHub Topics
... youtube-shorts stable-diffusion ai-video-generator text-to-video-generation ... remotion reels youtube-shorts instagram-reels tiktok-creator shorts ...
github.comgithub.com
Build software better, together
![github-unwrapped-2022](https://repository-images.githubusercontent.com/568064785/afc74580-9822-472...
github.comgithub.com
Editor Starter | Remotion | Make videos programmatically
![](https://pub-646d808d9cb240cea53bedc76dd3cd0c.r2.dev/editor-starter-og-image.jpg) A template con...
remotion.devremotion.dev
Use the Remotion Chatbot | Remotion | Make videos programmatically
# Use the Remotion Chatbot We made a Chatbot that can answer simple questions about Remotion. The ...
remotion.devremotion.dev
調査のまとめ
#### 回答 まず結論として、今回取得できた情報だけを見ると、「Remotion × LLM × 音声AI × TypeScript × YouTube向け動画生成」という要件をすべて一つのリポジ...
調査のまとめ
#### 回答 まず前提として、今回参照できた情報は「Remotion公式ドキュメントのAI/Editor関連ページ」と「remotion・youtube-shorts・video-maker など...

🏷 ChatGPT Video Generator:Remotion×OpenAI×TTS統合の最有力サンプル

GitHub - SaiTech01/chatgptvideoai: This Github repository contains ...
#### GitHub - SaiTech01/chatgptvideoai: This Github repository contains ... #### 概要 このリポジトリは「ChatGPT Video Generator」と呼ばれる、テキスト入力だけで短い要約アニメーション動画を生成するAIツールの実装です。生成はNode.js/React(.tsx を含む構成)とRemotion、FFMPEGを組み合わせ、OpenAI APIを用いてテキストからコンテンツを作り、TTSで音声を付与して動画化します。用途は主に「トピックの短い要約を可視化する動画」の自動生成に最適化されています。 #### デモ プロジェクトのデモは以下で確認できます。 - デモページ: [https://video-generator-8fe43.web.app/](https://video-generator-8fe43.web.app/) #### 主な機能(コンテキストからの抜粋) - テキスト入力のみでAIが動画を生成 - トピックの要約を元にしたシンプルなアニメーション - Node.js を用いた TTS(テキスト→音声)を統合 - 生成した動画をダウンロード可能(ただし現状効率は限定的) - 商用利用も可能(無料) #### 技術スタック コンテキストで明示されている技術は次の通りです。 - OpenAI API - Node.js / React(ファイル名に .tsx があるため TypeScript/TSX 想定) - Remotion(動画レンダリング) — HD・高度機能は Remotion CLI 推奨 - FFMPEG(動画処理) #### インストールと実行手順(要点) - リポジトリをクローン - 依存関係をインストール: npm install - OpenAI APIキーを設定: src/chat.tsx の 88行目に追加するよう明記あり - 開発サーバ起動: npm run start #### 使用方法(UIフロー) - 入力欄にトピックの要約を入力 - 「Send」ボタンをクリック - 生成完了まで約30秒〜1分待つ - 「Download video」ボタンでダウンロード(現状は非効率な場合あり) #### 制約と注意点 - 現在は「シンプルなアニメーション」に限定されており、短い要約や単語程度の内容に最適化されている - HD出力やより高度なアニメーションを行う場合は Remotion コマンドラインでのレンダが推奨される(Remotion ドキュメント参照) - ダウンロード機能は効率面で改善の余地あり #### ライセンスと貢献 - ライセンス: MIT(詳細はリポジトリのLICENSE.mdを参照) - Issueやプルリクエストで貢献を歓迎 #### 参考リンク(コンテキスト内にあるURL) - GitHub リポジトリ: [https://github.com/SaiTech01/chatgptvideoai](https://github.com/SaiTech01/chatgptvideoai) - デモ: [https://video-generator-8fe43.web.app/](https://video-generator-8fe43.web.app/) - ライセンスファイル: [https://github.com/SaiTech01/chatgptvideoai/blob/main/LICENSE.md](https://github.com/SaiTech01/chatgptvideoai/blob/main/LICENSE.md) - Remotion レンダドキュメント(参照推奨): [https://www.remotion.dev/docs/render](https://www.remotion.dev/docs/render) #### ユーザー(あなた)の要望との関連性 あなたが求める「Remotion × LLM × 音声AI × TypeScript × YouTube向け動画生成」という観点では、本リポジトリは非常に関連性が高い出発点です。理由は次の通りです。 - Remotion を用いた動画レンダ・ワークフローの実例がある - OpenAI(LLM)を入力源として用いる構成がある - TTS を経由して音声を付与する実装例がある - UI 側に .tsx ファイルが存在するため TypeScript/React を用いた実装例として参考になる 次のステップとしては、リポジトリ内の以下を重点的に確認すると有用です。 - src ディレクトリ(Remotion とコンポーネントの結びつき、TSX の実装) - TTS の実装箇所(どのライブラリ/サービスを用いているか、音声ファイルの生成→Remotionへの取り込み手順) - FFmpeg の呼び出しや最終的な動画合成フロー(YouTube向けの解像度・エンコード設定に合わせる方法) 必要であれば、これらの箇所をスクレイピングしてREADMEや該当ソースの抜粋を取得し、TypeScriptでのRemotion組み込みパターン、OpenAI呼び出し部分、TTSパイプライン、YouTube向け出力設定の比較・手順化を行います。続けてスクレイプ/ブラウズしてよろしいですか。
github.comgithub.com
Build software better, together
You signed in with another tab or window. Reload to refresh your session.You signed out in another t...
github.comgithub.com

🏷 podcast-to-video-remotion:音声→動画テンプレのTypeScript実装

GitHub - harshitsinghai77/podcast-to-video-remotion: Create video ...
#### GitHub - harshitsinghai77/podcast-to-video-remotion: Create video ... [https://github.com/harshitsinghai77/podcast-to-video-remotion](https://github.com/harshitsinghai77/podcast-to-video-remotion) #### 概要 このリポジトリは「オーディオグラム(audiograms)」を作るためのRemotionテンプレートです。ポッドキャストや任意の音声から短い動画クリップを作成し、SNSやYouTube向けに共有する用途を想定しています。プロジェクトはRemotion+TypeScriptベースで、音声・カバー画像・字幕を組み合わせて動画を生成します。 #### 主な用途と特徴 - ポッドキャストの音声スニペットを短い動画(audiogram)に変換するテンプレート。 - ソーシャルシェアやYouTubeのショート/クリップ用途に適するレイアウトと設定を備える。 - Remotion の標準的なレンダリングワークフローを利用(ローカルでプレビュー → ビルド/レンダー)。 - 字幕(subtitles)は「単語単位でセグメント化」された形式を前提に処理する点が重要。 #### セットアップと主要コマンド(READMEから) - 依存関係インストール: `npm i` - プレビュー開始: `npm start` - 動画レンダー/ビルド: `npm run build` - Remotion アップグレード: `npm run upgrade` レンダー方法の詳細はリポジトリ内ドキュメント(render)に記載されています: [docs/render](https://github.com/harshitsinghai77/podcast-to-video-remotion/blob/main/docs/render) #### 主要ファイルとカスタマイズポイント - `src/Video.tsx`:動画サイズや長さの調整を行う主要ファイル(ここを編集して画面サイズやクリップ長を変える)。 - `src/Composition.tsx`:Remotion のコンポジション設定を調整する箇所。 - `src/assets`:音声ファイル、カバー画像、字幕ファイルなどの素材を置くフォルダ。 README はこれらを差し替えてカスタマイズする流れを明示しています。 #### 字幕・トランスクリプトについての注意点 - このテンプレートでは「単語単位で分割された字幕ファイル」を使うことが推奨されています(文ごとではなくword-level segmentation)。 - 字幕/トランスクリプトの取得方法として、ポッドキャストホスト、Descript、Otter.ai、Scriptme.io、あるいはオープンソースの [Subs AI](https://github.com/abdeladim-s/subsai) などが紹介されています。 - Otter.ai: [https://otter.ai](https://otter.ai) - Scriptme.io: [https://scriptme.io](https://scriptme.io) #### 関連ドキュメント・サポートリンク(コンテキスト内) - リポジトリ内の render ドキュメント: [docs/render](https://github.com/harshitsinghai77/podcast-to-video-remotion/blob/main/docs/render) - Remotion 基本ドキュメント: [https://www.remotion.dev/docs/the-fundamentals](https://www.remotion.dev/docs/the-fundamentals) - Remotion Discord(サポート): [https://discord.gg/6VzzNDwUwV](https://discord.gg/6VzzNDwUwV) - Remotion の Issue 登録先: [https://github.com/remotion-dev/remotion/issues/new](https://github.com/remotion-dev/remotion/issues/new) - Remotion ライセンス注意(企業利用時のライセンス要件): [https://github.com/remotion-dev/remotion/blob/main/LICENSE.md](https://github.com/remotion-dev/remotion/blob/main/LICENSE.md) #### ユーザーの要望(Remotion × LLM × 音声AI × TypeScript × YouTube)との関連性 - このリポジトリは「Remotion + TypeScript」での動画生成テンプレートとして非常に参考になります。YouTube向けの短い動画・クリップ作成には直接的に役立ちます。 - ただし、README に示されている範囲では「LLM(ChatGPT 等)やTTS(音声生成)との自動連携」は含まれていません。したがって、LLMでスクリプト生成や要約を行い、TTSで音声を作ってからこのテンプレートに渡す、といった外部連携を自前で組む必要があります。 - 次段階で行うべき統合例:OpenAI/別TTSサービスやElevenLabsで音声を生成→単語単位の字幕をLLMや音声解析で整形→本テンプレートに投入してRemotionでレンダー、というワークフローが考えられます。 #### まとめ(実務的インパクト) - ポッドキャストや音声コンテンツを短尺動画に変換する点では即戦力となるテンプレート。TypeScript/Remotion の実装サンプルとしても有用。 - LLM/TTS の自動化を加えたい場合は、外部の音声合成・文字起こし・要約ツールと組み合わせる拡張が必要。 - まずはリポジトリをクローンして `src/Video.tsx` と `src/assets` を差し替え、推奨の単語単位字幕でビルド確認することをお勧めします。 必要であれば、このリポジトリに対して「LLM/TTSを組み合わせる実装プラン(具体的なライブラリ/API、ファイル変換スクリプト、CIによる自動レンダリング手順)」を作成します。続けますか?
github.comgithub.com
Build software better, together
You signed in with another tab or window. Reload to refresh your session.You signed out in another t...
github.comgithub.com

🏷 AutoShortsほかショート動画自動生成系から学ぶLLM/TTSワークフロー

alamshafil/auto-shorts: AutoShorts can generate ...
AutoShorts is a fully fledged package that generates shorts videos with the help of AI to write the script. It can generate popular types of video seen on ...
github.comgithub.com
Using Remotion and Excalidraw to create a video with code
Failed to extract contents from https://www.reddit.com/r/finality/comments/15qzklg/using_remotion_and_excalidraw_to_create_a_video/. Scraping and AI access may not be possible, and insufficient information was obtained for summarization, so browser operation is required for viewing.
reddit.comreddit.com
Build software better, together
You signed in with another tab or window. Reload to refresh your session.You signed out in another t...
github.comgithub.com

🏷 GitHub Topicsと検索クエリを使った追加候補の探索戦略

video-generation · GitHub Topics · GitHub
#### video-generation · GitHub Topics · GitHub GitHubの「video-generation」トピックページ(および関連トピック群)に関する要約です。ページは、短尺動画(TikTok、Instagram Reels、YouTube Shorts)を生成するプロジェクト群を想定しており、Model Context Protocol(MCP)とREST APIを用いた短尺動画作成を明示する記述があります。TypeScriptでの更新情報も記載されています。 #### 要約(主要ポイント) - 主旨:短尺動画(TikTok/Instagram Reels/YouTube Shorts)を、Model Context Protocol(MCP)とREST APIを用いて作成するプロジェクトを集めたトピック群であることが示されています。 - 技術スタックの示唆:ページには TypeScript に関する更新(Updated Jun 21, 2025 - TypeScript)があり、TypeScriptで開発されたプロジェクトが含まれる可能性が高いです。 - MCPの存在:Model Context Protocol(MCP)という概念が明記されており、LLMや外部モデルを文脈駆動で連携するワークフローが想定されています(LLM/モデル統合の土台として有望)。 - ユースケース寄りのタグ群:YouTube/shorts/reels/tiktok/faceless-videoなど、ショートフォーム自動生成や無人(顔なし)動画の自動化に関するトピックが並んでいます。 - remotionトピック:Remotion関連トピックが列挙されており、Remotion + TypeScript ベースの動画生成ワークフローを探すうえで重要な索引になっています。 #### コンテキスト内にある関連リンク(GitHubトピック) - [youtube](https://github.com/topics/youtube) - [mcp](https://github.com/topics/mcp) - [shorts](https://github.com/topics/shorts) - [video-generator](https://github.com/topics/video-generator) - [video-generation](https://github.com/topics/video-generation) - [video-maker](https://github.com/topics/video-maker) - [tiktok](https://github.com/topics/tiktok) - [video-creator](https://github.com/topics/video-creator) - [remotion](https://github.com/topics/remotion) - [reels](https://github.com/topics/reels) - [youtube-shorts](https://github.com/topics/youtube-shorts) - [instagram-reels](https://github.com/topics/instagram-reels) - [tiktok-creator](https://github.com/topics/tiktok-creator) - [shorts-maker](https://github.com/topics/shorts-maker) - [faceless-video](https://github.com/topics/faceless-video) - [instagram-reels-automation](https://github.com/topics/instagram-reels-automation) - [shorts-automate](https://github.com/topics/shorts-automate) - [model-context-protocol](https://github.com/topics/model-context-protocol) - [video-creation-tool](https://github.com/topics/video-creation-tool) #### 具体的に注目すべき点 - MCP(model-context-protocol)が明示されているため、LLMや外部モデルを用いて文脈駆動で動画パイプラインを動かす設計が想定される点は、ユーザーの「Remotion × LLM × 音声AI × TypeScript × YouTube向け」という要望に直接関係します。 - Remotionトピックが含まれているため、RemotionベースのTypeScript実装を集めれば、既存のコンポーネントやレンダリング手法を流用可能です。 - ただし、提示されたコンテキスト内では OpenAI や特定のTTS(音声AI)実装・ライブラリ名は明示されていません。LLMやTTSとの具体的な連携例を見つけるには、個別リポジトリのREADMEやコードを掘る必要があります。 #### ユーザー要望(Remotion × LLM × 音声AI × TypeScript × YouTube)との関連性 - 高い関連性:remotion、video-generation、youtube/youtube-shorts、model-context-protocol といったトピックが揃っているため、目的に合致するリポジトリ群をこのトピック群から抽出するのは有効です。 - 不足情報:このコンテキストだけでは OpenAI/ChatGPT、TTS ライブラリ(例えば Coqui, ElevenLabs, Google TTS 等)を使っている具体的リポジトリが確認できないため、次工程でGitHub検索クエリを用いて個別リポジトリを広く収集する必要があります。 #### 推奨される次のアクション 1. GitHub上で下記のような英語クエリを使ってリポジトリを横断的に検索し、READMEとソースを取得する(あなたの最初の意図と整合)。 - github remotion typescript openai tts - github remotion "youtube" "ai" - github remotion "chatgpt" "video generator" 2. 発見した候補リポジトリのREADMEを優先的にスクレイピングして、Remotionの使い方、LLM連携(MCPやAPI)、TTS実装、TypeScriptサンプル、YouTubeアップロードワークフローの有無を比較する。 3. MCP関連リポジトリは優先度高めで解析し、MCPがLLM/TTSをどのようにオーケストレーションしているかを確認する。 #### 補足 - 上記要約は提供されたコンテキスト(トピック一覧と短い説明文)に基づいています。個々のリポジトリの詳細(READMEや実装例)を収集して比較分析を行うためには、ブラウザ操作やGitHub APIを用いた個別スクレイピングが必要です。 #### 参考(コンテキスト内の原文) Creates short videos for TikTok, Instagram Reels, and YouTube Shorts using the Model Context Protocol (MCP) and a REST API. Updated Jun 21, 2025 - TypeScript (上記情報の出典は、前述の各トピックリンクにあります。)
github.comgithub.com
Build software better, together
You signed in with another tab or window. Reload to refresh your session.You signed out in another t...
github.comgithub.com
Build software better, together
You signed in with another tab or window. Reload to refresh your session.You signed out in another t...
github.comgithub.com
Build software better, together
Creates short videos for TikTok, Instagram Reels, and YouTube Shorts using the Model Context Protoco...
github.comgithub.com

🏷 MCPを活用したLLM連携の最新OSS

Build software better, together
🚀 The fast, Pythonic way to build MCP servers and clients - Updated Nov 26, 2025 - Python 🚀 The ...
github.comgithub.com

📖 レポートに利用されていない参考文献

検索結果: 39件追加のソース: 0件チャット: 0件
evalstate/mcp-hfspace: MCP Server to Use HuggingFace ...
Supply a list of HuggingFace spaces in the arguments. mcp-hfspace will find the most appropriate endpoint and automatically configure it for usage. An example ...
github.comgithub.com
thedaviddias/llms-txt-hub: 🤖 The largest directory for AI- ...
This repository serves as a central hub for discovering and sharing llms.txt implementations across different projects and platforms.
github.comgithub.com
Why David Gyori's Short Video Maker is the AI Engineer's ...
Transform video creation with David Gyori's Short Video Maker, the free, open-source tool for AI engineers. Generate engaging short videos effortlessly.
skywork.aiskywork.ai
Clean-Cut-MCP - One-Script Magic Video Animation
Clean-Cut-MCP is a bulletproof Remotion video animation system for Claude Desktop that never breaks existing configurations and provides reliable "One-Script ...
lobehub.comlobehub.com
Building an AI App: Lessons in Prompt Engineering and UI ...
Displays word value, payout status, and a form for others to join, tracking their data since 2022. - Output: Real-time equity tracking (e.g., OpenAI usage proof) ...
linkedin.comlinkedin.com
tattwamasi/starry-eye
Train OpenAI gpt-oss, DeepSeek-R1, Qwen3, Gemma 3, TTS 2x faster with 70% less VRAM. myshell-ai/OpenVoice - Instant voice cloning by MIT and MyShell. Audio ...
github.comgithub.com
svg153/awesome-stars
This open-source curriculum introduces the fundamentals of Model Context Protocol (MCP) through real-world, cross-language examples in .NET, Java, TypeScript, ...
github.comgithub.com
zengzzzzz/golang-trending-archive
A complete drop-in replacement for OpenAI's Responses APIs with advanced agentic capabilities. No clouds. No data leaks. Just pure local AI that works on ...
github.comgithub.com
AdCeptive Media LLC - Tech Lead (AI + Full Stack) - Shine
- Developing creative pipelines with tools like TTS, FFmpeg, and Remotion, along with media orchestration. - ... GitHub Actions, and Remotion would be ...
shine.comshine.com
video-editing · GitHub Topics · GitHub
github.comgithub.com
Generating a JSDoc comment for your function using OpenAI. | by ...
medium.commedium.com
Top 10 TS Projects to Watch in 2024 | by Bytefer | JavaScript in ...
plainenglish.ioplainenglish.io
GitHub - bikramtuladhar/awesome-list
github.comgithub.com
Editor Starter | Remotion | Make videos programmatically
remotion.devremotion.dev
Use the Remotion Chatbot | Remotion | Make videos programmatically
remotion.devremotion.dev
gyoridavid/short-video-maker
Creates short videos for TikTok, Instagram Reels, and YouTube Shorts using the Model Context Protocol (MCP) and a REST API. www.skool.com/ai-agents-az/about?s1r ...
github.comgithub.com
Building with Remotion and AI
Building with Remotion and AI. We are interested in how AI can help with ... YouTube · LinkedIn · Instagram · TikTok. More. About us · Contact us · Blog · Success ...
remotion.devremotion.dev
Short Video Maker: AI for Creating Engaging Vertical Videos
Short Video Maker harnesses the power of AI to generate short vertical videos tailored for platforms like TikTok, YouTube Shorts, and Instagram Reels.
github.comgithub.com
Stop Using Canva! AI Automate Videos with CLAUDE + ...
... GitHub profile animation, Animated Tweet, and YouTube Outro animation. This ... AI Automate Videos with CLAUDE + REMOTION. 771 views · 3 months ago ...
youtube.comyoutube.com
How to build a video with Claude Code and Remotion
... YouTube? The same walkthrough is available here: https://lnkd.in/gkBm8EHe What ... AI #ContentAutomation #DeveloperTools #Remotion #ClaudeCode #Tutorial.
linkedin.comlinkedin.com
Prompting a Remotion video with Bolt.new
On bolt.new, you can use their online AI tool to prompt a Remotion video ... YouTube · LinkedIn · Instagram · TikTok. More. About us · Contact us · Blog · Success ...
remotion.devremotion.dev
【GitHub开源项目实战】RedditVideoMakerBot 从文本到视频 ...
... AI 自动视频剪辑、开源项目实战、YouTube Shorts 自动化. 摘要: 在短视频内容爆发式增长的背景下,自动化生成视频成为内容创作者、AI 工程师和自动化开发者的热门方向。
csdn.netcsdn.net
前段时间用@Remotion 写代码帮公司做了一些视频中的动画。
ai profile ... Enjoy the videos and music you love, upload original content, and share it all with friends, family, and the world on YouTube. www.youtube.
x.comx.com
5 分钟搭建AI 视频工厂! 超低成本自动化AI 短视频生产,躺赚 ...
... Remotion渲染引擎,让AI为你24小时不间断产出内容。但别急着变现,我会诚实告诉你这套技术的真实价值和未来前景。 工作流地址:https://github.com/hylarucoder/n8n ...
youtube.comyoutube.com
upload your video to YouTube with yutu · remotion-dev ...
github.comgithub.com
OSS-AI Generated Videos with Remotion | FOSS Engineer
fossengineer.comfossengineer.com
GitHub - arafipro/remotion-beginner-yt: Remotionで動画作成を試してみた
github.comgithub.com
GitHub - drewbitt/starred
github.comgithub.com
how to create those type of videos ? is there is any website ...
Luma the new AI video generator from text (already open access to all). Wild ... r/ChatGPT. • 5mo ago. Can videos be made in ChatGPT currently? 2 upvotes ...
reddit.comreddit.com
How to create videos with Claude Code #claude #aicoding ...
The tool is called Veo 3, and it's Google's brand-new video generator ... sonido original - Javi Manzano | ChatGPT & IA · Chatgpt Powered Turret · Chat ...
tiktok.comtiktok.com
OpenAI has acquired Software Applications Incorporated ...
And, for ChatGPT's second birthday, Nick Turley, ChatGPT head of product at ... video generator is available for public use. An account must be made to ...
facebook.comfacebook.com
Fixing Claude Code Missteps with ESC Escape
This free open-source video generator turns text or images into ... chatgpt #chatgpt #chatgptsceeenshare #ai #chatgpttips #aitips · original sound ...
tiktok.comtiktok.com
Mi primer comercial de IA en Veo3
... ChatGPT Whether you run a small business manage a startup or create content ... Free Ai Video Generator Without Watermark - Free Image To Video - Free Text To ...
tiktok.comtiktok.com
Aditya Parekh - AI Full-Stack Developer @ AutoAccru
I am a Computer Science graduate from the University of Waterloo, specializing in Data Science, with hands-on experience in machine learning, ...
linkedin.comlinkedin.com
Get AI coding inside your browser with Claude Code—edit, fix ...
... video generator to create my latest music video! The creativity and ... ChatGPT now edits your writing instantly in docs, emails, and forms worldwide.
tiktok.comtiktok.com
Construye tu propio agente de IA con AgentBase API
You type your rough idea, it expands it into a cinematic script you can drop into Nano Banana, ChatGPT, or any other model. ... video generator you're ...
tiktok.comtiktok.com
GitHub - Weendert/brainrot-generator: Generate Brainrot Content ...
github.comgithub.com
Introducing prompt-based video generator | Santhosh Toorpu posted ...
linkedin.comlinkedin.com
Top 15 AI Tools You Need to Know. Revolutionizing Workflows Across ...
gitconnected.comgitconnected.com

📊 ドメイン統計

参照ドメイン数: 16引用済み: 3総文献数: 70
1
Favicon for https://github.comgithub.com
引用: 13件/ 総数: 33件
引用率: 39.4%
2
Favicon for https://remotion.devremotion.dev
引用: 2件/ 総数: 9件
引用率: 22.2%
3
Favicon for https://reddit.comreddit.com
引用: 1件/ 総数: 3件
引用率: 33.3%
4
Favicon for https://tiktok.comtiktok.com
引用: 0件/ 総数: 5件
引用率: 0.0%
5
Favicon for https://linkedin.comlinkedin.com
引用: 0件/ 総数: 4件
引用率: 0.0%
6
Favicon for https://medium.commedium.com
引用: 0件/ 総数: 3件
引用率: 0.0%
7
Favicon for https://youtube.comyoutube.com
引用: 0件/ 総数: 3件
引用率: 0.0%
8
Favicon for https://plainenglish.ioplainenglish.io
引用: 0件/ 総数: 2件
引用率: 0.0%
9
Favicon for https://skywork.aiskywork.ai
引用: 0件/ 総数: 1件
引用率: 0.0%
10
Favicon for https://lobehub.comlobehub.com
引用: 0件/ 総数: 1件
引用率: 0.0%
11
Favicon for https://shine.comshine.com
引用: 0件/ 総数: 1件
引用率: 0.0%
12
Favicon for https://csdn.netcsdn.net
引用: 0件/ 総数: 1件
引用率: 0.0%
13
Favicon for https://x.comx.com
引用: 0件/ 総数: 1件
引用率: 0.0%
14
Favicon for https://fossengineer.comfossengineer.com
引用: 0件/ 総数: 1件
引用率: 0.0%
15
Favicon for https://facebook.comfacebook.com
引用: 0件/ 総数: 1件
引用率: 0.0%
16
Favicon for https://gitconnected.comgitconnected.com
引用: 0件/ 総数: 1件
引用率: 0.0%

このレポートが参考になりましたか?

あなたの仕事の調査業務をワンボタンでレポートにできます。

詳細を見る

新しいテーマを調査する

運営会社サービス概要メディア
  • 📜要約
  • 📊ビジュアライズ
  • 🖼関連する画像
  • 🔍詳細
    • 🏷調査サマリーと理想アーキテクチャの整理
    • 🏷ChatGPT Video Generator:Remotion×OpenAI×TTS統合の最有力サンプル
    • 🏷podcast-to-video-remotion:音声→動画テンプレのTypeScript実装
    • 🏷AutoShortsほかショート動画自動生成系から学ぶLLM/TTSワークフロー
    • 🏷GitHub Topicsと検索クエリを使った追加候補の探索戦略
    • 🏷MCPを活用したLLM連携の最新OSS
  • 🖍考察
  • 📚参考文献
    • 📖利用された参考文献
    • 📖未使用の参考文献
    • 📊ドメイン統計