📜 要約
主題と目的
この調査の主題は、**Remotion × LLM(ChatGPT等)× 音声AI(TTS)× TypeScript を組み合わせて、YouTube向け動画を自動生成する実装例となるGitHubリポジトリを「できる限り網羅的に洗い出し、比較評価すること」**です。
ユーザーの目的は、単なるサンプルコードの発見ではなく、
- Remotion を使って TypeScript/TSX で動画コンポジションを組み立て、
- LLM でスクリプトを生成し、
- 音声AIでナレーションを合成し、
- 最終的に YouTube/Shorts 向けに出力できる、
という一連のパイプラインを設計・実装する際の「最適な出発点」となる OSS 群を把握することにあります。
したがって本レポートでは、
- その要件に近い有力リポジトリを抽出し、技術スタック・機能・導入しやすさの観点から整理する
- 単体で「全部入り」のOSSがない現状を踏まえ、どう組み合わせれば理想のスタックになるかをアーキテクチャとして提案する
- さらに、GitHub Topics や検索クエリを使って「今後も継続的に候補を発掘するための方法」まで含めてまとめる
ことを目的とします。
回答
1. 全体像:条件を完全に満たす「決定版」はまだないが、部品は揃っている
調査の結論として、Remotion・LLM・音声AI・TypeScript・YouTube自動生成をすべて1つのOSSで完結させた「決定版」リポジトリは、2025年11月時点では見当たりません。
しかし、パイプラインを以下のレイヤーに分けると、それぞれを高い完成度でカバーするOSSが複数存在します。
- LLM層:スクリプトや構成JSONを生成する
- 音声・メディア層:TTSと画像/BGMの取得・生成
- 動画合成層(TypeScript):Remotionを使ったコンポジションとレンダリング
- 配信層:YouTube/Shorts向けアップロード
これらを組み合わせれば、ユーザーの求める「Remotion × LLM × 音声AI × TypeScript による YouTube 自動動画生成スタック」は、十分現実的に構築可能です。
以下では、特に重要な OSS を4系統に分けて解説します。
2. 中心となる4つの有力OSSとその役割
2-1. ChatGPT Video Generator(chatgptvideoai)
Remotion × OpenAI × TTS をシンプルに統合した最有力サンプル
-
リポジトリ:github.comgithub.com
-
概要
- 「テキストを入力すると、LLMで要約し、TTSでナレーションを作り、Remotion+FFmpegで動画を生成してダウンロードできる」ChatGPT Video Generatorです。github.com
- 技術スタックは OpenAI API・Node.js・React・FFmpeg・Remotion で構成され、UIは
ベースの React コンポーネントです.tsx。github.com
- 「テキストを入力すると、LLMで要約し、TTSでナレーションを作り、Remotion+FFmpegで動画を生成してダウンロードできる」ChatGPT Video Generatorです
-
ユーザー要件とのフィット
- Remotion を使った TypeScript/TSX の動画コンポーネント
- OpenAI LLM を使ったスクリプト/要約生成
- Node.js ベースの TTS を組み込み、音声付き動画を出力
- 生成動画をブラウザからダウンロード可能
→ 「Remotion × LLM × TTS」がひとつのコードベースにまとまった、もっとも要件に近い統合サンプルです。
-
導入のしやすさ
- セットアップは、クローン →
→npm install
に OpenAI API キーを記述 →src/chat.tsx
というシンプルな流れですnpm run start。github.com - 余計な外部依存が少なく、「まず1本AI動画を動かす」には最短ルートと言えます。
- セットアップは、クローン →
-
制約・弱み
- アニメーションは現状シンプルで、「トピック要約1本」向けの構成であると明記されています。github.com
- HD動画や高度な表現には Remotion CLI を追加で使う必要があります。github.com
→ 学習・PoCには最適だが、本格的なチャンネル運営には Remotion 側の拡張が前提になります。
- アニメーションは現状シンプルで、「トピック要約1本」向けの構成であると明記されています
どう活かすべきか
Remotion+LLM+TTS の「結線の仕方」を掴む最初の教材として利用し、
Remotion+LLM+TTS の「結線の仕方」を掴む最初の教材として利用し、
- OpenAI 呼び出し部分(
)のプロンプトや出力スキーマsrc/chat.tsx - Remotion コンポーネントと音声ファイルの同期
を読み解いて、自分の用途向けにプロンプトとコンポーネントを差し替える出発点にするのがよいです。
2-2. podcast-to-video-remotion
音声+字幕をRemotionで「見せる」ためのTypeScriptテンプレート
-
リポジトリ:github.comgithub.com
-
概要
- ポッドキャストなどの音声とカバー画像、字幕を組み合わせて「オーディオグラム」動画を作るRemotionテンプレートです。github.com
- コンポジションは
とsrc/Video.tsx
にまとまっており、ここを編集してサイズや尺、レイアウトを調整しますsrc/Composition.tsx。github.com
- ポッドキャストなどの音声とカバー画像、字幕を組み合わせて「オーディオグラム」動画を作るRemotionテンプレートです
-
強み
- Remotion × TypeScript で、音声+字幕をタイムラインに載せる「完成形のUI実装」が手に入る点が最大の価値です。
- 字幕は単語レベル(word-level)のタイムスタンプ付きを前提としており、Subs AI や Otter.ai などで生成した字幕を用いることが推奨されています。github.com
→ AIで生成したトランスクリプトを使い、「単語ごとにポップする字幕」などYouTubeショート的な表現をRemotionで作り込むのに最適です。
-
弱み
- LLM や TTS のコードは内包しておらず、「音声・字幕は別ツールで用意して持ち込む」前提です。github.com
- LLM や TTS のコードは内包しておらず、「音声・字幕は別ツールで用意して持ち込む」前提です
どう活かすべきか
ChatGPT Video Generator や AutoShorts などで生成した「音声ファイル+字幕JSON」を、
このテンプレートの
ChatGPT Video Generator や AutoShorts などで生成した「音声ファイル+字幕JSON」を、
このテンプレートの
src/assets に流し込む構成をとれば、- 「AI層(LLM・TTS)」と
- 「動画合成層(Remotion)」
をきれいに分離できます。
AIの賢さと、動画の見栄えを分けてチューニングできる構成を目指すなら、このテンプレは非常に相性が良いです。
AIの賢さと、動画の見栄えを分けてチューニングできる構成を目指すなら、このテンプレは非常に相性が良いです。
2-3. AutoShorts(auto-shorts)
LLM+TTS+画像APIでショート動画を量産するNode.js/TSパッケージ
-
リポジトリ:github.comgithub.com
-
概要
- プロンプトからニュースショート、クイズ、ランキング、テキストメッセージ系のショート動画を自動生成するツールです。github.com
- LLMは OpenAI GPT-4o mini・Google Gemini・Anthropic Claude・ローカルの Ollama Llama3.2 などをサポートし、github.com
TTSは ElevenLabs / Neets.ai / ローカルTTS、画像は Pexels などを切り替えられます。github.com
- プロンプトからニュースショート、クイズ、ランキング、テキストメッセージ系のショート動画を自動生成するツールです
-
代表的なCLI例
npx auto-shorts -p "make a news short about TypeScript" \ --aiType OpenAIGen \ --ttsType ElevenLabs \ --imageType Pexels \ --elevenLabsAPIKey ... \ --pexelsAPIKey ... \ --openaiAPIKey ...これで「TypeScript ニュースショート」が一発生成されます。github.com -
強み
- LLM・TTS・画像ソースをすべて抽象化した「AIワークフロー層」の設計が非常に参考になる点です。
- JS/TS API も提供しており、
やgenVideoWithAI
に「動画構成JSON」を渡す方式で拡張できますgenVideoWithJson。github.com
-
弱み
- 動画レンダリングに使っているのは ffcreator 系であり、Remotion ではありません。github.com
- 作者自身が「学習目的のプロジェクトであり、開発は停止/プロダクション用途は非推奨」と明記しています。github.com
- 動画レンダリングに使っているのは ffcreator 系であり、Remotion ではありません
どう活かすべきか
- AIワークフローの設計(LLM・TTS・画像APIの抽象化)を学ぶ教材として使い、
- 動画レンダリング部だけを自作の Remotion コンポジションに差し替えるのが現実的です。
たとえば、
- AutoShorts の
のような JSON スキーマを自分のサービス側に採用し、VideoDataType - その JSON を Remotion コンポーネントに渡して
を組み立てる、<Composition>
といった橋渡しを TypeScript で行う構成が考えられます。
2-4. Remotion Editor Starter(Remotion公式有償スターター)
編集UI・タイムライン・字幕まで揃ったプロダクト基盤
-
ドキュメント:remotion.devremotion.dev
-
概要
- タイムライン、インタラクティブキャンバス、字幕機能、アセット管理、レンダリングキュー、バックエンドルートなどを備えた「動画編集アプリ用スターター」です。remotion.dev
- 80以上の feature flag により機能のオン/オフを制御でき、TypeScriptで構築されています。remotion.dev
- タイムライン、インタラクティブキャンバス、字幕機能、アセット管理、レンダリングキュー、バックエンドルートなどを備えた「動画編集アプリ用スターター」です
-
強み
- LLM で生成したシーン構成JSONを Tracks/Items に自動配置し、TTSで生成した音声ファイルを Assets として乗せ、字幕を Captioning 機能に流し込む、というフル機能のAI動画エディタ基盤になり得ます。
- Webサービスや社内向けツールとして提供する場合の「骨格」部分をほぼ提供してくれる点は大きいです。
-
弱み
- 有償テンプレートであり、ライセンス条件の確認が必須です。remotion.dev
- ある程度の規模感のプロダクトを作る前提(PoCにはオーバースペックになりがち)。
- 有償テンプレートであり、ライセンス条件の確認が必須です
どう活かすべきか
- 中長期的に「AI動画編集SaaS」や社内用自動動画生成ツールとして提供するなら、
- Editor Starter をベースに
- LLM・TTS・字幕生成をバックエンドの API として統合していく
という構成がかなり有力です。
最初のPoCフェーズでは ChatGPT Video Generator や podcast-to-video-remotion を使い、
スケールさせたくなった段階で Editor Starter に移植する、という2段階戦略が現実的です。
スケールさせたくなった段階で Editor Starter に移植する、という2段階戦略が現実的です。
3. 理想的なアーキテクチャ像(3層モデル)
上記OSSを踏まえ、「Remotion × LLM × 音声AI × TypeScript × YouTube」を実現する理想構成を3層で整理します。
3-1. 概念アーキテクチャ
このモデルに先ほどのOSSを重ねると、以下のような整理になります。
-
LLM層・音声層・画像層
- AutoShorts が LLM・TTS・画像APIを柔軟に切り替える層として非常に完成度が高い。github.com
- ChatGPT Video Generator は OpenAI+TTSの最小構成として分かりやすい。github.com
- AutoShorts が LLM・TTS・画像APIを柔軟に切り替える層として非常に完成度が高い
-
動画合成層(Remotion+TypeScript)
- podcast-to-video-remotion が「音声+字幕」をRemotionで見せるテンプレートとして優秀。github.com
- Editor Starter がフル機能の編集UI・タイムライン基盤を提供。remotion.dev
- podcast-to-video-remotion が「音声+字幕」をRemotionで見せるテンプレートとして優秀
-
配信層
- 直接YouTubeアップロードまで含むOSSは少ないものの、Remotionでmp4出力後、Node.jsからYouTube Data APIを呼ぶのが一般的パターンになります。
重要なポイントは、「Remotion自身にLLM/TTSのロジックを埋め込まない」ことです。
AutoShorts や ChatGPT Video Generator の設計にならい、
AutoShorts や ChatGPT Video Generator の設計にならい、
- AIワークフロー(LLM/TTS/画像)はTypeScriptのサービス層として実装し、
- Remotionはあくまで「型付きJSONや音声・字幕ファイルを受け取るレンダラ/エディタ」として扱う、
という構成にすると拡張しやすくなります。
4. 実際の構築ステップ:何から手を付けるべきか
要件に沿ってPoC〜プロダクションまでを通すための、現実的なロードマップを提案します。
ステップ1:ChatGPT Video Generatorで「最小構成の流れ」を把握
をクローンし、OpenAI APIキーをchatgptvideoai
に設定して動かしますsrc/chat.tsx。github.com- テキスト入力 → LLM応答 → TTS → Remotionレンダリング → ダウンロード までを一度実際に通します。
- コード上では
- OpenAI呼び出し部分(プロンプトとレスポンス処理)
- TTSで生成した音声ファイルの管理
- Remotionコンポーネントへのデータ受け渡し
を重点的に読み解きます。
これで、「TypeScript/TSXでLLM+TTS+Remotionをひとつのワークフローにまとめる感覚」を掴めます。
ステップ2:podcast-to-video-remotionで映像テンプレを磨く
をセットアップし、手元の音声・字幕ファイルを使って動画をレンダリングしますpodcast-to-video-remotion。github.com
で解像度・フレームレート・尺を YouTube / Shorts に合わせてチューニングします。src/Video.tsx- 生成されたAI音声(ステップ1やAutoShorts側で作成)と字幕JSONを
に差し込む小さなスクリプトを書き、src/assets- 「AI層(音声/字幕生成)」
- 「Remotion層(見せ方)」
を分離します。
ステップ3:AutoShorts的なAIワークフロー層をTypeScriptで設計
- AutoShorts の
/genVideoWithAI
周辺の実装と、genVideoWithJson
的なJSONスキーマを読み込みますVideoDataType。github.com - 自分の用途(ニュース解説、チュートリアル、クイズ等)に合わせて、
- シーンの並び
- 各シーンのテキスト
- 対応する音声ファイルパス
- 背景画像パス
などを表現する独自の TypeScript 型(例:
)を定義します。VideoSpec
- LLM(OpenAI/Gemini/Ollama等)には「必ずその型に沿ったJSONを返す」ようプロンプト設計を行い、
「LLMはJSON設計通りのデータを吐くサービス」として固定します。 - TTSクライアント(ElevenLabs / Neets.ai / Local)を
インターフェースで抽象化し、将来の差し替えに備えます。VoiceProvider
ステップ4:本格的なUI・運用を見据えるなら Remotion Editor Starter
- 将来的に外部ユーザーや社内利用者に「編集画面」を提供したい場合は、Editor Starter の購入を検討します。remotion.dev
- Tracks/Items/Assets/Captioning の仕組みに、
- LLMで生成した
JSON をインポートしてシーンを自動配置VideoSpec - TTS音声を Assets として登録
- 自動字幕結果を Captioning に流し込む
という拡張ポイントを追加します。
- LLMで生成した
- このレベルになると、Remotionは単なるレンダラではなく「AI動画エディタ」のコアプラットフォームになっていきます。
5. 「調べ尽くす」ためのGitHub探索戦略
今回の調査から分かったのは、「条件にピッタリなリポジトリが1つある」というよりも、似た方向を目指すプロジェクトがいくつも散在しているという状況です。
それらを継続的に発掘するための、具体的な探索戦略も整理しておきます。
それらを継続的に発掘するための、具体的な探索戦略も整理しておきます。
5-1. まず見るべき Topics ハブ
- remotion トピック:Remotion関連の全OSSを俯瞰する入口github.com
- video-generation / video-generator / video-maker:テキスト→動画変換エンジン全般のハブgithub.comgithub.com
- youtube / youtube-shorts / shorts-maker / faceless-video:YouTube/Shorts/顔出し不要動画向けのツール群6github.com
- model-context-protocol / mcp:MCP を使って LLM と外部ツールをつなぐ最新エコシステムgithub.comgithub.com
これらのページから、
- 主言語がTypeScript
- 説明文に「shorts」「remotion」「ai」「openai」「tts」等を含む
といった条件で絞ると、候補がかなり浮かび上がります。
5-2. 検索クエリで Topics の抜けを補う
Topics だけでは網羅できないため、以下のようなクエリで GitHub 全体検索を行うとよいです。
remotion typescript openai ttsremotion "youtube" "shorts" "ai"remotion "video generator" "chatgpt"
これにより、タグ付けが甘いが README 内ではきちんと Remotion×LLM×TTS をやっているリポジトリ(ChatGPT Video Generator など)を拾えます。
github.com
5-3. 収集するメタ情報と評価軸
各候補リポジトリについて、次の情報をCSVやMarkdown表にまとめると、比較検討しやすくなります。
- リポジトリ名 / URL
- 主言語(TypeScript / JS / Python…)
- Remotion利用の有無
- 採用している LLM・TTS・画像API
- 対応ターゲット(YouTube / Shorts / TikTok / 汎用)
- スター数 / フォーク数 / 最終更新日
- ライセンス(MIT / GPL / その他)
- READMEの充実度 / デモ動画やスクリーンショットの有無
この上で、
- Remotion × TypeScript かどうか
- LLM/TTSがどこまで組み込まれているか
- 更新が1年以内か
などの基準でスコアリングすると、「いま取り込むべき上位10〜20件」を安定して選べるようになります。
結果と結論
-
単体で「Remotion × LLM × 音声AI × TypeScript × YouTube」を完全に満たすOSSは、現時点では存在しない
ただし、- Remotion+OpenAI+TTSを統合した ChatGPT Video Generatorgithub.com
- Remotion+TypeScriptで音声+字幕動画を描画する podcast-to-video-remotiongithub.com
- LLM+TTS+画像APIでショート動画を量産する AutoShortsgithub.com
- フル機能動画エディタ基盤の Remotion Editor Starterremotion.dev
という強力な「部品」は揃っています。
- Remotion+OpenAI+TTSを統合した ChatGPT Video Generator
-
現実的な最適解は、「OSSを組み合わせて自分用スタックを組むこと」
- ChatGPT Video Generator で LLM+TTS+Remotion の最低限の流れを掴み、
- podcast-to-video-remotion で Remotion 側の画面設計と字幕同期を磨き、
- AutoShorts の設計から LLM/TTS/画像APIの抽象化パターンを学び、
- 将来的なサービス化には Remotion Editor Starter を検討する、
というステップが最も筋が良いと考えられます。
-
アーキテクチャ上の肝は「AIワークフロー層」と「Remotionレンダリング層」の分離
- LLMは、あらかじめ定義した TypeScript 型(シーン構成JSON)を返すサービスとして固定し、
- TTSや画像APIは抽象インターフェース(VoiceProvider, ImageProvider)で包み、
- Remotionには「音声ファイル+字幕+シーンJSON」を渡してレンダリングさせる、
という分割が、将来の差し替えや拡張を最も楽にします。
-
「調べ尽くす」ための継続的な探索フレームワークも重要
- remotion / video-generation / video-maker / youtube-shorts / faceless-video / model-context-protocol などの Topics を定期的にクロールしgithub.com、github.com
のようなクエリで新着を検索し、remotion typescript openai tts- スコアリングした比較表を更新していく、
という運用を組めば、新しい有望リポジトリが出てきたときにも即座にキャッチアップできます。
- remotion / video-generation / video-maker / youtube-shorts / faceless-video / model-context-protocol などの Topics を定期的にクロールし
総合すると、いま探すべきは「完璧な1リポジトリ」ではなく、用途ごとに最適なOSSの設計パターンです。
このレポートで整理した4系統のリポジトリと3層アーキテクチャ、そして GitHub Topics を起点にした探索方法を使えば、Remotion × LLM × 音声AI × TypeScript による YouTube動画自動生成パイプラインを、かなり高い精度で設計・実装できるはずです。
このレポートで整理した4系統のリポジトリと3層アーキテクチャ、そして GitHub Topics を起点にした探索方法を使えば、Remotion × LLM × 音声AI × TypeScript による YouTube動画自動生成パイプラインを、かなり高い精度で設計・実装できるはずです。
コード実行
<!DOCTYPE html>
<html lang="ja">
<head>
<meta charset="UTF-8" />
<title>Remotion × LLM × 音声AI × TypeScript × YouTube 向けレポジトリ分析ダッシュボード</title>
<script src="https://cdn.jsdelivr.net/npm/chart.js"></script>
<style>
body {
font-family: system-ui, -apple-system, BlinkMacSystemFont, "Segoe UI", sans-serif;
margin: 0;
padding: 24px;
background: #0f172a;
color: #e5e7eb;
}
h1 {
font-size: 24px;
margin-bottom: 16px;
}
.grid {
display: grid;
grid-template-columns: repeat(auto-fit, minmax(280px, 1fr));
gap: 20px;
margin-top: 20px;
}
.card {
background: #020617;
border-radius: 12px;
padding: 16px 18px;
border: 1px solid #1f2937;
box-shadow: 0 18px 45px rgba(15,23,42,0.7);
}
.card h2 {
font-size: 18px;
margin: 0 0 8px 0;
color: #f9fafb;
}
.tag-row {
display: flex;
flex-wrap: wrap;
gap: 6px;
margin-top: 8px;
}
.tag {
font-size: 11px;
padding: 3px 8px;
border-radius: 9999px;
border: 1px solid #4b5563;
color: #e5e7eb;
background: rgba(15,23,42,0.6);
white-space: nowrap;
}
table {
width: 100%;
border-collapse: collapse;
font-size: 12px;
}
th, td {
border-bottom: 1px solid #1f2937;
padding: 6px 4px;
text-align: left;
}
th {
background: #020617;
position: sticky;
top: 0;
z-index: 1;
}
.repo-link {
color: #60a5fa;
text-decoration: none;
}
.repo-link:hover {
text-decoration: underline;
}
.source-link {
color: #22c55e;
text-decoration: none;
font-size: 11px;
}
.source-link:hover {
text-decoration: underline;
}
.note-list {
font-size: 11px;
padding-left: 18px;
color: #9ca3af;
}
.note-list li {
margin-bottom: 2px;
}
.small-title {
font-size: 13px;
font-weight: 600;
margin: 10px 0 4px 0;
}
canvas {
max-width: 100%;
}
</style>
</head>
<body>
<h1>Remotion × LLM × 音声AI × TypeScript × YouTube 向け OSS レポジトリ分析</h1>
<div class="grid">
<div class="card">
<h2>1. 推奨 3 レポジトリ比較表</h2>
<div class="small-title">タイトル / 役割</div>
<table>
<thead>
<tr>
<th>リポジトリ</th>
<th>主要スタック</th>
<th>LLM</th>
<th>音声AI</th>
<th>Remotion</th>
<th>YouTube 関連</th>
</tr>
</thead>
<tbody>
<tr>
<td>
<a href="https://github.com/SaiTech01/chatgptvideoai" target="_blank" rel="noopener noreferrer" class="repo-link">chatgptvideoai</a>
</td>
<td>TypeScript / React / Node.js</td>
<td>OpenAI API</td>
<td>TTS (Node.js 実装)</td>
<td>使用</td>
<td>HD 出力で応用可</td>
</tr>
<tr>
<td>
<a href="https://github.com/harshitsinghai77/podcast-to-video-remotion" target="_blank" rel="noopener noreferrer" class="repo-link">podcast-to-video-remotion</a>
</td>
<td>TypeScript / Remotion</td>
<td>外部で生成したスクリプトを想定</td>
<td>外部で用意した音声</td>
<td>使用</td>
<td>ポッドキャスト短尺 / クリップ</td>
</tr>
<tr>
<td>
<a href="https://github.com/alamshafil/auto-shorts" target="_blank" rel="noopener noreferrer" class="repo-link">AutoShorts</a>
</td>
<td>Node.js / JavaScript (TS 明示なし)</td>
<td>OpenAI, Gemini, Claude, Ollama 等</td>
<td>ElevenLabs, Neets.ai, ローカル TTS</td>
<td>未使用</td>
<td>YouTube Shorts / TikTok 向け</td>
</tr>
</tbody>
</table>
<div class="small-title">出典</div>
<ul class="note-list">
<li><a href="https://github.com/SaiTech01/chatgptvideoai" target="_blank" rel="noopener noreferrer" class="source-link">chatgptvideoai README</a></li>
<li><a href="https://github.com/harshitsinghai77/podcast-to-video-remotion" target="_blank" rel="noopener noreferrer" class="source-link">podcast-to-video-remotion README</a></li>
<li><a href="https://github.com/alamshafil/auto-shorts" target="_blank" rel="noopener noreferrer" class="source-link">AutoShorts README</a></li>
</ul>
</div>
<div class="card">
<h2>2. 機能カバレッジ レーダーチャート</h2>
<p style="font-size:11px; color:#9ca3af; margin:0 0 6px 0;">※スコアは 1〜5 の主観的推定値(推定であることに注意)</p>
<canvas id="coverageRadar" height="220"></canvas>
<div class="small-title">指標</div>
<ul class="note-list">
<li>Remotion 統合度</li>
<li>TypeScript 利用度</li>
<li>LLM 統合度</li>
<li>音声AI (TTS) 統合度</li>
<li>YouTube / Shorts 向け度</li>
</ul>
<div class="small-title">出典</div>
<ul class="note-list">
<li>
レポジトリ README と
<a href="https://github.com/topics/video-generation?l=typescript" target="_blank" rel="noopener noreferrer" class="source-link">video-generation トピック</a>
からの要約に基づく推定スコア
</li>
</ul>
</div>
<div class="card">
<h2>3. 技術スタック構成比 円グラフ</h2>
<p style="font-size:11px; color:#9ca3af; margin:0 0 6px 0;">※3 レポジトリにおける主要技術カテゴリの件数集計</p>
<canvas id="stackPie" height="220"></canvas>
<div class="small-title">カテゴリ定義</div>
<ul class="note-list">
<li>Remotion / 動画レンダリング</li>
<li>LLM (OpenAI / Gemini / Claude / Ollama 等)</li>
<li>音声AI / TTS</li>
<li>YouTube / Shorts 対応</li>
<li>TypeScript / TSX</li>
</ul>
<div class="small-title">出典</div>
<ul class="note-list">
<li>
各 README と
<a href="https://github.com/topics/remotion" target="_blank" rel="noopener noreferrer" class="source-link">remotion トピック</a>
からの情報を定性的にカウント
</li>
</ul>
</div>
<div class="card">
<h2>4. ワークフロー構造図 (Mermaid 風テキスト)</h2>
<div class="small-title">Remotion × LLM × 音声AI × TypeScript × YouTube パイプライン</div>
<pre style="font-size:11px; white-space:pre-wrap; background:#020617; padding:8px; border-radius:8px; border:1px solid #1f2937;">
flowchart TD
A["LLM で台本生成 (OpenAI / Gemini / Claude 等)"] --> B["TTS で音声生成 (ElevenLabs / Node.js TTS 等)"]
B --> C["Remotion + TypeScript で映像テンプレ合成"]
C --> D["FFmpeg でエンコード・解像度調整"]
D --> E["YouTube / Shorts / TikTok へアップロード"]
参考実装:
- A+B+C: chatgptvideoai
- <a href="https://github.com/SaiTech01/chatgptvideoai" target="_blank" rel="noopener noreferrer" class="source-link">GitHub: SaiTech01/chatgptvideoai</a>
- C (音声入力テンプレ): podcast-to-video-remotion
- <a href="https://github.com/harshitsinghai77/podcast-to-video-remotion" target="_blank" rel="noopener noreferrer" class="source-link">GitHub: harshitsinghai77/podcast-to-video-remotion</a>
- A+B+D+E: AutoShorts
- <a href="https://github.com/alamshafil/auto-shorts" target="_blank" rel="noopener noreferrer" class="source-link">GitHub: alamshafil/auto-shorts</a>
</pre>
<div class="small-title">補足メモ</div>
<ul class="note-list">
<li>ワークフローは複数レポジトリの要素を統合した抽象モデル</li>
<li>各段階の実装詳細は README / ドキュメントを参照</li>
</ul>
</div>
</div>
<div class="card" style="margin-top:24px;">
<h2>5. GitHub Topics / ドキュメント ハブ一覧</h2>
<div class="small-title">関連ハブ (リンク表)</div>
<table>
<thead>
<tr>
<th>カテゴリ</th>
<th>URL</th>
<th>役割</th>
</tr>
</thead>
<tbody>
<tr>
<td>Remotion × AI ガイド</td>
<td>
<a href="https://www.remotion.dev/docs/ai/" target="_blank" rel="noopener noreferrer" class="repo-link">Building with Remotion and AI</a>
</td>
<td>AI との連携パターンの一次情報</td>
</tr>
<tr>
<td>Editor Starter</td>
<td>
<a href="https://www.remotion.dev/docs/editor-starter" target="_blank" rel="noopener noreferrer" class="repo-link">Editor Starter ドキュメント</a>
</td>
<td>TypeScript ベースの動画編集 UI / レンダ基盤</td>
</tr>
<tr>
<td>video-generation (TS)</td>
<td>
<a href="https://github.com/topics/video-generation?l=typescript" target="_blank" rel="noopener noreferrer" class="repo-link">GitHub トピック: video-generation (TypeScript)</a>
</td>
<td>MCP × 短尺動画 × TypeScript プロジェクトの集約</td>
</tr>
<tr>
<td>remotion トピック</td>
<td>
<a href="https://github.com/topics/remotion" target="_blank" rel="noopener noreferrer" class="repo-link">GitHub トピック: remotion</a>
</td>
<td>Remotion ベース OSS のハブ (約 139 件・推定)</td>
</tr>
<tr>
<td>model-context-protocol</td>
<td>
<a href="https://github.com/topics/model-context-protocol" target="_blank" rel="noopener noreferrer" class="repo-link">GitHub トピック: MCP</a>
</td>
<td>LLM ツール連携標準。MCP × 短尺動画案件の探索に利用</td>
</tr>
</tbody>
</table>
<div class="small-title">出典</div>
<ul class="note-list">
<li>
追加ソースの要約:
<a href="https://github.com/topics/remotion" target="_blank" rel="noopener noreferrer" class="source-link">remotion</a>,
<a href="https://github.com/topics/video-generation?l=typescript" target="_blank" rel="noopener noreferrer" class="source-link">video-generation</a>,
<a href="https://github.com/topics/model-context-protocol" target="_blank" rel="noopener noreferrer" class="source-link">model-context-protocol</a>
</li>
</ul>
</div>
<div class="card" style="margin-top:18px;">
<h2>6. 補足メモ (箇条書きのみ)</h2>
<ul class="note-list">
<li>完全一致する「Remotion × LLM × 音声AI × TypeScript × YouTube 自動化」単独レポジトリは未確認 (2025 年時点の調査コンテキストに基づく)</li>
<li>実務では chatgptvideoai, podcast-to-video-remotion, AutoShorts を組み合わせてパイプラインを構成する戦略が有効</li>
<li>追加の候補探索には remotion / video-generation / youtube-shorts / faceless-video などの GitHub Topics を継続的にモニタリングすることが推奨される</li>
</ul>
<div class="small-title">出典</div>
<ul class="note-list">
<li>
調査サマリ:
<a href="https://github.com/topics/video-generation?o=desc&s=forks" target="_blank" rel="noopener noreferrer" class="source-link">video-generation トピック (並び替え: forks)</a>
</li>
</ul>
</div>
<script>
// 2. レーダーチャート用データ (1〜5 の推定スコア)
const radarCtx = document.getElementById("coverageRadar").getContext("2d");
const radarData = {
labels: [
"Remotion 統合度",
"TypeScript 利用度",
"LLM 統合度",
"音声AI 統合度",
"YouTube / Shorts 向け度"
],
datasets: [
{
label: "chatgptvideoai",
data: [5, 5, 4, 4, 3], // 推定スコア
borderColor: "rgba(96,165,250,1)",
backgroundColor: "rgba(96,165,250,0.25)",
pointBackgroundColor: "rgba(96,165,250,1)",
pointRadius: 3
},
{
label: "podcast-to-video-remotion",
data: [5, 5, 1, 2, 3],
borderColor: "rgba(52,211,153,1)",
backgroundColor: "rgba(52,211,153,0.2)",
pointBackgroundColor: "rgba(52,211,153,1)",
pointRadius: 3
},
{
label: "AutoShorts",
data: [1, 2, 5, 5, 5],
borderColor: "rgba(248,113,113,1)",
backgroundColor: "rgba(248,113,113,0.2)",
pointBackgroundColor: "rgba(248,113,113,1)",
pointRadius: 3
}
]
};
new Chart(radarCtx, {
type: "radar",
data: radarData,
options: {
responsive: true,
plugins: {
legend: {
labels: {
color: "#e5e7eb",
font: { size: 11 }
}
},
title: {
display: true,
text: "主要 3 レポジトリの機能カバレッジ比較 (推定スコア)",
color: "#f9fafb",
font: { size: 13 }
}
},
scales: {
r: {
angleLines: { color: "#1f2937" },
grid: { color: "#1f2937" },
suggestedMin: 0,
suggestedMax: 5,
ticks: {
stepSize: 1,
backdropColor: "rgba(0,0,0,0)",
color: "#9ca3af",
showLabelBackdrop: false
},
pointLabels: {
color: "#d1d5db",
font: { size: 10 }
}
}
}
}
});
// 3. 円グラフ用データ
// カウントは 3 レポジトリ分の機能有無からの単純集計 (推定)
const stackCtx = document.getElementById("stackPie").getContext("2d");
const stackLabels = [
"Remotion / 動画レンダリング",
"LLM 統合",
"音声AI / TTS",
"YouTube / Shorts 対応",
"TypeScript / TSX"
];
// 件数 (推定):
// Remotion: chatgptvideoai, podcast-to-video-remotion = 2
// LLM: chatgptvideoai, AutoShorts = 2
// TTS: chatgptvideoai, AutoShorts = 2
// YouTube / Shorts: 全て (Shorts or YouTube 応用可) = 3
// TypeScript / TSX: chatgptvideoai, podcast-to-video-remotion = 2 (AutoShorts は JS 中心と推定)
const stackCounts = [2, 2, 2, 3, 2];
new Chart(stackCtx, {
type: "pie",
data: {
labels: stackLabels,
datasets: [
{
data: stackCounts,
backgroundColor: [
"rgba(96,165,250,0.85)",
"rgba(52,211,153,0.85)",
"rgba(251,191,36,0.9)",
"rgba(248,113,113,0.9)",
"rgba(129,140,248,0.9)"
],
borderColor: "#020617",
borderWidth: 1
}
]
},
options: {
plugins: {
legend: {
position: "bottom",
labels: {
color: "#e5e7eb",
font: { size: 11 }
}
},
title: {
display: true,
text: "3 レポジトリにおける技術スタック機能カウント (推定)",
color: "#f9fafb",
font: { size: 13 }
}
}
}
});
</script>
</body>
</html>このレポートが参考になりましたか?
あなたの仕事の調査業務をワンボタンでレポートにできます。
🔍 詳細
🏷調査サマリーと理想アーキテクチャの整理

調査サマリーと理想アーキテクチャの整理
ユーザーの要望は、「Remotion × LLM × 音声AI(TTS)× TypeScriptでYouTube向け動画を自動生成できる、参考になるGitHubリポジトリを“調べ尽くす”」ことでした。調査の結論から言うと、現時点でこの要件を一つのOSSで完全に満たす“決定版”は見当たりません。しかし、パイプラインを段階ごとに分解すると、各フェーズを高い完成度でカバーする有力なリポジトリや公式テンプレートが揃っており、それらを組み合わせることで「理想的なアーキテクチャ像」はかなり明確になります。
1. いま何がどこまでできているのか:4つの有力OSSの位置づけ
調査で特に有力だったのは次の4系統です。
-
ChatGPT Video Generator(chatgptvideoai) – Remotion × OpenAI × TTS × React/TSX
- テキスト入力からAIで要約を生成し、TTSで音声を合成しつつ、RemotionとFFmpegで動画をレンダリングする「ChatGPT Video Generator」を実装したリポジトリです。github.com
- 技術スタックは OpenAI API・Node.js・React・FFMPEG・Remotion で、UIはgithub.com
ベースで構築されています。.tsx - 生成された動画はダウンロード可能で、より高品質なHD動画を作る場合は Remotion CLI の利用が推奨されています。github.com
→ 「LLMでスクリプト生成」「TTS」「Remotionで映像合成」という3要素が一つのコードベースでつながっており、今回の要件に最も近い“統合サンプル”です。
- テキスト入力からAIで要約を生成し、TTSで音声を合成しつつ、RemotionとFFmpegで動画をレンダリングする「ChatGPT Video Generator」を実装したリポジトリです
-
podcast-to-video-remotion – 音声→動画のRemotionテンプレート
- ポッドキャストや任意の音声から「オーディオグラム」動画を作るためのテンプレートで、音声・カバー画像・字幕を組み合わせてクリップ動画を生成します。github.com
- サイズや長さの調整は
、コンポジション定義はsrc/Video.tsx
を編集する構造でsrc/Composition.tsx、TypeScript+RemotionでYouTube/ショート向けレイアウトを作る“お手本”と言えます。github.com - 一方で、字幕や音声は外部ツール(Descript、Otter.ai、SubsAIなど)で準備したものを読み込む前提であり、LLMやTTSを内包してはいません。github.com
→ 「音声と字幕を受け取って絵にするRemotion側の枠組み」として、LLM/TTSパートの“受け皿”に最適です。
- ポッドキャストや任意の音声から「オーディオグラム」動画を作るためのテンプレートで、音声・カバー画像・字幕を組み合わせてクリップ動画を生成します
-
AutoShorts – LLM+TTSでショート動画を量産するNode.jsパッケージ
- YouTube Shorts や TikTok 向けの短尺動画を、LLMが書いたスクリプトとTTSで自動生成するパッケージで、CLIとJS APIの両方を提供しますgithub.com。github.com
- スクリプト生成は OpenAI GPT-4o やGoogle Gemini、Anthropic Claude、ローカルのOllama LLMなどを選択でき、音声は ElevenLabs・Neets.ai・ローカルTTSから選べますgithub.com。github.com
- コマンド一発で「TypeScriptについてのニュースショートを作る」といった動画を生成できる例がREADMEに示されており、テキストメッセージ動画・ニュース動画・クイズ動画など複数のテンプレートをサポートしますgithub.com。github.com
- ただし動画レンダリングには ffcreator など別ライブラリが使われており、Remotionとの統合はありません。また作者は「学習用プロジェクトで開発は停止中」「プロダクション用途には非推奨」と明記していますgithub.com。github.com
→ Remotionとは別系統ですが、「LLMでJSONスキーマを生成し、それをもとにTTS・画像生成・動画合成を組み立てる」アーキテクチャやAPI設計の参考になります。
- YouTube Shorts や TikTok 向けの短尺動画を、LLMが書いたスクリプトとTTSで自動生成するパッケージで
-
Remotion Editor Starter(公式有償テンプレート) – フル機能の動画編集UI基盤
- タイムライン、インタラクティブキャンバス、字幕、アセットアップロード、レンダリング、バックエンドルートなどを備えた「動画編集アプリのスターターキット」です。remotion.dev
- 80以上のfeature flagsにより機能のオン・オフや段階的導入が可能で、Tracks/Items/Assets、Captioning、Rendering、Persistence、Backend Routes などの仕組みが整っています。remotion.dev
- TypeScriptベースで実装されており、LLMで生成した台本をTracks/Itemsにマッピングし、TTSで生成した音声ファイルをAssetsに取り込んでタイムラインに同期させる、という構成を直接乗せられます。remotion.dev
- タイムライン、インタラクティブキャンバス、字幕、アセットアップロード、レンダリング、バックエンドルートなどを備えた「動画編集アプリのスターターキット」です

この4つを俯瞰すると、「Remotionを使っているか」「LLM/TTSを内包しているか」「TypeScriptでどこまで書かれているか」が微妙にずれており、単体で“全部入り”なOSSは存在しないことが分かります。一方で、それぞれが得意とするレイヤーがきれいに分かれていることは、自分の用途に合わせて部品を選び、アーキテクチャとして組み立てる余地が大きいことも意味します。
2. GitHub Topics から見える「潮流」と空白地帯
GitHub Topics「remotion」には139件以上の公開リポジトリが紐づいており、その中には
- 「モーショングラフィックスとTTSでニュースレターを毎日YouTube動画に変換する完全自動ビデオメーカー」
- 「Model Context Protocol (MCP) とREST APIを用いて、TikTok / Instagram Reels / YouTube Shorts向けのショート動画を自動生成するツール」
といった説明のプロジェクトが含まれていることが確認できます。さらに、
github.com
github.com
youtube-shorts や shorts-maker、faceless-video、video-generator などのトピック群にも、- 長尺動画を GPT-4+FFmpeg+OpenCV で解析し「面白い部分」を切り出すPythonツールgithub.com
- Redditなどからスクリプトを取得し、動画化してYouTubeへ自動投稿するシステムgithub.com
といったAI動画ワークフローが多数存在します6。
github.com
しかし、これらのトピック要約からは
- 主要言語がTypeScriptかどうか
- Remotionを使っているかどうか
- どのLLM/TTSをどう統合しているか
までは読み取れず、実際に各リポジトリのREADMEをクロールしないと精査できません。これは、ニーズにぴったりのOSSが潜在的には存在している可能性がある一方で、カタログ化はまだ“人力の調査”に依存していることを示唆しています。
github.com
github.com
3. 理想的なアーキテクチャ:3層モデルで考える
以上を踏まえると、「Remotion × LLM × 音声AI × TypeScript × YouTube動画自動生成」の理想アーキテクチャは、次の3層モデルで整理すると理解しやすくなります。
3.1 概念アーキテクチャの全体像
この図に、先ほどのリポジトリ群を重ねてみると、どこを流用し、どこを自作すべきかが見えてきます。
-
LLM層
- AutoShortsは、OpenAI GPT-4o・Gemini・Claude・Ollama など複数LLMを抽象化した「スクリプト生成レイヤー」を実装しており、台本生成ロジックやプロンプト設計の参考になります。github.com
- chatgptvideoaiは単一のOpenAI APIキーを前提とした簡潔な実装ですが、Remotionとの直結という意味で、最短経路のサンプルになっています。github.com
- AutoShortsは、OpenAI GPT-4o・Gemini・Claude・Ollama など複数LLMを抽象化した「スクリプト生成レイヤー」を実装しており
-
音声・メディア層
- AutoShortsはTTSに ElevenLabs / Neets.ai / ローカルTTS を切り替えられ、Pexelsやスクレーパーから画像を取得します。github.com
- chatgptvideoaiはNode.jsベースのTTSを組み込み、生成した音声をRemotion動画に重ねて出力します。github.com
→ つまり、「プロダクションに近い多プロバイダ対応ならAutoShorts設計」「Remotionとの結線方法を学ぶならchatgptvideoai」という棲み分けが見えてきます。
- AutoShortsはTTSに ElevenLabs / Neets.ai / ローカルTTS を切り替えられ、Pexelsやスクレーパーから画像を取得します
-
動画合成層(TypeScript/Remotion)
- podcast-to-video-remotionは、音声+字幕からオーディオグラムを作るTSXコンポジションの具体例を提供し、YouTube向けアスペクト比・尺の感覚を掴むのに有用です。github.com
- Editor Starterは、より本格的な編集UIとタイムライン管理、字幕、レンダリングキュー、バックエンドルートなどを備え、LLM/TTSを背後に持つ「AI動画エディタ」としての中核になり得ます。remotion.dev
- podcast-to-video-remotionは、音声+字幕からオーディオグラムを作るTSXコンポジションの具体例を提供し
-
配信層(YouTube API)
- 今回参照したリポジトリには、YouTube Data APIを使った自動アップロード実装は明示的には含まれていませんが、ニュースレターをYouTube動画化するRemotionプロジェクトの説明から、実運用ではYouTube連携が現実的なゴールになっていると読み取れます。github.com
→ 実装上は、レンダリング完了後のファイルをNode.jsで拾ってYouTube APIにPOSTする比較的標準的なパターンを取ることになると考えられます。
- 今回参照したリポジトリには、YouTube Data APIを使った自動アップロード実装は明示的には含まれていませんが、ニュースレターをYouTube動画化するRemotionプロジェクトの説明から、実運用ではYouTube連携が現実的なゴールになっていると読み取れます
4. 実際に何から手をつけるべきか:おすすめロードマップ
ユーザーが「まず動くものを作りたい」のか、「将来自社プロダクトに組み込みたい」のかで最適なスタート地点は変わりますが、調査結果を踏まえると、次のようなステップが現実的です。
ステップ1:最小構成のPoCをchatgptvideoaiで掴む
をクローンし、OpenAI APIキーを設定して動かすchatgptvideoai。github.com- テキスト入力→LLM応答→TTS→Remotionレンダリング→動画ダウンロード まで一連の流れをトレースする。
- ここで得られるのは、「Remotionで音声とシンプルなアニメーションを同期させるTypeScript/TSXコード」と「LLM/TTSを同一Nodeプロセス内で扱う基本パターン」です。github.com
ステップ2:音声ベース動画テンプレをpodcast-to-video-remotionで磨く
を導入し、podcast-to-video-remotion
とsrc/Video.tsx
を編集しながら、アスペクト比や尺、字幕のスタイルをYouTube向けに調整するsrc/Composition.tsx。github.com- 外部で用意した音声・字幕の代わりに、ステップ1のLLM/TTS出力を差し込むスクリプト(ビルド前にassetsを差し替える小さなNodeスクリプトなど)を書く。
- これにより、「LLM/TTSは外部プロセス、Remotionは純粋なレンダラ」という疎結合な構成を試せます。
ステップ3:LLM/TTSワークフローをAutoShorts的に抽象化する
- AutoShortsのJS API例(
やgenVideoWithAI
)を参考にgenVideoWithJson、github.com- プロンプトから台本JSONを生成
- ElevenLabsなどで音声を生成
- Pexels APIで関連画像を取得
といった処理をTypeScriptのサービス層として切り出します。github.com
- 動画合成部分だけをRemotionコンポジションに差し替えることで、「AutoShortsのAIパート+Remotionのレンダリングパート」というハイブリッド構成が実現できます。
- 注意点として、AutoShorts作者は「学習目的で開発停止中」「プロダクション利用には向かない」と明記しているため、コードはあくまで設計の参考として読むのが安全です。github.com
ステップ4:本格的なエディタ/サービス化を目指すならEditor Starter
- 将来的にユーザー向けのWebサービスや内製ツールとして提供する前提なら、Editor Starterの導入を検討します。remotion.dev
- Tracks/Items/Assets/Captioning/Rendering などの仕組みに、
- LLMで生成したシーン構成JSONをインポートして自動配置
- TTSで生成した音声ファイルをAsset Uploadに登録
- 自動字幕生成結果をCaptioningに流し込む
といった拡張ポイントを実装するイメージです。remotion.dev
- ライセンスは企業規模により条件が異なるため、商用利用前にRemotionのライセンス文書およびEditor Starterの利用規約を確認する必要があります。remotion.dev
5. 今後のリポジトリ探索をどう“調べ尽くす”か
今回の調査では、「条件に完全一致するプロジェクトを網羅列挙する」には至らず、GitHub Topicsの要約レベルにとどまっています。より徹底した調査を行うには、次のような自動・半自動プロセスが有効だと考えられます。
github.com
github.com
-
検索クエリの活用
remotion typescript openai tts site:github.comremotion "youtube" "shorts" "ai" site:github.com
といったクエリで候補を広く拾い上げることが推奨されています。github.com
-
フィルタ条件の明確化
- 言語: TypeScript または
/.ts
が多数.tsx - README/トピックに
,remotion
/youtube
,shorts
/openai
/gpt
などを含むtts - 最終更新が1年以内、スター数・フォーク数が一定以上
という条件で機械的にスクリーニングする方針が提案されています。github.com
- 言語: TypeScript または
-
取得すべきメタ情報
- リポジトリ名・URL・主言語・Remotion利用有無・採用LLM/TTS・対象プラットフォーム(YouTube/Shorts/TikTok)・サンプル動画リンク・スター数・最終更新日などを収集し、比較表化するのが望ましいと考えられます。github.com
- リポジトリ名・URL・主言語・Remotion利用有無・採用LLM/TTS・対象プラットフォーム(YouTube/Shorts/TikTok)・サンプル動画リンク・スター数・最終更新日などを収集し、比較表化するのが望ましいと考えられます
この「機械的な候補抽出 → 人手によるトップ10〜20の精読」という二段階を踏めば、現状分かっている4系統に加えて、よりニッチだが優れたプロジェクトも拾い上げられるはずです。
6. まとめ:いま選ぶべき“現実解”と将来像
-
単一のOSSで“全部入り”はまだ存在しない
- ただし
- Remotion + OpenAI + TTS + TSX を一体化した
chatgptvideoaigithub.com - TypeScript+Remotionで音声クリップを美しく可視化する
podcast-to-video-remotiongithub.com - LLM+TTS+画像生成でショート動画を量産する
AutoShortsgithub.com - そしてフル機能の編集基盤である Remotion Editor Starterremotion.dev
が揃っており、「理想アーキテクチャを構成する部品」はほぼ出揃っています。
- Remotion + OpenAI + TTS + TSX を一体化した
- ただし
-
当面のおすすめ構成
- chatgptvideoaiをベースに「LLM+TTS+Remotion」の結線を把握する。github.com
- podcast-to-video-remotionのコンポジション設計を参考に、YouTube/Shorts向けの画面設計をTypeScriptで磨く。github.com
- AutoShortsの設計から、複数LLM・TTS・画像ソースを切り替え可能な抽象レイヤーを自作し、将来的に差し替えやすい構成にする。github.com
- 本格的なサービス化/社内ツール化を視野に入れるなら、Editor Starterのタイムライン・字幕・レンダリング基盤の上に、これらのAIレイヤーを統合していく。remotion.dev
- chatgptvideoaiをベースに「LLM+TTS+Remotion」の結線を把握する
言い換えると、現時点での「最適解」は、一つの完璧なリポジトリを探すことではなく、用途ごとに最適なOSSの設計パターンを引き出し、自分のユースケースに合わせて“Remotion×LLM×音声AIスタック”を組み上げることだと考えられます。その際、本セクションで整理した3層アーキテクチャと4つの有力OSSは、実装と技術選定の“地図”として役立つはずです。
調査のまとめ
回答
まず結論として、今回取得できた情報だけを見ると、「Remotion × LLM × 音声AI × TypeScript × YouTube向け動画生成」という要件をすべて一つのリポジ...
調査のまとめ
回答
まず前提として、今回参照できた情報は「Remotion公式ドキュメントのAI/Editor関連ページ」と「remotion・youtube-shorts・video-maker など...
🏷ChatGPT Video Generator:Remotion×OpenAI×TTS統合の最有力サンプル
ChatGPT Video Generator:Remotion×OpenAI×TTS統合の最有力サンプル
ユーザーが求めているのは、「Remotion×LLM×音声AI×TypeScriptでYouTube向け動画を自動生成する、具体的に動く実装例」です。この条件に最も素直にフィットするのが、SaiTech01 の「ChatGPT Video Generator」こと 。
chatgptvideoai リポジトリですgithub.com
ここでは、このリポジトリを
- どこまで「完成したサンプル」として使えるか
- 自分のチャンネル向けにどう拡張・流用できるか
という観点で解説します。
なぜ「最有力サンプル」と言えるのか
chatgptvideoai は、次の4要素を一つのワークフローとしてすでに統合していますgithub.com
github.com
github.com
github.com
github.com
- LLM: OpenAI API(ChatGPT系)でトピックの要約やテキスト生成
- 動画レンダリング: Remotion(React/TSXコンポーネントベース)+FFmpeg
- 音声AI: Node.js 経由の TTS(Text-to-Speech)
- フロントエンド: React(.tsx を含む構成で TypeScript/TSX でのUI実装が確認できる)
また、このプロジェクトは「テキストを1行入力するだけで、要約アニメーション動画とナレーション音声付きの短尺動画を生成し、ダウンロード可能にする」という、YouTubeショートや解説動画の自動生成に直結する機能を持っています。
github.com
github.com
github.com
github.com
github.com
言い換えると、「TypeScript+Remotion+LLM+TTSでまず1本動く動画パイプラインを作りたい」というニーズに対して、ほぼそのまま動作する“リファレンス実装”になっています。
プロジェクト概要と生成される動画のイメージ
リポジトリのREADMEでは、「ChatGPT Video Generator is an AI-powered video generator that can generate videos with just a text as input」と記されており、トピックの要約テキストからシンプルなアニメーション動画を自動生成することが明示されています。
github.com
github.com
github.com
github.com
github.com
主な特徴は次の通りです。
- テキスト入力のみで動画を生成
- 生成動画はトピックの要約をシンプルなアニメーションで可視化
- Node.js の TTS を使って自動的に音声を付与
- 生成された動画はブラウザからダウンロード可能
- 無料かつMITライセンスで商用利用も可能github.comgithub.com
READMEとデモサイトからは、教育系やトピック解説系のショート動画を想定したUIであることが読み取れます。
github.com
github.com
ここで重要なのは、Remotionを使った映像表現そのものは意図的に「簡素」に抑えられていることです。READMEでも「Currently, only a simple animation and can only be optimal for creating summary of a topic in a single or less words」と、短い要約や単語レベルのトピックに最適化されていると明記されています。
これは裏を返すと、「LLM連携とTTS統合にフォーカスした最小構成のサンプル」であり、Remotion側の表現を自分で拡張していくベースとして最適だと考えられます。
github.com
これは裏を返すと、「LLM連携とTTS統合にフォーカスした最小構成のサンプル」であり、Remotion側の表現を自分で拡張していくベースとして最適だと考えられます。
技術スタック:Remotion×OpenAI×TTS×TypeScript
ユーザーの要件に対するフィット感を技術スタックから整理すると、以下のようになります。
- 言語/フロントエンド
- React + .tsx ファイル構成から、TypeScript/TSX ベースのUI実装であることが示唆github.com
- React + .tsx ファイル構成から、TypeScript/TSX ベースのUI実装であることが示唆
- LLM
- OpenAI APIキーを
の所定行に設定するだけで利用できる構成src/chat.tsxgithub.comgithub.com
- OpenAI APIキーを
- 動画レンダリング
- Remotion でコンポーネントを定義し、FFmpeg と組み合わせて動画を生成github.com
- HD や高度な機能は Remotion CLI を使うようREADMEで案内されているgithub.com
- Remotion でコンポーネントを定義し、FFmpeg と組み合わせて動画を生成
- 音声AI(TTS)
- Node.js ベースの TTS 実装(具体的なプロバイダ名はREADMEでは明記されていませんが、テキストから音声を合成し、それを動画に組み込むワークフローが構築されています)github.comgithub.com
- Node.js ベースの TTS 実装(具体的なプロバイダ名はREADMEでは明記されていませんが、テキストから音声を合成し、それを動画に組み込むワークフローが構築されています)
AutoShorts のように ElevenLabs やNeets.ai、Ollama など複数の音声・LLMプロバイダを抽象化している高度なフレームワークもありますが、こちらはCLI+独自レンダラ(ffcreator系)が中心で、Remotionを採用していません。そのため、
github.com
github.com
github.com
github.com
github.com
github.com
github.com
- 「Remotionのベストプラクティスを知りたい」
- 「React/TypeScriptで動画コンポーネントを組む感覚を掴みたい」
という観点では、
chatgptvideoai のほうが圧倒的に直接的な参考実装になります。セットアップと導入のしやすさ
READMEのインストール手順は極めてシンプルで、次のステップでローカルで動く状態まで持っていけます。
github.com
github.com
- リポジトリをクローン
で依存関係をインストールnpm install
の指定行(line 88)に OpenAI API キーを記載src/chat.tsx
で開発サーバを起動npm run start- ブラウザからトピック要約を入力して「Send」をクリック
- 30秒〜1分待ち、「Download video」で動画を取得
AutoShorts の場合は、、初期導入コストは大きくなります。
これと比べると
npm install auto-shorts に加え、npx auto-shorts --download でテンプレリソースを取得し、さらに .env に複数のAPIキー(OpenAI、Gemini、Anthropic、ElevenLabs、Pexelsなど)を設定する必要があるためgithub.com
github.com
github.com
github.com
これと比べると
chatgptvideoai のセットアップは- 依存サービスがOpenAI APIのみ
- .envまわりもシンプル(単一のAPIキーをコードに直接セット)
という意味で、「まず動くところまで」を最速で体験できる構成だと考えられます。
ワークフローの構造と、どこを自分仕様に変えられるか
READMEとコンテキストから、このリポジトリの内部ワークフローはおおむね次のような流れになっています。
github.com
github.com
- ユーザーがUIからトピックの要約テキストを入力
- React/TSXコンポーネント側でOpenAI APIを呼び出し、動画内容のテキストを生成
- Node.js/TTSでナレーション音声を生成し、音声ファイルを保存
- Remotionコンポーネントにテキスト・音声・アニメーションパラメータを渡す
- RemotionとFFmpegで動画としてレンダリング
- フロントエンドから動画をダウンロード
この中で、ユーザーが自分のチャンネル用に“差し替えるべきポイント”は、主に次の3つだと考えられます。
-
- プロンプト設計とOpenAI呼び出し部分(
)src/chat.tsx
- どの程度の長さ・トーンの台本を生成するか
- YouTube最適な構成(フック→本編→CTAなど)をプロンプトに組み込むか
- プロンプト設計とOpenAI呼び出し部分(
-
- Remotionコンポーネント(
など想定)src/Video.tsx
- 背景色・フォント・テキストアニメーション
- 画面サイズやアスペクト比(縦長 9:16 でYouTube Shorts/Reels向けにするなど)
- Remotionコンポーネント(
-
- TTSの入れ替え
- 現行のNode.js TTSを ElevenLabs やNeets.aiなどの外部TTSに差し替える
- AutoShortsで使われている ElevenLabs/Neets.ai 連携コードを参考にするgithub.comgithub.comgithub.com
- AutoShortsで使われている ElevenLabs/Neets.ai 連携コードを参考にする
このように、ChatGPT Video Generatorは「一つの完成したUX」を持ちつつも、台本生成・音声合成・映像コンポーネントの3層が比較的素直に分離されていると考えられ、Remotionのコンポーネントを差し替えたり、OpenAIのプロンプトを編集することで、自分の用途に最適化しやすい構造だと推測されます。
YouTube向けに使う際の制約と、その解釈
READMEでは、現状の限界として次のような点が明示されています。
github.com
- 「Currently, only a simple animation and can only be optimal for creating summary of a topic in a single or less words」
- ダウンロード機能は効率的でない場合がある
- HD動画や高度な機能は Remotion CLI を使う必要がある
ここが示唆しているのは、「そのままでもPoCや学習用には十分だが、YouTube用の量産ワークフローとしては、表現力とパフォーマンスの両面でカスタマイズが前提になる」という点です。
実務シナリオでは、次のようなアプローチが現実的だと考えられます。
- まずはこのリポジトリをそのまま動かし、
- OpenAI呼び出し部
- Remotionコンポーネント構造
- TTSと音声ファイルの扱い方 を理解する
- 次に、Remotion CLIを導入してHDレンダリングや縦長ショート対応に拡張するgithub.comgithub.com
- 最後に、AutoShortsのようなフレームワーク的な実装から、ElevenLabsなど高品質TTS・OllamaなどローカルLLMの組み込み方を“移植”していくgithub.comgithub.comgithub.comgithub.com
実践ステップ:このリポジトリを軸に自分のパイプラインを設計する
ユーザーの「GitHubから参考になるおすすめレポジトリを調べ尽くしてほしい」という問いに対して、Remotionを使ったLLM×音声AI×TypeScriptの統合例として、
chatgptvideoai をまず押さえ、必要に応じて AutoShortsなど他プロジェクトの実装アイデアを組み込むのが現実的な戦略だと考えられます。このセクションの締めとして、「このリポジトリを使って何をすればよいか」を最短ルートでまとめると、次のようになります。
をクローンし、OpenAIキーを設定してローカルで動画生成を試すchatgptvideoaigithub.comgithub.com
(OpenAI呼び出し)とRemotionコンポーネントを読み、台本生成フローと動画構成を把握するsrc/chat.tsx- 自分のチャンネルのフォーマット(ニュース解説、HowTo、雑学など)に合わせてプロンプトとアニメーションをカスタマイズする
- 必要に応じて、AutoShorts の ElevenLabs や Ollama 連携コードを参考にしながら、TTSやLLMを差し替えるgithub.comgithub.comgithub.com
- Remotion CLIでHD出力・縦長Shorts出力を整え、YouTubeアップロードフロー(別ライブラリやスクリプト)につなげる
こうしたステップを踏むことで、「Remotion×LLM×音声AI×TypeScriptでYouTube動画を自動生成する」ための具体的な実装指針を、この1リポジトリから出発して明確に描くことができます。次のセクションでは、他のOSS(AutoShortsなど)との比較を通じて、より汎用的なショート動画生成パイプラインの設計パターンを整理していきます。
🏷podcast-to-video-remotion:音声→動画テンプレのTypeScript実装
podcast-to-video-remotion:音声→動画テンプレのTypeScript実装
YouTube向けの自動動画生成を「どこから組み立てるか」を考えるとき、
podcast-to-video-remotion は、LLMや音声AIと組み合わせるための「土台」として非常に扱いやすいテンプレートです。このセクションでは、このリポジトリが何をしてくれるのか、何をしてくれないのかを切り分けながら、「Remotion × TypeScript × LLM/音声AI」で自動化パイプラインを組むときの現実的な設計指針を整理します。1. リポジトリの位置づけ:音声を「見せる」ことに特化したRemotionテンプレ
harshitsinghai77/podcast-to-video-remotion は、ポッドキャストなどの音声から「オーディオグラム(audiogram)」と呼ばれる短尺動画を生成するためのRemotionテンプレートです。説明では、ポッドキャストエピソードや任意の音声からソーシャルメディア用の動画クリップを作る用途が明示されておりgithub.com
- ポッドキャストのハイライトクリップ
- 音声配信の告知用ショート動画
- ナレーション付きの静止画+字幕動画(YouTubeショート/クリップ)
つまり「LLMで台本を自動生成して、音声AIで読み上げ、それをRemotionで映像化する」という大きなパイプラインのうち、このテンプレートは「映像化」部分をきれいに肩代わりしてくれるユニットだと捉えると分かりやすくなります。
技術スタックとしては、RemotionとTypeScriptで構成されており、ユーザーの要件である「Remotion × TypeScript」を素直に満たしています。一方で、後述するように、リポジトリ自体はLLMやTTSの統合までは含んでいないため、そこは外側で組み合わせる必要があります。
github.com
2. プロジェクト構造と「どこを触ればいいか」
README と補足情報から、開発者が主に編集するポイントはきわめてシンプルに整理されています。
github.com
github.com
-
src/Video.tsx
動画のサイズや長さを調整する主要ファイルです。ここを編集して解像度(例: 1920x1080 / 1080x1920)やクリップの長さをYouTube用に最適化できますgithub.com。github.com -
src/Composition.tsx
Remotionのコンポジション設定(フレームレート、デフォルトの長さ、使用するコンポーネントなど)を定義する場所ですgithub.com。github.com -
src/assets
音声ファイル、カバー画像、字幕ファイルといった素材を置くフォルダです。ここにAIで生成した音声やサムネイル、字幕JSONを投入してリレンダリングする、という構成が想定されていますgithub.com。github.com
セットアップも標準的で、依存関係のインストール 、既にRemotionを触ったことがある人は迷う部分がほぼありません。言い換えると、「Remotionのベストプラクティスに沿った最低限の構成」が手に入るという意味で、独自実装をいきなり始めるよりもずっと安全なスタート地点になります。
npm i、プレビュー npm start、ビルド npm run build、Remotionのアップグレード npm run upgrade というお決まりの流れになっておりgithub.com
github.com
3. 字幕とトランスクリプト:AIパイプラインと相性がよい「単語単位」仕様
このテンプレートの最も重要な設計上の特徴は、「字幕ファイルを単語単位(word-level)でセグメント化して扱う」前提を置いている点です。READMEでは、字幕の取得先として以下のようなサービスやOSSが挙げられています。
github.com
github.com
- Descript
- Otter.aigithub.comgithub.com
- Scriptme.iogithub.comgithub.com
- オープンソースの Subs AIgithub.comgithub.com
これをLLM・音声AIと組み合わせて考えると、次のような設計がしやすくなります。
- LLMが台本(テキスト)を生成
- 音声AI(例えばElevenLabsやAzure TTS等)でナレーション音声を生成
- 音声認識ツール(WhisperやSubs AIなど)で「word-level」のタイムスタンプ付きトランスクリプトを取得
- 得られた字幕JSONをそのまま
に入れるsrc/assets - Remotionテンプレートで、単語ごとにハイライトが動くダイナミックな字幕付き動画としてレンダリング
ほとんどの汎用的な動画ジェネレータは「文単位」や「チャンク単位」の字幕処理をして終わりになりがちです。その点、このテンプレートは最初から単語レベルの同期を前提としているので、YouTubeショートでよく見る「カラフルにポップする単語字幕」や「強調ワードだけ色を変える演出」をRemotion側のTypeScriptロジックで自在に組める余地があります。
つまり、LLM/TTSと組み合わせるうえでの本当の価値は、「時間情報付きのテキストデータを前提にしたUIの土台になっていること」にあると考えられます。
4. LLM・音声AIとの統合状況:あえて「やっていない」から拡張しやすい
ユーザーの要件は「Remotion × LLM × 音声AI × TypeScript × YouTube動画自動生成」ですが、このリポジトリ単体には、ChatGPTなどのLLM API呼び出しや、TTSのコードは含まれていません。READMEでも、字幕の取得を外部サービスに任せることが想定されており、AI統合は「周辺エコシステムとして紹介されている」に留まります。
github.com
github.com
github.com
一見すると要件から外れているように見えますが、これは裏を返すと「自分の好きなLLM/TTSスタックを自由に接続できるテンプレート」とも言えます。同じRemotion系のAI動画リポジトリの一例として、OpenAIのAPIとTTS、Remotion、FFmpegなどを組み合わせたChatGPT Video Generatorがあり、こちらは
github.com
github.com
- OpenAI APIでテキストから要約やスクリプトを生成
- TTSで音声を作成
- Node.jsとFFmpegで動画を生成し、Remotion CLIを使うことでHD動画化も可能
という「AIサイドが厚く実装された構成」になっています。
github.com
github.com
対照的に
podcast-to-video-remotion は、AIロジックをあえて内包していないぶん、下記のような構成をとりやすいと考えられます。- AI部分は別のサービスやワーカー(例: AutoShortsや自作のLLMサーバ)に任せる
- 生成された音声ファイル+字幕JSONだけをこのテンプレートに流し込む
- 映像表現とYouTube向けの画面レイアウトはRemotionテンプレにすべて委譲
複数プロジェクトを組み合わせるアーキテクチャを前提とするなら、「AIロジックが薄いRemotionテンプレ」と「AIロジックが厚い動画生成エンジン」を分けて考える方が、保守や差し替えがしやすいというメリットがあります。
5. 実務での導入フロー:YouTube自動生成パイプラインの一例
ユーザーの「参考になるおすすめレポジトリが知りたい」というニーズに対して、このリポジトリをどう実戦投入するかを、具体的なパイプラインとして整理します。ここではAI側の例として、スクリプトとTTSを自動生成できるAutoShortsのようなツール群を念頭に置きます。
github.com
github.com
github.com
-
トピックからスクリプト・音声を自動生成
- LLM(OpenAI GPT-4o / Gemini / Claude など)で台本を生成しgithub.comgithub.com、ElevenLabsなどのTTSで音声を出力しますgithub.comgithub.comgithub.com。AutoShortsのようなパッケージを使うと、github.com
のようなコマンドで、スクリプト生成から音声・画像生成までまとめて行うことも可能ですnpx auto-shorts -p "make a news short about TypeScript"github.comgithub.comgithub.comgithub.com。github.com
- LLM(OpenAI GPT-4o / Gemini / Claude など)で台本を生成し
-
音声から「word-level」字幕を生成
- Whisperなどの音声認識エンジンや、Subs AIのようなオープンソースツールを使ってgithub.com、単語ごとの開始・終了時刻を持つトランスクリプトを生成します。github.com
- ここで
が要求するフォーマット(単語単位の字幕)に整形するスクリプトを一度書いておくと、その後の自動化がスムーズになります。podcast-to-video-remotion
- Whisperなどの音声認識エンジンや、Subs AIのようなオープンソースツールを使って
-
Remotionテンプレートに素材を投入
- 生成された音声ファイル、カバー画像、字幕ファイルを
に配置しますsrc/assetsgithub.com。github.com - フレームサイズや動画長をYouTube向け(横16:9 / 縦9:16)に調整する場合は、
とsrc/Video.tsx
を編集しますsrc/Composition.tsxgithub.com。github.com
- 生成された音声ファイル、カバー画像、字幕ファイルを
-
自動レンダリングとYouTubeへのアップロード
- CI/CDやcronジョブから
を叩き、Remotionで動画をレンダリングしますnpm run buildgithub.com。github.com - 出力されたmp4をYouTube Data API経由で自動アップロードすることで、完全自動の「テキスト→動画→YouTube公開」パイプラインが構築できます。
- CI/CDやcronジョブから
ここで注目すべきは、「Remotion部分はほぼ一切触らずに、外側のAIパイプラインを組むだけで済む」構造を作れることです。将来、より高品質なTTSに乗り換えたい、LLMを別サービスに変えたい、といった場合も、Remotionのテンプレートはそのまま流用できるため、技術選定の自由度が高まります。
6. 強み・弱みの整理と、どんな場合に「刺さる」か
最後に、このリポジトリを他のAI動画生成OSS(例: ChatGPT Video GeneratorやAutoShorts)と比較しながら、選定の観点を整理します。
github.com
github.com
github.com
github.com
github.com
表1.
podcast-to-video-remotion の位置づけ| 観点 | podcast-to-video-remotion | ChatGPT Video Generator 等との比較 |
|---|---|
| 技術スタック | Remotion + TypeScript | Node.js + OpenAI + FFmpeg + Remotionなど |
| LLM統合 | なし(外部連携前提) | OpenAI等を直接呼び出してスクリプト生成 |
| TTS統合 | なし(外部で生成した音声を入力) | Node.jsからTTSを呼び出し動画生成 |
| 字幕処理 | 単語単位の字幕を前提にUI構成 | 多くは文単位、UIテンプレは薄い場合が多い |
| 主なユースケース | ポッドキャスト/音声コンテンツのオーディオグラム | テキスト1本から完結に動画を生成 |
| 学習コスト | Remotion経験者なら低い | AI連携含めてコード理解が必要 |
github.com
github.com
github.com
github.com
github.com
github.com
github.com
github.com
github.com
github.com
github.com
言い換えると、次のようなケースでは
podcast-to-video-remotion が特に「刺さる」選択肢になると考えられます。- すでにLLM・TTSパイプライン(あるいはAutoShortsのようなAIジェネレータ)があり、「最後の動画化レイヤー」だけをRemotionで綺麗に整えたいとき
- ポッドキャストや既存の音声コンテンツをYouTubeショートに再利用したいとき
- 字幕と音声の同期演出(単語単位の強調やカラフルなテキストアニメーション)をRemotion + TypeScriptできめ細かく制御したいとき
一方で、「テキストを1行入れたらYouTubeショートが丸ごと出てくる」ようなオールインワン自動化を最初から求める場合は、ChatGPT Video Generatorや、LLM/TTSを内包したAutoShortsの方が近道になります。そのうえで、最終的なUIやブランド表現を詰めたくなった段階で、このテンプレートのようなRemotionベースの実装に「着地させる」アプローチも有望です。
github.com
github.com
github.com
github.com
github.com
7. まとめ:Remotion側の「完成形」を先に押さえるという発想
ユーザーの問いは、「RemotionとLLMや音声AIを組み合わせてYouTube動画をTypeScriptで自動生成するための、参考になるリポジトリが知りたい」というものでした。この観点で
podcast-to-video-remotion を評価すると、- Remotion + TypeScriptで、音声+カバー画像+字幕から動画を作る「完成形のUI実装」が手に入るgithub.comgithub.com
- 単語単位の字幕を前提とした設計により、AIで生成したトランスクリプトと高度に同期した演出がしやすいgithub.comgithub.com
- LLM・TTSの部分は外部サービスや他OSSと自由に組み合わせる余地が大きい
という意味で、「AIパイプラインの出口としてのRemotionテンプレ」の有力候補と言えます。
実務的には、まずこのテンプレートをクローンし、手元の音声と字幕で
npm start → npm run build の一連の流れを動かしてから、LLM/TTSとの自動連携を外側に追加していくのが、もっともリスクの低い進め方と考えられます。こうすることで、「動画の見た目」と「AIの賢さ」を切り離してそれぞれ最適化できるため、YouTubeチャンネル運営の成長フェーズに応じて、どちら側も柔軟に進化させていくことができます。🏷AutoShortsほかショート動画自動生成系から学ぶLLM/TTSワークフロー
AutoShortsほかショート動画自動生成系から学ぶLLM/TTSワークフロー
Remotion × TypeScript でYouTube向けの自動動画生成パイプラインを作ろうとするとき、いきなり「Remotionで全部やる」発想に行きがちですが、実際のOSSエコシステムを見ると、多くのプロジェクトは「AIでコンテンツを組み立てる層」と「動画をレンダリングする層」をきれいに分離して設計しています。
この分離を最も分かりやすく体現しているのが AutoShorts を代表とするショート動画自動生成系のリポジトリです。
この分離を最も分かりやすく体現しているのが AutoShorts を代表とするショート動画自動生成系のリポジトリです。
ここでは、AutoShorts などの実装からワークフローの型を抽出し、それを Remotion × TypeScript にどう移植すればよいか、という観点で整理します。
AutoShortsに見る「ショート動画自動生成」の標準フロー
AutoShorts は、YouTube Shorts/TikTok 形式の動画を「プロンプトだけ」から生成できるパッケージで、
LLM(OpenAI / Gemini / Claude / Ollama など)によるスクリプト生成、TTS(ElevenLabs / Neets.ai / ローカルTTS)による音声合成、Pexelsなどによる画像取得をひとつのCLI/JS API からまとめて扱えるようにしています。
LLM(OpenAI / Gemini / Claude / Ollama など)によるスクリプト生成、TTS(ElevenLabs / Neets.ai / ローカルTTS)による音声合成、Pexelsなどによる画像取得をひとつのCLI/JS API からまとめて扱えるようにしています
github.com
github.com
ドキュメントに書かれている代表的なフローは次のとおりです。
-
ユーザーがプロンプトを与える
例:
のような自然言語プロンプトを CLI オプションmake a news short about TypeScript
で与える-pgithub.com。github.com -
LLM でスクリプト JSON を生成
- OpenAI GPT‑4o mini や Google Gemini、Anthropic Claude、ローカルの Ollama llama3.2 などから選択可能で、
などのパラメータで切り替えられます--aiType OpenAIGengithub.com。github.com - 生成結果は動画構成を表す JSON で、必要に応じて人手で修正することも想定されていますgithub.com。github.com
- OpenAI GPT‑4o mini や Google Gemini、Anthropic Claude、ローカルの Ollama llama3.2 などから選択可能で、
-
TTSで音声クリップを生成
- ElevenLabs か Neets.ai、あるいはローカルTTSを選択し、APIキーを
で設定するだけで切り替えられます.envgithub.com。github.com - JS API の例では、
のように enum で指定し、生成された音声ファイルをVoiceGenType.ElevenLabsVoice
以下に保存しますtempPathgithub.com。github.com
- ElevenLabs か Neets.ai、あるいはローカルTTSを選択し、APIキーを
-
画像素材の自動取得
- Pexels API もしくはスクレイパーを用いて、トピックに関連する画像を自動的にダウンロードしますgithub.com。github.com
- こちらも
などのパラメータで切り替えられ、APIキーはImageGenType.Pexels
経由で注入します.envgithub.com。github.com
- Pexels API もしくはスクレイパーを用いて、トピックに関連する画像を自動的にダウンロードします
-
JSONまたはプロンプトから動画を組み立てる
のようにプロンプトから一気通貫で生成するモードとgenVideoWithAI(prompt, aiType, options, openaiKey)github.com、github.com
いったん生成した JSON を
に渡すモードの双方をサポートしていますgenVideoWithJson(data, options)github.com。github.com- 内部では ffcreator と inkpaint のフォークを使ってレンダリングしておりgithub.com、github.com
生成進捗は
/task.on('log', ...)
のイベントで受け取る設計ですtask.on('done', ...)github.com。github.com
この一連の流れはそのまま「ショート動画LLM/TTSワークフロー」の標準形になっており、
Remotion ベースで作る際も、本質的には同じステップを TypeScript でなぞることになります。
Remotion ベースで作る際も、本質的には同じステップを TypeScript でなぞることになります。
ChatGPT Video Generatorに見る「LLM→TTS→簡易アニメーション」の最小構成
AutoShortsが多様な動画タイプとAIツールに対応する「フルスタック志向」なのに対して、ChatGPT Video Generator はもっとミニマルで、
「テキスト1つから要約アニメーション+TTSを生成する」ことに特化した Node.js プロジェクトです。
「テキスト1つから要約アニメーション+TTSを生成する」ことに特化した Node.js プロジェクトです
github.com
github.com
READMEの情報を整理すると、ワークフローは次のようになります。
- テキスト入力 → OpenAI API で要約(あるいは説明文)を生成github.comgithub.com
- Node.jsでTTSを実行し、音声を生成github.comgithub.com
- シンプルなアニメーション(React + Remotion + FFmpeg)で動画を生成し、ダウンロード可能にするgithub.comgithub.com
- HD動画・高度な機能が欲しい場合は Remotion CLI を直接使うことを推奨github.comgithub.com
注目すべきは、「LLM/TTSのロジックはNode.js側に閉じ込め、Remotionはレンダリング専用」と明確に役割分担している点です。
これは AutoShorts における「AI層(スクリプト・音声・画像)とレンダリング層(ffcreator)」の分離とも共通しており、
Remotionを採用するときも「Remotionは編集ツール/レンダラー」と割り切る設計が合理的だと示唆しています。
これは AutoShorts における「AI層(スクリプト・音声・画像)とレンダリング層(ffcreator)」の分離とも共通しており
github.com
github.com
Remotionを採用するときも「Remotionは編集ツール/レンダラー」と割り切る設計が合理的だと示唆しています。
Remotionテンプレート(podcast-to-video)に見る「オーディオ→ビジュアル」のマッピング
Remotion自身のテンプレートとして公開されている「podcast-to-video-remotion」は、
ポッドキャスト音声(オーディオ)から「オーディオグラム」形式の動画を生成するためのスターターです。
ポッドキャスト音声(オーディオ)から「オーディオグラム」形式の動画を生成するためのスターターです
github.com
github.com
このリポジトリはLLMやTTSを直接含んでいませんが、AIで生成した音声・字幕をどう Remotion のタイムラインに載せるか、という観点で非常に参考になります。
README によると:
github.com
github.com
- 映像尺・サイズは
で調整src/Video.tsx - 音声・カバー画像・字幕は
フォルダに配置し差し替えるsrc/assets - コンポジションは
で定義src/Composition.tsx
でプレビュー、npm start
でレンダリング、npm run build
でRemotionのバージョンアップnpm run upgradegithub.comgithub.com- 字幕は「単語ごとに分割された字幕」を推奨しており、Subs AI など外部ツールで生成したものを取り込む前提github.comgithub.com
言い換えると、このテンプレートは「既に手元にある音声・細かく区切られた字幕・カバー画像」を、
Remotionで美しく同期させるためのベストプラクティス集と言えます。
Remotionで美しく同期させるためのベストプラクティス集と言えます。
AutoShorts や ChatGPT Video Generator 側で AI にやらせているのは、まさにこの「音声と字幕を用意する部分」なので、
両者を組み合わせると「AIで音声と字幕をつくり、Remotionでタイムラインに落とし込む」という理想的な構成になります。
両者を組み合わせると「AIで音声と字幕をつくり、Remotionでタイムラインに落とし込む」という理想的な構成になります。
3つの系統から見えてくる共通パターン
以上の3系統(AutoShorts、ChatGPT Video Generator、podcast-to-video-remotion)を俯瞰すると、
Remotion × LLM × 音声AI × TypeScript でショート/YouTube動画自動生成を行う際に押さえるべき共通パターンが見えてきます。
Remotion × LLM × 音声AI × TypeScript でショート/YouTube動画自動生成を行う際に押さえるべき共通パターンが見えてきます。
-
AI層は「JSON or テキスト+ファイル」を吐くサービスとして切り出す
- AutoShortsは、動画構造を表現する JSON を中心に据え、LLMの出力が崩れた場合は人間が JSON を修正する運用を前提にしていますgithub.com。github.com
- Remotion側には「コンポジションのための型付きデータ」として、
「シーンの並び」「各シーンのテキスト」「対応する音声ファイルパス」「背景画像パス」「開始フレーム・終了フレーム」などを渡すだけでよいと考えられます。
- AutoShortsは、動画構造を表現する JSON を中心に据え、LLMの出力が崩れた場合は人間が JSON を修正する運用を前提にしています
-
TTSはサービス切り替え可能な抽象レイヤで扱う
- AutoShorts が ElevenLabs / Neets.ai / ローカルTTS を切り替えられるようにしているのは、
音質・コスト・レイテンシのトレードオフを後から最適化しやすくするためと考えられますgithub.com。github.com - TypeScript側でも「VoiceProvider」インターフェースを定義し、
のように抽象化しておくと、将来の差し替えが容易になります。generateVoice(text, voiceId): Promise<AudioAsset>
- AutoShorts が ElevenLabs / Neets.ai / ローカルTTS を切り替えられるようにしているのは、
-
動画レンダリングはRemotionかffcreatorなどの「専任エンジン」に委ねる
- AutoShortsは内部で ffcreator/inkpaint をフォークして使っておりgithub.com、github.com
ChatGPT Video Generator は Remotion + FFmpeg を組み合わせてHD動画生成をRemotion CLIに委ねる設計を採用していますgithub.com。github.com - Remotionベースで構築する場合も、AI側で完結させようとするのではなく、
「RemotionはReactコンポーネントとしてタイムラインを組み立て、レンダリングとエンコードは CLI やLambda/Render サービスに任せる」
という分割を意識するのが現実的です。
- AutoShortsは内部で ffcreator/inkpaint をフォークして使っており
-
「ワークフロー全体」をCLIやREST APIとして表現する
- AutoShortsの特徴は、
というCLIで、npx auto-shorts -p "...prompt..." --aiType ... --ttsType ...
一連の AI 呼び出し → 資源ダウンロード → レンダリングを束ねている点ですgithub.com。github.com - ChatGPT Video Generatorも、ブラウザUIから1テキスト入力で同様のワークフローを実行しておりgithub.com、github.com
TypeScript/Remotionベースでも「CLI or HTTPエンドポイント1つで完結するワークフロー」を用意するのが運用上のベストプラクティスだと考えられます。
- AutoShortsの特徴は、
Remotion×TypeScriptに移植するときの具体的な設計指針
ユーザーの要望は、「RemotionとLLMや音声AIを組み合わせて、TypeScriptでYouTube動画を自動生成する参考レポジトリ」を知りたい、というものでした。
現時点のOSSを見ると、Remotion・LLM・TTSをすべて1リポジトリで完結させた「決定版」はまだ少ない一方で、
AutoShorts系のAIワークフローと、podcast-to-video-remotionのようなRemotionテンプレを組み合わせることで、
要求をほぼ満たすアーキテクチャを構築できると考えられます。
現時点のOSSを見ると、Remotion・LLM・TTSをすべて1リポジトリで完結させた「決定版」はまだ少ない一方で、
AutoShorts系のAIワークフローと、podcast-to-video-remotionのようなRemotionテンプレを組み合わせることで、
要求をほぼ満たすアーキテクチャを構築できると考えられます。
ここでは、その「移植設計」をステップとして示します。
-
AIバックエンド(AutoShorts的な層)をTypeScriptで用意
- OpenAI / Gemini / Claude / Ollama などへのクライアントを TS でラップし、
AutoShorts が行っているように、動画構造を表現する JSON(シーン定義)を返す関数を設計しますgithub.com。github.com - 同様に ElevenLabs やNeets.aiへのTTSクライアントを「VoiceProvider」インターフェースとして抽象化し、
ユーザー設定に応じて使い分けられるようにしますgithub.com。github.com
- OpenAI / Gemini / Claude / Ollama などへのクライアントを TS でラップし、
-
音声・字幕・画像を「Remotionが読み込めるアセット」として書き出す
- 生成した音声ファイルは、podcast-to-video-remotionが前提としている
のような形で配置すると、src/assets/audio.*
Remotionの既存テンプレをそのまま活用しやすくなりますgithub.com。github.com - 字幕も同テンプレが推奨する「単語ごとの字幕」形式で出力しgithub.com、github.com
Remotion コンポーネント側で
と字幕タイミングを突き合わせてレンダリングします。currentFrame
- 生成した音声ファイルは、podcast-to-video-remotionが前提としている
-
Remotionコンポジションを「シーンJSON」を入力に生成する
- AutoShorts が
として動画タイプ・タイトル・スクリプト・画像リストをJSONで受け取っているのと同様にVideoDataTypegithub.com、github.com
Remotion側にも
のような型を定義し、その値からVideoSpec
を組み立てる関数(あるいはコンポーネント)を実装します。<Composition> - こうしておくと、将来的に「ニュース動画」「ランキング動画」「クイズ動画」など、
AutoShorts がサポートしている複数のショート動画タイプを Remotion 上で再現することも容易になりますgithub.com。github.com
- AutoShorts が
-
全体を CLI または REST API に束ねる
- AutoShorts と同じく、
のような CLI を用意するとnpx my-remotion-shorts -p "..." --aiType OpenAI --ttsType ElevenLabsgithub.com、github.com
チームメンバーやCI/CDからの利用が容易になります。 - もしくは、Next.js や Express で UI/REST API を用意し、AutoShorts のUIがそうしているようにgithub.com、github.com
バックエンドサーバー(AI/レンダリング)とフロントエンド(動画生成フォーム)を分離する構成も現実的です。
- AutoShorts と同じく、
どのリポジトリをどう参考にすべきか(まとめ)
ユーザーの観点から、「何をどのように参考にすべきか」を整理すると、次のようになります。
表1. ユースケース別の参考リポジトリ
| 観点 | おすすめリポジトリ/情報源 | 参考にすべきポイント |
|---|---|---|
| LLM+TTS+画像でショート動画を自動生成する全体フロー | AutoShorts github.com github.com | プロンプトからスクリプトJSONを生成し、TTS・画像生成と組み合わせて動画を生成するCLI/JS API。AIツール切替の抽象レイヤ設計。 |
| Remotionを用いたシンプルなAI動画生成の最小例 | ChatGPT Video Generator github.com github.com | OpenAI+TTS+Remotion+FFmpegで「テキスト1件→動画」を実現するミニマル構成。Remotion CLIをHDレンダリングに使う発想。 |
| 音声+字幕をRemotionタイムラインにマッピングするベストプラクティス | podcast-to-video-remotion github.com github.com | 単語ごとの字幕ファイル、音声・カバー画像のアセット構成、Remotionコンポジションの作り方。AIで生成した音声・字幕を流し込む型として利用。 |
言い換えると、
- 「AIでどういう JSON や音声ファイルを作るべきか」は AutoShorts から学びgithub.com、github.com
- 「Remotionを使ってどうレンダリングパイプラインを組むか」は ChatGPT Video Generator と Remotion 公式テンプレから学びgithub.com、github.com
- それらを TypeScript で橋渡しする、というのが現実的な実装指針になります。
現在のOSSエコシステムでは「Remotion × LLM × 音声AI × TypeScript × YouTube投稿まで全部入り」の単一リポジトリはまだ少ないものの、
ここで紹介したプロジェクトを組み合わせて設計することで、ユーザーの要望にかなり近い自動生成パイプラインを構築できると考えられます。
ここで紹介したプロジェクトを組み合わせて設計することで、ユーザーの要望にかなり近い自動生成パイプラインを構築できると考えられます。
次のステップとしては、Remotion の TypeScript コンポジション雛形に対し、AutoShorts 形式の JSON をそのまま流し込めるような中間スキーマを設計し、
小さな「ニュースショート1本生成」から動かしながら、徐々にYouTube投稿APIまで拡張していく進め方をおすすめします。
小さな「ニュースショート1本生成」から動かしながら、徐々にYouTube投稿APIまで拡張していく進め方をおすすめします。
🏷GitHub Topicsと検索クエリを使った追加候補の探索戦略

GitHub Topicsと検索クエリを使った追加候補の探索戦略
Remotion×LLM×音声AI×TypeScriptでYouTube向け動画を自動生成するOSSを「調べ尽くす」ためには、最初に数個の有力リポジトリを見つけるだけでは足りません。重要なのは、GitHub上の「トピックページ」と「検索クエリ」を組み合わせて、継続的に候補を掘り出せる“探索ルート”を設計しておくことです。この節では、その具体的なやり方と、実際にどんなトピック・クエリを使うべきかを整理します。
なぜGitHub Topicsが強力な「ハブ」になるのか
GitHubには、技術スタックや用途ごとにリポジトリを束ねる「トピック」が用意されています。たとえば video-generation トピックのTypeScriptページには、「Model Context Protocol(MCP)とREST APIを使ってTikTok / Instagram Reels / YouTube Shorts向けの短尺動画を生成する」TypeScriptプロジェクトが存在することが明示されています。ここから分かるポイントは二つあります。
github.com
- 目的そのものが「短尺動画の自動生成」であり、YouTube ShortsやReels、TikTokなど、ユーザーが想定しているショート動画フォーマットと一致していること。github.com
- 技術スタックとしてTypeScriptが前提になっており、MCPを用いてLLMや外部モデルをオーケストレーションする設計が示唆されること。github.com
さらに、この video-generation トピックからは、YouTube・shorts・remotion・model-context-protocol など多数の関連トピックへのリンクが列挙されています。これらは、RemotionやYouTube Shortsに特化したプロジェクトをたどるための“索引”として機能します。
github.com
同様のトピックの集合は video-maker トピックの文脈でも確認でき、TikTok / Reels / Shorts 向けの短尺動画をMCPとREST APIで生成する用途にフォーカスしたハブとなっていることが説明され、そのページから youtube / remotion / youtube-shorts / faceless-video / model-context-protocol など、同じ一団のトピックにリンクが張られています。
github.com
github.com
言い換えると、「video-generation (TypeScript) → remotion → youtube / youtube-shorts → model-context-protocol」というリンクの連鎖そのものが、あなたの求める「Remotion×LLM×音声AI×TypeScript×YouTube自動生成」のエコシステムの地図になっている、と考えられます。
まず押さえるべきコア Topics 群
Remotion×LLM×音声AIでYouTube動画生成に役立つOSSを網羅的に拾うには、次のトピックページを“中核ハブ”として扱うのが実践的です。
- Remotion関連
- remotion トピック: Remotionベースの動画生成リポジトリ群github.comgithub.com
- remotion トピック: Remotionベースの動画生成リポジトリ群
- ショート動画・YouTube関連
- youtube / youtube-shorts / shorts / shorts-maker: YouTube/Shorts向け自動生成や編集ツールを集約github.comgithub.com
- tiktok / reels / instagram-reels / instagram-reels-automation / tiktok-creator: マルチプラットフォーム向けショート生成ツール群github.com
- faceless-video: 顔出し不要な自動生成動画(ナレーション×Bロール)のリポジトリ集github.com
- youtube / youtube-shorts / shorts / shorts-maker: YouTube/Shorts向け自動生成や編集ツールを集約
- 動画生成基盤
- video-generator / video-generation / video-maker / video-creator / video-creation-tool: 「テキストやスクリプト→動画」変換エンジンの集約ポイントgithub.comgithub.com
- video-generator / video-generation / video-maker / video-creator / video-creation-tool: 「テキストやスクリプト→動画」変換エンジンの集約ポイント
- AI連携基盤
- mcp / model-context-protocol: Model Context Protocolに対応したプロジェクト(LLMや外部AIをワークフローに組み込むための標準)github.comgithub.com
- mcp / model-context-protocol: Model Context Protocolに対応したプロジェクト(LLMや外部AIをワークフローに組み込むための標準)
これらのページは単なるタグ一覧ではなく、「YouTubeショート自動生成」「Remotionでの動画レンダリング」「MCPを通じたLLM連携」など、あなたの要件をそのまま体現するプロジェクトが集まる“入口”です。たとえば video-generation (TypeScript) トピックでは、「MCPとREST APIを使ってShorts/Reels/TikTok向けの短尺動画を作るTypeScriptプロジェクト」が存在し、更新日が2025年6月21日と比較的新しいことが明記されています。このような更新情報は、「今から実プロダクトに取り込めるか」の判断材料になります。
github.com
トピックだけでは足りない部分を検索クエリで補う
トピックは強力ですが、Remotion・LLM・音声AI・TypeScript・YouTubeといった要素がすべて揃っているプロジェクトだけがきれいにタグ付けされているわけではありません。実際、youtube-shorts トピックのコンテキストを見ると、長尺動画からのクリップ抽出をPython+GPT-4+FFmpeg+OpenCVで行うツールや、YouTube Shorts表示を消すTampermonkeyスクリプトなどが混在しており、RemotionやTypeScript+音声合成まで一体化した例は見当たりません。
github.com
github.com
そこで必要になるのが、トピック横断のキーワード検索です。検索結果の要約では、次のようなクエリを使う方針が推奨されています。
github.com
github.com
- remotion typescript openai tts
- remotion "youtube" "ai"
- remotion "chatgpt" "video generator"
これらは、「Remotionを使っている」「TypeScriptベース」「OpenAIやChatGPT、TTSと絡んでいる」といった条件を自然言語で絞り込む形です。この戦略によって、トピックタグが十分に付いていないが、README内ではしっかりRemotion+LLM+TTS+YouTubeを連携しているリポジトリを拾い上げられます。
実際の成果として、こうしたクエリや周辺探索からは、以下のようなプロジェクトが浮かび上がります。
- AutoShorts(alamshafil/auto-shorts)
- テキストプロンプトからニュース・クイズ・ランキング・「Would you rather」形式などのショート動画を自動生成し、スクリプトにLLM、音声にElevenLabsやNeets.ai、画像にPexelsを使い分けられる柔軟なパッケージgithub.com。github.com
- コマンドラインでは
のように、OpenAI GPT-4o-mini+ElevenLabs+Pexelsを組み合わせる例が提示されていますnpx auto-shorts -p "make a news short about TypeScript" --aiType OpenAIGen --ttsType ElevenLabs --imageType Pexels ...。github.com - LLMとしてはOpenAI・Google Gemini・Anthropic Claude・OllamaのローカルLlama3.2など複数をサポートしgithub.com、Web UIはNext.js+Express.jsで構築されていますgithub.com。github.com
- テキストプロンプトからニュース・クイズ・ランキング・「Would you rather」形式などのショート動画を自動生成し、スクリプトにLLM、音声にElevenLabsやNeets.ai、画像にPexelsを使い分けられる柔軟なパッケージ
- ChatGPT Video Generator(SaiTech01/chatgptvideoai)
- テキストを入力すると、OpenAI APIとNode.js+React+FFmpeg+Remotionでシンプルなアニメーション付きの要約動画を生成するプロジェクトgithub.com。github.com
- 「HD動画を作りたければRemotionのCLIを使ってほしい」と明示しており、Remotionを本格的なレンダリングエンジンとして統合する拡張パスを示しています。github.com
- テキストを入力すると、OpenAI APIとNode.js+React+FFmpeg+Remotionでシンプルなアニメーション付きの要約動画を生成するプロジェクト
これらは必ずしもGitHub Topicsのremotionやvideo-generationにすべて正しくタグ付けされているわけではありませんが、クエリ検索を併用することで拾い上げられます。つまり、「トピックでハブをたどる+キーワード検索で穴を埋める」という二段構えが、Remotion×LLM×音声AI事例を“調べ尽くす”ための現実的な戦略だと考えられます。
トピックとクエリを組み合わせた実務的な探索フロー
調査結果では、GitHub Topicsを起点にした実務的なスクレイピング・比較プランが具体化されています。これを、あなたが自前の探索や自動収集スクリプトを書くときの手順として、整理し直します。
github.com
github.com
-
中核トピックページのスクレイピング
- 対象例: remotion / youtube-shorts / shorts-maker / faceless-video / video-generator / video-maker / video-creation-tool / model-context-protocol などgithub.comgithub.com。github.com
- 取得する項目:
- リポジトリ名・URL
- 説明文(README冒頭など)
- 主言語(TypeScript / Python など)
- スター数、最終更新日、ライセンス
- 対象例: remotion / youtube-shorts / shorts-maker / faceless-video / video-generator / video-maker / video-creation-tool / model-context-protocol など
-
キーワードフィルタリング
- 抽出したリポジトリを、次のようなキーワードでフィルタしますgithub.com。github.com
- remotion, typescript, tsx
- llm, gpt, openai, chatgpt, ollama
- tts, speech, elevenlabs, voice, audio
- youtube, youtube-shorts, shorts
- ここで「Remotion×TypeScript×LLM/TTS×YouTube」の最低限の条件を満たしそうな候補に絞り込みます。
- 抽出したリポジトリを、次のようなキーワードでフィルタします
-
README・package.jsonの深掘り
- 各候補のREADMEとpackage.json(もしくはpnpm-lock, yarn.lock)を解析し、次を抽出しますgithub.com。github.com
- Remotion利用の明示(remotionパッケージ、
コンポーネントなど)<Composition> - AI統合の種類(OpenAI, Gemini, Claude, Ollama, ElevenLabs, Neets.ai など)github.comgithub.com
- YouTube APIやShorts向けのアスペクト比・テンプレート対応の有無
- ローカル実行とクラウド実行の切り替え方法、APIキー設定手順
- Remotion利用の明示(remotionパッケージ、
- 各候補のREADMEとpackage.json(もしくはpnpm-lock, yarn.lock)を解析し、次を抽出します
-
「実用度スコア」でランキング
- 調査計画では、次のような観点でスコアリングして優先度をつけることが提案されています。github.com
- Remotion対応度(Remotionベースか/サンプルの充実度)
- TypeScript対応度(主要言語がTypeScriptか)
- AI統合度(LLMとTTSがどの程度統合されているか)
- MCP採用の有無(model-context-protocolトピックに属するかなど)github.com
- 更新日・Issue/PRの活発さ(保守性)
- ライセンス(MIT/GPL/商用利用可否)
- 調査計画では、次のような観点でスコアリングして優先度をつけることが提案されています
-
上位候補でPoC(YouTubeショート自動生成の再現)
- ランク上位のリポジトリについては、実際にローカル環境やコンテナで動かし、「テキスト→スクリプト生成→TTS→Remotionレンダリング→ショート動画出力」の一連のフローをPoCとして検証することが推奨されています。github.com
- AutoShortsのように
一発で「TypeScriptについてのニュースショート」を生成できるCLIは、PoCのベースとして非常に扱いやすい例ですnpx auto-shorts。github.com
- ランク上位のリポジトリについては、実際にローカル環境やコンテナで動かし、「テキスト→スクリプト生成→TTS→Remotionレンダリング→ショート動画出力」の一連のフローをPoCとして検証することが推奨されています
この一連の流れをスクリプト化すれば、「新しくRemotion×LLM系のOSSが登場したときに、自動で検知して比較表を更新する」といった運用にも発展させられます。
どのトピックから掘るべきか:優先順位の考え方
実際に探索を始める際には、「どのトピックページを最初に見るか」で効率が大きく変わります。調査結果を踏まえると、次の順序が合理的です。
github.com
github.com
github.com
- remotion トピック
- Remotion×TypeScriptの実装が確実に集まるため、ここから「AI連携あり」のものを検索クエリで探る。
- video-generation (TypeScript) / video-maker / video-generator
- 目的が「動画自動生成」であり、TypeScriptとMCP・REST APIによる外部AI連携の事例が多いgithub.com。github.com
- 目的が「動画自動生成」であり、TypeScriptとMCP・REST APIによる外部AI連携の事例が多い
- youtube-shorts / shorts-maker / faceless-video
- 出力フォーマットがあなたのユースケース(教育系ショート、ニュース要約など)と近い。AutoShortsがサポートするニュース動画・クイズ動画・ランキング動画などのスクリーンショットを見ると、まさにこうした短尺フォーマットがターゲットになっていることがわかりますgithub.com。github.com
- 出力フォーマットがあなたのユースケース(教育系ショート、ニュース要約など)と近い。AutoShortsがサポートするニュース動画・クイズ動画・ランキング動画などのスクリーンショットを見ると、まさにこうした短尺フォーマットがターゲットになっていることがわかります
- model-context-protocol / mcp
- 将来的にLLMとの高度なコンテキスト共有やマルチエージェント連携を見据える場合、この層を押さえておくことで、汎用的なAIオーケストレーション基盤に乗せやすくなりますgithub.com。github.com
- 将来的にLLMとの高度なコンテキスト共有やマルチエージェント連携を見据える場合、この層を押さえておくことで、汎用的なAIオーケストレーション基盤に乗せやすくなります
この順序は、「まずRemotion×TSで確実な土台→次に動画生成特化→その後ショート動画・顔出し無しに特化→最後に高度なAI連携」と段階的に広げていく発想です。言い換えれば、「動画レンダリングのエンジン層」から見ていき、「ユースケース特化のテンプレート層」へと上がっていく戦略です。
実際にあなたが活用するときの具体的な一歩
ユーザーとして「どのOSSから試すか」を決める際も、上記の探索戦略をそのまま転用できます。
-
すぐにショート動画の自動生成を試したいなら
- AutoShortsを使い、OpenAI GPT-4o-mini+ElevenLabs+Pexelsの組み合わせで
を実行することで、プロンプトからニュース系Shortsを自動生成できますnpx auto-shorts -p "make a news short about TypeScript"。github.com - ローカルLLMでコストを抑えたいなら、OllamaのLlama3.2を使う構成も公式に案内されています。github.com
- AutoShortsを使い、OpenAI GPT-4o-mini+ElevenLabs+Pexelsの組み合わせで
-
Remotionのカスタムコンポジションを作り込みたいなら
- podcast-to-video-remotion のようなRemotionテンプレートをベースに、自前のTTSや字幕生成を組み合わせると、音声→動画のパイプラインを自作できますgithub.com。github.com
- ChatGPT Video Generatorは、OpenAI+Node.js+Remotionのミニマルな構成を示しており、ここからRemotion CLI経由でHDレンダリングに拡張する流れが紹介されていますgithub.com。github.com
- podcast-to-video-remotion のようなRemotionテンプレートをベースに、自前のTTSや字幕生成を組み合わせると、音声→動画のパイプラインを自作できます
-
「他にもっと良いOSSが出てきたら乗り換えたい」場合
- 本節で述べたTopics+クエリの探索フローをスクリプト化しておけば、新しいRemotion×LLM×TTSプロジェクトが登場したタイミングで自動検出し、あなたの内部カタログ(CSVやMarkdownテーブル)に追記できますgithub.com。github.com
- 本節で述べたTopics+クエリの探索フローをスクリプト化しておけば、新しいRemotion×LLM×TTSプロジェクトが登場したタイミングで自動検出し、あなたの内部カタログ(CSVやMarkdownテーブル)に追記できます
まとめ:Topicsを“地図”、検索クエリを“コンパス”として使う
調査結果を総合すると、GitHub TopicsはRemotion×LLM×音声AI×TypeScript×YouTube動画生成というニッチな要件に対しても、かなり有効な「地図」として機能します。
一方で、youtube-shorts トピックのようにPythonツールやユーティリティスクリプトが混在し、必ずしもRemotion+TypeScript+音声AIまでそろった例だけが集約されているわけではないことも確認されました。
一方で、youtube-shorts トピックのようにPythonツールやユーティリティスクリプトが混在し、必ずしもRemotion+TypeScript+音声AIまでそろった例だけが集約されているわけではないことも確認されました
github.com
したがって、
- remotion / video-generation (TypeScript) / video-maker / youtube-shorts / faceless-video / model-context-protocol といったトピックをハブとしてたどり
- remotion typescript openai tts などの検索クエリでトピック横断の漏れを拾い
- READMEと依存関係からRemotion+LLM+TTS+YouTube対応を機械的に判定・スコアリングする
という三段構えを取ることで、「参考になるおすすめのレポジトリ」を現在のGitHub上でほぼ網羅できる、と考えられます。
この戦略を一度整えておけば、AutoShortsやChatGPT Video Generator、podcast-to-video-remotion のような既存OSSを起点にしつつ、新しく登場するRemotion×LLM系プロジェクトも継続的に追跡できるようになります。あなたが今後、教育チャンネルやニュース要約チャンネルなど、複数のYouTubeプロジェクトを運営していく場合でも、この「Topics+検索クエリ」の探索フレームワークはそのまま資産として活かせるはずです。
🏷MCPを活用したLLM連携の最新OSS

MCPを活用したLLM連携の最新OSS
Remotion と LLM・音声AIを組み合わせて YouTube 向け動画を自動生成したい場合、最近特に注目すべきキーワードが「Model Context Protocol(MCP)」です。MCP は「LLM と外部ツールを安全かつ標準的なプロトコルでつなぐ」ための仕組みで、.NET や Java だけでなく TypeScript や JavaScript 向けの実装サンプルも用意されています。つまり、TypeScript で書かれた Remotion のレンダリングパイプラインと、OpenAI や Gemini、ローカル LLM などを疎結合に統合する“中間レイヤー”として使えるのが MCP です。
github.com
GitHub の「video-generation(TypeScript)」トピックにも、MCP と REST API を組み合わせて TikTok / Instagram Reels / YouTube Shorts 向けの短尺動画を生成するプロジェクトが現れており、「。これは、まさにあなたが求めている「TypeScript × Remotion × LLM × 音声AI × YouTubeショート」の組み合わせを、MCP を軸に実現しようとする潮流が出てきていることを示唆しています。
model-context-protocol」「remotion」「youtube-shorts」「shorts-maker」といったトピックが同時に付与されていますgithub.com
言い換えると、いまから新規に自動動画生成パイプラインを設計するなら、「Remotion 直結のカスタムコード」だけで完結させるのではなく、「LLM とのやり取りは MCP サーバ/クライアントに任せ、Remotion 側は“動画テンプレート・レンダリング専任”にする」という役割分担を前提にした方が、拡張性・保守性の面で有利と考えられます。
なぜ今、MCP ベースの構成が有力なのか
MCP トピックには、Firecrawl のようにウェブ検索・スクレイピング機能を MCP 経由で提供するサーバ、Figma や Unity と LLM をつなぐ「TalkToFigma」「Unity/Xcode 連携サーバ」、さらに「Agent orchestration platform」のようなマルチエージェント基盤など、多数のサーバ/クライアント実装が並んでいます。これらはいずれも「LLM が外部アプリをプログラム操作する」というユースケースを実演しており、
github.com
- LLM が Figma に対してコンポーネントを読み書きする
- LLM が Unity/Xcode を操作してビルドやテストを制御する
といったパターンを示しています。
github.com
この発想を Remotion にそのまま移植すると、次のような構成が自然に見えてきます。
- LLM(OpenAI / Gemini / Claude / ローカル LLM)
- MCP サーバ(スクリプト生成、動画構成 JSON 生成、素材リサーチなどの「ツール」を提供)
- Remotion(TypeScript コンポジションとレンダリング専任)
MCP Gateway のような「REST→MCP 変換」のコンポーネントも提案されており、既存の REST ベースの音声合成 API(ElevenLabs や Neets.ai など)や画像 API(Pexels 等)を、MCP 経由で一元管理する設計がしやすくなっています。これは、後述する AutoShorts のように複数の LLM・TTS・画像APIを切り替えるアーキテクチャと非常に相性が良いと考えられます。
github.com
AutoShorts を MCP 時代のリファレンスとして読む
Remotion そのものは使っていないものの、「LLM × 音声AI × 画像API × ショート動画生成」という点で、AutoShorts は現時点で最も参考になる OSS の一つです。
AutoShorts は、Ollama のローカル LLM(推奨は 。音声は ElevenLabs / Neets.ai / ローカルTTS、画像は Pexels やスクレイパーから取得でき、CLI からは次のようなコマンド一発で「TypeScript ニュースショート」を生成できます。
llama3.2)をデフォルトとしてスクリプトを生成しつつ、OpenAI ChatGPT 4o、Google Gemini 1.5、Anthropic Claude、Ollama など複数の LLM API も選択できる仕組みになっていますgithub.com
github.com
github.com
github.com
npx auto-shorts -p "make a news short about TypeScript" \
--aiType OpenAIGen \
--ttsType ElevenLabs \
--imageType Pexels \
--elevenLabsAPIKey YOUR_ELEVENLABS_API_KEY \
--pexelsAPIKey YOUR_PEXELS_API_KEY \
--openaiAPIKey YOUR_OPENAI_API_KEY
この CLI は内部で JS インターフェース(、TypeScript からも次のように直接利用できます。
genVideoWithAI や genVideoWithJson)を呼び出しておりgithub.com
github.com
const task = await genVideoWithAI(
"make a news short about TypeScript",
AIGenType.OpenAIGen,
{
tempPath: "video_temp",
resPath: "res",
voiceGenType: VoiceGenType.ElevenLabsVoice,
imageGenType: ImageGenType.Pexels,
apiKeys: {
elevenLabsAPIKey: process.env.ELEVENLABS_API_KEY,
pexelsAPIKey: process.env.PEXELS_API_KEY,
},
}
);
task.on("done", (output) => {
console.info("--> Video generation complete! Video saved at: " + output);
});
ここで注目すべきは「柔軟な抽象化レイヤー」を自称している点で、動画タイプ(ニュース / 教育 / クイズ / ランキング / テキストメッセージ / ‘Would You Rather’など)を JSON で表現し、LLM出力をこの JSON スキーマに沿うように制御していることです。実際のドキュメント上でも、
github.com
github.com
- テキスト読み上げ(TTS)動画
- 画像付きトピック動画
- メッセージストーリー動画
- ランキング動画
- クイズ動画
といったショート動画のテンプレートと、そのサンプル画像が紹介されています。
github.com
github.com

github.com
AutoShorts は「学習プロジェクトであり、プロダクション用途は想定していない」と明言されており、開発もすでに停止宣言が出ていますが、それでも
github.com
github.com
- LLM の種類を抽象化(
)aiType - TTS の種類を抽象化(
)ttsType - 画像生成・取得方法を抽象化(
)imageType - CLI / JS / Web UI(Next.js + Express)を一体として提供
という設計は、そのまま「MCP 対応版 AutoShorts」を作る際のアーキテクチャ・リファレンスになると考えられます。現状 AutoShorts 自体は MCP を利用していませんが、、将来 MCP サーバから LLM や TTS を呼び替える設計に移行しやすい形になっています。
aiType や ttsType の切り替えは MCP の「ツールレジストリ」とよく似た役割を果たしておりgithub.com
github.com
Remotion × LLM × MCP をどう組み合わせるか
あなたのゴールは「TypeScript で Remotion を使い、LLM・音声AIと連携して YouTube 向け動画を自動生成すること」です。この観点で、MCP を活用した実装方針を、既存 OSS から逆算して整理してみます。
まず、Remotion 単体のテンプレートとしては、ポッドキャスト音源からオーディオグラム動画を生成する 。Remotion 公式ドキュメントとの連携も README で案内されており、TypeScript でのコンポジション実装を学ぶには十分です。
podcast-to-video-remotion のようなリポジトリがあり、src/Video.tsx や src/Composition.tsx を調整しながら、npm start でプレビュー、npm run build でレンダリングするといった基本ラインが押さえられていますgithub.com
github.com
github.com
一方で、LLM や TTS との統合は AutoShorts や ChatGPT Video Generator などが実践しています。ChatGPT Video Generator は、テキスト入力からトピックのサマリーをアニメーション付き動画にし、Node.js ベースで TTS を組み込み、必要に応じて Remotion CLI で HD 動画を作成することも提案しています。こちらは MCP 非対応ですが、「LLM でサマリーを作り、FFmpeg などで動画を組み立てる」という流れは AutoShorts とも共通です。
github.com
github.com
github.com
これらを MCP のアーキテクチャにマッピングすると、次のような構成が見えてきます。
表1. Remotion × LLM × MCP 構成の役割分担イメージ
| コンポーネント | 役割 | 参考 OSS・出典 |
|---|---|---|
| LLM(OpenAI / Gemini / Claude / Ollama) | スクリプト生成、動画構成 JSON 生成 | AutoShorts の 抽象化github.com github.com |
| MCP サーバ | LLM 呼び出し、ツール(TTS / 画像API / Firecrawl)をまとめる仲介層 | MCP Gateway / Registry github.com |
| TTS サービス | ElevenLabs / Neets.ai / ローカル TTS | AutoShorts の github.com github.com |
| 画像取得 | Pexels / スクレイパー / Firecrawl | AutoShorts の github.com github.com github.com |
| Remotion(TypeScript) | コンポジション定義とレンダリング | podcast-to-video-remotion github.com |
| オーケストレーション UI | Web UI / CLI から一括操作 | AutoShorts の Next.js + Express UI github.com github.com |
MCP を採用する最大の利点は、LLM や TTS、画像APIを「ツール」として標準化し、Remotion を含む動画生成パイプラインとは疎結合にできることです。将来、たとえば
- OpenAI → ローカル LLM(Ollama)へ切り替えたい
- ElevenLabs → Neets.ai / ローカル TTS に切り替えたい
- 画像APIを Pexels → Firecrawl + 任意サイトスクレイピングに変えたい
といった要望が出ても、MCP サーバ側の設定・実装を差し替えるだけで済むような設計がしやすくなります。
github.com
github.com
実践的な「次の一手」:どう選び、どう作り始めるか
あなたが「今すぐ参考にできる TypeScript ベースの OSS」としては、少なくとも次の 3 系統を押さえておくとよいと考えられます。
-
Remotion テンプレート
でオーディオグラム構成・レンダリングパイプラインの基本を学ぶpodcast-to-video-remotiongithub.com。github.com
-
LLM + TTS + 画像API の統合設計
- AutoShorts の CLI / JS / Web UI を読み、
/aiType
/ttsType
抽象化と JSON ベースの動画テンプレート設計を参考にするimageTypegithub.comgithub.com。github.com - ChatGPT Video Generator のような、Text→Video の最小構成も併せて読むgithub.com。github.com
- AutoShorts の CLI / JS / Web UI を読み、
-
MCP エコシステム
- MCP トピックから TypeScript 実装のクライアント/サーバ例を探し、Firecrawl MCP サーバや TalkToFigma など「LLM が外部アプリを操作する」例を Remotion 連携のモデルとして読む。github.com
- video-generation(TypeScript)トピックで「MCP」「remotion」「youtube-shorts」などを含むプロジェクトを短リスト化し、自分の要件(Remotion必須、TypeScript優先、TTS必須など)でフィルタするgithub.com。github.com
- MCP トピックから TypeScript 実装のクライアント/サーバ例を探し、Firecrawl MCP サーバや TalkToFigma など「LLM が外部アプリを操作する」例を Remotion 連携のモデルとして読む
そのうえで、実装ステップとしては次のような流れを推奨できます。
- Remotion で「固定スクリプトのショート動画」を作る(まずは LLM 抜きで)
- AutoShorts の JSON スキーマを参考に、自前の「動画構成 JSON」を定義するgithub.com。github.com
- LLM からその JSON を返すプロンプト設計を行い、最初は単純な REST 経由で実装する。
- 3 でできた LLM 呼び出しと TTS / 画像API 呼び出しを MCP サーバの「ツール」として切り出し、MCP クライアントから一括オーケストレーションする。github.com
- 最後に、Remotion のレンダリングも MCP 経由のコマンド(例:「この JSON を使ってコンポジション X をレンダリング」)として扱えるようにする。
こうした構成にしておくと、あなたが今後扱いたくなるであろう
- 長尺動画 → ショートへの自動切り出し
- Faceless な解説動画の大量生成
- Web 上のトレンド記事を Firecrawl で集めて、そのままニュースショートに変換
といったワークフローも、MCP 上に「別ツール」として追加していく形で拡張しやすくなります。
github.com
github.com
まとめ:MCP は Remotion × LLM × 音声AI の「未来互換レイヤー」
GitHub の video-generation(TypeScript)と MCP トピックを眺めると、「ショート動画自動生成」を行う OSS は、徐々に
- 複数の LLM / TTS / 画像API を柔軟に差し替えたい
- エージェントや外部サービスを安全に呼びたい
という方向に進んでいることが見て取れます。AutoShorts がすでに LLM・TTS・画像APIを抽象化し、Web UI まで備えた「総合パッケージ」を TypeScript で実装していることは、まさにその流れを象徴しています。
github.com
github.com
github.com
github.com
MCP を活用することで、あなたがこれから作る Remotion ベースの自動動画生成システムは、「特定ベンダーにロックインされたスクリプト生成ツール」ではなく、「LLM とツールを自由に組み替えつつ、TypeScript で書かれた動画エンジン(Remotion)にコマンドを渡す汎用エージェント基盤」へとスケールさせることができます。
まずは
- Remotion テンプレート(
)podcast-to-video-remotion - AutoShorts のアーキテクチャ
- MCP トピックの TypeScript 実装例
の 3 点を“設計教科書”として読み込みながら、自分のユースケースに近い構成をスケッチしてみると、どの OSS をどのレベルで再利用し、どこを自作すべきかの輪郭が見えてくるはずです。
🖍 考察
調査の本質
今回の本質的な問いは、「Remotion × LLM × 音声AI × TypeScriptを使って、YouTube向け動画(特にショート)を自動生成したい。そのために、どんなGitHubリポジトリを“参考実装”として押さえ、どう組み合わせればよいか」です。
ユーザーの表向きの要望は「おすすめのレポジトリを調べ尽くしてまとめてほしい」ですが、その背後には次のような真のニーズが見えます。
- 1つの完璧なOSSを当てるより、「自分のプロダクトに組み込める現実的なアーキテクチャ」と「具体的なスタート地点」が欲しい
- LLM・TTS・Remotionそれぞれの“役割分担”を理解して、将来の差し替えや拡張に耐える設計をしたい
- GitHub上のプロジェクトが玉石混交である中から、「どれをどの観点で参考にすべきか」という判断を省力化したい
したがって、価値のコアは
- 「全部入りの決定版はない」という現状認識を明確にしつつ、
- それでも目的達成に必要な要素(LLM層/TTS層/Remotion層/配信層)が、どのOSSでどこまでカバーされているかを整理し、
- 自分用スタックを組み立てるための“設計図”と“導入ロードマップ”を提示すること
だと言えます。
分析と発見事項
まず、調査で浮かび上がった主要OSSを、役割とカバー範囲で整理します。
1. 4系統の核となるOSSの「守備範囲」
表を一度に俯瞰すると、どこに何が足りないかが分かりやすくなります。
表1. 主要リポジトリの位置づけ
| リポジトリ | 役割・特徴 | Remotion | LLM | TTS/音声AI | 主言語 / 実装 | コメント |
|---|---|---|---|---|---|---|
| ChatGPT Video Generator(chatgptvideoai) github.com | テキスト→OpenAI要約→TTS→簡易アニメーション動画生成 | ○ | OpenAI | ○(Nodeベース) | React + Node(TSXあり) | 「LLM+TTS+Remotion」が1リポジトリで繋がっている最有力サンプル |
| podcast-to-video-remotion github.com | 音声+字幕+カバー画像からオーディオグラム動画 | ○ | 外部前提 | 外部前提 | TypeScript + Remotion | AIは外出し。Remotionでの「音声×字幕×レイアウト」のお手本 |
| AutoShorts github.com | LLM+TTS+画像でショート動画生成(CLI/JS/UI) | ×(ffcreator系) | OpenAI/Gemini/Claude/Ollama | ElevenLabs/Neets.ai/ローカルTTS | Node/TS | ワークフロー設計と抽象レイヤーが秀逸。Remotionとは別エンジン |
| Remotion Editor Starter remotion.dev | Remotion製フル機能動画エディタのスターター | ○ | なし(拡張前提) | なし(拡張前提) | TypeScript | タイムライン、字幕、アセット管理まで揃った「サービス化」の土台 |
ここから分かる重要な事実は二つあります。
- 「Remotion × LLM × TTS × TypeScript × YouTube自動投稿」を1つで完全に満たすOSSは現状存在しない
- しかし、レイヤーを分割して見れば、ほぼすべてのパーツは既存OSSでカバーできる
つまり、「1リポジトリ完結」を諦め、パイプラインを部品に分解して再構成する発想に切り替えることが、現実解になります。
2. トピックと検索から見えるOSSの“生態系”
GitHub Topicsを俯瞰すると、Remotionやショート動画生成に関するエコシステムが、すでにかなり形成されていることも見えてきます。
トピック:Remotionベースの動画生成テンプレやツールが多数remotiongithub.com
(TypeScript)トピック:MCP+REST APIでTikTok/Instagram Reels/YouTube Shorts向けの短尺動画を生成するプロジェクトが含まれるvideo-generationgithub.com
/youtube-shorts
/shorts-maker
:ショート形式や顔出し不要の自動生成動画の事例が集積faceless-videogithub.comgithub.com
(MCP):LLMから外部ツール(スクレイパー、Figma、Unityなど)を操作するプロトコルの実装群model-context-protocolgithub.com
一方で、トピック説明レベルでは
- 言語がTypeScriptかどうか
- Remotionか他のレンダラか
- LLMとTTSをどう統合しているか
までは分からず、READMEと依存関係を精読しない限り真価を判断できません。つまり、「候補はたくさんあるが、カタログ化はまだ人力・半自動が必要」という中途半端な成熟度にあります。
github.com
github.com
3. アーキテクチャとして整理したときの「3層モデル」
調査結果を抽象化すると、「Remotion × LLM × 音声AI」パイプラインは次の3層に整理できます。
-
LLM・メディア生成層
- 台本生成:OpenAI / Gemini / Claude / Ollama(AutoShortsが好例)github.com
- TTS:ElevenLabs / Neets.ai / ローカルTTSなどgithub.com
- 画像・BGM取得:Pexelsや画像生成AIgithub.com
- 台本生成:OpenAI / Gemini / Claude / Ollama(AutoShortsが好例
-
動画合成層(TypeScript/Remotion)
- シーンJSONを受け取り、TS/TSXでコンポジションを組む(podcast-to-video-remotionやEditor Starterが参考github.com)remotion.dev
- レンダリングと書き出しはRemotion CLI/FFmpegなど
- シーンJSONを受け取り、TS/TSXでコンポジションを組む(podcast-to-video-remotionやEditor Starterが参考
-
配信・オーケストレーション層
- CLI / Web UI / API(AutoShorts的CLIやNext.js UI)github.com
- YouTube Data APIによる自動アップロード
- 今後はMCP経由でLLMエージェントから操作する形も現実的github.comgithub.com
- CLI / Web UI / API(AutoShorts的CLIやNext.js UI
この3層に先ほどの4系統のOSSを当てはめると、「どの層が充足されていて、どこを自作すべきか」が見えてきます。
より深い分析と解釈
ここから、「なぜ今このような分断状態になっているのか」「なぜ単一の決定版が出てこないのか」を、少なくとも3段階で掘り下げてみます。
1. なぜ「全部入りOSS」が存在しないのか
なぜ1本で完結するRemotion×LLM×TTS×YouTube OSSが出てこないのか。要因を分解すると、少なくとも次の3つがあります。
1段階目:技術的複雑さの分散
- LLM、TTS、画像API、動画レンダリング、YouTube API…と、性質の異なる要素が多く、1人・1チームで全部を高品質に作り込むのは負荷が高い。
- 結果として、
- AutoShortsのように「AIワークフロー特化」
- podcast-to-video-remotionのように「Remotionテンプレ特化」
に分かれている。
2段階目:用途ごとの要件のバラつき
- ニュースショート、クイズ動画、ポッドキャストのハイライト、解説動画…など、必要な映像表現や構成がかなり違う。
- AutoShortsは複数テンプレ(ニュース、クイズ、ランキングなど)をサポートしていますが、それでも全用途をカバーしきれてはいない。github.com
3段階目:商用性とライセンスの問題
- 真に完成度の高い「動画エディタ基盤」は、Remotion Editor Starterのように有償テンプレートとして提供されがち。remotion.dev
- OSSだけで「プロダクション級UX+AIワークフロー」を完備したものは、ビジネス的にも生まれにくい。
この3つの要因が重なって、「用途別・レイヤー別に分かれた“良いパーツ”だけが点在している」状態を生んでいます。
2. なぜ「AutoShorts型」の設計が増えているのか
AutoShortsは、Remotionは使っていないものの、現代的な設計パターンをかなり先取りしています。
github.com
- LLM種別を抽象化(OpenAI/Gemini/Claude/Ollamaを
で切り替えaiType)github.com - TTS種別を抽象化(ElevenLabs/Neets.ai/ローカルを
で切り替えttsType)github.com - 画像ソースを抽象化(Pexelsやスクレイパーを
で切り替えimageType)github.com - CLI・JS API・Web UIを一体として提供github.com
なぜこのような抽象化が重要か。「なぜ?」を掘ると:
1段階目:ベンダーロックインの回避
- LLMもTTSも価格・性能が激しく変動中で、1〜2年のスパンでベストチョイスが変わる。
- 初期から抽象レイヤーを切っておくと、将来の差し替えコストが大きく下がる。
2段階目:コスト最適化の必要性
- ニュースショートを大量生成するような用途では、1本数円〜数十円の差が積み上がる。
- AutoShortsがOllama(ローカルLLM)をサポートするのは、まさに「GPUさえあれば推論コストを実質0に近づけたい」というモチベーション。github.com
3段階目:MCPのような標準プロトコルへの接続準備
- MCPトピックに現れたプロジェクト群は、「LLMから外部ツールを標準的に呼び出す」方向に進んでいます。github.com
- AutoShortsの
/aiType
は、そのまま「MCPのツール名」とマッピングしやすい構造であり、MCP時代の設計感覚と相性が良い。ttsType
したがって、Remotionを使う場合でも、「AutoShorts的な抽象レイヤーを自作しておくかどうか」は、数年スパンで見たときの戦略的な分かれ目になります。
3. なぜ「MCP」が将来重要になるのか
MCP(Model Context Protocol)のプロジェクト群を見ると、LLMがRESTやローカルプログラムを通じてFigma、Unity、スクレイパー(Firecrawl)などを操作する事例が増えています。これをRemotion文脈で考えると:
github.com
1段階目:LLMエージェントが動画生成パイプラインを直接制御
- 例:「今週の人気記事をスクレイピング→要約→ショート動画台本生成→音声&画像生成→Remotionでレンダリング→YouTubeに投稿」、この一連をLLMエージェントからMCP経由で“指示”できる。
2段階目:Remotionを「MCPツール」として公開
- Remotionベースの動画エンジンを、「動画構成JSON→mp4を吐くツール」としてMCPに登録すれば、他のエージェントやツールからも再利用可能になる。
3段階目:将来の複合エージェントシステムとの親和性
- ニュース収集エージェント、台本エージェント、動画エディタエージェント…というマルチエージェント構成の中で、動画生成部分だけを標準化しておくメリットが大きい。
このように、「今Remotionで閉じた実装を作る」だけでは、2〜3年後のAIエージェント前提の世界でメンテが苦しくなりかねません。**MCPを見据えた設計にしておくこと自体が、将来の保守コストを下げる“保険”**だと解釈できます。
戦略的示唆
ここまでの分析を、実際にユーザーが取り得る行動に落とし込みます。
1. いま取るべき技術スタック戦略
-
「単一決定版探し」をやめて、3層モデルで必要パーツを定義する
- LLM・TTS・画像生成/取得はAutoShortsの設計を参考に「AI層」として独立させる。github.com
- Remotionは「テンプレ+レンダリングエンジン」として純化する(podcast-to-video-remotionやEditor Starterをベースにgithub.com)。remotion.dev
- 配信はYouTube API連携スクリプトとして別モジュールに置く。
- LLM・TTS・画像生成/取得はAutoShortsの設計を参考に「AI層」として独立させる
-
Remotion側は「AI非依存の美しいテンプレ」を先に完成させる
- まずは手書きのスクリプト+手元の音声ファイルで、Remotionコンポジション(ショート向け9:16含む)を磨く。
- これにより、あとからLLM/TTSを差し替えても、「見た目の品質」は維持される。
-
AI層はAutoShorts的な抽象レイヤー設計を自前のTypeScriptで再現
/AIProvider
/TTSProvider
インターフェースを定義して、実装クラスを切り替える。ImageProvider- 当初はOpenAI+ElevenLabs+Pexelsのような1セットに固定してよく、将来必要になったらGemini/OllamaやNeets.aiに差し替える。
-
MCPはすぐ導入しなくても、「入れ替え可能な境界」を意識して設計する
- すべての外部API呼び出しを1〜2個のサービス層に集約し、のちにMCPサーバに移行できるようにしておく。
2. 実装フェーズごとの「現実的ロードマップ」
ユーザーが0→1→10と進める時系列を意識して、段階的なアクションプランをまとめます。
フェーズA:PoC(数日〜1週間)
- ChatGPT Video Generatorを動かして、LLM+TTS+Remotionの一連の流れを体験する。github.com
- プロンプトを自分の想定チャンネル(ニュース解説、Tips、雑学など)向けに少し書き換え、どの程度使えるか感覚を掴む。
フェーズB:テンプレとAI層を分離する(2〜4週間)
- podcast-to-video-remotionを導入し、YouTube向けの解像度・レイアウトにRemotionコンポジションを調整する。github.com
- LLM+TTSで生成した音声ファイルと字幕JSONを、
に差し込むスクリプトをTypeScriptで作る。src/assets - ここでは、AI側はシンプルにOpenAI+ElevenLabsなど1セットでよい。
フェーズC:AutoShorts型の抽象レイヤーを導入(1〜2ヶ月)
- AutoShortsの
/genVideoWithAI
周りのコードとJSONスキーマを読み、同等のgenVideoWithJson
を自プロジェクトに定義するVideoSpec。github.com - ニュース/クイズ/ランキングなど、よく使いそうなテンプレだけを自分の
に落とす。VideoSpec
→Remotionコンポジション変換ロジックを実装し、AutoShorts的な「テンプレの切り替え」をRemotion上で再現する。VideoSpec
フェーズD:サービス化とUX強化(中期)
- Remotion Editor Starterの導入を検討し、タイムライン・キャプション・アセット管理UIを自動生成エンジンの上に被せる。remotion.dev
- ユーザーがAI生成した動画を細かく修正できるUIを用意し、「半自動+編集」でクオリティを底上げする。
- YouTube API連携やスケジューラを加えて、「毎朝7時にニュースショートを自動投稿」などのワークフローを構築する。
今後の調査
最後に、今回の分析を一過性で終わらせず、継続的に質を高めていくための追加調査テーマを整理します。
1. 追加で深掘りすべきテーマ例
- RemotionテンプレートとAutoShorts形式JSONの“共通スキーマ”設計
- LLM出力を安全にJSON(VideoSpec)へマッピングするためのプロンプト設計・バリデーション手法
- ElevenLabs / Neets.ai / ローカルTTSの音質・コスト・レイテンシ比較と、用途別の最適組み合わせ
- 長尺動画→ショート自動切り出しツール(Python系GPT-4+FFmpeg+OpenCVなど)とRemotionパイプラインの連携可能性github.com
- MCP対応のTypeScript実装を用いた、「LLMエージェントからRemotionレンダリングを指示する」プロトタイプ設計
- Remotion Editor Starterのライセンス・料金体系と、商用サービスへの統合パターンremotion.dev
- YouTube Data APIを用いた大量自動投稿時のレート制限・ポリシー・BANリスクと対策
- OSSベースのパイプラインにおける著作権・利用規約(特に画像・音声素材API)上のリスク整理
2. 継続モニタリングの観点
/remotion
(TypeScript)/video-generation
/shorts-maker
/faceless-video
トピックに新規追加されるリポジトリmodel-context-protocol- AutoShorts以降に出てくるであろう「AutoShorts×Remotion」型の新OSS
- Remotion本体とEditor Starterのメジャーアップデート(特にAI連携機能の公式サポート動向)
- YouTube側のショート動画仕様・API仕様の変更(特に自動生成コンテンツの扱い)
総じて、現時点での「最適解」は、1つの完璧なリポジトリを探すのではなく、「ChatGPT Video Generator+podcast-to-video-remotion+AutoShorts的設計+(必要ならEditor Starter)」の組み合わせで、自分専用のRemotion×LLM×音声AIスタックを組み上げることです。
もし次のステップとして「どの順番でコードを読み始めるか」「最初に作るPoCの具体像」を詰めたい場合は、想定しているチャンネルのジャンル(ニュース系/教育系/娯楽系など)を教えてもらえれば、そのジャンル専用に、より具体的なパイプライン案を組み立てられます。
このレポートが参考になりましたか?
あなたの仕事の調査業務をワンボタンでレポートにできます。
📖 レポートに利用された参考文献
検索結果: 6件追加のソース: 10件チャット: 2件
70件の参考文献から18件の情報を精査し、約90,000語の情報を整理しました。あなたは約8時間の調査時間を削減したことになります🎉
調査された文献
70件
精査された情報
18件
整理された情報量
約90,000語
削減された時間
約8時間
🏷 調査サマリーと理想アーキテクチャの整理
video-generation · GitHub Topics
... youtube-shorts stable-diffusion ai-video-generator text-to-video-generation ... remotion reels youtube-shorts instagram-reels tiktok-creator shorts ...
Build software better, together

A template con...
Use the Remotion Chatbot | Remotion | Make videos programmatically
# Use the Remotion Chatbot
We made a Chatbot that can answer simple questions about Remotion.
The ...
調査のまとめ
#### 回答
まず結論として、今回取得できた情報だけを見ると、「Remotion × LLM × 音声AI × TypeScript × YouTube向け動画生成」という要件をすべて一つのリポジ...
調査のまとめ
#### 回答
まず前提として、今回参照できた情報は「Remotion公式ドキュメントのAI/Editor関連ページ」と「remotion・youtube-shorts・video-maker など...
🏷 ChatGPT Video Generator:Remotion×OpenAI×TTS統合の最有力サンプル
GitHub - SaiTech01/chatgptvideoai: This Github repository contains ...
#### GitHub - SaiTech01/chatgptvideoai: This Github repository contains ...
#### 概要
このリポジトリは「ChatGPT Video Generator」と呼ばれる、テキスト入力だけで短い要約アニメーション動画を生成するAIツールの実装です。生成はNode.js/React(.tsx を含む構成)とRemotion、FFMPEGを組み合わせ、OpenAI APIを用いてテキストからコンテンツを作り、TTSで音声を付与して動画化します。用途は主に「トピックの短い要約を可視化する動画」の自動生成に最適化されています。
#### デモ
プロジェクトのデモは以下で確認できます。
- デモページ: [https://video-generator-8fe43.web.app/](https://video-generator-8fe43.web.app/)
#### 主な機能(コンテキストからの抜粋)
- テキスト入力のみでAIが動画を生成
- トピックの要約を元にしたシンプルなアニメーション
- Node.js を用いた TTS(テキスト→音声)を統合
- 生成した動画をダウンロード可能(ただし現状効率は限定的)
- 商用利用も可能(無料)
#### 技術スタック
コンテキストで明示されている技術は次の通りです。
- OpenAI API
- Node.js / React(ファイル名に .tsx があるため TypeScript/TSX 想定)
- Remotion(動画レンダリング) — HD・高度機能は Remotion CLI 推奨
- FFMPEG(動画処理)
#### インストールと実行手順(要点)
- リポジトリをクローン
- 依存関係をインストール: npm install
- OpenAI APIキーを設定: src/chat.tsx の 88行目に追加するよう明記あり
- 開発サーバ起動: npm run start
#### 使用方法(UIフロー)
- 入力欄にトピックの要約を入力
- 「Send」ボタンをクリック
- 生成完了まで約30秒〜1分待つ
- 「Download video」ボタンでダウンロード(現状は非効率な場合あり)
#### 制約と注意点
- 現在は「シンプルなアニメーション」に限定されており、短い要約や単語程度の内容に最適化されている
- HD出力やより高度なアニメーションを行う場合は Remotion コマンドラインでのレンダが推奨される(Remotion ドキュメント参照)
- ダウンロード機能は効率面で改善の余地あり
#### ライセンスと貢献
- ライセンス: MIT(詳細はリポジトリのLICENSE.mdを参照)
- Issueやプルリクエストで貢献を歓迎
#### 参考リンク(コンテキスト内にあるURL)
- GitHub リポジトリ: [https://github.com/SaiTech01/chatgptvideoai](https://github.com/SaiTech01/chatgptvideoai)
- デモ: [https://video-generator-8fe43.web.app/](https://video-generator-8fe43.web.app/)
- ライセンスファイル: [https://github.com/SaiTech01/chatgptvideoai/blob/main/LICENSE.md](https://github.com/SaiTech01/chatgptvideoai/blob/main/LICENSE.md)
- Remotion レンダドキュメント(参照推奨): [https://www.remotion.dev/docs/render](https://www.remotion.dev/docs/render)
#### ユーザー(あなた)の要望との関連性
あなたが求める「Remotion × LLM × 音声AI × TypeScript × YouTube向け動画生成」という観点では、本リポジトリは非常に関連性が高い出発点です。理由は次の通りです。
- Remotion を用いた動画レンダ・ワークフローの実例がある
- OpenAI(LLM)を入力源として用いる構成がある
- TTS を経由して音声を付与する実装例がある
- UI 側に .tsx ファイルが存在するため TypeScript/React を用いた実装例として参考になる
次のステップとしては、リポジトリ内の以下を重点的に確認すると有用です。
- src ディレクトリ(Remotion とコンポーネントの結びつき、TSX の実装)
- TTS の実装箇所(どのライブラリ/サービスを用いているか、音声ファイルの生成→Remotionへの取り込み手順)
- FFmpeg の呼び出しや最終的な動画合成フロー(YouTube向けの解像度・エンコード設定に合わせる方法)
必要であれば、これらの箇所をスクレイピングしてREADMEや該当ソースの抜粋を取得し、TypeScriptでのRemotion組み込みパターン、OpenAI呼び出し部分、TTSパイプライン、YouTube向け出力設定の比較・手順化を行います。続けてスクレイプ/ブラウズしてよろしいですか。
Build software better, together
You signed in with another tab or window. Reload to refresh your session.You signed out in another t...
🏷 podcast-to-video-remotion:音声→動画テンプレのTypeScript実装
GitHub - harshitsinghai77/podcast-to-video-remotion: Create video ...
#### GitHub - harshitsinghai77/podcast-to-video-remotion: Create video ...
[https://github.com/harshitsinghai77/podcast-to-video-remotion](https://github.com/harshitsinghai77/podcast-to-video-remotion)
#### 概要
このリポジトリは「オーディオグラム(audiograms)」を作るためのRemotionテンプレートです。ポッドキャストや任意の音声から短い動画クリップを作成し、SNSやYouTube向けに共有する用途を想定しています。プロジェクトはRemotion+TypeScriptベースで、音声・カバー画像・字幕を組み合わせて動画を生成します。
#### 主な用途と特徴
- ポッドキャストの音声スニペットを短い動画(audiogram)に変換するテンプレート。
- ソーシャルシェアやYouTubeのショート/クリップ用途に適するレイアウトと設定を備える。
- Remotion の標準的なレンダリングワークフローを利用(ローカルでプレビュー → ビルド/レンダー)。
- 字幕(subtitles)は「単語単位でセグメント化」された形式を前提に処理する点が重要。
#### セットアップと主要コマンド(READMEから)
- 依存関係インストール: `npm i`
- プレビュー開始: `npm start`
- 動画レンダー/ビルド: `npm run build`
- Remotion アップグレード: `npm run upgrade`
レンダー方法の詳細はリポジトリ内ドキュメント(render)に記載されています: [docs/render](https://github.com/harshitsinghai77/podcast-to-video-remotion/blob/main/docs/render)
#### 主要ファイルとカスタマイズポイント
- `src/Video.tsx`:動画サイズや長さの調整を行う主要ファイル(ここを編集して画面サイズやクリップ長を変える)。
- `src/Composition.tsx`:Remotion のコンポジション設定を調整する箇所。
- `src/assets`:音声ファイル、カバー画像、字幕ファイルなどの素材を置くフォルダ。
README はこれらを差し替えてカスタマイズする流れを明示しています。
#### 字幕・トランスクリプトについての注意点
- このテンプレートでは「単語単位で分割された字幕ファイル」を使うことが推奨されています(文ごとではなくword-level segmentation)。
- 字幕/トランスクリプトの取得方法として、ポッドキャストホスト、Descript、Otter.ai、Scriptme.io、あるいはオープンソースの [Subs AI](https://github.com/abdeladim-s/subsai) などが紹介されています。
- Otter.ai: [https://otter.ai](https://otter.ai)
- Scriptme.io: [https://scriptme.io](https://scriptme.io)
#### 関連ドキュメント・サポートリンク(コンテキスト内)
- リポジトリ内の render ドキュメント: [docs/render](https://github.com/harshitsinghai77/podcast-to-video-remotion/blob/main/docs/render)
- Remotion 基本ドキュメント: [https://www.remotion.dev/docs/the-fundamentals](https://www.remotion.dev/docs/the-fundamentals)
- Remotion Discord(サポート): [https://discord.gg/6VzzNDwUwV](https://discord.gg/6VzzNDwUwV)
- Remotion の Issue 登録先: [https://github.com/remotion-dev/remotion/issues/new](https://github.com/remotion-dev/remotion/issues/new)
- Remotion ライセンス注意(企業利用時のライセンス要件): [https://github.com/remotion-dev/remotion/blob/main/LICENSE.md](https://github.com/remotion-dev/remotion/blob/main/LICENSE.md)
#### ユーザーの要望(Remotion × LLM × 音声AI × TypeScript × YouTube)との関連性
- このリポジトリは「Remotion + TypeScript」での動画生成テンプレートとして非常に参考になります。YouTube向けの短い動画・クリップ作成には直接的に役立ちます。
- ただし、README に示されている範囲では「LLM(ChatGPT 等)やTTS(音声生成)との自動連携」は含まれていません。したがって、LLMでスクリプト生成や要約を行い、TTSで音声を作ってからこのテンプレートに渡す、といった外部連携を自前で組む必要があります。
- 次段階で行うべき統合例:OpenAI/別TTSサービスやElevenLabsで音声を生成→単語単位の字幕をLLMや音声解析で整形→本テンプレートに投入してRemotionでレンダー、というワークフローが考えられます。
#### まとめ(実務的インパクト)
- ポッドキャストや音声コンテンツを短尺動画に変換する点では即戦力となるテンプレート。TypeScript/Remotion の実装サンプルとしても有用。
- LLM/TTS の自動化を加えたい場合は、外部の音声合成・文字起こし・要約ツールと組み合わせる拡張が必要。
- まずはリポジトリをクローンして `src/Video.tsx` と `src/assets` を差し替え、推奨の単語単位字幕でビルド確認することをお勧めします。
必要であれば、このリポジトリに対して「LLM/TTSを組み合わせる実装プラン(具体的なライブラリ/API、ファイル変換スクリプト、CIによる自動レンダリング手順)」を作成します。続けますか?
Build software better, together
You signed in with another tab or window. Reload to refresh your session.You signed out in another t...
🏷 AutoShortsほかショート動画自動生成系から学ぶLLM/TTSワークフロー
alamshafil/auto-shorts: AutoShorts can generate ...
AutoShorts is a fully fledged package that generates shorts videos with the help of AI to write the script. It can generate popular types of video seen on ...
Using Remotion and Excalidraw to create a video with code
Failed to extract contents from https://www.reddit.com/r/finality/comments/15qzklg/using_remotion_and_excalidraw_to_create_a_video/. Scraping and AI access may not be possible, and insufficient information was obtained for summarization, so browser operation is required for viewing.
Build software better, together
You signed in with another tab or window. Reload to refresh your session.You signed out in another t...
🏷 GitHub Topicsと検索クエリを使った追加候補の探索戦略
video-generation · GitHub Topics · GitHub
#### video-generation · GitHub Topics · GitHub
GitHubの「video-generation」トピックページ(および関連トピック群)に関する要約です。ページは、短尺動画(TikTok、Instagram Reels、YouTube Shorts)を生成するプロジェクト群を想定しており、Model Context Protocol(MCP)とREST APIを用いた短尺動画作成を明示する記述があります。TypeScriptでの更新情報も記載されています。
#### 要約(主要ポイント)
- 主旨:短尺動画(TikTok/Instagram Reels/YouTube Shorts)を、Model Context Protocol(MCP)とREST APIを用いて作成するプロジェクトを集めたトピック群であることが示されています。
- 技術スタックの示唆:ページには TypeScript に関する更新(Updated Jun 21, 2025 - TypeScript)があり、TypeScriptで開発されたプロジェクトが含まれる可能性が高いです。
- MCPの存在:Model Context Protocol(MCP)という概念が明記されており、LLMや外部モデルを文脈駆動で連携するワークフローが想定されています(LLM/モデル統合の土台として有望)。
- ユースケース寄りのタグ群:YouTube/shorts/reels/tiktok/faceless-videoなど、ショートフォーム自動生成や無人(顔なし)動画の自動化に関するトピックが並んでいます。
- remotionトピック:Remotion関連トピックが列挙されており、Remotion + TypeScript ベースの動画生成ワークフローを探すうえで重要な索引になっています。
#### コンテキスト内にある関連リンク(GitHubトピック)
- [youtube](https://github.com/topics/youtube)
- [mcp](https://github.com/topics/mcp)
- [shorts](https://github.com/topics/shorts)
- [video-generator](https://github.com/topics/video-generator)
- [video-generation](https://github.com/topics/video-generation)
- [video-maker](https://github.com/topics/video-maker)
- [tiktok](https://github.com/topics/tiktok)
- [video-creator](https://github.com/topics/video-creator)
- [remotion](https://github.com/topics/remotion)
- [reels](https://github.com/topics/reels)
- [youtube-shorts](https://github.com/topics/youtube-shorts)
- [instagram-reels](https://github.com/topics/instagram-reels)
- [tiktok-creator](https://github.com/topics/tiktok-creator)
- [shorts-maker](https://github.com/topics/shorts-maker)
- [faceless-video](https://github.com/topics/faceless-video)
- [instagram-reels-automation](https://github.com/topics/instagram-reels-automation)
- [shorts-automate](https://github.com/topics/shorts-automate)
- [model-context-protocol](https://github.com/topics/model-context-protocol)
- [video-creation-tool](https://github.com/topics/video-creation-tool)
#### 具体的に注目すべき点
- MCP(model-context-protocol)が明示されているため、LLMや外部モデルを用いて文脈駆動で動画パイプラインを動かす設計が想定される点は、ユーザーの「Remotion × LLM × 音声AI × TypeScript × YouTube向け」という要望に直接関係します。
- Remotionトピックが含まれているため、RemotionベースのTypeScript実装を集めれば、既存のコンポーネントやレンダリング手法を流用可能です。
- ただし、提示されたコンテキスト内では OpenAI や特定のTTS(音声AI)実装・ライブラリ名は明示されていません。LLMやTTSとの具体的な連携例を見つけるには、個別リポジトリのREADMEやコードを掘る必要があります。
#### ユーザー要望(Remotion × LLM × 音声AI × TypeScript × YouTube)との関連性
- 高い関連性:remotion、video-generation、youtube/youtube-shorts、model-context-protocol といったトピックが揃っているため、目的に合致するリポジトリ群をこのトピック群から抽出するのは有効です。
- 不足情報:このコンテキストだけでは OpenAI/ChatGPT、TTS ライブラリ(例えば Coqui, ElevenLabs, Google TTS 等)を使っている具体的リポジトリが確認できないため、次工程でGitHub検索クエリを用いて個別リポジトリを広く収集する必要があります。
#### 推奨される次のアクション
1. GitHub上で下記のような英語クエリを使ってリポジトリを横断的に検索し、READMEとソースを取得する(あなたの最初の意図と整合)。
- github remotion typescript openai tts
- github remotion "youtube" "ai"
- github remotion "chatgpt" "video generator"
2. 発見した候補リポジトリのREADMEを優先的にスクレイピングして、Remotionの使い方、LLM連携(MCPやAPI)、TTS実装、TypeScriptサンプル、YouTubeアップロードワークフローの有無を比較する。
3. MCP関連リポジトリは優先度高めで解析し、MCPがLLM/TTSをどのようにオーケストレーションしているかを確認する。
#### 補足
- 上記要約は提供されたコンテキスト(トピック一覧と短い説明文)に基づいています。個々のリポジトリの詳細(READMEや実装例)を収集して比較分析を行うためには、ブラウザ操作やGitHub APIを用いた個別スクレイピングが必要です。
#### 参考(コンテキスト内の原文)
Creates short videos for TikTok, Instagram Reels, and YouTube Shorts using the Model Context Protocol (MCP) and a REST API.
Updated Jun 21, 2025 - TypeScript
(上記情報の出典は、前述の各トピックリンクにあります。)
Build software better, together
You signed in with another tab or window. Reload to refresh your session.You signed out in another t...
Build software better, together
You signed in with another tab or window. Reload to refresh your session.You signed out in another t...
Build software better, together
Creates short videos for TikTok, Instagram Reels, and YouTube Shorts using the Model Context Protoco...
🏷 MCPを活用したLLM連携の最新OSS
Build software better, together
🚀 The fast, Pythonic way to build MCP servers and clients
-
Updated
Nov 26, 2025 - Python
🚀 The ...
📖 レポートに利用されていない参考文献
検索結果: 39件追加のソース: 0件チャット: 0件
evalstate/mcp-hfspace: MCP Server to Use HuggingFace ...
Supply a list of HuggingFace spaces in the arguments. mcp-hfspace will find the most appropriate endpoint and automatically configure it for usage. An example ...
thedaviddias/llms-txt-hub: 🤖 The largest directory for AI- ...
This repository serves as a central hub for discovering and sharing llms.txt implementations across different projects and platforms.
Why David Gyori's Short Video Maker is the AI Engineer's ...
Transform video creation with David Gyori's Short Video Maker, the free, open-source tool for AI engineers. Generate engaging short videos effortlessly.
Clean-Cut-MCP - One-Script Magic Video Animation
Clean-Cut-MCP is a bulletproof Remotion video animation system for Claude Desktop that never breaks existing configurations and provides reliable "One-Script ...
Building an AI App: Lessons in Prompt Engineering and UI ...
Displays word value, payout status, and a form for others to join, tracking their data since 2022. - Output: Real-time equity tracking (e.g., OpenAI usage proof) ...
tattwamasi/starry-eye
Train OpenAI gpt-oss, DeepSeek-R1, Qwen3, Gemma 3, TTS 2x faster with 70% less VRAM. myshell-ai/OpenVoice - Instant voice cloning by MIT and MyShell. Audio ...
svg153/awesome-stars
This open-source curriculum introduces the fundamentals of Model Context Protocol (MCP) through real-world, cross-language examples in .NET, Java, TypeScript, ...
zengzzzzz/golang-trending-archive
A complete drop-in replacement for OpenAI's Responses APIs with advanced agentic capabilities. No clouds. No data leaks. Just pure local AI that works on ...
AdCeptive Media LLC - Tech Lead (AI + Full Stack) - Shine
- Developing creative pipelines with tools like TTS, FFmpeg, and Remotion, along with media orchestration. - ... GitHub Actions, and Remotion would be ...
video-editing · GitHub Topics · GitHub
Generating a JSDoc comment for your function using OpenAI. | by ...
Top 10 TS Projects to Watch in 2024 | by Bytefer | JavaScript in ...
GitHub - bikramtuladhar/awesome-list
Editor Starter | Remotion | Make videos programmatically
Use the Remotion Chatbot | Remotion | Make videos programmatically
gyoridavid/short-video-maker
Creates short videos for TikTok, Instagram Reels, and YouTube Shorts using the Model Context Protocol (MCP) and a REST API. www.skool.com/ai-agents-az/about?s1r ...
Building with Remotion and AI
Building with Remotion and AI. We are interested in how AI can help with ... YouTube · LinkedIn · Instagram · TikTok. More. About us · Contact us · Blog · Success ...
Short Video Maker: AI for Creating Engaging Vertical Videos
Short Video Maker harnesses the power of AI to generate short vertical videos tailored for platforms like TikTok, YouTube Shorts, and Instagram Reels.
Stop Using Canva! AI Automate Videos with CLAUDE + ...
... GitHub profile animation, Animated Tweet, and YouTube Outro animation. This ... AI Automate Videos with CLAUDE + REMOTION. 771 views · 3 months ago ...
How to build a video with Claude Code and Remotion
... YouTube? The same walkthrough is available here: https://lnkd.in/gkBm8EHe What ... AI #ContentAutomation #DeveloperTools #Remotion #ClaudeCode #Tutorial.
Prompting a Remotion video with Bolt.new
On bolt.new, you can use their online AI tool to prompt a Remotion video ... YouTube · LinkedIn · Instagram · TikTok. More. About us · Contact us · Blog · Success ...
【GitHub开源项目实战】RedditVideoMakerBot 从文本到视频 ...
... AI 自动视频剪辑、开源项目实战、YouTube Shorts 自动化. 摘要: 在短视频内容爆发式增长的背景下,自动化生成视频成为内容创作者、AI 工程师和自动化开发者的热门方向。
前段时间用@Remotion 写代码帮公司做了一些视频中的动画。
ai profile ... Enjoy the videos and music you love, upload original content, and share it all with friends, family, and the world on YouTube. www.youtube.
5 分钟搭建AI 视频工厂! 超低成本自动化AI 短视频生产,躺赚 ...
... Remotion渲染引擎,让AI为你24小时不间断产出内容。但别急着变现,我会诚实告诉你这套技术的真实价值和未来前景。 工作流地址:https://github.com/hylarucoder/n8n ...
upload your video to YouTube with yutu · remotion-dev ...
OSS-AI Generated Videos with Remotion | FOSS Engineer
GitHub - arafipro/remotion-beginner-yt: Remotionで動画作成を試してみた
GitHub - drewbitt/starred
how to create those type of videos ? is there is any website ...
Luma the new AI video generator from text (already open access to all). Wild ... r/ChatGPT. • 5mo ago. Can videos be made in ChatGPT currently? 2 upvotes ...
How to create videos with Claude Code #claude #aicoding ...
The tool is called Veo 3, and it's Google's brand-new video generator ... sonido original - Javi Manzano | ChatGPT & IA · Chatgpt Powered Turret · Chat ...
OpenAI has acquired Software Applications Incorporated ...
And, for ChatGPT's second birthday, Nick Turley, ChatGPT head of product at ... video generator is available for public use. An account must be made to ...
Fixing Claude Code Missteps with ESC Escape
This free open-source video generator turns text or images into ... chatgpt #chatgpt #chatgptsceeenshare #ai #chatgpttips #aitips · original sound ...
Mi primer comercial de IA en Veo3
... ChatGPT Whether you run a small business manage a startup or create content ... Free Ai Video Generator Without Watermark - Free Image To Video - Free Text To ...
Aditya Parekh - AI Full-Stack Developer @ AutoAccru
I am a Computer Science graduate from the University of Waterloo, specializing in Data Science, with hands-on experience in machine learning, ...
Get AI coding inside your browser with Claude Code—edit, fix ...
... video generator to create my latest music video! The creativity and ... ChatGPT now edits your writing instantly in docs, emails, and forms worldwide.
Construye tu propio agente de IA con AgentBase API
You type your rough idea, it expands it into a cinematic script you can drop into Nano Banana, ChatGPT, or any other model. ... video generator you're ...
GitHub - Weendert/brainrot-generator: Generate Brainrot Content ...
Introducing prompt-based video generator | Santhosh Toorpu posted ...
Top 15 AI Tools You Need to Know. Revolutionizing Workflows Across ...
📊 ドメイン統計
参照ドメイン数: 16引用済み: 3総文献数: 70
1
引用: 13件/ 総数: 33件
引用率: 39.4%
2
引用: 2件/ 総数: 9件
引用率: 22.2%
3
引用: 1件/ 総数: 3件
引用率: 33.3%
4
引用: 0件/ 総数: 5件
引用率: 0.0%
5
引用: 0件/ 総数: 4件
引用率: 0.0%
6
引用: 0件/ 総数: 3件
引用率: 0.0%
7
引用: 0件/ 総数: 3件
引用率: 0.0%
8
引用: 0件/ 総数: 2件
引用率: 0.0%
9
引用: 0件/ 総数: 1件
引用率: 0.0%
10
引用: 0件/ 総数: 1件
引用率: 0.0%
11
引用: 0件/ 総数: 1件
引用率: 0.0%
12
引用: 0件/ 総数: 1件
引用率: 0.0%
13
引用: 0件/ 総数: 1件
引用率: 0.0%
14
引用: 0件/ 総数: 1件
引用率: 0.0%
15
引用: 0件/ 総数: 1件
引用率: 0.0%
16
引用: 0件/ 総数: 1件
引用率: 0.0%
このレポートが参考になりましたか?
あなたの仕事の調査業務をワンボタンでレポートにできます。