Stable Diffusionとは?
Stable Diffusionは、オープンソースの画像生成AIです。ユーザーが入力する”プロンプト(呪文)”に応じて高品質な画像を生成でき、MidjourneyやDALL·Eと並ぶ人気を誇ります。オープンソースであることから、無料で利用でき、カスタマイズ性が高いのが大きな特徴です。
初心者におすすめの導入方法
Stable Diffusionは複数の導入方法がありますが、初心者には以下の2つがおすすめです。
1. Web UI(AUTOMATIC1111版)
ブラウザベースで使えるインターフェース。インストールは必要ですが、一度セットアップすれば自由に操作可能。
導入手順(Windows向け)
- Python公式サイトからPythonをインストール
- Gitをインストール(公式サイト)
- GitHubからAUTOMATIC1111のWeb UIをクローン
- コマンドプロンプトでWeb UIを起動
※詳細な手順やエラー対策は、別記事「【やってみた】Stable DiffusionをWindowsにインストールしてみた」で紹介(内部リンクをここに挿入)
2. Google Colab版
ブラウザだけで動かせるのでPCに負荷をかけず、スマホからも使えます。
- データ保存のためGoogle Drive連携が必要
- 無料プランだと制限あり
基本機能の使い方
プロンプトとネガティブプロンプト
プロンプトとは生成したい内容を指示するテキストです。たとえば「1girl, fantasy armor, beautiful lighting」など。
- ネガティブプロンプト:入れたくない要素を指定(例:「blurry, ugly」)
→ 詳細と例文は「AIイラストで使えるプロンプト一覧まとめ」(内部リンク)
CFG Scaleの調整
プロンプトの忠実度を決めるパラメータ。数値を上げるほどプロンプトに忠実な画像になるが、やりすぎると不自然になる。
→ 初心者は7〜10がおすすめ。詳細は「CFG Scaleとは?」(内部リンク)
Sampling Steps
画像の生成過程での繰り返し回数。多いほど高品質になるが時間がかかる。
→ 20〜30で十分。
モデルの切り替え
・基本:stable-diffusion-v1-4 や v1-5
・エロ系・美少女系:Anything v3 や Counterfeitなど
→ おすすめモデルは「AIイラストで使えるおすすめモデル7選」で紹介(内部リンク)
拡張機能(ControlNetなど)
ControlNetとは?
ポーズや構図を制御する機能で、下絵画像に沿った生成が可能。
- 使い方:元画像をアップロード→制御方法を選択(OpenPose、Cannyなど)→生成
LoRA(Low-Rank Adaptation)
モデルを軽量に追加学習させる仕組み。お気に入りの絵柄やキャラクターを学習させられる。
→ ControlNetやLoRAの活用術は「ControlNetを使ってみた」(やってみた記事)へのリンクを文末に挿入
よくあるトラブルと対処法
- 起動しない → Pythonや依存モジュールが未インストール
- 黒い画像になる → ネガティブプロンプトや設定を確認
- 重くて動かない → Google Colabやスペックアップを検討
画像の挿入案
- Web UIの画面キャプチャ(プロンプト入力〜生成までの流れ)
- ControlNetで元画像と生成画像を並べた比較画像
まとめ
Stable Diffusionは初心者でも比較的手軽に始められる強力な画像生成ツールです。まずはWeb UIやColabで試してみて、プロンプトや設定を少しずつ理解していきましょう。便利な拡張機能も併用することで、表現の幅は無限に広がります。