Stable Diffusionの使い方ガイド|Web UIからControlNetまで解説

Stable Diffusionとは?

Stable Diffusionは、オープンソースの画像生成AIです。ユーザーが入力する”プロンプト(呪文)”に応じて高品質な画像を生成でき、MidjourneyやDALL·Eと並ぶ人気を誇ります。オープンソースであることから、無料で利用でき、カスタマイズ性が高いのが大きな特徴です。

初心者におすすめの導入方法

Stable Diffusionは複数の導入方法がありますが、初心者には以下の2つがおすすめです。

1. Web UI(AUTOMATIC1111版)

ブラウザベースで使えるインターフェース。インストールは必要ですが、一度セットアップすれば自由に操作可能。

導入手順(Windows向け)

  1. Python公式サイトからPythonをインストール
  2. Gitをインストール(公式サイト
  3. GitHubからAUTOMATIC1111のWeb UIをクローン
  4. コマンドプロンプトでWeb UIを起動

※詳細な手順やエラー対策は、別記事「【やってみた】Stable DiffusionをWindowsにインストールしてみた」で紹介(内部リンクをここに挿入)

2. Google Colab版

ブラウザだけで動かせるのでPCに負荷をかけず、スマホからも使えます。

  • データ保存のためGoogle Drive連携が必要
  • 無料プランだと制限あり

基本機能の使い方

プロンプトとネガティブプロンプト

プロンプトとは生成したい内容を指示するテキストです。たとえば「1girl, fantasy armor, beautiful lighting」など。

  • ネガティブプロンプト:入れたくない要素を指定(例:「blurry, ugly」)

→ 詳細と例文は「AIイラストで使えるプロンプト一覧まとめ」(内部リンク)

CFG Scaleの調整

プロンプトの忠実度を決めるパラメータ。数値を上げるほどプロンプトに忠実な画像になるが、やりすぎると不自然になる。
→ 初心者は7〜10がおすすめ。詳細は「CFG Scaleとは?」(内部リンク)

Sampling Steps

画像の生成過程での繰り返し回数。多いほど高品質になるが時間がかかる。
→ 20〜30で十分。

モデルの切り替え

・基本:stable-diffusion-v1-4 や v1-5
・エロ系・美少女系:Anything v3 や Counterfeitなど
→ おすすめモデルは「AIイラストで使えるおすすめモデル7選」で紹介(内部リンク)

拡張機能(ControlNetなど)

ControlNetとは?

ポーズや構図を制御する機能で、下絵画像に沿った生成が可能。

  • 使い方:元画像をアップロード→制御方法を選択(OpenPose、Cannyなど)→生成

LoRA(Low-Rank Adaptation)

モデルを軽量に追加学習させる仕組み。お気に入りの絵柄やキャラクターを学習させられる。

→ ControlNetやLoRAの活用術は「ControlNetを使ってみた」(やってみた記事)へのリンクを文末に挿入

よくあるトラブルと対処法

  • 起動しない → Pythonや依存モジュールが未インストール
  • 黒い画像になる → ネガティブプロンプトや設定を確認
  • 重くて動かない → Google Colabやスペックアップを検討

画像の挿入案

  • Web UIの画面キャプチャ(プロンプト入力〜生成までの流れ)
  • ControlNetで元画像と生成画像を並べた比較画像

まとめ

Stable Diffusionは初心者でも比較的手軽に始められる強力な画像生成ツールです。まずはWeb UIやColabで試してみて、プロンプトや設定を少しずつ理解していきましょう。便利な拡張機能も併用することで、表現の幅は無限に広がります。

記事