Stable Diffusionとは?使い方完全ガイド【2025年最新】

画像生成AI「Stable Diffusion」を使ってみたいけれど、始め方が分からず悩んでいませんか?

本記事では、Stable Diffusion Web UIによるローカル環境での使い方を中心に、導入方法から基本操作、応用例まで丁寧に解説します。

さらに、onlineでの使い方や、Stable Diffusionの利用にかかる料金、そして著作権・商用利用・NSFW設定の注意点についてもご紹介します。

目次

Stable Diffusionとは?最新版SDXL/3.5の特徴

Stable Diffusionは、入力されたテキストをもとに高品質な画像を生成するAIツールです。

2022年8月にリリースされ、このAIは潜在拡散モデルを使用して、ユーザーのプロンプトに基づいた多様なスタイルの画像を生成します。

リアルな画像やアートスタイルの画像を短時間で作成できるため、クリエイティブなプロジェクトに最適です。

Stable Diffusionの特徴

Stable Diffusionの特徴として、オープンソースであることが挙げられます。

自分のパソコンにインストールして使用する場合、料金はかからず、基本無料で利用できます。

ただし、クラウドサービスやWebアプリケーションを通じて利用する場合、一部のサービスによっては有料プランが設定されていることがあります。

基本的な機能は無料でも、高度な機能や大量の画像生成には料金が必要となるケースが多いです。

それでも、Stable Diffusionは他の商用AIサービスと比べて非常にコスト効率が高いツールです。

利用条件や料金プランを確認し、自分のニーズに合った方法を選ぶことが重要です。

また、オープンソースであるため、コミュニティによって継続的に改善されています。

開発者が新しい機能やモデルを追加することができ、自分自身でカスタマイズしたり、独自の環境で動かしたりすることも可能です。

この柔軟性が、Stable Diffusionを多くのプロジェクトで利用される理由の一つです。

最新モデルSDXLと3.5の特徴

最新モデルとして、Stable Diffusion XL(SDXL)と、Stable Diffusion 3.5があります。

モデルの違いは、解像度、モデルサイズ(パラメータ数)、推奨VRAMとなっています。

スクロールできます
モデル公開年解像度モデルサイズ推奨VRAM
Stable Diffusion XL2023年1024×1024Base:3.5B
Base+Refiner:6.6B
8GB
Refinerありなら16GB

SDXLはBaseとRefinerの2つのモデルを組み合わせたモデルであり、ベースモデルは単体でも使用可能です。

生成できる画像の解像度は1024×1024であり、VRAMはベースモデルのみであれば8GBでも動きますが、Refinerも組み合わせる場合は16GB以上のVRAMが推奨されます。

スクロールできます
モデル公開年解像度モデルサイズ推奨VRAM
Stable Diffusion 3.5 Medium2024年0.25~2MP(例:768×768〜1440×1440)2.5B9.9GB
Stable Diffusion 3.5 Large2024年〜1MP(例:1024×1024, 1280×800)8.1B24GB

一方3.5 Mediumは解像度が0.25~2MP、推奨VRAMは約10GBと比較的軽くなっており、3.5 Largeは解像度が~1MP、推奨VRAMは24GBとかなりのスペックが要求されます。

また、3.5にはLargeを蒸留したLarge Turboもあり、Largeよりも大幅に高速な生成が可能です。

まずは3.5 MediumやSDXLのベースモデルを試し、VRAMに余裕があれば3.5 LargeやSDXLも使ってみましょう。

Stable Diffusionを始める3つの方法(ローカル・クラウド・オンライン)

Stable Diffusionを利用するには、ローカル・クラウド・オンラインという主に3つの方法があります。

それぞれの方法には、異なるメリットとデメリットがあるので、自分に合った方法を選ぶことが大切です。

Stable Diffusionをローカル環境に構築して使う

Stable Diffusionをローカル環境で使用する際の最大のメリットは無料で利用できることです。

オープンソースとして提供されているため、ライセンス料などを気にせずに使用できます。

また、生成する画像の枚数やプロンプトに制限がないため、自分好みにカスタマイズして自由度の高い画像生成が可能です。

一方で、ローカル環境へのインストールには手間がかかります。

特に技術的な知識が必要となるため、初心者には少し難しく感じるかもしれません。

また、高性能なPCが必要であり、スペックが低いと動作が遅くなることがあります。

具体的なスペックは、Windows 10以上のOS、メモリ16GB以上、VRAM 12GB以上のGPUが推奨されています。

Stable Diffusionをローカル環境で利用することで得られる自由度とコストメリットは大きいですが、それに伴う技術的なハードルも考慮する必要があります。

ローカル環境での具体的な構築手順や、より詳細なメリット・デメリットは以下の記事で解説しています。

あわせて読みたい
Stable Diffusionをローカル環境で構築する方法とメリット・デメリット 本記事ではStable Diffusionのローカル環境での構築の手順やメリット、使い方について詳しく解説します。 ローカル環境での構築とその他の方法を比較しながら、各構築方法のメリットやデメリットを正しく理解することで、目的やスキルに合った方法で効果的にStable Diffusionを活用することができます。 Stable Diffusionをより効果的に利用するための拡張機能の導入方法についても紹介します。

Stable Diffusionをクラウドサービスに構築して使う

Stable Diffusionをクラウドサービスで利用する方法は、高性能なPCを持っていない方や手軽に始めたい方に最適です。

最も一般的なのはGoogle Colabの利用です。

Google Colabは、Googleが提供するクラウドベースのJupyterノートブック環境で、GPUを使えるため、Stable Diffusionのような計算量の多いタスクに適しています。

あわせて読みたい
Google Colabとは?使い方や料金!無料で使える?GPUガチャとは Google Colabとは、セットアップ不要で簡単にプログラミングができるクラウドベースのJupyter Notebookサービスで、初心者からプロまで幅広いユーザーに利用されています。 この記事では、Google Colabの使い方や料金プラン、リソースにアクセスする際のメリットや制限について詳しく解説します。 無料で利用できるGPU機能と、Google Colab GPUガチャについても触れながら、用途に応じた最適な利用方法を紹介します。

Google Colabでの導入には、有料のColab Proプランが必要です。

導入方法は以下の記事で解説しています。

あわせて読みたい
Stable Diffusion Web UIをGoogle Colabにインストールする方法と注意点 本記事では、Google Colab上でStable Diffusion Web UIを使う方法を詳しく解説します。 画像生成AIモデルであるStable Diffusionを活用するには高性能なPCが必要とされることが多いですが、Google Colabを使えば、自分のPCにGPUを搭載していなくても簡単に利用できます。 Stable Diffusion Web UIをGoogle Colabにインストールする手順や、利用する際のメリットと注意点を含めて、初心者にもわかりやすく説明します。

他にも、Paperspace GradientやVast.aiなどのクラウドサービスがあります。

Paperspace Gradientは使いやすいインターフェースと無料プランがあり、初心者にも適しています。

一方、Vast.aiは多種多様なGPUから選べ、自分の予算やニーズに柔軟に合わせられます。

これらのクラウドサービスを利用することで、高性能なPCがなくてもStable Diffusionを活用できます。

Stable DiffusionをオンラインのWEBサービスで使う

Stable Diffusionを利用する最も簡単な方法の一つは、企業が提供するWebサービスを活用することです。

無料または定額制で始められるため、初心者の方に特におすすめです。

無料で利用できるWebサービスとして、Stable Diffusion Online・Dream Studio・Mage.spaceがあります。

また、無料では使えませんが、ConoHa AI Canvasというサービスもあります。

ConoHa AI CanvasはGMOが提供するサービスで、国内のデータセンターを使用しているため、安全性と通信速度に優れています。

月額1,100円から利用可能で、高性能なNVIDIA GPUをクラウド上で使用することにより、高品質な画像生成を手軽に始められます。

無料プランはありませんが、有料サービスとしてはどのサービスよりも安く利用できる点が魅力です。

サービス料金
Stable Diffusion Online12ドル/月
※約1,783円
Dream Studio10ドル/クレジット購入1回あたり
※約1,485円
Mage.space15ドル/月
※約2,228円
ConoHa AI Canvas1,100円
ドル円:148.60円で計算

導入方法は以下の記事で詳しく解説しています。

あわせて読みたい
ConoHa AI Canvasとは?使い方やLoRAの導入方法!料金や使用感をレビュー ConoHa AI Canvasは、ウェブブラウザ上で簡単に高品質なAI画像を生成できるサービスです。高性能なパソコンがなくても使え、Stable Diffusionを手軽に利用できます。この記事では、ConoHa AI Canvasの使い方や料金プラン、LoRAの導入方法について解説し、実際に990円のエントリープランを試したレビューも紹介します。AI画像生成に興味のある方は必見です。

\ MiraLab AIの読者限定で500円割引適用中 /

まずはオンライン版で画像生成を試して感触を掴み、気に入ればローカル構築をしてSDXLのベースモデルから始めてみましょう。

もし画像生成をもっと本格的にやりたい場合は、ConoHa AI CanvasでクラウドGPUを使って高速化することをおすすめします。

導入前に確認すべきPCスペックと費用

Stable Diffusionを導入する前に、導入するPCのスペックや利用にかかる費用を確認しておくようにしましょう。

Stable Diffusionに必要なPCスペック

Stable Diffusionをローカルで動かす場合は、ある程度のPCスペックが必要になります。

必要スペックはモデルによって異なりますが、一般にIntel Core i5以上のCPUやVRAM12GB以上のGPU、16GB以上のメモリがあると快適に使えるでしょう。

あわせて読みたい
Stable Diffusionをローカル環境で動かすのに必要なスペック!【Windows・Mac・ノートパソコン】 Stable Diffusionをローカル環境で快適に使用するには、パソコンのスペックが重要です。 特にGPUやメモリの性能が画像を生成する速度や品質に直結します。 本記事では、Windows、Mac、ノートパソコンそれぞれで必要な推奨スペックを詳しく解説し、スペック不足時の対処法やクラウド環境での利用方法も紹介します。 これからStable Diffusionを始めたい方は必見の内容なので、ぜひ参考にしてください。

ただし、3.5 Largeなどの大きなモデルを利用する場合は、24GB以上のVRAMや32GB以上のメモリが必要となります。

軽めのモデルやLoRAを活用する場合はVRAM6GBでも動くでしょう。また、OSはWindowsが推奨されています。

Currently most functionality in the web UI works correctly on macOS, with the most notable exceptions being CLIP interrogator and training. Although training does seem to work, it is incredibly slow and consumes an excessive amount of memory. CLIP interrogator can be used but it doesn’t work correctly with the GPU acceleration macOS uses so the default configuration will run it entirely via CPU (which is slow).

出典:Installation-on-Apple-Silicon

Stable Diffusionの利用にはCPUの性能よりもGPUの性能が大きく影響するため、PCを選ぶ際は特にGPUに注目するようにしましょう。

なお、Webサービスやクラウドサービスを通じてStable Diffusionを利用する場合は、クラウド上のGPUを使用するため、PCのスペックを気にする必要はありません。

Stable Diffusionの利用にかかる費用

Stable Diffusionはローカル環境で利用する場合は料金がかかりません。

ただし、導入するためにPCを購入する場合は初期費用が高くなるほか、画像生成中の電気代などのランニングコストはかかります。

一方で、クラウドサービスやWebサービスで利用する場合は毎月の費用がかかります。

長期かつ定期的に利用する場合はローカル、ときどき利用する場合やハイエンドモデルをお試しで使いたい場合はクラウドサービスやWebサービスを利用するとより費用を抑えられるでしょう。

最初は無料のサービスを使って機能を試し、本格利用する場合は予算に合った導入方法を選びましょう。

Stable Diffusion Web UI(AUTOMATIC1111/FORGE)インストール手順

ここでは、Stable Diffusion Web UIのインストール及びセットアップ手順を、Windowsのローカル環境・Docker・Google Colab別にご紹介します。

代表的なStable Diffusion Web UIとして、AUTOMATIC1111とForgeがあります。

AUTOMATIC1111は歴史が長く、ドキュメントが充実しており使いやすいでしょう。

一方ForgeはVRAMを節約でき、生成速度も向上しているため、PCスペックに不安がある方はForgeの方がおすすめです。

この記事では、AUTOMATIC1111のインストール手順を解説していきます。

Windowsでのセットアップ手順

まずはWindowsのローカル環境でのセットアップ手順をご紹介します。

STEP
Pythonのインストール

Stable Diffusionをローカルで利用するには、Pythonが必要となります。

Pythonの公式サイトから、インストーラをダウンロードしましょう。

ダウンロードしたインストーラを開き、「Add python 3.10 to PATH」にチェックを入れて「Install Now」をクリックすると、Pythonがインストールできます。

STEP
Gitのインストール

Stable Diffusionの利用にはGitも必要となります。

Gitの公式サイトから、環境に合ったインストーラをダウンロードしましょう。

インストーラを起動し、指示に従って進めていくと、Gitをインストールできます。

STEP
Stable Diffusion Web UIのダウンロード

Stable Diffusion WebUI関連のファイルを格納するフォルダを作成し、そのフォルダ内で右クリックをして「Open Git Bash here」をクリックします。

ターミナルを開いた後、次のコマンドを入力してStable Diffusion Web UIをローカル環境にダウンロードします。

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
STEP
Stable Diffusion Web UIの起動

フォルダにWeb UIのフォルダが格納されており、そのフォルダ内にあるwebui-user.batファイルを実行すると、Stable Diffusion Web UIが起動できます。

なお、初回起動は時間がかかるので、気長に待ちましょう。

Dockerでのセットアップ手順

次に、Dockerでのセットアップ手順を解説します。

STEP
Docker Desktopのインストール

Dockerの公式サイトから、利用環境に合ったDocker Desktopのインストーラをダウンロードします。

インストーラを起動してDocker Desktopをインストールします。

インストール完了後、「Close and restart」をクリックすると、PCが再起動されます。

STEP
Gitのインストール

Windowsでのセットアップ手順と同様、Gitの公式サイトからGitをインストールしましょう。

STEP
NVIDIA CUDA Toolkitのインストール(NVIDIA GPUの場合)

NVIDIA GPUを利用している場合は、利用しているGPUに合ったNVIDIA CUDA Toolkitをインストールしましょう。

STEP
WSL2のインストール(Windowsの場合)

OSがWindowsの場合は、WSL2をインストールします。

WSL2とは、Windows上でLinuxを仮想的に動かすためのツールです。

まずはWindows PowerShellを右クリックして管理者として実行します。

以下のコマンドを入力してWSL2をインストールします。

wsl --install

インストール完了後は再起動し、ユーザー名とパスワードを設定することでWSL2を利用できるようになります。

STEP
WSLの設定変更(Windowsの場合)

Stable Diffusionはメモリを大量に使用するため、メモリの割り当てを増やしておきましょう。

C:/Users/[ユーザー名]/.wslconfigファイルを作成し、以下の内容を記載します。

[wsl2]
memory=13GB
swap=128GB

ファイル変更後、PCを再起動しましょう。

STEP
Stable Diffusion Web UIのクローン

次のコマンドを入力することで、Docker版Stable Diffusion Web UIのリポジトリをクローンできます。

git clone https://github.com/AbdBarho/stable-diffusion-webui-docker
STEP
Stable Diffusionのコンテナを定義

以下のコマンドを実行してディレクトリを移動します。

cd stable-diffusion-webui-docker

そして、次のコマンドを実行してStable Diffusionのコンテナを定義します。

docker compose --profile download up --build

なお、コマンドの実行前にDocker Desktopを起動しておきましょう。

STEP
Stable Diffusionの実行・起動

以下のコマンドを入力すると、Stable Diffusionを実行できます。

docker compose --profile auto up --build

実行後、Docker DesktopでStable Diffusionが動いていることが確認できます。

ブラウザでhttp://localhost:7860にアクセスすると、Stable Diffusion Web UIが起動できます。

Google Colabでのセットアップ手順

最後に、Google Colabでのセットアップ手順を解説します。

STEP
Google Colab Proの契約

Google ColabでStable Diffusionを利用する場合、有料版のProを契約する必要があります。

Proプランを契約していない場合は、契約してください。

STEP
ランタイムをGPUに設定

Stable Diffusionの利用にはGPU環境が必要であるため、ランタイムをGPUに設定します。

最も性能の高くクレジット消費量も多いGPUがA100、最も性能が低くクレジット消費量が少ないGPUがT4となっています。

STEP
Stable Diffusion Web UIのダウンロード

Colabノートブック上で以下のコマンドを入力してリポジトリを複製します。

!git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui

続いて、以下のコマンドを入力することでStable Diffusion Web UIがダウンロードできます。

%cd /content/stable-diffusion-webui
!python launch.py --share --enable-insecure-extension-access

コマンド実行後に表示されるURLをクリックすると、Stable Diffusion Web UIを起動できます。

初回起動と日本語化の手順

Stable Diffusion Web UIは、ブラウザ上でローカルホストにアクセスすることで起動できます。

デフォルトは英語となっていますが、日本語化して使いたいという方もいるでしょう。

Stable Diffusionは拡張機能を使うことで、日本語化することが可能です。

日本語化の手順は以下の通りです。

STEP
拡張機能のインストール

まずは「Extensions」タブを開きます。

「Available」タブを選び、タグは「localization」のチェックを外し、Showing typeは「hide」にした状態で「Load from:」をクリックします。

一覧の中から、「ja_JP Localization」という拡張機能を選び、「Install」をクリックしてインストールします。

STEP
日本語化の適用

「Setting」タブを開き、「User Interface」を選びます。

一番上の「Localization」で「jp_JP」を選びます。

なお、「jp_JP」が表示されない場合は、右の更新ボタンを押してください。

「Apply Settings」をクリックして変更を適用します。

その後、「Reload UI」をクリックするとStable Diffusionの日本語化が完了します。

とりあえずWeb UIを試してみたい方やGPUのスペックが足りないという方はGoogle Colab、ローカルで環境構築したい方はWindowsでの構築、Dockerも活用したい方はDockerを使った方法で導入しましょう。

基本操作ガイド

この記事では、Stable Diffusionの基本操作として、txt2img、img2img、inpaintの使い方と、seed値の決め方やprompt作成のコツを解説します。

txt2img画像生成方法

txt2imgでは、入力したテキストから画像を生成できます。

txt2imgで画像を生成する手順は以下の通りです。

STEP
プロンプトの入力

txt2imgタブを選択し、生成したい画像の特徴をPromptに入力します。

下のNegativa promptには生成画像に含めてほしくない要素を入力します。

今回は、Promptに「dog, face, smile」を、Negative promptに「worst quality, ugly, bad anatomy, jpeg artifacts」と入力しました。

STEP
パラメータの調整

画像のサイズや生成枚数などを選択します。

各パラメータの意味はこのようになっています。

スクロールできます
パラメータ意味
サンプリング方法サンプリング手法を選択でき、生成速度や画像の品質が変わる
Schedule typeノイズを減らす手法を選択でき、生成される画像の特徴や品質が変わる
サンプリングステップ数値が大きいほど画像の品質が良くなるが、生成速度が落ちる
幅・高さ画像サイズであり、大きいほど生成速度が遅くなる
バッチ回数画像を生成する回数
バッチサイズ一度に生成する画像の枚数
CFG Scalepromptの影響の強さであり、値が大きいほど指示に忠実になる
シード画像生成のもととなる数値であり、固定すれば同じ画像を生成できる

バッチ回数は画像を生成する回数、バッチサイズは一度に生成する画像の枚数を表します。

たとえば、バッチサイズを2にしてバッチ回数を3にすると、画像が2枚ずつ3回、合計6枚の画像が生成されます。

STEP
画像を生成

プロンプトとパラメータが設定できたら、右の「生成」をクリックします。

今回実際に生成された画像がこちらです。

img2img画像変換方法

img2imgでは、画像を入力として新たな画像を生成できます。

img2imgの使い方は以下の通りです。

STEP
画像をアップロード

「img2img」タブを選択し、入力にしたい画像をアップロードします。

今回は、先ほどtxt2imgで生成した画像をアップロードしました。

STEP
プロンプトを入力

生成したい画像に関する情報をPromptとして入力します。

今回は、Promptに「the dog’s fur change from black to white」として、犬の毛を黒から白に変更することを試みました。

なお、Negative promptはtxt2imgと同じにしています。

STEP
画像を生成

画像のアップロード、promptの入力が完了したら、「生成」をクリックして画像を生成します。

今回生成された画像がこちらです。

犬の毛を完全に白くすることはできませんでしたが、白色の毛を要素として入れることには成功していました。

inpaint部分修正のやり方

img2imgの中には、inpaintという生成画像の部分修正ができる機能があります。

inpaintの使い方は以下の通りです。

STEP
画像のアップロード

img2imgタブの中のinpaintタブを選択し、生成した画像をアップロードします。

STEP
マスクの選択

画像のうち、変更したい部分をマスクで選びます。

なお、マスクした部分以外を変更することも可能です。

STEP
プロンプトの入力

変更したい要素をプロンプトとして入力します。

なお、プロンプトは基本生成時と同じものにしておく必要があります。

今回は、「close mouse」を加えて口を閉じた画像を生成させることを試みました。

STEP
パラメータの調整

パラメータを調整することで望み通りの画像を生成しやすくなります。

STEP
画像を生成

設定が完了したら、「生成」をクリックして画像を生成します。

今回生成された画像がこちらです。

なお、元の画像がこちらです。

口を完全に閉じることはできていませんでしたが、口の部分のみを修正できていることが分かります。

seed値の決め方とprompt作成のコツ

Stable Diffusionで画像生成をする際、seed値の決め方とpromptは重要です。

seed値は画像生成の乱数の初期値であり、同じモデル・プロンプト・設定なら同じseedを指定することで完全に再現可能です。

新しい発想を得たい場合はseedを-1にするか、好みの数字の1桁を変えて小刻みに試行すると、傾向を比べながら効率的に探索できます。

逆に構図や雰囲気を詰めたいときは、まずランダム生成で当たり画像のseedを控え、そのseedを固定したままプロンプトやパラメータを微調整すると細部を詰めやすくなります。

また、promptは先に入力したものほど強く影響するため、重要なキーワードほど先に入力するようにしましょう。

さらに(単語:1.2) のように書くとその単語の重要度が1.2倍になり、重み付けできます。

また、Negative promptも活用することで、ノイズや画像の品質低下を抑えられます。

まずはtxt2imgで画像生成とはどういうものであるかを掴み、img2imgやinpaintでの画像変更も試してみましょう。

慣れてきたらseed値やpromptも変えて望み通りの画像を生成することを目指してみてください。

モデル・LoRA・VAE・Checkpoint の導入と管理

Stable Diffusionを使う上で、モデルやLoRA、VAE、Checkpointという言葉を聞くことがあります。

ここでは、これらについてご紹介します。

モデルとは?管理方法も解説

Stable Diffusionではモデルを設定し、プロンプトを入力することで画像を生成します。

設定するモデルによって、実写風や、アニメ調、油絵など、生成される画像の雰囲気やスタイル、画風が変わります。

さまざまなモデルを利用することで、想定したイメージに近い画像を生成しやすくなります。

なお、モデルはCheckpointというモデルファイルとして設定できます。

Checkpointの導入方法

モデルファイルであるCheckpointは、Hugging FaceCivitaiで配布されています。

あわせて読みたい
Hugging Faceとは?使い方と料金!ダウンロード方法やLoRAの探し方も解説 Hugging Faceとは何か、GitHubとの違いはどこにあるのか、気になっている方も多いのではないでしょうか。 この記事では、Hugging Faceの基本的な使い方から料金プラン、LoRAモデルの探し方やダウンロード方法まで、初心者にもわかりやすく解説します。 AIモデルの共有プラットフォームとしてのHugging Faceの特徴を理解し、効率的に活用することで、AI開発プロジェクトをよりスムーズに進められるようになるでしょう。
あわせて読みたい
Civitaiとは?登録方法や使い方と料金!商用利用の確認方法や危険性も紹介 Civitaiの使い方や登録方法がわからない、商用利用が可能か不安という方も多いのではないでしょうか。 この記事では、Civitaiの基本的な機能から料金プラン、商用利用の...

モデルをダウンロードした後は、stable-diffusion-webui/models/Stable-diffusionフォルダにモデルファイルを格納することで、Stable Diffusionで利用できるようになります。

ダウンロードしたモデルファイルは、基本的にこのフォルダで管理することになります。

Stable Diffusionで設定する際は、左上のプルダウンから選択します。

LoRA の作り方

LoRAとは追加学習モデルのことであり、Checkpointに対して追加学習を行った差分ファイルとなります。

髪型や服装、背景などに対して追加で学習を行われているモデルがあります。

LoRAもCheckpointと同様にHugging FaceやCivitaiから入手できます。

ダウンロードしたLoRAは、stable-diffusion-webui/models/LoRAに格納することで利用できるようになります。

また、LoRAファイルをダウンロードして使うだけではなく、自分で画像データを学習させてLoRAファイルを作成することも可能です。

通常のモデルファイルと比べて計算量が少なく済むため、解像度を1024x1024px、または512×512 pxに統一した画像を20〜100枚用意し、5〜10エポック学習させることでLoRAが作成できます。

ただし、VRAMは16GB以上が推奨されています。

VAE の導入方法

VAEは、まず膨大なピクセル情報をコンパクトな潜在ベクトルへ射影し、後にそのベクトルから元の解像度の画像を復元する仕組みです。

画像生成AIは計算負荷が大きいため、高解像度のまま演算すると時間がかかります。

そこで処理の初段階で画像を低次元の潜在空間に圧縮し、データ量を減らして計算を高速化します。

最後に、その潜在ベクトルをデコーダで展開し、高次元の画像に戻して出力します。

VAEファイルもHugging FaceやCivitaiからダウンロードでき、ファイルをstable-diffusion-webui/models/VAEに格納することでVAEを利用できるようになります。

まずはデフォルトのモデルを使用して画像を生成し、その後望み通りの画像を生成するためにさまざまなモデルをダウンロードして試してみましょう。

自分好みの雰囲気や背景などを取り入れたい場合はLoRAの自作にも挑戦してみてください。

拡張機能 ControlNet/Web UI Extensions 活用術

Stable Diffusion Web UIには、拡張機能となるWeb UI Extensionsがあります。

ここでは、Web UI Extensionsの概要と、代表的な拡張機能であるControlNetの使い方についてご説明します。

Web UI Extensionsとは?

Web UI Extensionsは、画像生成AIであるStable Diffusion Web UIに、さらなる機能を追加するためのプラグインです。

これらの拡張機能を利用することで、画像の品質を向上させたり、特定のスタイルや構図を簡単に適用したり、あるいは動画生成のような新しい機能を追加したりと、基本的なWeb UIだけでは実現できない多様な操作が可能になります。

多くの場合、Web UIの「Extensions」タブから簡単にインストールや管理ができ、ユーザーは自身の目的に合わせて機能をカスタマイズできます。

これにより、Stable Diffusionの表現力や利便性が大幅に向上し、より高度で効率的な画像生成体験が実現します。

ControlNetの使い方

ControlNetは、Stable Diffusionにおいて生成される画像の構図やポーズなどをより精密に制御するための拡張機能です。

参照となる画像を入力として与えることで、その画像と同じポーズや線画などを生成画像に反映させることができます。

ControlNet の使い方は以下の通りです。

STEP
ControlNetをインストール

Stable Diffusionの「拡張機能」タブの「URLからインストール」を選びます。

リポジトリのURLとして、ControlNetのリポジトリURL(https://github.com/Mikubill/sd-webui-controlnet)を入力します。

「インストール」をクリックすると、ControlNetがインストールされます。

STEP
ControlNetを適用

インストール後、「インストール済」の欄にControlNetがあることを確認し、「適用してUIを再起動」をクリックします。

再起動後、txt2imgにControlNetが追加されていれば、ControlNetが利用できる状態になっています。

STEP
ControlNet用のモデルをダウンロード

ControlNetを使うには、ControlNet用のモデルが必要です。

Hugging FaceやCivitaiを通じて、必要なモデルをダウンロードしましょう。

拡張機能の中でもControlNetは有名なので、まずはControlNetから試してみましょう。

その後、ほしい機能があればWeb UI Extensionsを探してみてください。

スマホで使うStable Diffusion(iOS/Android)

ここまでPCを使ってStable Diffusionを利用する方法を解説してきましたが、実はスマホでも利用することができます。

PCのようにローカルに環境構築して利用するのは無理ですが、Webサービスやスマホアプリを使うことで、Stable Diffusionを利用できます。

Stable Diffusionのスマホアプリはある?

Stable Diffusionを利用できるスマホアプリとしては、『Dream by WoMBO』や『AIピカソ』などがあります。

『Dream by WoMBO』ではプロンプトとスタイルを入力するだけで簡単にイラストを生成できます。

また、『AIピカソ』は日本語に対応しており、画像生成を気軽に楽しめます。

どちらもiOS、Androidの両方で利用でき、無料でも基本機能が使えます。

スマホで手軽にStable Diffusionを使った画像生成を試したい方は、スマホアプリを使うことをおすすめします。

Stable Diffusionをスマホで使う方法

Stable Diffusionをスマホで使うには、アプリをダウンロードして使う方法や、Webサービスに登録してブラウザ上で使う方法、LINEで使う方法があります。

Webサービスの例としては、Stable Diffusionオンラインがあります。

無料で利用でき、プロンプトや画像の入力のみで細かな設定なしに画像生成が可能です。

また、AIイラストくんというサービスでは、LINE友達に追加することでLINEのトーク画面から画像生成ができます。

このように、さまざまなサービスを活用することでスマホでも生成AIを使って画像生成を行うことが可能です。

スマホを使って画像生成したい方は、まずはサービスに登録してみましょう。

商用利用・著作権・NSFW設定の注意点

Stable Diffusionを利用する際には、商用利用や著作権、NSFT設定において注意点があります。

ここでは、それらの注意点を解説します。

Stable Diffusionは商用利用できる?

Stable Diffusionは商用利用も可能ですが、使用する際にはライセンス条件を確認することが重要です。

基本的には商用利用が許可されていますが、特定の商用プロジェクトや大規模な商業用途では追加の許可や条件が必要になる場合があります。

商用利用を考えている場合は、最新のライセンス情報を確認し、必要な手続きを行うようにしてください。

著作権の注意点

Stable Diffusionは、インターネット上の画像データを学習して画像を生成しているため、意図せず実在の人物や既存の著作物に酷似した画像を生成してしまう可能性があります。

利用の際、生成画像の権利は利用者に帰属する一方、第三者の著作権や商標を侵害しない責任はユーザーに課されています。

元作品の実質的複製と見なされれば侵害に問われる恐れがあり、実際にアーティスト団体がStability AIを提訴した事例もあります。

A lawsuit that several artists filed against Stability AI, Midjourney, and other AI-related companies can proceed with some claims dismissed, a judge ruled yesterday.

出典:The Verge

プロンプトに注意を払うことはもちろん、生成した画像が著作権を侵害していないかを確認することが必須です。

NSFWフィルタの設定

NSFWとは「Not Safe For Work」の略で、職場や公共の場で見ると不適切と判断され得る性的・暴力的・ショッキングな内容を含む可能性を示す警告ラベルです。

Stable DiffusionではCLIP埋め込みを用いたSafety Checkerが実装されており、NSFWと推定される画像は自動的に黒画像へ置き換えたり生成を停止したりします。

AUTOMATIC1111などのWeb UIでは、NSFWフィルタをオプションでオフにでき、コード数行を削除するだけで機能を無効化することも可能です。

ただし、フィルタを解除してローカル生成しても、ライセンスや各国法が禁じる児童ポルノ・過度な暴力表現などを公開・配信すれば規約違反や違法行為にあたる可能性があります。

NSFWフィルタの解除は自己責任であり、常に利用規約やコミュニティガイドラインを遵守し、責任ある利用を心がけるようにしましょう。

注意点を把握しつつ、生成物には責任を持つようにしましょう。

よくあるエラーとトラブルシューティング

Stable Diffusionを利用していると、さまざまなエラーが発生する可能性があります。

ここでは、よくあるエラーとその解決策をご紹介します。

Stable Diffusionが起動しないとき

Stable Diffusionが起動しない要因としては、Pythonが認識されていないことや、Pythonのバージョンが対応していないことが挙げられます。

以下のエラーが出た場合はPythonが正しく認識されていない可能性があります。

Couldn't launch python

このエラーが起きた場合、Pythonの位置情報を認識させるために、保存先をwebui-user.batに変更します。

その後、webui-user.bat内を以下のように編集します。

set PYTHON=<Pythonのパス>

また、Stable Diffusionで推奨されているPythonのバージョンは3.10.6であり、Pythonバージョンが対応していない場合は以下のエラーが発生します。

ERROR: Could not find a version that satisfies the requirement torch==1.13.1+cu117 (from versions: none)
ERROR: No matching distribution found for torch==1.13.1+cu117

この場合は、PythonとStable Diffusionを両方ともアンインストールし、再インストールしましょう。

画像生成がうまくいかないとき

Stable Diffusionを使っていて画像生成がうまくいかない原因としては、サーバー接続やGPUのスペック不足が考えられます。

Something went wrong Connecttion errored out.

上記のようなエラーが出た場合、サーバーとの接続が切れていることが原因です。

この場合はStable Diffusionを再起動することで対処可能です。

また、以下のようなエラーは、VRAMが不足していることが原因です。

Not enough memory,use lower resolution(max approx, ...).
Need:...,Have:...

最も確実な対処法は、GPUの買い替えです。

推奨VRAMは12GB以上なので、それに合ったGPUを選びましょう。

もし買い替えが難しいという場合は、webui-user.batファイル内に以下のコードを追加することで解決できるかもしれません。

–-medvram #VRAMの負荷軽減
-–lowvram #さらに負荷軽減

上か下のどちらかを記載すれば大丈夫です。

lowvramはVRAMへの負荷が大きく軽減できますが、処理にかかる時間がかなり長くなります。

medvramの方が望ましく、可能であればGPUの買い替えをおすすめします。

トラブルがあった場合はこれらの方法を試してみてください。

まとめ:最速で上達する学習ロードマップ

Stable Diffusionは、無料で利用できる画像生成AIであり、オープンソースの利点を活かして、ローカル環境やクラウドサービス、Webサービスで導入できます。

まずは導入して基本操作を覚え、そこからさまざまなモデルやLoRA、拡張機能を使いこなせるようになっていけると理想的です。

商用利用も可能で、クリエイティブな作業の幅を広げるツールとなっています。

AIによる画像生成の魅力をぜひお試しください。

あわせて読みたい
画像生成AI・イラスト生成AIおすすめ7選!無料と有料の違い【ブラウザ・サイトで動く】 イラスト生成AIや画像生成AIは、デザイン効率を高め、アイデアを形にするための頼れるツールです。この記事では、無料でブラウザで利用できるおすすめのイラスト生成AIツールや、画像生成AIに関するおすすめ無料サイトを厳選してご紹介します。初心者にも扱いやすいツールから多機能なものまで取り上げ、活用法を詳しく解説します。ぜひこの記事を参考に、創作活動を効率的かつ楽しく進めてください!
よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次