-
CG
-
【StableDiffusion】画像生成AI質問スレ7【NovelAI】
-
UPLIFTで広告なしで体験しましょう!快適な閲覧ライフをお約束します!
Stable Diffusionをはじめとする画像生成AIに関する質問用のスレッドです。
次スレは>950が立ててください。
テンプレは>2以降に
※前スレ
【StableDiffusion】画像生成AI質問スレ5【NovelAI】←6の間違い
https://mevius.5ch.n...d.cgi/cg/1680339324/ - コメントを投稿する
-
■AUTOMATIC1111/Stable Diffusion WebUI https://github.com/A...able-diffusion-webui
パソコン上だけで(ローカルで)画像を生成できるプログラムのデファクトスタンダード。実行にはパソコンにNVIDIA製のGPUが必要
導入方法 - NovelAI 5ch Wiki https://seesaawiki.j...b3%c6%fe%ca%fd%cb%a1
■ブラウザなどで画像生成できるサービス
https://novelai.net/ 有料。アニメ、マンガ風のイラストを手軽に生成できる
https://nijijourney.com/ja/ 日本語プロンプト可。最初の25枚は無料。特徴は同上
https://memeplex.app/ 日本語プロンプト可。モデルはSD1.5/2.0(2.1ではない)、OpenJourneyなど限られる。学習機能を利用できるなどのサブスクあり
https://www.mage.space/ googleアカウントでログインすればSD2.1も使える。サブスクならWaifuやAnything v3なども使える。生成できる画像はSD2.1でも512x512のみ
https://lexica.art/aperture Lexica Apertureという独自モデル。生成できる画像は正方形だと640×640まで。無料で生成できる枚数は月100枚まで
https://www.stable-diffusion.click/ Waifu1.2/1.3、trinart2を使える
https://page.line.me/877ieiqs LINEから日本語で画像生成。無料だと1日2枚まで。いらすとやとコラボした「いらすとや風スタイル」を選べるのが特徴
■アプリケーションソフトのプラグイン
Photoshop https://github.com/A...ableDiffusion-Plugin
クリスタ https://github.com/mika-f/nekodraw
blender https://platform.sta...integrations/blender https://github.com/c...katri/dream-textures
Krita https://github.com/I...se/auto-sd-paint-ext (1111のExtensionからインストール可能) -
質問いいですか
-
■画像アップローダーや便利なツール
https://majinai.art/ 生成した画像内の呪文などを抽出して掲載してくれる
https://imgur.com/ 手軽にアップロードできるが画像内のメタデータは削除される。サインインすれば自分が上げた画像の一覧も見られる。複数枚アップロードして1ページで見せることも可能。1枚だけ上げたときは画像ページのURLではなく画像そのもののURLを書き込もう。例:https://i.imgur.com/2pNwfuT.png
https://photocombine.net/cb/ 画像を結合できるWebアプリ。文字入れも可能
■関連スレ
なんJNVA部★185
https://fate.5ch.net...veuranus/1681045318/
【StableDiffusion】AIエロ画像情報交換20【NovelAI】
https://mercury.bbsp...gi/erocg/1680682937/
【StableDiffusion】画像生成AI質問スレ5【NovelAI】
https://mevius.5ch.n...d.cgi/cg/1679654631/
【StableDiffusion】AI画像生成技術18【NovelAI】
https://mevius.5ch.n...d.cgi/cg/1680918687/
AI絵師のマネタイズ関連スレ ★18
https://medaka.5ch.n...i/doujin/1680785217/
NovelAI,Holara,TrinArt等画像生成AIサービス総合
https://mevius.5ch.n...gi/esite/1679527005/
なんJnovelAI部ウェブ専★68
https://fate.5ch.net...veuranus/1679488956/
以下は雑談用。質問以外はこちらへ
AIイラスト 愚痴、アンチ、賛美スレ part43
https://mevius.5ch.n...ustrator/1681047329/
【Midjourney】AI関連総合18【StableDiffusion】
https://mevius.5ch.n...d.cgi/cg/1668016418/ -
■FAQ
Q:ローカル(パソコンで生成)とGoogle Colaboratoryやpaperspaceなどのクラウド実行環境、どちらがいい?
A:ローカルは時間制限がなくエロも生成し放題だがNVIDIAのグラボが必要。クラウド実行環境はエロ画像でBANされる可能性がある
Q:ローカル環境でパソコンの性能はどのくらいがいい?
A:グラボはなるべく3060 12GBから。VRAM容量が大事。CPUの性能はほどほどでよい。本体メモリは最低限16GB。ストレージはNVMeのような早いものにするとモデルの切り換えにストレスが少ない
Q:NMKDと1111、どちらをインストールしたらいい?
A:NMKDはインストールは楽だが機能とユーザー数が少ない。1111がおすすめ
Q:画像を出力したら色が薄い、または彩度が低い
A:VAEが適用されていない可能性がある。1111なら設定(settings)-UI設定(User Interface)-クイック設定(Quicksettings list)に「, sd_vae」を追加するとVAEの切り換えが楽になる
Q:〔1111〕自分の環境で使える?
A:利用は無料なのでインストールしてみるとよい。省メモリの設定は以下を参照 https://seesaawiki.j...%a4%cewebui-user.bat
Q:〔1111〕インストール方法がわからない
A:公式の簡易インストーラ(一部の拡張機能を使うにはPythonの追加インストールが必要かもしれない)
https://github.com/A...usion-webui/releases
解凍→update.batを実行→run.batを実行でインストールされる。これでSD1.5の学習モデルが自動的にダウンロードされる
Q:〔1111〕起動時の縦横解像度を512以外の数値にするなど、起動時の初期値や数値の増減量を変えたい
A:1111をインストールしたフォルダにある「ui-config.json」を編集
Q:〔1111〕作りすぎたスタイルを整理したい
A:1111をインストールしたフォルダにある「styles.csv」を編集
Q:〔1111〕出力するごとに生成ボタンをクリックするのがわずらわしい
A:生成ボタンを右クリックし「Generate Forever」を選択。バッチと異なり出力中にプロンプトやパラメータを変更可能
Q:〔1111〕アニメ顔を出力したら目鼻がなんか気持ち悪い
A:「顔の修復(restore faces)」をオフにする。「顔の修復」は実写の顔の修復専用 -
■FAQ2
Q:〔1111〕設定を変更したのに反映されない
A:設定変更後はページトップの「変更を反映(Apply)」ボタンのクリックを忘れずに。設定によっては「UIの再読み込み(Reload UI)」(「再起動が必要」と書かれていてもこれですむものが多い)や1111の再起動が必要 -
【CLIP設定ってどうしたらいい?】
イラスト系モデルならCLIP2、リアル系はCLIP1とCLIP2の両方を試してみる
【そもそもCLIPって何?】
ざっくり簡単に言うと、プロンプトから受け取ったテキスト情報を層ごとに処理して画像を生成するという、Stablediffusionが採用してる処理方式のこと
CLIP1設定なら『最後から1番目の層まで処理(※ようは最終層まで処理)してから画像生成』という設定であり、SD1.x系モデルはそれが標準設定となっていた
その後、StableDiffusionをベースにしているNovelAIというお絵描きAIサービスが『最後から2番目の層で処理を止めて(※ようは最終CLIPを省略)画像を生成』という特殊な追加学習方法を実施
これは最終層で処理されるノイズなどの情報を省略することで、イラスト絵の再現度を上げるためであり、この方式で学習したモデルの場合はCLIP2設定ののほうがプロンプトの反映が正確になるとのこと
そしてご存知の通りNovelAIが作ったモデルはネットに流出して各モデルへと派生、よってNovelAIを源流とするイラスト系モデルは基本的にはCLIP2設定が推奨となっている
実写系モデルは暫くは公式準拠でCLIP1を推奨していたが、最近の実写系モデルにもNovelAIが混ざっていることもあり、推奨設定が1か2かはモデルごとに違うとしか言えない
またCLIPskipは結果的にプロンプト処理の一部を省略するため、モデルによってはCLIP2設定よりもCLIP1設定のほうがプロンプトの効き自体が良くなることもある
ちなみに現在StableDiffusion公式モデル最新版であるv2.1はCLIP2が標準設定になっている
もちろんだがどのモデルもCLIP設定は自由に変更でき、また1か2でないと出せない絵柄というのもあるので、両方試しつつ好みの絵柄を探ってみるのが良い
と思われる
ただ、CLIPを飛ばし続けるとどんどんプロンプトを無視していくので、仕様的にも2までにしておくのが無難である -
次スレここなのです?前スレ5じゃなかった?6飛んでない?
-
では、次スレは7.1でw
-
前スレが間違えてたのかなるほど
-
ほーん
CLIPの差し替えしないと出ない絵があるのか
知見だ
っぱComfyUIなんよ -
あと、etaも0~1の範囲で変更できて
モデルやプロンプト、シードによって構図がかなり変化することがある
これはCkip SkipやENSDと違ってPNG情報にも記録が残らないから
サンプルと同じ画像をお試して作ろうとして「なんだか構図がちょっと違うな」
というときは手探りで試してみるのもけっこう楽しいぞ -
前スレでcanny教えてくれた人ありがとう
リアル化できるようになりました
お尻の穴を差し出したいぐらい嬉しいです
https://i.imgur.com/lFa4gBu.jpg
https://i.imgur.com/yREVGxR.jpg -
前スレで>>981に回答くれた皆さんありがとうございます。
pantieではだめだったんですね。
underwear 系統にすると、一気に改善しました。なぜ、パンティーではだめなのか・・・・・
LoRAや画像からの生成の方がよいとの話もありましたが、話自体知りませんでした。
そっちも、これからやってみます。 -
panties でいつもやってる
-
Controlnetのcannyedgeの結果を学習したモデルにcannyedgeで検出できた画像を突っ込むことで構図を保って別の画像を生成するやつ
mikubilさんのreadmeを読んでControlnetのExtensionを導入しよう -
>>18
帰ったらやってみるありがとー -
少ない画像でLORA学習する時、正則化画像って取り除きたいモノの切り抜きで良いのかな?
例えば女の子と猫が写ってて、猫を学習させたく無い時はその猫の切り抜きを1_catにぶち込んで回してる
一応それで猫は出てこないけどそれがそれが果たして正しい使い方なのか気になってる -
なんかアップスケールさせたほうがエロさ半減するっていうか顔がアップスケール顔になる。
リアル系だとわかり易いわ
対策ないです? -
アップスケール顔草
多分アップスケール時になんか滑らかになるあれの事かな
使うアップスケーラーによる気もする -
アップスケールすると手が破綻するのほんときらい
-
まじか
アップスケールってそんな影響ある?
アップスケール面倒くさがってほとんどやらないんだけど -
アップスケールのロジックって、
一度作った画像をぼかして、
そのぼかしを元に大きい画像を再描画する感じでいいんだよね? -
Denoising strength 低くしたら元絵とそんな変わらんっしょ
マックスにすると想像力豊かで芸術性あふれるクリーチャーが飛び出してくるw -
Pantiesじゃないか?一個でも複数形みたいなやつ
-
アップスケールと
hires.fixが混同してるオカンやないか -
あーほんまや
Extraの話しか.. -
Colab使ってLORA学習の環境構築方法解説してるサイトありますか…?
1111導入解説ばっかりでLORAの学習環境の方はなかなか見つからず… -
>>21
「アップスケール」とか言わずに正確な機能名で質問してね -
ショーツだと短パンみたいな感じになるね
-
豆じゃがストッキングを履かせようとしてpantyhoseを入れるとpantyに引っ張られるのかパンツを履いてしまうことが多い
そこでワシはover-the-knee-stockingsを使うんじゃがこれがよう上手くいく
(ちなみに色は白) -
パソコン使ってんだからスペルくらいネットで確認してくれよ
-
そんなに気になるんならSRしろ😡
-
SRって何?
-
まがりなりにもAIなんだから構文理解くらいしてるだろ
って思う事もありました -
アビス系のマージモデル使ってるんだけど
パンスト脚にサンダル履かせるとつま先部分が
素足になってしまうんやが解決策ある?
海外ではサンダルにパンストは履かない習慣だから
学習されてないのかな? -
ひとつ前のスレで質問に答えてくださった。954、955、958の方お答えありがとうございました!!
とても参考になりましたm(_ _)m -
すいませんnovelAIからローカル環境に移行したいんだけど、PCに全く詳しくないから色々調べて訳分からんくなってる
モニターとかキーボードとか全部揃えてお買い得に買えるサイトとか教えてくれたら嬉しいです
30万くらいは出せるから3060?12GBとか条件満たしてるのが買いたいです -
見繕ってあげるからその30万を私に預けてみないか
-
いやいや俺なら倍にしてあげるよ
-
何でもかんでも人任せにするやつって投資詐欺に遭いそう
-
StableDiffusionでアニメ塗りにする方法で簡単なのどれでしょうか?
NovelAIはネガティブに3Dと入れると簡単にアニメ塗りできたのに
StableDiffusionはダメですね -
すみません、質問です。
webuiにmultidiffusion-upscaler-for-automatic1111を導入したくてインストールした後に起動しなおすと以下のようなエラーが出てwebuiが立ち上がりません 。
webuiはgit pullして最新にしてみましたが同じでした。何かほかに必要な物があるのでしょうか?
バージョン
python: 3.10.6 • torch: 1.12.1+cu113 • xformers: N/A • gradio: 3.16.2 • commit: 48a15821 • checkpoint: 7c29d0da32
File "V:\stable-diffusion-webui\extensions\multidiffusion-upscaler-for-automatic1111\scripts\vae_optimize.py", line 756, in show
if devices.get_optimal_device_name() == 'mps':
AttributeError: module 'modules.devices' has no attribute 'get_optimal_device_name'. Did you mean: 'get_optimal_device'? -
>>48
ほんとダメだよな、あきらめろ -
>>48
ダメだからNAIに戻った方がいいよ -
>>49
extensionsフォルダ内にmultidiffusion〜のフォルダが作成されているので、
ひとまず一旦どこか別の場所へ退避(移動)、または削除してください。
その後、1111を起動できるか確認してください。
起動できれば commit: 22bcc7be になっていると思います。
>何かほかに必要な物があるのでしょうか?
必要ないはずです。配布元の説明を読んでもそうですし、
俺も導入してみましたが特に何も必要ありませんでした。 -
>>44
お店についてはここではなくPC板で聞いたほうがいいよ
モニタ他含めて予算30万ならグラボは3060vram12
メモリは32GB
ストレージは最低でもSSD2TBぐらい
でうまい具合におさまるんじゃないかな -
>>42
海外では、というよりそういう絵を学習していないから出ない、というだけ
あとは一応ネガティブにbare foot(素足)って入れておくか
でもそれでも厳しいかも
サンダルだけ単品で生成されそう -
>>48
釣りだと思うが一応返答しておこう
NovelAIもStableDiffusionを使用したサービスだよ
使用モデルにNovelAI専用モデルを使っているというだけ
あと、質問するなら最低限の自分の環境、使用ツールや使用モデル等を書かないとまともな返答は得られないよ -
サンプリング方法を複数同時に生成して比較する方法って無い?
-
昔自分で作った同人誌をスキャンして取り込んだ画像があるんですけど
漫画の絵を実写化したり、違う絵柄みたいにする事は可能ですかね?
一枚絵じゃなくてコマ割されてます
遊びでやってみたいってレベルなんで本格的にできなくてもいいんですが何かあれば教えて下さい -
>>57
AUTHENTIC1111であれば X/Y plot を使えば大抵のことは比較できる -
AUTOMATICや なんや謎の綴りになった
-
webui-user.batを実行するとtorchがインストールできないと言われてしまいます
はじめにwikiの手順でバッチファイルを実行
仮想環境が作れないとのエラー
https://i.imgur.com/doUUCaO.png
こちらのエラーで調べたところ「python -m venv venvで手動で仮想環境venvを作れ」とあったので実行
バッチファイル自体は通るようになったが
https://i.imgur.com/5bHMtAa.png
とtorchがインストールできないとのエラー
こちらのエラーで調べたところ某wikiに「バージョン違いのpythonを使ったときのvenvが残ってるとこのエラーになるからvenvフォルダを削除しろ」とあったので削除
案の定1に戻る
という状態です
pythonのバージョンが影響するとのことなのでpythonは3.10.6をインストールし直し再起動(3.10.10でこのエラーが出たという過去の質問に3.10.6にしろとあったため)、リポジトリのクローンもやり直した上でこの状態です
pythonは64bit版、セキュリティソフトは標準のdefenderのみ、メモリエラーの表示もありません -
>>58
img2imgって呼ばれてる機能でできるよ。
でも遊びでやってみたいという話だから、1111導入じゃなくて、ここで試すのがいいかな。
https://dezgo.com/image2image
512x512以下に自動リサイズされるという制限があるけど無料で利用できる。
解像度の都合上、1ページ丸々だと細部が潰れがちになるから、1コマ切り抜いた画像とかがいいよ。
あとはPrompt欄に入力する内容と、選択したModelによって絵柄が変わる。
Strengthで元画像からの変化の程度が変わる。 -
普通に手順通りに導入したらそんなことにはならないんだがなんかいらんこと色々やってそう
もういっそお手軽導入系でいいのでは?
https://note.com/uunin/n/n715256399038 -
>>53
OS
Windows 11 Home (DSP)
プロセッサー
インテル Core i5-13400 プロセッサー [4.60GHz(P2.50GHz-4.60GHz/E1.80GHz-3.30GHz)/10コア(P6+E4)/16スレッド/20MBキャッシュ/TDP 65W-148W]
CPU冷却グリス
【熱伝導率: 16W/m・K】 ナノダイヤモンドグリス JP-DX1 塗布サービス
CPUクーラー
12cmラジエーターファン水冷CPUクーラー
グラフィックアクセラレーター
NVIDIA GeForce RTX 3060 12GB GDDR6 [HDMI×1・DisplayPort×2]
メインメモリ
32GB(16GB×2) [DDR5-4800 / デュアルチャンネル]
1stストレージ[OSインストール]
2TB SSD / NVMe M.2 [PCIe 4.0×4] (弊社特選※)
これで30万に収まった
ここ型落ち、性能足りないとかありますか? -
導入方法なら同じようにするだけだぞ
pythonのバージョンが違うとか、ちゃんと説明みてやれとしか言えん
仮想環境の設定なんかした覚えがないわ -
>>64
環境にもよるがi5のK無し定格でCPUクーラーに水冷は過剰でポンプの駆動音が気になるかも知れない、
ワイのは12世代のi7で大型ヒートシンクの空冷低速ファンで充分間に合う、横で寝てもほぼ無音な位や
オンボードグラフィック使えばVramをその分学習に回せる
メモリーは32GBで不足なら後から買い足せば良い、位やな -
実在の人物ローラ作りたいんですがなかなか似ません、どうしたら良くなりますでしょうか?
-
>>64
モニタ含めてフルセットで、だよね?それなら妥当な値段かな
あとは電源が書いてないけど3060なら最低でも650は欲しいぐらい
ショップによっては初期選択の電源の品質が低いっていう店もあるからレビューとかよく調べてみて
あと人によっては専用にSSD追加しろって言い出すかもしれんが、それは必要に応じてかね
お絵かきAI目当てでPC買っても飽きちゃう人も一定数いるし -
まずそのリテラシをどうにかしろw
-
>>14
これってどういう手順でやってるんですかね?
cannyで元絵の輪郭抽出→taggerで元絵のキャプション作ってpromptに貼り付け→cannyで生成、って感じでやってもここまで忠実な絵が出ない。 -
題材が悪かったのでは
モデルや設定は? -
みなさんアドバイスありがとうございます!
-
パソコン工房というサイトで自分で選択していく方式でモニターとかマウスとかも込みの価格です
空冷クーラー検討してみます -
Loraで学習させたあとのsafetensorsファイルから学習元の情報を引き出す方法ってありますか?
-
>>64
覚悟してるとは思うけどグラボが性能足りてない
lora+hiresかけると3060は1枚40秒以上かかる
4070tiは1枚14秒
4090なら1枚8秒
loraもhiresも頻繁に使うので我慢できるかスマホのストップウォッチで測ってみたらいいと思う -
VRAMにPCのメモリ使える設定あるのです?
-
前スレに出てたjyojipan LoRAは実写系だと味気ないただの綿パンになっちゃう
実写系でもサンプル画像のようなガーリーなの生成してくれるやつないですかね -
>>81
もう自作した方がロスが少ない
結局パーツ見始めるとBTOのアラしか見当たらなくなる
超絶妥協するか予算を足すかだ
幸いパーツを調べる事自体は金かからんし結局性能云々言い出したら自作するのが簡単なくらい知識を備えないといかんのだよ -
30万の予算があれば実質23万くらいの4090に全力ブッパして残り7万あれば構成組めるけど
自作初心者にはちょっと無理そうだな
でも4080は行けるっしょ
今更3060買うのはちょっとなぁ -
>>88
モニタ備品他含めての予算だそうだ -
前は学習とVRAMだけ見てればよかったけど
今はloraとかhiresやmultidiffusionとかcontrolnetとかlatentcoupleとか
Extensionを重ねがけするのが当たり前になってきてるので
それをある程度ストレスなく使えるグラボっていう視点で選ばないとキツイと思う -
colabに課金でよくね?
-
毎回環境構築に5分とかかけるのクソじゃない?
横着するために10万単位出せる人は出した方がいいよ -
>>59
解説動画見てきたありがとー -
>>89
ざっと妄想した感じ
CPU 12世代 i3 or ryzen4300G 15000円
マザー BIOSTARでもいいので5000円
MEM DDR4 8GBx2 7000円
SSD hiksemi NVME 1TB 8000円
ケース適当なの8000円
電源 クロシコあたりの650W 7000円(CPUへちょいので無問題)
ここまでで5万円
マウスキーボードをロジの3000円にしてもモニターに1万円7000円ならまあなくは無い
クソ安モニターは割とAOCおすすめ
OSは当然ですがubuntuです
ネイティブ環境のPythonを堪能しましょう -
予算30万あるのに3060環境ってのは俺は全力で止める
-
それ以外の選択肢が4090か3090しか……
-
>>31
動画解説。環境のバージョンアップに合わせて動画もアップされてるけど、
うp主はそんなに詳しく無さそうなのであくまでふいんきを覚えるのに。
https://www.youtube..../watch?v=6YOugshoyO4
日本語の解説
https://katsuyuki-ka.../LoRA/kohya-trainer/
英語の解説 (上よりはちょっとだけ詳しい?)
https://civitai.com/...-loras-easy-and-free -
4080tiが出るまで待つ
-
プロンプトってなんでカンマの後に半角スペース1つ置くの?スペースなくても変わらんよね?
-
>>99
可読性じゃない?
↑今すぐ読める無料コミック大量配信中!↑