ブログ開設してから約2ヶ月が経ちましたが、ブログをワードプレスへ引っ越します。
新ブログURL:https://aicraftgarage.com
詳細は新ブログで。さよならBlogger。
X(旧Twitter)のプロダクトリードであるNikita Bier氏より、プラットフォームの根幹に関わる重大なアップデートが発表されました。長らく提供されてきた「コミュニティ機能」に代わり、新たに**「カスタムタイムライン(Custom Timelines)」**が実装されます。
今回の変更は、私たちが特定のトピックやニッチな話題を追う方法を劇的に変えるものになりそうです。
以下は、公式発表された英文の要約と翻訳です。
「皆様、本日Xにとって最大級の変更の一つである『カスタムタイムライン』を導入します。」
この機能により、特定のトピックをホームタブにピン留めできるようになります。75以上のトピックに対応しており、X上のあらゆるお気に入りのニッチな分野を深く掘り下げることが可能です。
この機能は、AI「Grok」による全ポストの理解とアルゴリズムのパーソナライズによって駆動しています。つまり、すべてのタイムラインが「あなた専用」に作られるということです。既にあなたが関心を持っているトピックであれば、さらに高い精度で機能します。
数ヶ月にわたる大規模な取り組みを経て、ようやく皆さんに体験していただけることを嬉しく思います。
※現在はiOSのプレミアム購読者向けに早期アクセスを提供中(Androidも近日公開予定)。
これまでの「コミュニティ」は、ユーザーが能動的に参加し、その枠組みの中で会話をする「部屋」のようなものでした。しかし、今回のカスタムタイムラインは、AI(Grok)がユーザーの好みを学習し、膨大なポストの中から最適な情報を自動で収集・表示する仕組みです。
Grokによる解析: ポストの文脈をAIが深く理解し、関連性の高い情報を抽出。
ピン留め機能: 特定のニッチな話題を、常にメイン画面で追跡可能に。
iOS先行導入: プレミアムユーザーから順次ロールアウト。
私たちクリエイターや技術ブログを運営する身からすると、この変化は「情報の届き方」がより「純粋なコンテンツの質(AIの評価)」に依存することを意味します。特定のコミュニティという閉鎖的な空間ではなく、X全体の広大なタイムラインの中から、AIによって「その情報を求めている人」へ直接届けられるようになる。これが追い風になるか、それとも埋没する原因になるか、注視が必要です。
AI画像生成の総本山「Civitai」より、プラットフォームの根幹を揺るがす重大発表がありました。https://civitai.com/articles/28369
来週水曜日(4月22日予定)、Civitaiは2つのドメインに完全に分離されます。
これは単なるデザイン変更ではなく、私たちが日々利用するBuzz(バズ)の扱いから、支払い方法、そして表現の自由度に至るまで、すべてに影響する「大改革」です。
以下に、公式発表(JustMaier氏による)の全容と、私たちが知っておくべき重要事項をまとめました。
2つの入り口: コミュニティの双方が繁栄できるよう、サイトを2つに分けます。
Civitai.com: SFW(全年齢)専用の入り口。クレジットカード決済、メンバーシップ、クリエイタープログラムが完備された「メインストリーム」向け。
Civitai.red: NSFW(成人向け)の入り口。現在のCivitaiの全コンテンツがこちらに移動。支払いは仮想通貨。
アカウント・データは共通: アカウント、Buzz、フォロー、投稿データは削除されません。URLに「.red」を足すだけで、今の環境がそのまま維持されます。
Civitaiはこれまで、大手決済会社(Visaなど)との「支払いの壁」と戦い続けてきました。
公式の言葉を借りれば、**「メインストリームの決済ルートは、仮想通貨を除いてすべて失われた」**という深刻な状況にあります。
理由はサイトの「形」そのものにあります。
誰でもモデルをアップロードでき、誰でも生成できるという「オープンな性質」と、「成人向けコンテンツ」が同じドメインに共存していることを、決済会社の審査部門は決して許容しませんでした。
そこでCivitaiは、**「ドメインを完全に分離する(隔離する)」**という解決策を提示しました。フィルタリングや年齢制限ではなく、ドメインそのものを別々にすることで、初めて決済会社は首を縦に振ったのです。
ここが最も複雑で、最も重要なポイントです。支払い手段によってBuzzの色と役割が厳密に分けられます。
| Buzzの色 | 取得方法 | 使用可能な場所・用途 |
| グリーン (Green) | カード決済で購入 | Civitai.com (SFW) のみ。 |
| イエロー (Yellow) | 仮想通貨で購入 | Civitai.red (NSFW) のみ。 |
| ブルー (Blue) | 報酬(アワード)で獲得 | 両方のドメインで使用可能。 ただし、.redでNSFW生成に使うにはメンバーシップが必要。 |
※注意: 決済会社は「カードで購入した資金がNSFW生成に使われること」を極端に嫌います。そのため、グリーンとイエローの変換はできません。
A: いいえ。 一つのアカウントで両方のサイトを利用できます。フォローもアップロードデータも、一つのデータベースを共有しているため、何も失われません。
A: 検討中です。 これまでは高リスクな決済会社の顔色を伺うために設けていた制限がありました。ドメインが分離された今、モデレーションチームはそれらのポリシーを見直す予定です。
A: いいえ。 投稿は一度で済みます。SFWなら両方に表示され、NSFWなら.red(設定済みのユーザー)にのみ表示されます。
A: 変更ありません。 既存のツールや連携機能はそのまま動作します。
ブックマークの更新: 来週水曜日以降、現在のブックマークを civitai.red に更新する準備をしましょう。
決済手段の確認: カードでBuzzを買いたいなら .com、これまで通り自由な生成を楽しみたいなら仮想通貨でのイエローBuzz活用となります。
メンバーシップの検討: ブルーBuzz(無料獲得分)を .red でフル活用するにはメンバーシップが鍵になります。
イーロン・マスク氏率いるX(Twitter)が、コンテンツの評価基準を大幅にアップデートしました。今回の変更は、情報の信頼性と「オリジナリティ」に極めて重きを置いた内容となっており、これまで通りの運用ではインプレッションが激減する可能性があります。
ソース(CultureCrave)から発表された最新情報をまとめました。
アグリゲーター(転載・まとめ垢)の収益激減: 他者の投稿をまとめるアカウントの収益が60%減。次サイクルでさらに減少予定。
「釣りポスト」への恒久的なペナルティ: すべての投稿に「BREAKING(速報)」などの言葉を使って注目を集めるアカウントは、収益が恒久的に減額。
リポストのインプレッション90%減少: 単純なリポストによる拡散力が大幅に制限されます。
誤情報アカウントの収益化停止: 一部のデマ拡散アカウントは、今後3ヶ月間の収益化を完全に剥奪。
AI生成コンテンツの評価基準: 「ハリウッド級」の制作レベルであれば「高品質コンテンツ」として認定される。
オリジナル動画の推奨: Xはユーザーに対し、独自の動画投稿を積極的に促している。
特に注目すべきは、AIコンテンツに関する一文です。**「ハリウッド級の制作レベルであれば高品質とみなす」**という基準は、裏を返せば「量産型の安価なAI生成物は低品質として扱われる」という強いメッセージでもあります。
今後、単に画像を生成して貼るだけの投稿は、アルゴリズムによって制限されるリスクが高まります。3DCG的な質感、ライティング、そして何より「独自のストーリー性」が求められる時代に突入したと言えるでしょう。
この「冬の時代」を乗り越えるために、クリエイターが取るべき道は明確です。
「静止画」から「動画」へのシフト: アルゴリズムが動画を推奨している今、AIで生成した素材を動画化(アニメーション化)することが、露出を維持する最大の鍵となります。
リポストに頼らない拡散: リポストの力が弱まる以上、引用リポストや自身の言葉による「独自の付加価値」を添えた発信が必須です。
クオリティの「一点突破」: 「数」で勝負するのではなく、1枚・1本にかける演算リソースを増やし、文字通り「ハリウッド級」のインパクトを目指す必要があります。
今回のアップデートは厳しい内容ですが、逆に言えば「質の高いオリジナルコンテンツ」を作っている人にとっては、競合する転載垢や低品質な量産垢が淘汰されるチャンスでもあります。
アルゴリズムの荒波に負けず、独自の表現を磨き続けていきましょう!
1. 理想の1枚をさらなる高みへ!アップスケールの重要性
AI生成で「最高の1枚」が生まれたとき、そのままのサイズでは細部の粗さが気になったり、SNS投稿時に画質の劣化を感じたりすることはありませんか? 2026年のAIイラスト界隈では、生成した画像を「いかに美しく拡大するか(アップスケール)」が、クリエイターの腕の見せ所となっています。
今回は、最も手軽で高速な**「Extras」機能を中心に、さらに描き込みを増やす「img2img」**でのアップスケール術を解説します。
Stable DiffusionのUI上部にある「Extras」タブ。実はここ、非常に優秀な画像処理エンジンが積まれています。
最大の特徴:高速処理 通常の生成(txt2img)やimg2imgとは異なり、AIモデルによる「再描画」を行わず、専用の拡大アルゴリズム(ESRGANなど)を使用します。そのため、数秒という驚異的なスピードで処理が完了します。
「描き込み」を変えない安心感 再描画を行わないため、元画像の表情や構図が一切変わることなく、そのままの印象で解像度だけを上げることができます。
使い方は非常にシンプルです。
画像をアップロード: 拡大したい画像をExtrasタブへドラッグ&ドロップ。
Resizeの設定: 元のサイズの何倍にするか指定します(2倍〜4倍が一般的)。
Upscalerの選択: * R-ESRGAN 4x+: 実写系・万能型。迷ったらこれ。
R-ESRGAN 4x+ Anime6B: アニメ調・イラストに最適。線が綺麗に出ます。
保存先: デフォルトでは outputs/extras-images フォルダに格納されます。
「ただ大きくするだけでなく、もっと細部を細かく描いてほしい」 そんな時は、img2imgの**「SD Upscale」や「Ultimate SD Upscale」**スクリプトの出番です。
メリット: 画像をタイル状に分割して再描画するため、肌の質感や衣服のシワなど、 Extrasでは表現できない「密度」が生まれます。
注意点: 処理時間はExtrasの数十倍かかります。また、Denoising Strength(再描画強度)を上げすぎると、別の絵になってしまうため、0.3〜0.4程度で調整するのが定石です。
手軽にサクッと大きくしたい、構図を絶対変えたくないなら「Extras」。
作品として完成度を極限まで高め、細部まで描き込みたいなら「img2img」。
まずはExtrasで高速に量産し、その中から「これぞ!」という神回の一枚をimg2imgでじっくり磨き上げる。この二段構えこそが、現代のAIクリエイターに求められる効率的なワークフローです。
皆さんの3060君も、アップスケールで真の力を発揮させてあげてくださいね!
■うちの子「メリル」メカ少女化計画の実験
メカ少女……それは、硬質な機械と可憐な美少女が融合したロマンの結晶である! ロボット大好きな筆者もご多分に漏れず、メカ少女には目がありません。「ならば、うちの子(メリル)を武装させるのは必然」という合言葉のもと、今回は「メカ少女化計画」の実験ログをお届けします。
しかし、如何に優秀な Stable Diffusion といえど、標準モデルだけでは複雑なメカ意匠の描き分けには限界があります。 そこで、今回は Civitai で話題のLoRA 「Mecha Musume + Gundam + Mecha Slider LoRA」 の力を借りることにしました。
いきなり複雑な指定をせず、まずは最小限のトリガーワードでモデルの特性を探ります。
【テスト用プロンプト】
<lora:meryll_v4:1>, meryll, mecha musume, bodysuit, fortified suit, mechanical parts, headgear, full armor, Flying, in sky, <lora:mecha_offset:0.7>, <lora:XDetail_light:1.5>
おお、意外と悪くありません。
ですが、こうなると「もっともっと拘りたい」のがクリエイターの性。プロンプトの内容をAI(Gemini君)と相談しながら、徹底的に意匠を詰めてみることにしました。
今回、私が目指したのは「ただロボットを着せる」のではなく、メリルらしい美しさを残した 「高機動・重装甲」 スタイルです。
カラー: 黒ベースに情熱的な赤のラインを。
シルエット: 曲線を用いたシャープな装甲。女性らしさは崩さない。
背中(最重要): ウイングガンダム(TV版)を彷彿とさせる、メカニカルで巨大な2枚羽。
シチュエーション: 背中のスラスターから光を噴き出し、大空を音速で飛翔する瞬間。
「注文多いな……」と自分でも思いましたが、完成したプロンプトがこちらです。
【ブラッシュアップ版プロンプト】 (masterpiece, best quality, ultra-high res:1.2), 1girl, (dark purple hair:1.3), (blue eyes:1.2), mysterious smile, [LoRA Trigger & Mecha Base] mecha musume, mecha, robotic parts, mechanical parts, (sleek and sharp armor:1.3), curved armor, (black armor with glowing red lines:1.4), dark metallic texture, [Head & Neck] (headgear with antennas:1.2), mechanical ear accessories, (armored chin guard:1.2), (armored neck:1.2), [Body & Waist] (tight black bodysuit:1.3), shiny plugsuit, feminine silhouette, (massive side thrusters on waist:1.4), [Back & Wings] (massive mechanical twin wings:1.5), (TV-style Wing Gundam wings:1.3), sharp metal wings, white and red accents, [Weapon & Action] (slender beam rifle:1.3), (flying in the sky:1.3), (thruster fire from back:1.4), propulsion effects...
これだけでも十分格好いいのですが、もう一押し「メカメカしさ」が欲しい。 そこで、腰回りに大型スラスターやミサイルポッド、さらには 「メカニカル・バッスル(機械的な腰飾り)」 を追加投入!
数十枚の「破綻画像」という名の残骸を積み上げ、ガチャを回し続けた結果……。
「がはは、グッドだー!!」
納得のいく、重厚かつスタイリッシュなメリルが降臨しました。
今回の実験で分かったのは、大まかなプロンプト指定は効くものの、最終的なパーツの噛み合わせは 「運」と「根気」 が左右するということ。 特にメカ娘LoRAは干渉が激しいので、プロンプトを少しずつ足し引きする調整が欠かせません。
もっと細かくパーツを固定できる手法は、今後も3060君を酷使しながら研究していこうと思います。
※この記事は2026年4月時点の情報に基づいています。Xのポリシーは情勢に応じて随時調整される可能性があるため、最新の公式ヘルプセンターも併せてご確認ください。
最近、Xへの投稿時に「AIで生成」というラベルを付けるオプションが表示されるようになりました。皆さんはこのフラグ、活用していますか?
「自分の画像は健全だから関係ない」と思っている方も多いかもしれませんが、実は収益化(クリエイター収益分配)に直結する重要なルールが2026年3月からスタートしています。
現在、特に厳格に適用されているのが「武力紛争」に関するAI生成コンテンツです。
【重要ポイント】 AI生成された武力紛争動画を投稿する際、明示(ラベル付け)を怠ったユーザーは、クリエイター収益分配の対象から90日間停止されます。さらに違反を繰り返した場合は、永久に支払いが停止されるという非常に厳しい内容です。
これはディープフェイクによる世論操作や誤情報の拡散を防ぐための措置ですが、X側は「状況に応じて本ポリシーを調整する場合がある」と明言しています。
今のところ、私たちが投稿しているようなキャラクターイラストや動画でラベルを付けなかったからといって、即座に収益が止まるわけではないかもしれません。しかし、私はあえて**「最初からフラグをONにする運用」**を推奨します。
理由①:自衛とマナーとしての明示 AI生成に対する反発は依然として根強くあります。「AIであることを隠して投稿している」という誤解(あるいは言いがかり)からくる炎上や通報リスクを避けるため、最初からラベルを貼っておくことで「誠実なクリエイター」としてのスタンスを示せます。
理由②:将来的なポリシー拡大への先手 現在は紛争動画が対象ですが、今後「すべてのAI生成コンテンツ」にこのルールが拡大される可能性は十分にあります。その時になってから過去作を修正するのは不可能です。今のうちから「AIラベルありき」の投稿ルーティーンを作っておくのが賢明です。
AI技術の進化に伴い、プラットフォーム側のルールも日々アップデートされています。
せっかく育てたアカウントが、ルールの見落としで収益停止になっては元も子もありません。私はこれからも、**「AIラベルON」**を基本に、健全かつオープンに「水瀬穂香」や「メリル」のコンテンツを届けていこうと思います。
皆さんも、自分のアカウントを守るための「設定見直し」、ぜひ一度検討してみてくださいね!
Xの収益化?ハハハ……地下鉄の駅から富士山頂まで登るぐらい遠いですね……
画像生成AIを楽しんでいる皆様、こんにちは。 AIイラストのクオリティを左右する重要な設定項目の一つに**「CFGスケール(CFG Scale)」**があります。 「なんとなくデフォルトの7.0のままにしている」という方も多いのではないでしょうか?
今回は、CFGスケールの違いで絵柄がどう変化するのか、実際の生成画像をもとに詳しく解説していきます。
CFGスケール(Classifier-Free Guidance Scale)とは、一言で言えば**「AIがどれだけプロンプト(指示文)に忠実に従うか」**を示す指標です。
値を高くする: 指示に厳密に従おうとし、コントラストが強く、くっきりした絵柄になります。
値を低くする: AIの自由度(想像力)が増し、柔らかく淡い、芸術的なタッチになりやすくなります。
(※ここにはStable Diffusionの操作画面のキャプチャを1枚入れると親切です) 「Sampling method」のすぐ下にあるスライダーで調整可能です。通常は「7.0」が標準とされていますが、モデル(Checkpoint)によっては「3.0~5.0」の方が綺麗に出ることもあります。CIVTAIでモデルをダウロードするときにチェックしておきましょう。
実際に同じプロンプト、同じシード値で生成した比較画像を見てみましょう。
【比較画像:左から 7.0 / 5.0 / 3.5】
CFG 7.0(左): 線がはっきりしており、アニメ的なパキッとした仕上がりです。
CFG 5.0(中央): 7.0よりも少し柔らかさが出て、細部の描き込みに深みが増しています。
CFG 3.5(右): 全体的に淡く、水彩画のような透明感や「ふんわり」した空気感を纏っています。
CFGスケールを調整することで、同じプロンプトでも全く異なる表情の絵を生み出すことができます。
**「くっきり、派手にしたい」**なら 7.0〜9.0
**「ふんわり、エモくしたい」**なら 3.0〜5.0
まずは自分の使っているモデルの「得意な数値」を探してみるのが、上達の近道ですよ!
画像生成AIの世界に足を踏み入れて約3週間。日々3060君を酷使して「穂香」や「メリル」を描き続けていますが、最近導入した**「動画生成(Wan2.2)」**が、我が家の型落ちPCに牙を剥きました。
生成を開始した途端、PCはフリーズ寸前。マウスカーソルすらまともに動かない「沈黙の艦隊」状態。 グラフィックボード(GPU)の交換は予算的に厳しい……ならばせめて「メインメモリ」だけでも!ということで、16GBから32GBへの増設実験を決行しました。
まずは基本の画像生成から。 増設前にチェックしたところ、生成中の使用メモリは16.3GB。……おや、16GBを微妙にオーバーしています。仮想メモリをガリガリ削りながら、文字通り「死に体」で回していたわけですね。
32GB増設後の変化: 使用量は変わらずとも、全体に「余裕」が生まれました。 もっとも、生成の主役はあくまでGPU(RTX 3060)。VRAM 12GBの限界は変わらないため、生成速度そのものに劇的な変化はありません。しかし、バックグラウンドで別の作業をしていても動作が重くならない安定感は、精神衛生上非常に大きいです。
本番はここからです。16GB環境ではPCを瀕死に追い込んでいた動画生成。 モニターを確認して驚愕しました。使用メモリが27GB付近で張り付いています。
そりゃあ、16GBでは足りるはずがありません。 増設後は、動画生成をぶん回しながらブラウジングをしても、PCが悲鳴を上げることはなくなりました。
生成速度の現実: 安定性は手に入れましたが、やはり速度の壁は高い。3060君は常に100%の限界稼働を続けており、計算時間が短縮される魔法は起きませんでした。メモリ増設は「作業効率の向上」には寄与しますが、「処理速度の向上」にはやはりGPUの暴力が必要なようです。
今回の実験で痛感したのは、**「AI生成を楽しむならメモリ32GBがスタートライン」**だということです。16GBは、いわば軽装。動画生成という重火器を扱うには、32GBという頑丈な土台が不可欠でした。
そして、次に見えてきたのはやはり**「グラフィックボードの壁」**。 RTX 3060は非常に優秀なエントリーモデルですが、最新の動画生成AIをサクサク動かすには、パワー不足を感じざるを得ません。
「もっと、もっと速く、もっと高精細に……」
そう願うと、今度は「より上位のグラボ」が欲しくなり、そうなると「電源容量」が足りず、ついでに「PCケース」も狭い……。 ああ、これは**「PC丸ごと新調した方が早い」**という、自作PCユーザーが必ず陥る「無限ループ」の入り口に立ってしまったようです。
財布と、3060君の寿命。どちらが先に限界を迎えるか。 AIクリエイターの戦いは、まだ始まったばかりです。
画像生成AIで日々作品を生み出していると、避けて通れないのが**「管理と整理」**という名の重労働です。 特に、FANZAやDLsite向けのCG集としてパッケージングする際、数十枚〜百枚近い画像の名前を整える作業は、クリエイティブな熱量を奪う「無慈悲なタスク」と言っても過言ではありません。
今回は、AIエージェント**「Antigravity」を活用した自動化ツール作成の第2弾として、このリネーム作業を劇的に効率化する「自分専用リネームツール」**の開発記録をお届けします。
世の中にはリネームツールが星の数ほど存在します。しかし、CG集制作者の視点に立つと、絶妙に痒いところに手が届かないことが多々ありました。
勝手な並び替え: ファイル名順に強制ソートされ、意図した「ストーリー順」が崩れる。
難解なタグ指定: %n% や [Date] など、独自の命名規則を覚えるのが面倒。
シンプルさの欠如: 多機能すぎて、今やりたい「連番を振るだけ」に辿り着くまでが遠い。
「なら、自分の理想をAIに形にしてもらえばいいじゃないか」——これが今回の出発点です。
まずはAntigravityに、保存先パスの確認とともに「どんなツールが欲しいか」を伝えます。私のオーダーはシンプルです。
「選択したフォルダ内の画像を、指定した文字列+連番にリネームして。ただし、現在の並び順を絶対に崩さないこと」
すると、Antigravityは即座に**「開発計画書」**を提示してくれました。 実装する言語、インターフェースの設計、エラーハンドリングの指針。これらを読み合わせ、不明点を解消してから実行(ビルド)に移ります。この「対話」こそが、AI開発の醍醐味です。
処理が始まると、AIが思考の海に沈み、動きが止まったように見える瞬間があります。そんな時は慌てず**「一時停止」を指示。 「処理が止まっているようだけど、今の状況は?」と問いかけるだけで、AIは現在のスタック状況やエラーの予兆を報告してくれます。人間がデバッグするのではなく、「AIに自身の状況を実況させる」**ことで、開発はスムーズに進みます。
何度かのやり取りを経て、ついに**「理想のリネームツール」**が完成しました。 ボタン一つで、3060君が描き出した至高の画像たちが、規則正しく、かつ私の意図した順番通りに整列していく様は圧巻です。
これで第2弾、第3弾と続く「穂香」や「メリル」のCG集制作も、事務作業に怯えることなく進められそうです。
画像生成AIは「絵を描く」ための道具だと思われがちですが、Antigravityのようなツールと組み合わせることで、**「制作環境そのものを構築する」**強力なパートナーになります。
技術的な障壁でやりたいことを諦める時代は終わりました。 皆さんも、自分だけの「最強の工房」をAIと共に作ってみてはいかがでしょうか?
1. 導入:生成ボタンを押すのが怖かったあの日
AI画像生成(Stable Diffusion)を始めて、誰もが最初に感動するのは「文字だけで絵が出る」こと。しかし、数日もすれば誰もが絶望します。 「指が多い」「顔が崩れる」「なぜか画質がガビガビ……」 そこで重要になるのが、「出してほしくない要素」を指定するネガティブプロンプトです。今回は、私が理想のキャラクター「穂香」や「メリル」を描き出すために、ネガティブプロンプトと格闘した日々を振り返ります。
最初はネットで見かけた「最強のネガティブプロンプト」を丸写ししていました。
(worst quality, low quality:1.4), lowres, blurry, jpeg artifacts...確かに画質は上がりました。しかし、これだけでは防げない「キャラクター固有の悩み」が出てきたのです。
ここで、私の愛機「RTX 3060」と共に試行錯誤した具体的な事例を紹介します。
事例A:メリルの「お化粧が濃すぎる」問題
対策: ネガティブに (black lips:1.4), (dark makeup:1.4) をピンポイントで追加。これで彼女本来の透明感を取り戻せました。ミステリアスな紫髪のメリルを描こうとすると、AIが気を利かせすぎて(?)真っ黒なリップや派手なメイクを施してしまうことがありました。
事例B:穂香の「砂時計(ボディライン)強調しすぎ」問題
対策: 状況に応じて体型に関するネガティブのウェイト(強調係数)を微調整。「出しすぎない美学」の難しさを痛感しました。母性溢れる穂香を描く際、プロンプトで「アワーグラス(砂時計)体型」を強調すると、時として物理法則を無視した極端なクビレが発生しました。
迷走の末、現在私がベースとして落ち着いている設定がこちらです。
(worst quality, low quality:1.4), lowres, blurry, jpeg artifacts, text,
watermark, signature, error, (bad anatomy:1.2), (bad proportions:1.2),
duplicate, cropped, bad hands, missing fingers, extra digit,
fewer digits, monochrome, grayscale
ポイント: (worst quality, low quality:1.4) のように、低画質要素に高いウェイトをかけることで、AIに「手抜きは許さない」と釘を刺しています。
ポイント: text, watermark は、AIが学習元から拾ってきてしまう「署名」や「透かし」を消すための必須呪文です。
ネガティブプロンプトは、一度設定すれば終わりではありません。衣装や背景、そして「3060」の機嫌によっても最適な解は変わります。 「何か違うな」と思った時、新しい言葉を足すのではなく、「余計なものを引く」。この引き算の美学こそが、AI絵師としての腕の見せ所なのかもしれません。
AIイラストを生成していて、「構図はいいけれど、なんだか画面がのっぺりしている」「質感や密度が物足りない」と感じたことはありませんか?
Hires. fix(高解像度補助)を使えば解像度は上がりますが、**「描き込みの密度」そのものを劇的にブーストするには、「ディティールアップ系LoRA」**の導入が最も近道です。
今回は、RTX 3060(VRAM 12GB)環境で日々AIイラストを研究している筆者が、LoRAを使った高精細化のテクニックを徹底解説します。
通常のLoRAは特定のキャラクターや衣装を学習させたものが多いですが、**「ディティールアップLoRA」**は、画像全体の「情報量」「質感」「描き込みの細かさ」を強化することに特化した追加学習モデルです。
服のフリルやレースの複雑化
肌や髪のリアルな質感向上
背景やエフェクト(魔法陣など)の密度アップ
これらを、プロンプトを長くすることなく、数値(Weight)一つでコントロールできるようになります。
Civitaiなどで高い評価を得ている以下のモデルが定番です。
Add More Details - Detail Enhancer / Tweaker: 最も汎用性が高く、どんなモデルにも馴染みます。
FilmGrain / Flat2LoRA: 質感のざらつきや、逆にシンプルにする調整が可能です。
モデルをダウンロード: Civitai等から .safetensors ファイルを入手します。
フォルダに配置: 自身の環境(Stable Diffusion WebUIなど)の以下のディレクトリに保存します。
stable-diffusion-webui/models/Lora
呼び出し: プロンプト欄に以下の形式で記述します。
<lora:モデル名:1.0>
実際に、当ガレージの看板娘「メリル」で比較してみましょう。 ※モデル:Anything V5 / SDXL系 / 独自マージモデル等(ご自身の環境に合わせて書き換え)
Prompt: masterpiece, best quality, 1girl, Meryl,gothic dress...
Seed: 固定
全体的に綺麗ですが、ドレスの布地に、もう一歩「緻密さ」が欲しいところです。
画面全体の「密度」が爆上がりしています。
LoRAは強ければ良いというわけではありません。
0.5 〜 0.7: 「隠し味」程度。元の絵の雰囲気を壊さず、自然に高画質化したい時。
1.0: 標準。描き込みが劇的に増え、最も「映える」設定です。
1.5以上: 要注意。情報量が増えすぎて、画像に「ノイズ(ざらつき)」が出たり、色がくすんだりすることがあります。
軍師のTips: プロンプトに
(extremely detailed:1.2)などを重ねるよりも、LoRAの数値を微調整する方が、VRAMへの負荷を抑えつつ高品質な結果を得られます。
ミドルクラスの守護神、RTX 3060環境でLoRAを多用する場合のポイントです。
ADetailerとの併用: 全身の描き込みをLoRAで増やしつつ、顔の崩れはADetailerで修正するのが鉄板のワークフローです。
Tiled VAEの活用: LoRAで密度を上げると高解像度化した際にVRAMエラーが出やすくなります。拡張機能の「Tiled VAE」をONにして、メモリ消費を抑えましょう。
ディティールアップLoRAは、一度使うともう戻れないほどの魔力を持っています。
皆さんもぜひ、お気に入りの強度を見つけて、自分だけの「至高の一枚」を練り上げてみてください!
「インストール場所も手順も間違っていないのに、なぜかControlNetがWebUIに出てこない……」 ターミナルを覗くと、真っ赤な文字で 『AttributeError: module 'mediapipe' has no attribute 'solutions'』 の文字。 私の愛機、RTX3060環境でも発生したこの絶望的なエラーですが、原因はライブラリの「新しすぎたアップデート」にありました。今回は、私が格闘の末に辿り着いた「正常な環境への復元コマンド」を全公開します。
ControlNetが内部で利用している「MediaPipe」という部品が、最新版で重要な機能を削除してしまったのが原因です。さらに、最新の numpy 2.0 系が混ざることで、WebUI本体(Gradio)まで不安定になるという二重苦に陥っていました。
WebUIのフォルダ内でコマンドプロンプトを開き、以下の手順で「動いていた頃のバージョン」を強制的に叩き込みます。
venv\Scripts\activate
※左側に (venv) と出れば準備完了です。
pip uninstall -y mediapipe numpy protobuf opencv-python opencv-contrib-python opencv-python-headless
ここが今回の最重要ポイントです。依存関係が喧嘩しない「スイートスポット」のバージョンを指定します。
pip install "mediapipe==0.10.14" "protobuf==4.25.3" "numpy==1.26.4" "opencv-contrib-python==4.8.0.76" "opencv-python-headless==4.8.0.76"
この処置を施した後、deactivate して WebUI を再起動したところ……
「* Error loading script: controlnet.py」が消え、無事にControlNetタブが復活しました!**