Face ID トレンド
0post
2025.12.16 14:00
:0% :0% ( 20代 / 女性 )
人気のポスト ※表示されているRP数は特定時点のものです
超初心者からAIイラスト始める方へ(私自身宛💦)
GeminiのDeep Researchに聞いて答えてくれた内容です。
この内容が芯を食っている前提として参考にして頑張ります。
独り言です。
ええ。
でも、私と同じ「イラスト」の「イ」の字も学んでいない、初めて1か月の人なら参考になる内容だと思います(私、ハルシネーション発生中)🐶
お時間ある時に読んでみてください🐶
GeminiのDeep Researchすごいと思いました🐶🐶
#Gemini #AIイラスト︎ #AIイラスト︎初心者
👇👇👇👇👇👇👇👇👇👇👇
2025年におけるAIイラスト生成の高度技術体系:LoRA学習、モデル選定、およびComfyUIアーキテクチャの包括的分析
エグゼクティブサマリー
AIイラスト生成の領域は、単なる技術的な好奇心の対象から、高度に専門化された工学分野へと進化を遂げた。特に2025年現在、カジュアルなユーザー層と、通称「ガチ勢(Serious Practitioners)」と呼ばれる高度な技術者層の間には、使用するツール、データセットの構築思想、そしてワークフローの設計において明確な断絶が存在する。本報告書は、AIイラスト生成における「真実」を求める中級者以上の層に向け、現在の最先端技術環境を徹底的に分析したものである。
本稿では、まずLoRA(Low-Rank Adaptation)学習におけるデータセットの最適化について、量より質を重視する「密度」の概念を中心に論じる。次に、Pony Diffusion XLやIllustriousといった主要なチェックポイントモデルの構造的特性と、それらがプロンプトエンジニアリングに与える影響を詳述する。さらに、ComfyUIを中心としたノードベースのワークフロー構築において、ガチ勢が必須とする拡張ノード群、ControlNetの最新仕様、そして高解像度化や領域指定生成(Regional Prompting)を実現するための具体的なノード接続トポロジーを解明する。
第1章:LoRA学習におけるデータセット構築の真実と最適解
AIイラスト生成において、独自の画風やキャラクターを再現するLoRAの作成は、最も高度なスキルの一つである。多くの初心者が抱く「データ枚数は多ければ多いほど良い」という誤解に対し、ガチ勢の間で確立された「少数精鋭(Quality Density)」のパラダイムを分析する。
1.1 定量的分析:データセット枚数の黄金比
2025年のLoRA学習環境において、データセットのサイズに関する議論は一つの結論に達している。それは、**「15枚から50枚の高品質画像が、キャラクターLoRAにおける最適解である」**という事実である1。
「完璧な30枚」の法則
経験豊富なトレーナーたちの間では、「ノイズや低品質な画像を含む100枚のデータセットよりも、完璧にキュレーションされた30枚の方が遥かに高性能なLoRAを生み出す」というコンセンサスが形成されている2。
SDXLやPony V6などのベースモデルは、既に人体構造、照明、材質表現に関する膨大な事前知識(Prior Knowledge)を有している。LoRAの役割は、モデルに「絵の描き方」を一から教えることではなく、モデルが既に持っている知識のベクトルを特定のキャラクターや画風に向けることにある。したがって、過剰なデータ量は学習時間を徒に延ばすだけでなく、概念の希釈(Concept Bleeding)を引き起こし、結果として特徴の曖昧なモデルを生成するリスクを高める5。
1枚学習の可能性と限界
極端な例として、たった1枚の画像からでもLoRAを作成することは技術的に可能である2。Fluxや最新のSDXL派生モデルは高い学習効率を持っており、1枚の画像に対して学習率を低く設定し、多くのステップ数を重ねることで、驚くほど高い再現性を得ることができる。しかし、1枚学習のLoRAは「柔軟性(Flexibility)」に著しく欠ける。その画像と同じポーズ、同じ構図でしか生成できなくなる「過学習(Overfitting)」の状態に陥りやすいため、実用的なLoRAとするには、最低でも15〜20枚のバリエーションが必要とされる6。
スタイルLoRAと概念LoRAの例外
一方で、「画風(Style)」や「抽象的な概念(Concept)」を学習させる場合は、この限りではない。特定のアーティストの画風や、複雑なメカニカルデザイン、特殊な衣装などを学習させる場合、100枚から500枚、あるいはそれ以上のデータセットが必要となる場合がある4。これは、単一のキャラクターという「狭い領域」ではなく、あらゆる対象物に適用可能な「汎用的なルール」をモデルに学習させる必要があるためである。しかし、ここでも5000枚を超えるような大規模データセットは、個人のLoRA学習レベルでは「過剰(Overkill)」と見なされ、むしろチェックポイントのファインチューニングに近い領域となる5。
1.2 データの質的向上:ガチ勢のキュレーション術
データ枚数よりも重要なのが、データの「前処理」である。ガチ勢と一般層の差は、ここで決定的に開く。
解像度とアップスケーリング
学習素材の解像度は、最終的なLoRAの出力品質に直結する。SDXLやPonyベースの学習では、1024x1024ピクセル以上が推奨される8。元画像が小さい場合、単にリサイズするのではなく、4x-UltraSharpやRealESRGANなどのAIアップスケーラーを用いて高解像度化し、ノイズやJPEGアーティファクトを除去する工程が必須となる10。ボケた画像や低解像度の画像を学習させると、LoRAはその「ボケ」自体をキャラクターの特徴として学習してしまい、生成される画像全体が劣化する原因となる。
背景処理と透明化(Transparency)
キャラクターLoRAにおいて、背景は「ノイズ」である。特定のキャラクターが常に「森の中」にいる画像ばかりを学習させると、モデルは「このキャラクターは森とセットである」と誤認し、市街地や室内のプロンプトを無視するようになる。
これを防ぐため、ガチ勢は以下の戦略をとる:
背景の削除(切り抜き): 画像の背景を白または透明(PNG)にする。これにより、モデルはキャラクターの特徴のみに集中できる3。
クロッピングの多様性: 全身図だけでなく、顔のアップ、バストアップ、太ももから上、背面など、意図的にトリミングした画像を含める。これにより、構図に依存しない特徴抽出が可能になる2。
比率の維持: データセットの構成比として、背景なし(または単純背景)を70%、背景あり(Full Context)を30%程度に保つ手法が有効とされる。完全に背景を排除すると、環境光の反射などの相互作用を学習できなくなるためである3。
1.3 キャプション戦略:自然言語か、Booruタグか
学習画像に付与するテキスト(キャプション)の形式は、使用するベースモデルの学習元データに依存する。
Pony V6とその派生モデル:Booruタグが必須
Pony Diffusion XLやその派生モデルは、Danbooruのタグデータを用いて学習されているため、これらのモデルに対するLoRA学習ではBooruタグ形式のキャプションが必須である11。自然言語("A girl sitting on a chair...")で記述しても、モデルはそれを効率的に解釈できず、学習効率が低下する。
ガチ勢は、wd-v1-4-convnextv2 などのTaggerを用いて自動タグ付けを行い、その後手動でタグの選別を行う。特に重要なのは「タグの剪定(Pruning)」である。
保持すべきタグ: 服装(school uniform)、ポーズ(standing)、背景(simple background)。これらをタグとして記述することで、プロンプトでそのタグを指定しない場合に、衣装やポーズを変更できる柔軟性が生まれる。
削除すべきタグ: キャラクター固有の特徴(blue eyes, twintailsなど)。そのキャラクターが常に青い目とツインテールであるなら、これらのタグを削除し、全てを「トリガーワード」に吸収させる。これにより、トリガーワードを入力するだけでキャラクターの全特徴が呼び出されるようになる13。
Illustrious / NoobAI / Flux:ハイブリッドと自然言語
一方で、Illustrious XLやNoobAI、そして最新のFluxモデルは、自然言語の理解能力が高い、あるいはタグと自然言語のハイブリッド(Taglish)に対応している13。
Illustrious/NoobAI: Danbooruタグを基本としつつも、自然言語的な修飾を受け入れる。
Flux: 自然言語による記述が推奨されるが、T5エンコーダーの特性上、詳細な記述が必要となる。JoyCaptionなどの視覚言語モデル(VLM)を用いて、画像の構図や雰囲気を詳細に言語化したキャプションを作成することが、高品質な学習への近道となる15。
1.4 学習ツールの選定:Kohya_ss vs OneTrainer
2025年現在、LoRA学習ツールは二極化している。
Kohya_ss: 最も普及しており、ドキュメントやプリセットが豊富。SD1.5時代からの蓄積があり、安定した結果を求める層に支持されている17。
OneTrainer: ガチ勢の間で急速に支持を拡大しているツール。グラフベースのバックエンドを持ち、処理が透明でカスタマイズ性が高い。特に**「マスク学習(Masked Training)」**機能が強力である。これは、画像内の特定の領域(キャラクターのみなど)だけを学習対象とし、背景ピクセルを完全に無視させる機能であり、背景の干渉をゼロにした純粋なキャラクターLoRAを作成する上で最強の武器となる18。また、学習の中断・再開機能が安定しており、数十時間に及ぶ厳密な学習を行うユーザーにとって信頼性が高い20。
オプティマイザのトレンド:Prodigy
学習率(Learning Rate)の設定は初心者にとって最大の壁であるが、ガチ勢はProdigyオプティマイザを使用することでこの問題を回避している。Prodigyは学習率を動的に調整する適応型オプティマイザであり、基本学習率を 1.0 に設定するだけで、内部で最適なレートを探索してくれる。これにより、パラメータ調整の試行錯誤時間を大幅に短縮し、かつ高品質な収束を実現している21。
第2章:チェックポイントモデルの生態系と選定基準
「どのモデルを使えばいいのか?」という問いに対し、ガチ勢は「何を描きたいか」によって明確に使い分けている。汎用的なマージモデルの時代は終わり、特化型モデルの時代が到来している。
2.1 Pony Diffusion V6 XL:絶対王者とその派生
2025年のアニメ・イラスト生成において、Pony Diffusion V6 XL は圧倒的なシェアを誇る。その理由は「概念理解力」の高さにある。従来のSDXLモデルが苦手としていた複雑なポーズ、複数人の相互作用、そして性的なシチュエーションにおいて、Ponyは驚異的なプロンプト従順性(Adherence)を発揮する23。
しかし、ガチ勢は「素のPony(Vanilla Pony)」をそのまま使うことは少ない。画風の癖が強く、西洋カートゥーン調になりがちだからである。代わりに、以下の派生ミックスモデルが標準的に使用される:
AutismMix (Confetti): Ponyのプロンプト理解力を維持しつつ、画風をより現代的な倭国のアニメスタイル(いわゆる「神絵」調)に調整したモデル。最も汎用性が高く、迷ったらこれを使うべきとされる25。
SnowPony: Pony特有の「プラスチック感」や濃い塗りを排除し、水彩画のような淡く柔らかいタッチを実現したモデル。透明感のあるイラストを求める層に絶大な支持を得ている25。
Pony Realism / Goddess of Realism: 「Ponyの脳味噌で実写を描く」ためのモデル。通常のSDXL実写モデル(Juggernautなど)は画質は良いが、複雑なポーズ指定(例:逆立ち、極端なアングル)に弱い。Ponyベースの実写モデルは、Ponyの強力なポーズ理解力を実写の質感に適用したものであり、難易度の高い構図の実写系生成において唯一無二の選択肢となっている27。
Pony系プロンプトの鉄則
Pony系モデルを使用する際の「真実」は、**スコアタグ(Score Tags)**の必須性である。プロンプトの冒頭に score_9, score_8_up, score_7_up を記述しなければ、モデルは本来の性能を発揮しない。これはPonyが学習データの品質をスコア付けして学習しているため、高品質な画像を出力するためには「高品質な画像の領域」を呼び出すトリガーが必要になるからである12。また、source_anime や rating_safe といったメタタグも画風制御に不可欠である。
2.2 Illustrious XL と NoobAI:ポストPonyの急先鋒
Ponyの画風(特に独特の陰影や肌の質感)を嫌う層や、より純粋な倭国のアニメスタイルを追求する層の間で、Illustrious XL およびその派生である NoobAI が台頭している。
NoobAI: "Noob"という名に反して、極めて高度なモデルである。Illustriousをベースに大規模なファインチューニングが行われており、Ponyに匹敵するプロンプト従順性を持ちながら、Ponyとは全く異なる「商業アニメ的」なクリアな画風を持つ。特に、Danbooruタグに対する反応が極めて素直であり、タグの組み合わせによる微細な画風コントロールが可能である29。
Illustrious: 多くの独自LoRAのベースモデルとして採用されている。Ponyほど強い「自我(画風の癖)」を持たないため、LoRAによる画風変換の受け皿として優秀である29。
2.3 実写系モデルの現在地
アニメ調以外の領域では、以下のモデルがガチ勢のスタンダードである。
Juggernaut XL: 依然として汎用実写モデルの金字塔。風景、人物、建築物までバランスよく高画質化されている31。
RealVisXL: 肌の質感、毛穴の表現など、ポートレートにおけるリアリティを極限まで追求したモデル。
Flux.1 (Dev/Schnell): 2025年の台風の目。SDXL世代を超える圧倒的なプロンプト理解力と文字生成能力を持つが、LoRAやControlNetの充実度ではまだSDXL/Pony系に分がある。しかし、究極の画質を求める層はFluxへの移行を進めている32。
第3章:ComfyUIアーキテクチャ - ガチ勢の思考と構築術
Automatic1111(WebUI)は優れたツールだが、処理の最適化や複雑なパイプライン構築において限界がある。ガチ勢がComfyUIに移行する理由は、単なる「拡張性」ではなく、VRAM管理の効率化と、処理フローの論理的な制御が可能だからである。
3.1 必須拡張ノード(Custom Nodes)の正体
素人が「どうやってその機能を実現しているのか?」と疑問に思う機能のほとんどは、以下のカスタムノード群によって実現されている。これらはもはや「拡張」ではなく「標準装備」に近い。
ノードパック名称
ガチ勢が使う理由と真の価値
ComfyUI-Impact-Pack
**「Face Detailer」**を含む最強のツールセット。画像の特定領域(顔など)を検出し、そこだけを高解像度で再描画する機能は、全身図における顔の崩れを防ぐ唯一の解である。また、論理演算(スイッチ、ループ)を可能にし、ワークフローに「知能」を与える10。
ComfyUI-Manager
全てのノードのインストール、更新、モデルのダウンロードを管理するポータル。これ無しではComfyUIの環境維持は不可能に近い34。
rgthree-comfy
**「Mute/Bypass」機能や「Context」**ノードが革新的。複雑な配線を「Context」という一つの束にまとめ、スパゲッティ状態のワイヤーを整理する。また、不要な処理をスキップする最適化機能が強力35。
ComfyUI_IPAdapter_plus
画像から画像へ「画風」や「構図」をコピーするIP-Adapterの決定版。LoRAを作らずとも、参照画像を用意するだけで絵柄を統一できるため、時短テクニックとして必須36。
ComfyUI-Essentials
画像サイズ計算、マスク処理など、痒い所に手が届く基本機能の詰め合わせ。標準ノードの欠落を埋める37。
KJNodes
カラーピッカーや画像プレビュー機能など、UI/UXを劇的に改善する。パラメータを目視で確認しながら調整するために使われる。
ComfyUI-VideoHelper
動画生成だけでなく、大量の画像を一括処理(バッチ処理)する際のロード・セーブ機能を強化する38。
3.2 ノード接続の奥義:「Pipe」と「Bus」システム
初心者が最も苦戦するのが「ノードの繋ぎ方」である。画面中をワイヤーが這い回るスパゲッティ状態は、修正を困難にする。ガチ勢は**「Pipe(パイプ)」または「Bus(バス)」**という概念を用いてこれを解決している。
The Pipe System (Impact Pack)
通常、KSamplerには Model, CLIP, VAE, Positive Prompt, Negative Prompt の5本の線を繋ぐ必要がある。これを複数のKSampler(例:Hires Fix用、Face Detailer用)に繋ぐと、線は数倍に増える。
Impact Packの 「ToBasicPipe」 ノードを使用すると、これら5つのデータを「BasicPipe」というたった1本の線に束ねることができる。
接続法: ToBasicPipe で束ねた線を、FaceDetailer (Pipe) や KSampler (Pipe) の basic_pipe 入力に繋ぐだけ。これにより、ワークフローの可読性が劇的に向上し、モデルの差し替えも一箇所で済むようになる10。
3.3 メモリ管理の極意:24GB VRAMを使い倒す引数
RTX 3090や4090(24GB VRAM)を使用していても、巨大なワークフローではOOM(Out of Memory)が発生する。ガチ勢は起動時のコマンドライン引数でこれを制御している39。
--highvram: VRAMが十分にある場合、モデルをVRAMに常駐させ、システムRAMへの退避を防ぐことで高速化する。
--use-sage-attention: 注意機構(Attention)の計算を最適化し、速度とメモリ効率を向上させる最新の引数(PyTorchのバージョンに依存)。
--cache-ram: ワークフローの切り替えやパラメータ変更時の再ロードを高速化するために、キャッシュをRAMに保持する。
--reserve-vram 1.0: VRAMの最後の1GB程度をシステム用に空けておくことで、予期せぬクラッシュを防ぐ。
第4章:ControlNetとIP-Adapter - 構図と画風の支配者
プロンプトだけでガチャを回す時代は終わった。意図した通りの構図、ポーズ、画風を一発で出力するために、以下の技術が使われている。
4.1 ControlNet Union:SDXL/Pony時代の新標準
これまで、Canny(線画)、Depth(深度)、OpenPose(骨格)など、機能ごとに個別のControlNetモデル(各数GB)をダウンロードする必要があった。しかし2025年の真実は 「ControlNet Union」 である。
xinsir/controlnet-union-sdxl-1.0 (Promax): これは一つのモデルファイルで、Canny、Depth、Pose、Repaintなど複数の機能を網羅する「万能モデル」である。
Ponyとの互換性: 特筆すべきは、従来のSDXL用ControlNetがPony V6でうまく動作しなかったのに対し、このUnionモデル(特にxinsir製)はPony V6でも高い適合性を示す点である。ガチ勢はもはや個別のControlNetモデルを使わず、このUnionモデル一本に絞っているケースが多い40。
Mistoline: アニメ系の線画抽出と制御においては、Mistoline というモデルが最強とされる。極細の線や複雑なアニメ塗りの境界を正確に認識し、線画の破綻を防ぐ43。
4.2 IP-Adapter Plus:LoRA不要の画風模倣
IP-Adapter は、画像をプロンプトとして使う技術である。
Style Transfer & Composition: ガチ勢のワークフローでは、2つのIP-Adapterを直列に繋ぐ構成がよく見られる。1つ目のIP-Adapterには「画風の参考画像」を入力し、重みを Style Transfer モードに設定。2つ目には「構図の参考画像」を入力し、重みを Composition モードにする。これにより、LoRAを学習することなく、「この画像の画風で、あの画像の構図を描く」ことが可能になる36。
FaceID Plus v2: 特定の人物の顔を固定したい場合、学習コストのかかるLoRAではなく、IP-Adapter-FaceID-Plus-v2 を使用するのがトレンドである。InsightFaceと組み合わせることで、驚異的な精度で顔の特徴を転写できる45。
第5章:具体的なノード接続トポロジー(素人が欲しがる「繋ぎ方」)
ここでは、実際にガチ勢が組んでいるワークフローの核心部分、ノードの具体的な接続手順を解説する。
5.1 シナリオA:顔の崩れを自動修復する「Face Detailer」パイプライン
全身図を描くと顔が潰れる現象(解像度不足)を解決する、最も普及しているが最も効果的な構成。
基本生成: 通常通り CheckpointLoader -> CLIPTextEncode -> KSampler -> VAEDecode で画像を生成する。この時点での画像出力(IMAGE)を次の工程に渡す。
FaceDetailerの配置: Impact Packの FaceDetailer ノードを配置する。
入力の接続:
Image: 手順1で生成された画像(IMAGE)を接続。
Model/CLIP/VAE: ToBasicPipe ノード等を経由して、メインのモデル情報を接続。
BBox Detector: ここが重要。UltralyticsDetectorProvider ノードを配置し、モデル名に bbox/face_yolov8m.pt (顔検出用の軽量かつ高精度なモデル)を選択して接続する。
SAM Model: SAMLoader ノードを配置し、sam_vit_b_01ec64.pth を選択して接続。これにより、検出した顔の領域をセグメンテーション(切り抜き)する精度が飛躍的に向上する。
パラメータ設定: guide_size を 512 または 768 に設定する。これは「切り抜いた顔をこの解像度まで拡大してから修正し、また縮小して戻す」という意味である。denoise は 0.3 〜 0.4 が適正値。高すぎると顔が別人に変わり、低すぎると修正されない10。
5.2 シナリオB:複数キャラクターを描き分ける「Regional Prompting」
「左に青い髪の少女、右に赤い髪の少年」とプロンプトしても色が混ざる現象(Bleeding)を防ぐ技術。
マスクの作成: SolidMask ノードなどで、画面を左右に分割するマスク(白黒画像)を作成する。
条件付け(Conditioning)の分割:
CLIPTextEncode を3つ用意する。(1:ベースプロンプト、2:左キャラ用、3:右キャラ用)
Regional Conditioning: Conditioning (Set Mask) ノードを2つ使用する。
左キャラ用プロンプト -> Conditioning (Set Mask) のConditioning入力へ。左側のマスク画像をMask入力へ。
右キャラ用プロンプト -> もう一つの Conditioning (Set Mask) へ。右側のマスク画像をMask入力へ。
結合: ConditioningCombine ノードを使用し、ベースプロンプト、左キャラ(マスク付)、右キャラ(マスク付)の3つを結合する。
サンプリング: 結合されたConditioningをKSamplerのPositiveに入力する。これにより、KSamplerはマスクの白い部分に対応する領域でのみ、特定のプロンプトを参照してノイズ除去を行うようになる35。
5.3 シナリオC:究極の高画質化「Ultimate SD Upscale + Tile ControlNet」
単なる拡大ではなく、ディテールを描き込みながら4K/8K化する業界標準の手法。
入力画像のロード: 低解像度の画像を LoadImage。
ControlNetの準備:
ControlNetLoader で controlnet-union-sdxl-1.0 (またはTile専用モデル) をロード。
ControlNetApplyAdvanced ノードを使用。入力画像(低解像度)を image に接続。Strength(強度)は 0.3 〜 0.6 に設定する。ここが最大のポイントであり、強度を1.0にすると元画像に拘束されすぎてディテールが増えない。逆に低すぎると構図が崩れる。
アップスケーラーの準備: UpscaleModelLoader で 4x-UltraSharp などをロード。
Ultimate SD Upscale:
カスタムノード UltimateSDUpscale を配置。
upscale_model に手順3のモデルを接続。
positive には、ControlNet適用後のConditioning を接続する。これが「書き込み」のガイドとなる。
設定: mode_type を tiled に。tile_width/height はSDXLなら 1024。Denoise(ノイズ除去強度)は 0.35 が鉄板の数値である。これ以上上げると幻覚(Hallucination)が見え始め、下げると単なる拡大になる48。
結論
2025年におけるAIイラスト「ガチ勢」の真実は、魔法のような単一のツールにあるのではなく、**「高品質・小規模な学習データ」と「ComfyUIによる論理的な処理パイプライン」**の組み合わせにある。
初心者が喉から手が出るほど欲しい「真実」を要約すると以下のようになる:
LoRA学習: 100枚もいらない。完璧な30枚を用意し、OneTrainerでマスク学習せよ。
モデル: Pony V6 (AutismMix) か NoobAI を使い、スコアタグを忘れるな。
ControlNet: 迷わず Union SDXL Promax を使え。
高画質化: 単なるHires Fixではなく、Tile ControlNet を効かせた Ultimate SD Upscale を組め。
このアーキテクチャを理解し実践することで、生成されるイラストの品質は「ガチャ」の領域を超え、意図された「作品」へと昇華される。
参考文献
Reddit: Best practice launch arguments for 3090 24GB Reddit: ComfyUI Ultimate SD Upscale ControlNet Tile workflow Civitai: Opinionated guide to all lora training 2025 update Civitai: Kohya_ss vs OneTrainer for SDXL LoRA training Reddit: Manually setting VRAM limits in Comfy Reddit: LoRA training dataset size best practices CreateCare: LoRA作成 画像枚数 ガチ勢 note Reddit: Training a LoRA: The dataset Reddit: How to create high quality dataset of character Reddit: Training a LoRA on 5000 images too much? Reddit: Tile controlnet with Ultimate SD Upscale https://t.co/xVK0IOBp2I: OneTrainer Fine Tuning vs Kohya SS Civitai: SDXL Pony Fast Training Guide GitHub: Joy_Caption_Two_PixelaiLabs BentoML: A Guide to ComfyUI Custom Nodes Reddit: Control Net on Pony XL Civitai: L3n4s LoRA Training Fundamentals Civitai: Pony Realism Reddit: I created a improved comparison chart of Pony XL models Reddit: Are there any good alternatives to Florence image captioner? Reddit: Onetrainer vs Kohya Reddit: What is best pony anime checkpoint now? NextDiffusion: Blazing Fast Face Detailer Workflow Reddit: Controlnet models for Pony checkpoints Reddit: Best Anime Checkpoints (Flux, Pony, Illustrious) Reddit: OneTrainer Pony LoRA Reddit: Tile controlnet with Ultimate SD Upscale workflow ThinkDiffusion: ComfyUI Face Detailer Reddit: Best captioning software model GitHub: ComfyUI-Impact-Pack Regional Sampler Tutorial Reddit: Get amazing image upscaling with Tile ControlNet Civitai: On-Site LoRA Training Settings Guide Stable Diffusion Art: ComfyUI Guide Reddit: Controlnet models for Pony and Illustrious Reddit: Pony compatible controlnets ComfyAI: RegionalPrompt Documentation RunDiffusion: Ultimate SD Upscaler Tutorial Stable Diffusion Art: Pony Diffusion V6 XL Guide ThinkDiffusion: ComfyUI Face Detailer Workflow GitHub: ControlNetPlus (xinsir) SeaArt: The Ultimate Guide - Illustrious XL 2.0 Reddit: Best tips for Pony Diffusion V6 XL GitHub: ComfyUI_UltimateSDUpscale Shakker Wiki: IP Adapter ComfyUI RunComfy: CombineRegionalPrompts Node Hugging Face: Perfect LoRA Training Parameters RunComfy: Advanced IPAdapter Guide GitHub: ComfyUI_essentials Civitai: Another Prompting Guide for Pony Diffusion Civitai: Tips for Illustrious XL Prompting December 12, 2025
まってチケプラに登録してる顔写真どすっぴん度強メガネなんだけど大丈夫かな、、、iPhoneのFaceIDくらいの精度あって欲しい、、、 https://t.co/XwSGOZZUUg December 12, 2025
Face IDはiPadやMacにこそ必要で、iPhoneはAndroidのような簡単な顔認証と画面内指紋認証の方が良い。Dynamic Island(笑)もパンチホールの極小に出来るので。 December 12, 2025
<ポストの表示について>
本サイトではXの利用規約に沿ってポストを表示させていただいております。ポストの非表示を希望される方はこちらのお問い合わせフォームまでご連絡下さい。こちらのデータはAPIでも販売しております。



