生成AIを始めるにあたり、基礎がまとまっている
SDXLが2段階構成だったなんてもうみんな忘れてそう
旧モデルから新モデルへのアウトプットの推移を見ると着実に進化しているなという印象。要求VRAMもどんどん低くなっているので、近い将来誰でも気軽にローカルで高品質な画像/動画生成できるようになるんだろうな。
https://facilities.med.wustl.edu/app/uploads/formidable/21/Average-1.pdf https://facilities.med.wustl.edu/app/uploads/formidable/21/Users-3.pdf https://facilities.med.wustl.edu/app/uploads/formidable/21/Live.pdf
因みにGGUFとかでの量子化はSD1.5とかSDXLでも出来るんでそこらへん使おうと思ってVRAM足らんわってなったならやってみるといい。
結局世に出回ってない構図にはならないからなーという。ニッチなワードで生成してみると似通った構図しか出てこない。個人利用ならいいのだろうけど。
"ベースモデルそのものではなく[...]チェックポイント(Checkpoint)だ。"チェックポイントは、ベースモデルを基盤として追加訓練を行った派生モデルのこと" マジで何言ってんだ
GPUはRTX50未満でも行けるけどそれなりに生成に時間かかるから本読みながらやってる。出かけて写真撮って帰りimg to imgで生成しながら読書すればひと粒で3度おいしい。
今、自分の中ではqwen-image系も熱めなのだけど、Fluxとどっちが発展するかな~って見てる。いい加減、プロポーションや指が崩れるモデルは辛いと思い始めてきた。
Fluxは良さそうだけど今のPCでは動かない
LoRAの主流がどれになるか次第
Kritaのプラグインのやつも面白いんだけど、ポーズ指定のやり方とかがよくわからんのよな。画像編集ツールに結合されていく流れなのかなー
“画像生成AIには、「Midjourney」やOpenAIの「DALL-E 3」、そして最近ではGoogleの「Nano Banana」のようなクラウドサービスと、Stable Diffusionのようなローカル実行型がある。”
無料で始める画像生成AI 人気モデルとツールまとめ【2025年11月最新版】 (1/5)
生成AIを始めるにあたり、基礎がまとまっている
SDXLが2段階構成だったなんてもうみんな忘れてそう
旧モデルから新モデルへのアウトプットの推移を見ると着実に進化しているなという印象。要求VRAMもどんどん低くなっているので、近い将来誰でも気軽にローカルで高品質な画像/動画生成できるようになるんだろうな。
https://facilities.med.wustl.edu/app/uploads/formidable/21/Average-1.pdf https://facilities.med.wustl.edu/app/uploads/formidable/21/Users-3.pdf https://facilities.med.wustl.edu/app/uploads/formidable/21/Live.pdf
因みにGGUFとかでの量子化はSD1.5とかSDXLでも出来るんでそこらへん使おうと思ってVRAM足らんわってなったならやってみるといい。
結局世に出回ってない構図にはならないからなーという。ニッチなワードで生成してみると似通った構図しか出てこない。個人利用ならいいのだろうけど。
"ベースモデルそのものではなく[...]チェックポイント(Checkpoint)だ。"チェックポイントは、ベースモデルを基盤として追加訓練を行った派生モデルのこと" マジで何言ってんだ
GPUはRTX50未満でも行けるけどそれなりに生成に時間かかるから本読みながらやってる。出かけて写真撮って帰りimg to imgで生成しながら読書すればひと粒で3度おいしい。
今、自分の中ではqwen-image系も熱めなのだけど、Fluxとどっちが発展するかな~って見てる。いい加減、プロポーションや指が崩れるモデルは辛いと思い始めてきた。
Fluxは良さそうだけど今のPCでは動かない
LoRAの主流がどれになるか次第
Kritaのプラグインのやつも面白いんだけど、ポーズ指定のやり方とかがよくわからんのよな。画像編集ツールに結合されていく流れなのかなー
“画像生成AIには、「Midjourney」やOpenAIの「DALL-E 3」、そして最近ではGoogleの「Nano Banana」のようなクラウドサービスと、Stable Diffusionのようなローカル実行型がある。”