“もうこれでAI漫画の背景の整合性ガーとか考えなくていいっすね…ええ…??? AI漫画どころか、普通の手描き漫画の背景も一個描いたら別アングル作り放題ですよ”
めちゃくちゃすごい。時代加速してる。
ここまでくると、AI特有の多少のブレも、普通の漫画とかである範囲のブレや作画ミスの範囲とおおよそ重なるのでしょうか
パンに顔描いてと頼んだら現実世界に存在しないので誤解を与えるとか言われて却下されたんだが…
そうそう、セルアニメな見た目じゃないといけないよね
文字入れの精度高まるの助かる。AIでネタ画像(架空のキャラクター「◯◯◯」とか)を作るとき手作業で◯◯◯って文字入れるの体験的になんかいまいちなんじゃよね。
自動中割りいけそうやん
この世から作画崩壊が無くなってしまう、、、
相変わらず進化が速い……
ええっ?!
ほええ
これを使う場面があまりない。
“Geminiの新機能の画像加工やばすぎっす テキスト指示だけで背景の構図も自由自在に変えられる”
進化したのはわかる。わかるんだが、最初の部屋、その広さでベッドをそこには置かんだろう。相変わらず驚き屋さんはオーバーリアクション
これ、フェイク情報大丈夫かな、そろそろ厳罰にしないと危なそう
こういうすごい進歩が年に何度も起きるようになっていく
すげー。当初AIに求めていたものにかなり近くなっている…。これは今後に期待だなぁ。
やっぱGeminiなのか。
まだ使えないんだけど
「いつかはこうなる」というのがついに来たという感じだな
“google aistudio”
フェイク画像作成が捗る
自分の写真をアップしてドレッドヘアにしたり、サラサラ黒髪ロングにすると爆笑するよ。でも「月代を青々と剃り上げた若侍風」はGemini様には理解されなかったよ。残念。
ものすごいスピードで以前の常識が過去のものになっていくなあ
やばいな。もうここまで来たのか…。StableDiffusionも一枚絵のガチャならかなり満足度高いけど統一感のある画像は厳しいのよね
aistudioでpreviewのflash experimental選んだらブラウザが固まってもーた。後でトライしてみる
乗るしかない、このビッグウェーブに
コレでアニメーターの仕事はホワイトになるのだろうか、永遠に生成やり直しする現場出そう
どういう仕組みになってるんだ
すごい
これがローカル環境でできるようになるまでどれくらいかかるかなあ。今の進化の速さだと数か月かも
インペイントとか色んなAI加工を駆使していたのを自然言語でサクッとやってくれる。エラーで中断される事も多いが、めちゃくちゃ効率が上がったわ
LLMが話題になって画像生成AIはFlux.1以前からそれほど進歩なくなってたのでありがたい。最初に3Dで色んな角度で学習→詳細な絵に追加学習といった感じなんだろうか。セグメントはSegment Anything出てからラベル付はし易く
Google AI Studio のGemini 2.0 Flash Experimentalで images and text を選択して画像生成を依頼したら「まだ直接画像を生成する機能を持ってない」と拒否されたりするね。生成できてもラフ画レベルしか無理だった。もう少し試してみる。
キャラクター固定して漫画が作れる?
とりあえず漫画のアシスタントさんの仕事が、超絶的確なプロンプトで背景描くみたいな内容に変わっていきそうだな。
巨乳の女の子の横向き画像を作らせたら、めっちゃデブが出力されたのだが…(´・ω・`)
おお…
技術の進歩ってすごいなあ…。
凄いね。動画にも派生するんだろ
逆にね、雰囲気のある絵、癖のある絵が描ける人は陽の目を見るのではないでしょうか。今は最大公約数みたいなイラストがいいねを貰いやすいので⋯⋯
3次元空間を理解しているように動くのは大量の動画で学習したから?それにLLMの言語理解の高さが相まってうまく画像生成できるってことか。/ただセンシティブ判定の申し訳がひどいのよね…これさえなければと思う
Diffusionモデルではなくtransformerモデルの画像生成か。今までと技術的にだいぶ違う物だな
試したところ、今の所、女性らしき(というよりスカートを履いている)人物が写っているだけでもunsafe contentだって怒られる。
これに2枚の画像を与えると中間画像を生成するアニメーションツールを組み合わせると狙ったアニメが作れそう
ほえーっ。
おお、凄い。
構図を解釈する中間層でも増えたんだろうか。/しかし過去の「Ok, Google」のままOpenAIに遅れを取って消えていきそうなイメージは完全になくなったなあ。
Gemini新機能の画像加工がついにテキスト指示だけで背景の構図も自由自在に変えたり、出力したキャラを回転させられるように。
“もうこれでAI漫画の背景の整合性ガーとか考えなくていいっすね…ええ…??? AI漫画どころか、普通の手描き漫画の背景も一個描いたら別アングル作り放題ですよ”
めちゃくちゃすごい。時代加速してる。
ここまでくると、AI特有の多少のブレも、普通の漫画とかである範囲のブレや作画ミスの範囲とおおよそ重なるのでしょうか
パンに顔描いてと頼んだら現実世界に存在しないので誤解を与えるとか言われて却下されたんだが…
そうそう、セルアニメな見た目じゃないといけないよね
文字入れの精度高まるの助かる。AIでネタ画像(架空のキャラクター「◯◯◯」とか)を作るとき手作業で◯◯◯って文字入れるの体験的になんかいまいちなんじゃよね。
自動中割りいけそうやん
この世から作画崩壊が無くなってしまう、、、
相変わらず進化が速い……
ええっ?!
ほええ
これを使う場面があまりない。
“Geminiの新機能の画像加工やばすぎっす テキスト指示だけで背景の構図も自由自在に変えられる”
進化したのはわかる。わかるんだが、最初の部屋、その広さでベッドをそこには置かんだろう。相変わらず驚き屋さんはオーバーリアクション
これ、フェイク情報大丈夫かな、そろそろ厳罰にしないと危なそう
こういうすごい進歩が年に何度も起きるようになっていく
すげー。当初AIに求めていたものにかなり近くなっている…。これは今後に期待だなぁ。
やっぱGeminiなのか。
まだ使えないんだけど
「いつかはこうなる」というのがついに来たという感じだな
“google aistudio”
フェイク画像作成が捗る
自分の写真をアップしてドレッドヘアにしたり、サラサラ黒髪ロングにすると爆笑するよ。でも「月代を青々と剃り上げた若侍風」はGemini様には理解されなかったよ。残念。
ものすごいスピードで以前の常識が過去のものになっていくなあ
やばいな。もうここまで来たのか…。StableDiffusionも一枚絵のガチャならかなり満足度高いけど統一感のある画像は厳しいのよね
aistudioでpreviewのflash experimental選んだらブラウザが固まってもーた。後でトライしてみる
乗るしかない、このビッグウェーブに
コレでアニメーターの仕事はホワイトになるのだろうか、永遠に生成やり直しする現場出そう
どういう仕組みになってるんだ
すごい
これがローカル環境でできるようになるまでどれくらいかかるかなあ。今の進化の速さだと数か月かも
インペイントとか色んなAI加工を駆使していたのを自然言語でサクッとやってくれる。エラーで中断される事も多いが、めちゃくちゃ効率が上がったわ
LLMが話題になって画像生成AIはFlux.1以前からそれほど進歩なくなってたのでありがたい。最初に3Dで色んな角度で学習→詳細な絵に追加学習といった感じなんだろうか。セグメントはSegment Anything出てからラベル付はし易く
Google AI Studio のGemini 2.0 Flash Experimentalで images and text を選択して画像生成を依頼したら「まだ直接画像を生成する機能を持ってない」と拒否されたりするね。生成できてもラフ画レベルしか無理だった。もう少し試してみる。
キャラクター固定して漫画が作れる?
とりあえず漫画のアシスタントさんの仕事が、超絶的確なプロンプトで背景描くみたいな内容に変わっていきそうだな。
巨乳の女の子の横向き画像を作らせたら、めっちゃデブが出力されたのだが…(´・ω・`)
おお…
技術の進歩ってすごいなあ…。
凄いね。動画にも派生するんだろ
逆にね、雰囲気のある絵、癖のある絵が描ける人は陽の目を見るのではないでしょうか。今は最大公約数みたいなイラストがいいねを貰いやすいので⋯⋯
3次元空間を理解しているように動くのは大量の動画で学習したから?それにLLMの言語理解の高さが相まってうまく画像生成できるってことか。/ただセンシティブ判定の申し訳がひどいのよね…これさえなければと思う
Diffusionモデルではなくtransformerモデルの画像生成か。今までと技術的にだいぶ違う物だな
試したところ、今の所、女性らしき(というよりスカートを履いている)人物が写っているだけでもunsafe contentだって怒られる。
これに2枚の画像を与えると中間画像を生成するアニメーションツールを組み合わせると狙ったアニメが作れそう
ほえーっ。
おお、凄い。
構図を解釈する中間層でも増えたんだろうか。/しかし過去の「Ok, Google」のままOpenAIに遅れを取って消えていきそうなイメージは完全になくなったなあ。