FramePackはVRAMは少なくてよいけどメインメモリがめちゃ必要だそう。最低64GB、なるべくそれ以上だって。自分のマザーボードの仕様を確認したら最大64GBだった。32GBあれば安泰な時代がこんなに早くこんな形で終わるとは
NTTの技術者が4ギガバイト環境でも動くものを開発するだろう
「30秒の動画…NVIDIA RTX 4090…約30分」キビシー。お遊び、小ネタ、エフェクト処理前提のワンカット用途で低解像度低フレームレートガビガビでもいいからガチャを手軽に回したい。って用途で案内してくれる人募集~!
これらの叡智もGitHubに上がってすべてAIの養分となるのだなぁ
https://www.sweetprocess.com/kb/jGLEIYrqvAf0dA/article/ZkeLu6fWKv7/how-can-i-complain-to-expedia/
そのうちスマホでも動画が生成出来るようになりそう。
こいつらいっつも驚いてるな
このあたりの工夫はMPEG1とか動画圧縮黎明期の工夫の数々を思い起こす展開。アルゴリズムは個人で戦える
自分の論文の理解と違いすぎるんだけど…。よく動く部分とかいう空間的な圧縮ではなく、時間軸方向の圧縮なのでは?
大分顔が変わってきてる気がするんだが。
これだけ発達しても、顔の特徴(特に涙袋や切れ長の目)が全く変わらないのは何故?
メモリさえあればGPU無しでも動作するならクラウドで動かせそうだけどどうだろう。怒られそうだけど
これ一応エ◯動画とか作れるようになってるのよ。今のお行儀のいいAIサービスだとそっち方面無理だから話題になってるんだと思う。静止画ならそういうサービスいくらでもあるんだけどね
“動画として破綻しにくくなる代わりに、動きや変化は小さくなる。たとえば表情がほぼ同じになりがち。回避策は、プロンプト指示、中心に来るものを明快にする”
“イリヤ神”がまたやった 動画生成AI「FramePack」が革命的なワケ (1/4)
FramePackはVRAMは少なくてよいけどメインメモリがめちゃ必要だそう。最低64GB、なるべくそれ以上だって。自分のマザーボードの仕様を確認したら最大64GBだった。32GBあれば安泰な時代がこんなに早くこんな形で終わるとは
NTTの技術者が4ギガバイト環境でも動くものを開発するだろう
「30秒の動画…NVIDIA RTX 4090…約30分」キビシー。お遊び、小ネタ、エフェクト処理前提のワンカット用途で低解像度低フレームレートガビガビでもいいからガチャを手軽に回したい。って用途で案内してくれる人募集~!
これらの叡智もGitHubに上がってすべてAIの養分となるのだなぁ
https://www.sweetprocess.com/kb/jGLEIYrqvAf0dA/article/ZkeLu6fWKv7/how-can-i-complain-to-expedia/
そのうちスマホでも動画が生成出来るようになりそう。
こいつらいっつも驚いてるな
このあたりの工夫はMPEG1とか動画圧縮黎明期の工夫の数々を思い起こす展開。アルゴリズムは個人で戦える
自分の論文の理解と違いすぎるんだけど…。よく動く部分とかいう空間的な圧縮ではなく、時間軸方向の圧縮なのでは?
大分顔が変わってきてる気がするんだが。
これだけ発達しても、顔の特徴(特に涙袋や切れ長の目)が全く変わらないのは何故?
メモリさえあればGPU無しでも動作するならクラウドで動かせそうだけどどうだろう。怒られそうだけど
これ一応エ◯動画とか作れるようになってるのよ。今のお行儀のいいAIサービスだとそっち方面無理だから話題になってるんだと思う。静止画ならそういうサービスいくらでもあるんだけどね
“動画として破綻しにくくなる代わりに、動きや変化は小さくなる。たとえば表情がほぼ同じになりがち。回避策は、プロンプト指示、中心に来るものを明快にする”