“非決定性発生の真の因果関係は、以下の通りで。 ランダムなサーバー負荷:。 変動するバッチサイズ。 計算戦略の変化。 異なる計算結果”
ローカルLLMだと応答が一定になるということになると思うけど、検証はされてるんだろうか
ローカルllmでもめちゃ起こりますよ?
めちゃくちゃ面白い…/ブコメ最後まで読めw読んで分からんなら出直せ
へー
ブレがあるほうが人間的でウケは良いだろうけど
そもそもAIの計算には乱数を使っているので計算ごとに結果は異なるのだが、シードを固定してもGPUのスレッドが乱数を引く順序が異なるの他に状況によって浮動小数点数の計算順序が異なるというのがあるということなの
占い師に見てもらうとき、行列の前の相談者達の影響で占い結果が変わるってことやな
ローカルでもGPUは画面描画のために同時処理がありそうだから、なんらかの最適化の影響を受けてるとしたらあり得ると思う。ともあれ、AIに預けたい処理に本質的な安定性を求めてるというかとそんな事はないのよな
ローカルで計算専用GPUなら常に同じ結果になる!!!!!!!ほんとか??????
元OpenAIの研究者ら、AIの応答が毎回違う理由をついに解明 | XenoSpectrum
“非決定性発生の真の因果関係は、以下の通りで。 ランダムなサーバー負荷:。 変動するバッチサイズ。 計算戦略の変化。 異なる計算結果”
ローカルLLMだと応答が一定になるということになると思うけど、検証はされてるんだろうか
ローカルllmでもめちゃ起こりますよ?
めちゃくちゃ面白い…/ブコメ最後まで読めw読んで分からんなら出直せ
へー
ブレがあるほうが人間的でウケは良いだろうけど
そもそもAIの計算には乱数を使っているので計算ごとに結果は異なるのだが、シードを固定してもGPUのスレッドが乱数を引く順序が異なるの他に状況によって浮動小数点数の計算順序が異なるというのがあるということなの
占い師に見てもらうとき、行列の前の相談者達の影響で占い結果が変わるってことやな
ローカルでもGPUは画面描画のために同時処理がありそうだから、なんらかの最適化の影響を受けてるとしたらあり得ると思う。ともあれ、AIに預けたい処理に本質的な安定性を求めてるというかとそんな事はないのよな
ローカルで計算専用GPUなら常に同じ結果になる!!!!!!!ほんとか??????