シミュレーション

だいたいシミュレーションは2,000回やればいいって言われている。

明確な根拠を見たことはないけど、多分シミュレーション誤差(中心極限定理で計算できる)が相当小さくなるのがこれくらいの回数なんだと思う。

計算が簡単だったら2,000回なんてあっという間なんだけど、大きいデータでやろうとしたり、アルゴリズムが複雑で計算量が多かったりしたら大変。


少しでもPCを有効活用するため、Hadoopなどの分散処理をするのが理想的なんだけど、まだ勉強中なんだよなぁ。

そこで擬似的な分散処理として、2,000回シミュレーションを複数回に分けて、別PCや別Rで行ってます。


今は同PCでRを2つ起動させて、1,000回ずづやってる。

以前のPCだったら不可能だったんだろうけど、現PCでは快適だなぁ。

タスクマネージャーはこんな感じ。

f:id:isseing333:20101016023026p:image


ちなみにシミュレーションSVMとかニューラルネットとかをシミュレーション回数×10×4回やってますw

t検定に至ってはシミュレーション回数×10×100回とか。

他の処理もやってるから重い重いww


以前のPCはうるさくてしょうがなかったけど、現PCは冷却ファンすら回りません。

これで8万(モニタ込み)なんだから安いよな~


R×2でもCUP使用率は50%なので、もう一個くらいは同時実行できるかな?

メモリを8Gにしたら6個とか同時にできるんだろうか笑

ページTOPへ