シミュレーション
だいたいシミュレーションは2,000回やればいいって言われている。
明確な根拠を見たことはないけど、多分シミュレーション誤差(中心極限定理で計算できる)が相当小さくなるのがこれくらいの回数なんだと思う。
計算が簡単だったら2,000回なんてあっという間なんだけど、大きいデータでやろうとしたり、アルゴリズムが複雑で計算量が多かったりしたら大変。
少しでもPCを有効活用するため、Hadoopなどの分散処理をするのが理想的なんだけど、まだ勉強中なんだよなぁ。
そこで擬似的な分散処理として、2,000回シミュレーションを複数回に分けて、別PCや別Rで行ってます。
今は同PCでRを2つ起動させて、1,000回ずづやってる。
以前のPCだったら不可能だったんだろうけど、現PCでは快適だなぁ。
タスクマネージャーはこんな感じ。
ちなみにシミュレーションはSVMとかニューラルネットとかをシミュレーション回数×10×4回やってますw
t検定に至ってはシミュレーション回数×10×100回とか。
他の処理もやってるから重い重いww
以前のPCはうるさくてしょうがなかったけど、現PCは冷却ファンすら回りません。
これで8万(モニタ込み)なんだから安いよな~
R×2でもCUP使用率は50%なので、もう一個くらいは同時実行できるかな?
メモリを8Gにしたら6個とか同時にできるんだろうか笑