やっぱりIO

今までのよりメモリが載ったPCクラスタを使いだした。メモリがあるから、ということで、1nodeで処理するjobの数を増やしてみた。
...ノードでtop取ってみたら、数秒に一回io waitかかりまくってcpu usageがあまり上がらないorz
やっぱIO大事だなー、と思った今日この頃。

xfs with lvm + nfs on centos / ionice

xfs with lvm + nfs on centos

xfsがカーネルスタックを使いすぎて、lvmやnfsと組み合わせて使えないから、redhatがbaseから外している、という話を聞く。
...ウチのnfsサーバ、何でまともに動いてるんだろう...カーネルスタック大きくしたカーネルに入れ替えてる...?

ionice

nfsマウントしてる領域に、計算ノードからデータ書き戻すのにionice使えたらええなぁ、とか思って少しだけ調べるが、使えない模様。

まだまだ

成熟してない事柄があるのね、と一利用者として実感した今日この頃。

network解析で気になってた事

なんとなく気になって、レヴィ=ストロースの解説をちらちらと読み返してて気付く。
network解析で見てるのって、構造主義でいう構造なんぢゃないのかなと。
日本語版wikipediaにはなかったけど、英語版にはsocial networkとのかかわりを書いてあって納得したり、Structuralismにはbiological networkの話が書いてないのに、Network theory - Wikipediaの所にはbiological network analysisのセクションがあって面白いとおもうなどした。

wikipedia:en:Network_theory の外部リンク

がけっこういいかも。

GridEngineAPIの挙動

今使ってるクラスタGridEngineAPI経由で呼んだ場合の挙動がなんかおかしいっぽい。

  • 状況
    • 1.某パイプラインの実行時にuseSGE=Tureを付けて呼んだ場合
    • 2.某パイプラインの旧バージョンに含まれるmapperを、drmma4rubyを含むrakeから呼んだ場合
  • 結果
    • 投入job数が90を超えたあたりから、APIコールが失敗し、投入しようとしたjobが計算ノードでなくヘッドノードで実行される

...何が起こってるんだろ。

生命動態システム科学シンポジウムなリンク

/までと、index.html付きがあるのに気づいた。後者経由で、id:hisaom さんの生命動態システム科学にかんする良エントリを知った。そちらもぜひご覧ください。後日感想エントリあげる事になるかな。