論文を読む

最近は研究の関係でよく論文を読むことが多い。

研究内容は一応、「統計的異常検出手法によるネットワークの異常監視」なんだが、別にこのあたりはそれに近い内容ならいいらしい。


「TCPフロー使って時系列モデルで異常検出」とか「SVMでクラスタリングして統計的に異常検出」とか「ニューラルネットワークの一種で統計的に異常検出」とか、結構論文よんだけど、結局1番大事なHTTPの異常検出がだいたい失敗してる。

統計的にパケットとかトラフィック情報からペイロード(データの実際の内容みたいなもの)みずに異常検出するのは限界なんじゃないかなーと思ったりする。

けど、ペイロード見だすと今度は計算量増えて監視どころじゃないし、どうしたもんか。

とりあえず、HTTP以外はパケットのフラグレベル(データの内容じゃなくて、データ通信するまでのやりとりの痕跡みたいなもの)で異常検出して、実際のサーバー内のログでHTTPは検出するしかないんじゃないのか、って思ってしまう。

それか、ムーアの法則に従って、マシンスペックをひたすらあげてペイロード見るとか。

どうにか、HTTPの異常検出を80%くらいでいきたいと思ってます。

とりあえず、日本語の論文は本当に読むの楽しい。

ソフトウェアデザインとかの雑誌読んでるのと一緒ですね。