稼働中のPCやら衝動買いしたPCやら実験やら破壊やら構築やら。
情報としての価値はほぼなし。
なんていうか完全に自己満足。
要するについてくる人が居ないのでこっちに書くだけの話っていうかチラシの裏。
※あと、お仕事募集中
コンタクトはk.haramai[atmark]gmail.com まで。

2009/06/08

More HDD! More Storage!

gigazineさんにて。

ついに1TBもここまで下がったか・・・。
今、自宅ではそれなりの容量のストレージが稼動しているがそろそろ移行を考えたほうがいいかもしれない。

1.0TBx8
500GBx3
250GBx8

・・・なにこんなにデータ入れてるんだっけ?
まぁ、そもそもデータの整理が苦手な自分としては重複だらけなんだろうけれど。

そういえば、まだ社会人だったころにデータ重複関連をいろいろと考えていたのを思い出した。
直接説明を受けたのはEMCのAvamarだけだったが、結局触らず仕舞いだった。
企業にとってデータというものは増えることはあっても減ることはないという持論を持っていて、そのためにテープへのマイグレーションやニアラインストレージへのマイグレーションなどを見てみた。

以前の勤め先での常駐先ではAIXのFastConnectからSAN上のテープロボットへマイグレーションをしていたがとにかく精度が悪かった。
すぐにタイムアウトを起こしエラーを吐いたり。
まぁ、SCSI全盛の時代で当時ESSの詰まれていたHDDは1本9GBという時代。

そこから数年してサーバ統合を行ったが、その相手はFujitsuのNASだった。
まぁ、NetAppのだけど。
メインのNASが2本、DiskTODisk用にニアラインで1本、最終的にLTOテープロボットへという構成だった。
これはこれで性能もよく、なかなかに良いハードだったし、DataOnTAPも良かった。
あぁ、Fujitsuを褒めているわけじゃないよ、NetAppを褒めてるんだ。

しかし、そこで遭遇したのはデータが溢れるっていうことだった。
当初は4年という期間を考慮し容量設計を行ったらしいが、実際には2年で溢れた。
部門単位に分けられた資源にはQuotaを仕掛けこれ以上使用する際は申請と使用量を払ってね、としていても溢れた。
要するに物理的に入らなければ諦めるなり代替手段をとるわけだが、あればあるほど使ってしまうというのが人間なんだろう。
そこで問題になるのはデータの重複。

こっそりと特定の部門での重複をチェックしてみたことがあるのだが、おおよそ40%程度に重複があった。
同じファイルがいたるところに転がっていたのに驚いた。
これが解消できるとなればまた使用率も変わってくるので2年で溢れるなんていうことは無かったかもしれない。

詳しい技術的内容はここでは省くが、試せるものならば試してみたいところ。

そんなことよりコンシューマ向けのArrayControllerが安くならないかなーっていう愚痴。

0 件のコメント: