2015年12月19日
Tweet
メモ。過去にも書いていましたが、なかなか見つからなかったので再度。
参考
2013年11月11日:圧縮速度 メモ。
長らく 7zip を利用していました。
これは、圧縮率と速度のバランスを考慮してのことです。
今までバックアップサーバーに色々つっこんで保管していたのですが、このときは容量の枯渇が切実な問題になっていました。
ながらく履歴を保管しておきたいのに、容量がないからローテーションしなければならない。しかしローテするにも、ひとかたまりのファイルでないと、すごく時間がかかる。そのような感じでした。
今ではWindows標準機能の重複排除を利用し、なおかつHDDも多めに入れています。そうはいっても、10Tぐらいです。
そこにバックアップする容量は1回分で3Tぐらいあります。だから3回分保存したらギリギリなのです。
しかし重複排除をすると、このデータが1年分ぐらいあっても、ほとんど容量を食わないのです。
現状では1年近く運用していますが、3.5Tぐらいの利用です。バックアップと重複排除は相性がいいですね。
さて、そういうことなので、「1つのファイルにまとめる」という部分だけを重視してやりたいと思います。
コマンドは以前の記事の通りです。が、Cオプションをつけないと、ファイルエラーがあったときに止まってしまいます。
これを回避。エラーは無視して次のファイルにいってもらいます。
ということで以下の通り。コマンドの詳細は以前の記事に記載しています。
qpress -rvK2048T4C d:\dir\* database.qp
参考
2013年11月11日:圧縮速度 メモ。
長らく 7zip を利用していました。
これは、圧縮率と速度のバランスを考慮してのことです。
今までバックアップサーバーに色々つっこんで保管していたのですが、このときは容量の枯渇が切実な問題になっていました。
ながらく履歴を保管しておきたいのに、容量がないからローテーションしなければならない。しかしローテするにも、ひとかたまりのファイルでないと、すごく時間がかかる。そのような感じでした。
今ではWindows標準機能の重複排除を利用し、なおかつHDDも多めに入れています。そうはいっても、10Tぐらいです。
そこにバックアップする容量は1回分で3Tぐらいあります。だから3回分保存したらギリギリなのです。
しかし重複排除をすると、このデータが1年分ぐらいあっても、ほとんど容量を食わないのです。
現状では1年近く運用していますが、3.5Tぐらいの利用です。バックアップと重複排除は相性がいいですね。
さて、そういうことなので、「1つのファイルにまとめる」という部分だけを重視してやりたいと思います。
コマンドは以前の記事の通りです。が、Cオプションをつけないと、ファイルエラーがあったときに止まってしまいます。
これを回避。エラーは無視して次のファイルにいってもらいます。
ということで以下の通り。コマンドの詳細は以前の記事に記載しています。
qpress -rvK2048T4C d:\dir\* database.qp