ウェブ魚拓とはサイト情報をキャッシュして残しておくシステムで、
一度書いたブログ等が削除されて二度と見れなくならないように使われることが多い。
したがって、かつて炎上したブログで削除されてしまったもの等を検索すると見つかることもあり、これから紹介する記事にも書かれているように「証拠保全」として使われることも多いようだ。
つまり「お前こんなこと書いてたじゃん。いまさら消そうとしたって無駄だよ。」といった具合である。


もっとも、ブログがメディアであるということを意識した上で書かれた内容のものであれば、キャッシュが残されるというのはむしろ光栄なことであるはず。
ただ、みんながみんなキャッシュされるのを光栄と思っているとは思えない。今の日本のブログを見渡すに、むしろ、嫌だと思う人のほうが多いかもしれない。
そこで、ウェブ魚拓にキャッシュを残させない方法を見つけたのでご紹介します。

livedoor ニュース - ウェブ魚拓を拒否する
 アクセス禁止の方法は簡単。トップディレクトリに robots.txt を用意し、内容を
User-agent: MegalodonDisallow: /
 としておけば良い。

実は、この記事のネタ元は「ウェブ魚拓」自身である。
Q&A - ウェブ魚拓
キャッシュの取得を禁止するにはどうすればいいですか?
以下の3つの方法のどれかを行うことでキャッシュの取得を禁止できます。
(1) 以下のMETAタグをHEADタグ内に書く
<meta name="robots" content="noindex,nofollow">
(2) ルートディレクトリにrobots.txtを設置して、"Megalodon"が取得不可能なパスを指定する
なお、robots.txtはキャッシュしておりますので、変更が反映されるまで長くて3日かかります。
(3) ウェブサイトオーナーとして削除依頼を行い、その際にキャッシュ禁止登録のチェックボックスをONにする
これの(2)が紹介されているやりかたなのだが、こちらにはrobots.txtの内容までは書かれていない。
さらに
大変申し訳ありませんが、これらについての技術的な質問はお受けしておりません。
とあるので、あまり詳しい内容は伝えたくないようだ。
もっとも、(1)(3)の方法でもキャッシュを取得できなくさせることが可能なので問題はないはず。

僕は必要がないのでやりませんが、もし、キャッシュされて困るような内容の記事を全世界に公開されるブログに書いているという変わった方がいるようでしたら、ぜひ、試してみるといいと思います。