Tuesday 30 December 2014
Monday 29 December 2014
Sunday 28 December 2014
Wednesday 24 December 2014
Tuesday 23 December 2014
Monday 22 December 2014
Saturday 20 December 2014
Thursday 18 December 2014
Wednesday 17 December 2014
Tuesday 16 December 2014
Tuesday 9 December 2014
Tuesday 2 December 2014
Friday 28 November 2014
Thursday 13 November 2014
Wednesday 12 November 2014
Friday 7 November 2014
Monday 3 November 2014
Saturday 25 October 2014
Monday 20 October 2014
Saturday 18 October 2014
Wednesday 15 October 2014
Monday 13 October 2014
Wednesday 8 October 2014
Sunday 5 October 2014
Saturday 4 October 2014
Wednesday 1 October 2014
Wednesday 10 September 2014
Tuesday 9 September 2014
Sunday 7 September 2014
Friday 5 September 2014
Wednesday 3 September 2014
Saturday 30 August 2014
Tuesday 26 August 2014
Sunday 24 August 2014
Friday 8 August 2014
Sunday 3 August 2014
Saturday 2 August 2014
Thursday 24 July 2014
Tuesday 22 July 2014
検索ソフトEverythingでフォルダ指定と正規表現を併用する方法。
フォルダ指定の後ろに regex: 演算子を付ければ良い。
例)二桁だけの数字を含むファイル名にマッチさせる
"フォルダパス" regex:[^0-9][0-9][0-9][^0-9]
例)二桁だけの数字を含むファイル名にマッチさせる
"フォルダパス" regex:[^0-9][0-9][0-9][^0-9]
Monday 21 July 2014
Saturday 19 July 2014
Friday 18 July 2014
ウェブ魚拓を拒否する方法 Blogger
ウェブ魚拓を拒否する方法。(2014/7/18現在)
http://megalodon.jp/pc/page/qa#prohibitcache
を参考にBloggerの場合をまとめた。
下記の1または2により拒否できるとのことだけど、両方やっとけば多少安心か?
(方法1)以下のMETAタグをHEADタグ内に書く
テンプレートHTMLを手作業で編集。
<meta name="robots" content="noindex,nofollow"/>
↑Bloggerの場合は閉じ山括弧の前に / が必要のようです。
自分の場合はエディットしたことが分かるようにコメントを付けます。
<meta name="robots" content="noindex,nofollow"/><!--edit-->
(方法2)ルートディレクトリにrobots.txtを設置して、"Megalodon"が取得不可能なパスを指定する
なお、robots.txtはキャッシュしておりますので、変更が反映されるまで長くて3日かかります。
設定→検索設定→独自のrobots.txt
で設定する。
Bloggerのデフォルトrobots.txtは下記の通り。
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
Sitemap: http://○○○.blogspot.com/feeds/posts/default?orderby=UPDATED
しかし手作業でrobots.txtを書く場合は入力欄は空白になっているので、上記の記述にMegalodon用の拒否を加えたものを入力する。
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
User-agent: Megalodon
Disallow: /
Sitemap: http://○○○.blogspot.com/feeds/posts/default?orderby=UPDATED
もし、検索エンジンのクロールも全て拒否して良いならば下記の通り。
設定→基本→プライバシーで『ブログの検索を検索エンジンに許可しますか?』を『いいえ』にすると、自動的に下記のようになるので、これでウェブ魚拓も拒否できるはず。
User-agent: *
Disallow: /search
Disallow: /
http://megalodon.jp/pc/page/qa#prohibitcache
を参考にBloggerの場合をまとめた。
下記の1または2により拒否できるとのことだけど、両方やっとけば多少安心か?
(方法1)以下のMETAタグをHEADタグ内に書く
テンプレートHTMLを手作業で編集。
<meta name="robots" content="noindex,nofollow"/>
↑Bloggerの場合は閉じ山括弧の前に / が必要のようです。
自分の場合はエディットしたことが分かるようにコメントを付けます。
<meta name="robots" content="noindex,nofollow"/><!--edit-->
(方法2)ルートディレクトリにrobots.txtを設置して、"Megalodon"が取得不可能なパスを指定する
なお、robots.txtはキャッシュしておりますので、変更が反映されるまで長くて3日かかります。
設定→検索設定→独自のrobots.txt
で設定する。
Bloggerのデフォルトrobots.txtは下記の通り。
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
Sitemap: http://○○○.blogspot.com/feeds/posts/default?orderby=UPDATED
しかし手作業でrobots.txtを書く場合は入力欄は空白になっているので、上記の記述にMegalodon用の拒否を加えたものを入力する。
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
User-agent: Megalodon
Disallow: /
Sitemap: http://○○○.blogspot.com/feeds/posts/default?orderby=UPDATED
もし、検索エンジンのクロールも全て拒否して良いならば下記の通り。
設定→基本→プライバシーで『ブログの検索を検索エンジンに許可しますか?』を『いいえ』にすると、自動的に下記のようになるので、これでウェブ魚拓も拒否できるはず。
User-agent: *
Disallow: /search
Disallow: /
Sunday 13 July 2014
Friday 11 July 2014
Wednesday 9 July 2014
Tuesday 8 July 2014
Sunday 6 July 2014
ChromeのURLバーで自分の検索履歴からサジェストされる候補を個別に消す方法。
1.検索語を途中まで入力。
→ 履歴からサジェストされる候補が出てくる。
2.下キーでその候補を選択状態にする。
3.Shift+DEL
→ 画面上では消えるが実はまだ消えていない。
4.Chromeを再起動
→ 反映されるまでちょっと時間が掛かるかも。何回か再起動させれば反映されるみたい。
(ChromeとGoogleアカウントの同期の関係か?)
https://www.google.com/settings/chrome/sync
→ 履歴からサジェストされる候補が出てくる。
2.下キーでその候補を選択状態にする。
3.Shift+DEL
→ 画面上では消えるが実はまだ消えていない。
4.Chromeを再起動
→ 反映されるまでちょっと時間が掛かるかも。何回か再起動させれば反映されるみたい。
(ChromeとGoogleアカウントの同期の関係か?)
https://www.google.com/settings/chrome/sync
Thursday 3 July 2014
Wednesday 2 July 2014
Subscribe to:
Posts (Atom)