Tuesday, 30 December 2014
Monday, 29 December 2014
Sunday, 28 December 2014
Wednesday, 24 December 2014
Tuesday, 23 December 2014
Monday, 22 December 2014
Saturday, 20 December 2014
Thursday, 18 December 2014
Wednesday, 17 December 2014
Tuesday, 16 December 2014
Tuesday, 9 December 2014
Tuesday, 2 December 2014
Friday, 28 November 2014
Thursday, 13 November 2014
Wednesday, 12 November 2014
Friday, 7 November 2014
Monday, 3 November 2014
Saturday, 25 October 2014
Monday, 20 October 2014
Saturday, 18 October 2014
Wednesday, 15 October 2014
Monday, 13 October 2014
Wednesday, 8 October 2014
Sunday, 5 October 2014
Saturday, 4 October 2014
Wednesday, 1 October 2014
Wednesday, 10 September 2014
Tuesday, 9 September 2014
Sunday, 7 September 2014
Friday, 5 September 2014
Wednesday, 3 September 2014
Saturday, 30 August 2014
Tuesday, 26 August 2014
Sunday, 24 August 2014
Friday, 8 August 2014
Sunday, 3 August 2014
Saturday, 2 August 2014
Thursday, 24 July 2014
Tuesday, 22 July 2014
検索ソフトEverythingでフォルダ指定と正規表現を併用する方法。
フォルダ指定の後ろに regex: 演算子を付ければ良い。
例)二桁だけの数字を含むファイル名にマッチさせる
"フォルダパス" regex:[^0-9][0-9][0-9][^0-9]
例)二桁だけの数字を含むファイル名にマッチさせる
"フォルダパス" regex:[^0-9][0-9][0-9][^0-9]
Monday, 21 July 2014
Saturday, 19 July 2014
Friday, 18 July 2014
ウェブ魚拓を拒否する方法 Blogger
ウェブ魚拓を拒否する方法。(2014/7/18現在)
http://megalodon.jp/pc/page/qa#prohibitcache
を参考にBloggerの場合をまとめた。
下記の1または2により拒否できるとのことだけど、両方やっとけば多少安心か?
(方法1)以下のMETAタグをHEADタグ内に書く
テンプレートHTMLを手作業で編集。
<meta name="robots" content="noindex,nofollow"/>
↑Bloggerの場合は閉じ山括弧の前に / が必要のようです。
自分の場合はエディットしたことが分かるようにコメントを付けます。
<meta name="robots" content="noindex,nofollow"/><!--edit-->
(方法2)ルートディレクトリにrobots.txtを設置して、"Megalodon"が取得不可能なパスを指定する
なお、robots.txtはキャッシュしておりますので、変更が反映されるまで長くて3日かかります。
設定→検索設定→独自のrobots.txt
で設定する。
Bloggerのデフォルトrobots.txtは下記の通り。
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
Sitemap: http://○○○.blogspot.com/feeds/posts/default?orderby=UPDATED
しかし手作業でrobots.txtを書く場合は入力欄は空白になっているので、上記の記述にMegalodon用の拒否を加えたものを入力する。
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
User-agent: Megalodon
Disallow: /
Sitemap: http://○○○.blogspot.com/feeds/posts/default?orderby=UPDATED
もし、検索エンジンのクロールも全て拒否して良いならば下記の通り。
設定→基本→プライバシーで『ブログの検索を検索エンジンに許可しますか?』を『いいえ』にすると、自動的に下記のようになるので、これでウェブ魚拓も拒否できるはず。
User-agent: *
Disallow: /search
Disallow: /
http://megalodon.jp/pc/page/qa#prohibitcache
を参考にBloggerの場合をまとめた。
下記の1または2により拒否できるとのことだけど、両方やっとけば多少安心か?
(方法1)以下のMETAタグをHEADタグ内に書く
テンプレートHTMLを手作業で編集。
<meta name="robots" content="noindex,nofollow"/>
↑Bloggerの場合は閉じ山括弧の前に / が必要のようです。
自分の場合はエディットしたことが分かるようにコメントを付けます。
<meta name="robots" content="noindex,nofollow"/><!--edit-->
(方法2)ルートディレクトリにrobots.txtを設置して、"Megalodon"が取得不可能なパスを指定する
なお、robots.txtはキャッシュしておりますので、変更が反映されるまで長くて3日かかります。
設定→検索設定→独自のrobots.txt
で設定する。
Bloggerのデフォルトrobots.txtは下記の通り。
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
Sitemap: http://○○○.blogspot.com/feeds/posts/default?orderby=UPDATED
しかし手作業でrobots.txtを書く場合は入力欄は空白になっているので、上記の記述にMegalodon用の拒否を加えたものを入力する。
User-agent: Mediapartners-Google
Disallow:
User-agent: *
Disallow: /search
Allow: /
User-agent: Megalodon
Disallow: /
Sitemap: http://○○○.blogspot.com/feeds/posts/default?orderby=UPDATED
もし、検索エンジンのクロールも全て拒否して良いならば下記の通り。
設定→基本→プライバシーで『ブログの検索を検索エンジンに許可しますか?』を『いいえ』にすると、自動的に下記のようになるので、これでウェブ魚拓も拒否できるはず。
User-agent: *
Disallow: /search
Disallow: /
Sunday, 13 July 2014
Friday, 11 July 2014
Wednesday, 9 July 2014
Tuesday, 8 July 2014
Sunday, 6 July 2014
ChromeのURLバーで自分の検索履歴からサジェストされる候補を個別に消す方法。
1.検索語を途中まで入力。
→ 履歴からサジェストされる候補が出てくる。
2.下キーでその候補を選択状態にする。
3.Shift+DEL
→ 画面上では消えるが実はまだ消えていない。
4.Chromeを再起動
→ 反映されるまでちょっと時間が掛かるかも。何回か再起動させれば反映されるみたい。
(ChromeとGoogleアカウントの同期の関係か?)
https://www.google.com/settings/chrome/sync
→ 履歴からサジェストされる候補が出てくる。
2.下キーでその候補を選択状態にする。
3.Shift+DEL
→ 画面上では消えるが実はまだ消えていない。
4.Chromeを再起動
→ 反映されるまでちょっと時間が掛かるかも。何回か再起動させれば反映されるみたい。
(ChromeとGoogleアカウントの同期の関係か?)
https://www.google.com/settings/chrome/sync
Thursday, 3 July 2014
Wednesday, 2 July 2014
Subscribe to:
Posts (Atom)