- Advanced Permalinks、Custom Permalinks 2つのプラグインを有効化
- パーマリンクの設定をカスタム設定で/%category%/%post_id%.html
- 投稿画面でパーマリンク名を設定するとパーマリンク名.htmlなにも設定しないとid番号.htmlになる
WordPressの固定ページと投稿ページでパーマリンクを変更する方法
find で特定のパスを除く方法 -pruneの使い方
-pruneは、条件にあうディレクトリ以下は対象にしない
例えば、5日以内に修正されたファイルを”zcache”以下のファイルを以外で検索する場合、
使い方は、
find . -path ./zcache -prune -o -mtime -5
複数の条件を加える場合、-print を使わないといけません。
find . -path ./zcache -prune -o -path "./pro*" -prune -o -name "*.log" -prune -o -mtime -5 -print
Perlでサーバーの環境変数を取得する方法
#!/usr/bin/perlprint "Content-type: text/html", "\n\n";print "<HTML><BODY>", "\n";print "<H1>環境変数</H1><HR>", "\n";foreach my $key( keys %ENV ){print "$key: $ENV{$key}<BR>", "\n";}print "<HR>", "\n";print "</BODY></HTML>", "\n";
ベーシック認証の設置方法
.htaccess
AuthUserFile /home/user/ … /.htpasswdAuthGroupFile /dev/nullAuthName "Please enter username and password"AuthType Basicrequire valid-user
htpasswd -cb passfile name passwd
robots.txt
- User-agent: 以降のルールを適用するロボット
- Disallow: ブロックする URL
- サイト全体をブロックするには、スラッシュのみを入力します。
Disallow: / - ディレクトリとそのコンテンツをすべてブロックするには、ディレクトリ名の後にスラッシュを入力します。
Disallow: /junk-directory/ - 個々のページをブロックするには、そのページをリストします。
Disallow: /private_file.html - Google 画像検索から特定の画像を削除するには、次の記述を追加します:
User-agent: Googlebot-Image
Disallow: /images/dogs.jpg - Google 画像検索からサイトのすべての画像を削除するには、次のように記述します:
User-agent: Googlebot-Image
Disallow: / - 特定の種類のファイル(例: .gif ファイル)をブロックするには、次のように記述します。
User-agent: Googlebot
Disallow: /*.gif$ - サイトのページに AdSense 広告を表示する一方で、クロールをブロックするには、Mediapartners-Google 以外のすべてのロボットを許可しないようにします。これによって、ページは検索結果に表示されなくなりますが、表示広告の決定に使用される Mediapartners-Google ロボットによるページ分析を許可できます。Mediapartners-Google ロボットは、他の Google ユーザー エージェントとページを共有しません。次に例を示します。
User-agent: *
Disallow: /User-agent: Mediapartners-Google
Allow: /
ディレクティブは大文字と小文字を区別します。たとえば、Disallow: /junk_file.asp は http://www.example.com/junk_file.asp をブロックしますが http://www.example.com/Junk_file.asp はブロックしません。Googlebot では、robots.txt の中の空白(特に空行)と不明なディレクティブは無視されます。
Googlebot は、robots.txt ファイルによるサイトマップ ファイルの送信(英語)をサポートしています。
パターン一致
- 文字列に一致させるには、アスタリスク(*)を使用します。たとえば、private で始まるすべてのサブディレクトリへのアクセスをブロックするには、次のように記述します。
User-agent: Googlebot
Disallow: /private*/
- 疑問符(?)を含むすべての URL へのアクセスをブロックするには、次のように記述します(具体的には、ドメイン名の後に文字列と疑問符が続き、その後に文字列が続く URL です)。
User-agent: Googlebot
Disallow: /*?
- URL の末尾に一致させるには、$ を使用します。たとえば、.xls で終わるすべての URL をブロックするには、次のように記述します。
User-agent: Googlebot
Disallow: /*.xls$このパターン一致を Allow コマンドと組み合わせて使用できます。たとえば、「?」がセッション ID を表す場合、重複するページを Googlebot がクロールしないよう、セッション ID を含むすべての URL を除外できます。ただし、? で終わる URL がクロールを希望するページのパターンの場合があります。この場合は、robots.txt ファイルを次のように設定します。
User-agent: *
Allow: /*?$
Disallow: /*?Disallow:/ *? コマンドは ? を含む URL(具体的には、ドメイン名の後に文字列と疑問符が続き、その後に文字列が続く URL)をブロックします。
Allow: /*?$ コマンドは ? で終わる URL(具体的には、ドメイン名の後に文字列が続き、? で終わる URL)を許可します。
Mysqlで一部の文字列を置換する
update `table_name` SET field_name` =REPLACE(field_name ,"置換対象","置換文字列")
これで置換対象を置換文字列に置換できます。
正規表現には対応していない様子。