Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

robots.txtとは robots.txtは、検索エンジンのクローラー(bot)に、クロールされたいページや、クロールされたくないページを教えるテキストファイルのことです。多くの検索エンジンのクローラーは、そのドメインの最上位ディレクトリに設置されたrobotst.txtを最初に読み込んで、クロールするべきページとクロールするべきでないページを取得し、それに基づいて巡回します。ただ、一部のクローラーには、このrobots.txtを無視するものもあります。 robots.txtの書き方はおよそ以下の通りです。 User-agent:(ここにbotのユーザーエージェントを記述。ワイルドカード指定も可能) Crawl-Delay:(クロールの時間間隔を指定) Disallow:(クロールされたくないページやディレクトリを指定) Allow:(Disallowで指定されたディレクトリの小階層で
あるいはVagrantでplayframework 2.0系ウェブサービスの環境を立ち上げるまで。 PARTAKEの開発者がいまいち増えずチケットばかりが積み重なるのは、サービスという粒度が大きすぎて環境を作るのが面倒なことも一因だと思っています。ここを手助けできないか試してみました。結果、 VagrantでUbuntuを起動して chef-soloでJDKやPlay!やPostgresをインストールして VirtualBoxの共有フォルダを使ってソースコードをホストとゲストで共有する のすべてがvagrant upコマンドひとつでできるようになりました。「セットアップが面倒」という問題はだいぶ解消できたと思います。インストールの時間が結構長いですし、Twitter APIを使うためのトークン取得が必要なので、完全解決では無いのが残念ですが……。 もちろん従来通りissueの追加やissu
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く