2ch VIP板にあった「巫女だけど質問ある?」スレを、まとめサイトっぽく加工してアップしました。
なかなか愉快なスレですよ。一見の価値あり。
2ch VIP板にあった「巫女だけど質問ある?」スレを、まとめサイトっぽく加工してアップしました。
なかなか愉快なスレですよ。一見の価値あり。
電脳卸Webサービス(DWS)、アマゾンWebサービス(AWS)ときて、今回はビッダーズWebサービス(BWS)をやってみる事にしました。
まずは、なんかたくさんあるマニュアル類を読み漁ってみる。んーわかりにくい。ビッダーズはユーザIDと、アフィリエイトIDと、暗号化されたアフィリエイトIDと、リンクIDがあるらしい。ややこしいね。
あと、オークションと通常商品がごっちゃに扱われてるようで、出力XMLには必ず終了日とか付いてるし。最初オークション以外扱えないのかと焦ったよ。フラグで絞り込めるみたいだけど。
でも出力XMLはシンプルでいいね。アマゾンみたいに商品によってパラメータが変わったりしないし。とりあえずXMLをパースして配列に突っ込むところまで作成しました。
とっかかりに苦労したけど、すぐに使いこなせそうです。
ちまちまいじってる巫女さんページ(仮)ですが、連日海外の検索ロボットがやってきて、日がな一日ページを収集しまくってます。
一つの検索ロボットが一日1000アクセス近くもウチのサイトを巡ってるんで、さすがにアクセス制限を仕掛ける事にしました。AWSは一日のアクセス数が決まってるからね。ページ自動生成も考えものだなぁ。
アクセス制限はシンプルに.htaccessで。設定した途端、来なくなりましたよ。当然だけど。
そろそろデザインを考えないとなぁ。あとアクセスカウンタのためだけに、DB使おうか検討中。
巫女さんページ(仮)を作成して、しばらく放置していたのですが、キャッシュが大変な事になってましたよ。
AWSの仕様に則り、いちど見たページはキャッシュを作って保持しています。それが今日確認してみたら、キャッシュが6000ページ以上になってましたよ(汗) 「この商品を買った人はこんな商品も買っています」を使って関連ページを自動生成させてたんだけど、どうやら海外の検索エンジンが再現なくリンクをたぐったみたい。
サーバ容量は1Gbyteあるけど、放置しとくのは良くない。そんな訳で、キャッシュ保持期間を過ぎたものは、自動で削除するようにしました。
今後の作業は、各作品のアクセス数による人気調査と、サイトリンク集を作ってランキングさせる事ですか。情報も随時増やしていきます。
遂に立体映像の技術が現実化しましたよ。
リンク先見るとヤバい。写真ではホントに立体映像が表示されてるし。プレスリリースによると、レーザー光で焦点が合った場所をプラズマ発光させてるらしい(?)。
これでゲームとかできたら最高だね。PCモニターもLainの世界みたく、空中に表示させたりとか。使用用途は色々考えられますね。
いやぁ夢が膨らみます。年内実用化との事だし、かなり楽しみですね。
まだまだ完成にはほど遠いですが、とりあえず巫女さんページ(仮)を試験的にオープンです。現在はAmazonから機械的にデータを引っ張ってきただけだけど、今後はWikiのデータを引き継いだり、独自のデータを入れ込んでく予定です。あとRSSなんかのオンラインサービスも入れていきます。
RSSを入れても、Web2.0とは名乗りません(笑)
ようやくパケホーダイが全プラン対応になりました。これで俺もパケホーダイにしようかな? と、選択肢として考えられるようになりました。今まではパケ代を節約する事ばかり考えてたけど、パケホーダイなら一気に自由度が高まりますね。
パケホーダイにしたら、フルブラウザを入れるのもいいね。あとモバイルサイトを再立ち上げしてみようか。など夢が広がります。
まだパケホーダイにすると決めてはないですが、楽しみです。
ライブドアニュースにこんなニュースが載ってました。
サイボウズ、Web2.0に適応した「Feedpath」を開始
サイボウズまでWeb2.0とか言ってるし。サービス内容見ると、RSSリーダーをコアにしたサービスらしい。RSS使えばWeb2.0なのか。
そもそもWeb2.0は「なんか知らんけど新しいWeb」って程度の意味しかないからね。すなわち、構成要素を断片的に挙げる事はできるけど、仕様が決まってる訳ではない。一昔前に流行った「ドットコム」と同じニオイを感じます。
当時は八百屋さんが「安いよ安いよ~ドットコム!」とか意味不明な事を言ってたりしたけど、今もそんな雰囲気ですよ。存在しないものに適応だし。
とは言え、それでIT業界の景気が上向くんなら全然OKだけどね。
年末から少しずつAmazon Webサービスをいじってたのですが、やはりXMLの取得からやるのは時間がかかりすぎる! という事で、PEARのXML関数を使う事にしました。XMLって自由度が高い分、色んなデータが返ってくるんで、自力で解析してたらいつまで経っても終わんないね。
で、PEARのインストールですが、ここのサーバはTelnet許可されてないし、なんかhttp://go-pear.org/が上手くいかないので、手動でひとつずつパッケージをサーバに上げてきました。一応なんとか動くようになった。ついでにServices_AmazonECS4というのがあったので、そのまんま使っちゃいました。
んー楽チン楽チン。でもXMLで返ってくるデータがモノによって変わるんで、やっぱり自分でも処理を入れなきゃダメなのね。まあ大した手間じゃないけど。
そんな感じでそろそろ完成です。
何となく、2ちゃんねるからデータを取得してみる事にしました。とりあえずスレッドタイトルから。
公式Wikiにsubject.txtの仕様があるんで、その通りに取得すれば終了なんだけどね。PHPでfsockopen()関数でアクセス、User-AgentをMonazilla/1.00にすれば、テキストでは簡単に取り出せました。
ただ、仕様によるとgzipで取り出せと書かれているので、そのまま取り出してたら怒られます。なんで、gzip圧縮したものを取得。でもPHPではgzipを圧縮する関数はあるのに、解凍する関数が見つからない。色々ぐぐってたら、gzdecode()という関数を自作している偉い人がいたので、それを使ってみる。ちゃんと解凍できて正しく取得できましたよ。
ところで、普通にhttp://news19.2ch.net/news/subject.txtとかのアドレスをブラウザで開いたら読み込めたんだけど、User-Agent偽装しなきゃダメなのかな?