「技術系」カテゴリーアーカイブ

ビッダーズWebサービス

電脳卸Webサービス(DWS)、アマゾンWebサービス(AWS)ときて、今回はビッダーズWebサービス(BWS)をやってみる事にしました。

まずは、なんかたくさんあるマニュアル類を読み漁ってみる。んーわかりにくい。ビッダーズはユーザIDと、アフィリエイトIDと、暗号化されたアフィリエイトIDと、リンクIDがあるらしい。ややこしいね。

あと、オークションと通常商品がごっちゃに扱われてるようで、出力XMLには必ず終了日とか付いてるし。最初オークション以外扱えないのかと焦ったよ。フラグで絞り込めるみたいだけど。

でも出力XMLはシンプルでいいね。アマゾンみたいに商品によってパラメータが変わったりしないし。とりあえずXMLをパースして配列に突っ込むところまで作成しました。

とっかかりに苦労したけど、すぐに使いこなせそうです。

AWSアクセス制限

ちまちまいじってる巫女さんページ(仮)ですが、連日海外の検索ロボットがやってきて、日がな一日ページを収集しまくってます。

一つの検索ロボットが一日1000アクセス近くもウチのサイトを巡ってるんで、さすがにアクセス制限を仕掛ける事にしました。AWSは一日のアクセス数が決まってるからね。ページ自動生成も考えものだなぁ。

アクセス制限はシンプルに.htaccessで。設定した途端、来なくなりましたよ。当然だけど。

そろそろデザインを考えないとなぁ。あとアクセスカウンタのためだけに、DB使おうか検討中。

Amazon Webサービス・古いキャッシュを削除

巫女さんページ(仮)を作成して、しばらく放置していたのですが、キャッシュが大変な事になってましたよ。

AWSの仕様に則り、いちど見たページはキャッシュを作って保持しています。それが今日確認してみたら、キャッシュが6000ページ以上になってましたよ(汗) 「この商品を買った人はこんな商品も買っています」を使って関連ページを自動生成させてたんだけど、どうやら海外の検索エンジンが再現なくリンクをたぐったみたい。

サーバ容量は1Gbyteあるけど、放置しとくのは良くない。そんな訳で、キャッシュ保持期間を過ぎたものは、自動で削除するようにしました。

今後の作業は、各作品のアクセス数による人気調査と、サイトリンク集を作ってランキングさせる事ですか。情報も随時増やしていきます。

空中に立体映像を表示する技術が開発された!

遂に立体映像の技術が現実化しましたよ。

空中に浮かび上がる3次元(3D)映像

リンク先見るとヤバい。写真ではホントに立体映像が表示されてるし。プレスリリースによると、レーザー光で焦点が合った場所をプラズマ発光させてるらしい(?)。

これでゲームとかできたら最高だね。PCモニターもLainの世界みたく、空中に表示させたりとか。使用用途は色々考えられますね。

いやぁ夢が膨らみます。年内実用化との事だし、かなり楽しみですね。

巫女さんページ(仮)

まだまだ完成にはほど遠いですが、とりあえず巫女さんページ(仮)を試験的にオープンです。現在はAmazonから機械的にデータを引っ張ってきただけだけど、今後はWikiのデータを引き継いだり、独自のデータを入れ込んでく予定です。あとRSSなんかのオンラインサービスも入れていきます。

RSSを入れても、Web2.0とは名乗りません(笑)

ドコモのパケホーダイが全プラン利用可に!

ドコモ、パケ・ホーダイを全てのプランで利用可能に

ようやくパケホーダイが全プラン対応になりました。これで俺もパケホーダイにしようかな? と、選択肢として考えられるようになりました。今まではパケ代を節約する事ばかり考えてたけど、パケホーダイなら一気に自由度が高まりますね。

パケホーダイにしたら、フルブラウザを入れるのもいいね。あとモバイルサイトを再立ち上げしてみようか。など夢が広がります。

まだパケホーダイにすると決めてはないですが、楽しみです。

Web2.0?

ライブドアニュースにこんなニュースが載ってました。

サイボウズ、Web2.0に適応した「Feedpath」を開始

サイボウズまでWeb2.0とか言ってるし。サービス内容見ると、RSSリーダーをコアにしたサービスらしい。RSS使えばWeb2.0なのか。

そもそもWeb2.0は「なんか知らんけど新しいWeb」って程度の意味しかないからね。すなわち、構成要素を断片的に挙げる事はできるけど、仕様が決まってる訳ではない。一昔前に流行った「ドットコム」と同じニオイを感じます。

当時は八百屋さんが「安いよ安いよ~ドットコム!」とか意味不明な事を言ってたりしたけど、今もそんな雰囲気ですよ。存在しないものに適応だし。

とは言え、それでIT業界の景気が上向くんなら全然OKだけどね。

PEARを使ってAWS

年末から少しずつAmazon Webサービスをいじってたのですが、やはりXMLの取得からやるのは時間がかかりすぎる! という事で、PEARのXML関数を使う事にしました。XMLって自由度が高い分、色んなデータが返ってくるんで、自力で解析してたらいつまで経っても終わんないね。

で、PEARのインストールですが、ここのサーバはTelnet許可されてないし、なんかhttp://go-pear.org/が上手くいかないので、手動でひとつずつパッケージをサーバに上げてきました。一応なんとか動くようになった。ついでにServices_AmazonECS4というのがあったので、そのまんま使っちゃいました。

んー楽チン楽チン。でもXMLで返ってくるデータがモノによって変わるんで、やっぱり自分でも処理を入れなきゃダメなのね。まあ大した手間じゃないけど。

そんな感じでそろそろ完成です。

2ちゃんねるからデータ取得

何となく、2ちゃんねるからデータを取得してみる事にしました。とりあえずスレッドタイトルから。

公式Wikiにsubject.txtの仕様があるんで、その通りに取得すれば終了なんだけどね。PHPでfsockopen()関数でアクセス、User-AgentをMonazilla/1.00にすれば、テキストでは簡単に取り出せました。

ただ、仕様によるとgzipで取り出せと書かれているので、そのまま取り出してたら怒られます。なんで、gzip圧縮したものを取得。でもPHPではgzipを圧縮する関数はあるのに、解凍する関数が見つからない。色々ぐぐってたら、gzdecode()という関数を自作している偉い人がいたので、それを使ってみる。ちゃんと解凍できて正しく取得できましたよ。

ところで、普通にhttp://news19.2ch.net/news/subject.txtとかのアドレスをブラウザで開いたら読み込めたんだけど、User-Agent偽装しなきゃダメなのかな?