「技術系」カテゴリーアーカイブ

ドコモのパケホーダイが全プラン利用可に!

ドコモ、パケ・ホーダイを全てのプランで利用可能に

ようやくパケホーダイが全プラン対応になりました。これで俺もパケホーダイにしようかな? と、選択肢として考えられるようになりました。今まではパケ代を節約する事ばかり考えてたけど、パケホーダイなら一気に自由度が高まりますね。

パケホーダイにしたら、フルブラウザを入れるのもいいね。あとモバイルサイトを再立ち上げしてみようか。など夢が広がります。

まだパケホーダイにすると決めてはないですが、楽しみです。

Web2.0?

ライブドアニュースにこんなニュースが載ってました。

サイボウズ、Web2.0に適応した「Feedpath」を開始

サイボウズまでWeb2.0とか言ってるし。サービス内容見ると、RSSリーダーをコアにしたサービスらしい。RSS使えばWeb2.0なのか。

そもそもWeb2.0は「なんか知らんけど新しいWeb」って程度の意味しかないからね。すなわち、構成要素を断片的に挙げる事はできるけど、仕様が決まってる訳ではない。一昔前に流行った「ドットコム」と同じニオイを感じます。

当時は八百屋さんが「安いよ安いよ~ドットコム!」とか意味不明な事を言ってたりしたけど、今もそんな雰囲気ですよ。存在しないものに適応だし。

とは言え、それでIT業界の景気が上向くんなら全然OKだけどね。

PEARを使ってAWS

年末から少しずつAmazon Webサービスをいじってたのですが、やはりXMLの取得からやるのは時間がかかりすぎる! という事で、PEARのXML関数を使う事にしました。XMLって自由度が高い分、色んなデータが返ってくるんで、自力で解析してたらいつまで経っても終わんないね。

で、PEARのインストールですが、ここのサーバはTelnet許可されてないし、なんかhttp://go-pear.org/が上手くいかないので、手動でひとつずつパッケージをサーバに上げてきました。一応なんとか動くようになった。ついでにServices_AmazonECS4というのがあったので、そのまんま使っちゃいました。

んー楽チン楽チン。でもXMLで返ってくるデータがモノによって変わるんで、やっぱり自分でも処理を入れなきゃダメなのね。まあ大した手間じゃないけど。

そんな感じでそろそろ完成です。

2ちゃんねるからデータ取得

何となく、2ちゃんねるからデータを取得してみる事にしました。とりあえずスレッドタイトルから。

公式Wikiにsubject.txtの仕様があるんで、その通りに取得すれば終了なんだけどね。PHPでfsockopen()関数でアクセス、User-AgentをMonazilla/1.00にすれば、テキストでは簡単に取り出せました。

ただ、仕様によるとgzipで取り出せと書かれているので、そのまま取り出してたら怒られます。なんで、gzip圧縮したものを取得。でもPHPではgzipを圧縮する関数はあるのに、解凍する関数が見つからない。色々ぐぐってたら、gzdecode()という関数を自作している偉い人がいたので、それを使ってみる。ちゃんと解凍できて正しく取得できましたよ。

ところで、普通にhttp://news19.2ch.net/news/subject.txtとかのアドレスをブラウザで開いたら読み込めたんだけど、User-Agent偽装しなきゃダメなのかな?

ネットバンクがロックされた

年明けから東京三菱銀行とUFJが合併したり、イーバンクの入金方法が変わったりと、銀行業界でのニュースが続いてます。

幾つかネットバンキングのアカウントを持っているので、久しぶりにログインしてみました。でもログインできない。パスワード違ったかな? と、何度か試していたら、アカウントをロックされてしまいました(涙)

仕方なく銀行にTELすると、郵送で解除依頼の書類を出すように言われたよ。しかも4枚綴りもあるやつ。やれやれ…パスワードちゃんとメモっとこ。

Gmailはじめました

知人から招待状もらってGmailはじめました。Gmailというのは、Googleのメールアドレスの事です。

実はここ最近、メインのメールアドレスが欲しくて色々考えていたんですよ。ドメインを新たに取得して、それを使おうかと思っていたのですが、当然お金かかるし無駄な気がする。

そこで、とりあえずGmailを使うことにしましたよ。Gmailはメールの仕分け・検索が強いみたいだし、POPとSMTPも使える。スパムやウィルスの駆除も他より頑張ってそうだ。さらにやり方によっては現在2GB以上ある容量を、データ置き場のように使うこともできる、らしい。

ま、しばらく使ってみて判断ですね。

電脳卸ウェブサービス(DWS)をつかってみる

この休日は電脳卸ウェブサービス(DWS)をいじってました。まぁ、どちらかというとXMLの解析に時間かかってたんだけど…。PHPにはディフォルトでXMLパーサ関数群があるので、簡単にできるのかと思ってたんだけど、意外に苦労しましたよ。

いちどに1行ずつ解析するので、複数行に渡るデータは素のままでは取得できない。なぜか記号があると正しく解析できないので、一旦別のものに変換しなければならない。等々。

まぁお陰で、多少なりともXMLに詳しくなったので良し。肝心のDWSですが、商品情報の詳細って、「お店からのコメント」しか取れないのね。ここは未入力にしてるお店さんも多いんで、対した情報が取れないなぁ。

あと思ったように検索結果が出せない。例えば「メイド」というキーワードでメイドさんだけを引っ張ってきたいのに、「オーダーメイド」「ハンドメイド」も一緒に連れてきてしまう。これ自体はDWSに限らないと思うけど、せめてカテゴリとかで絞り込めれば。でも手軽に数万点もの商品を扱えるってのはいいね。

一通りいじったと思うので、これにて終了。次はいよいよAmazon Webサービス(AWS)をやってみますか。チュートリアルを見ると、カテゴリで絞り込む検索はもちろん、「この本を買った人はこんな本も買っています」等も取得できるし、さらにはショッピングカートまで触れてしまう。

楽しみです。

Amazon WebサービスE-Commerce Service

最近、Webサービスを色々と見てまわってます。アマゾンWebサービス(AWS)、ビッダーズWebサービス(BWS)、電脳卸Webサービス(DWS)など。どれにも共通しているのは、REST等を利用してXMLで値を取得するということ。わかりやすい。

My Amazon Store Managerのような、既にそれらを利用するサービスやソースがあるけど、俺は俺で作ってみようかと。ソースはクローズドにするけど、どこかに情報は書いてくつもりです。

しかし仕方ない事だろうけど、Webサービスは結構縛りがきついね。AWSの使用許諾条件(参考)によると、

・1秒1コール(24時間で1万リクエスト以内)
・キャッシュの保持期間は24時間(項目によって3ヶ月)
・1時間に1回以上AWSを呼ばない場合は価格にタイムスタンプ必要

とかあります。今俺が使ってるレンタルサーバは、cronが1秒以上稼動する事を許していないので、静的ページを作ったとして、自動更新が出来ません。動的ページでやる場合、ページ表示時に1秒間sleepすれば1秒1コールがクリアできるなぁ。同時アクセスも禁止しないとダメだけど。

理想は動的・静的の組み合わせですね。訪問者がアクセスした際にキャッシュページを生成し、1時間(もしくは24時間)以内に再アクセスがあった場合はそのキャッシュを表示。それ以上時間が経っていたらキャッシュを破棄して新規作成。な感じかな。

やるかー

画像がアップロードできる日記帳

いま、画像がアップロードできる日記帳システムを作成しています。とりあえず投稿部分が完成しました。んー、しかしサーバにモジュールをインストールしないと画像の縮小できないのかなぁ。

てゆうか、こんな物作らなくてもブログがあれば事足りるんだけどね。車輪の再発明。

気が向いたらフリーソフトとして公開します。

ロボットカーレース決勝

スタンフォード大チーム優勝、5台が完走――ロボットカーレース決勝

完全自立制御のロボットカーが悪路を乗り越え、200キロ先のゴールを目指すというレース。前回は楽しみにしてたのに、1台もゴールできず。てゆうか、目に見える程の近距離でみんなリタイアという情けない結果で終わってました。

それが今回は5台も完走! いやはや素晴らしいですね。でもなんか扱いが前回より小さいなぁ。まぁDARPA主催で、将来はアメリカの無人兵器としての役割を担うロボな訳で、素直に誉められるもんでもないけどね。

ぜひメイドロボとかに応用して欲しいところです。