前の月 / 次の月 / トップページ
01 02 03 04 05 06 07 08 09 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

2008-08-31 Sun

Yahooのアドパートナーに登録した

秋から始まる「インタレストマッチ」という広告を試したいので、
Yahooのアドパートナーに登録してみました。

審査はこれからなので、審査に通るかどうか楽しみです。

- サイト報酬 - Yahoo!ウェブオーナーセンター
-- http://webowner.yahoo.co.jp/siteincome/

アドパートナーは、掲載された広告が、サイト訪問者に閲覧もしくはクリックされると、報酬としてYahoo!ポイントか現金を獲得できるサービスです。


審査に通らなかったら、いろいろ考える必要がありますね。

インタレストマッチ広告は、サイト閲覧者の過去の行動を加味して、
広告を配信する技術だそうなので、理想通りに動作するなら、
中身のない記事も沢山書いている僕にとっては夢のような広告です。

一方、このサイトにも貼付けているAdsenceのような広告は、
広告が貼付けられたページの内容に即した広告が配信されるので、
中身の無い記事に対しては、公共広告が貼られてしまい
泣きそうになることもしばしばです。

実際の効果や報酬は、インタレストマッチ広告を貼ってみて、
1週間くらい様子をみないと分からないです。

このサイトが審査を通過することを祈り、秋を待ちます。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

東京アメッシュの降水量を表示するJavaScriptのサンプルコード

夏も終わりに近づいてきましたね。

近頃は天気が変わりやすいため、東京アメッシュなどで
数時間に一回、関東周辺の降水量を確認しています。

- 東京アメッシュ
-- http://tokyo-ame.jwa.or.jp/

このサイトを見ていると、そのうち何となく何時間後に
自分の住んでいる地域が雨になりそうかが、分かるようになります。

こういう天気系の情報は常に需要があるので、
かなり良いなぁと思います。

で、この東京アメッシュは東京都下水道局が運営しています。
僕は都民なので、積極活用させていただきます。

モダシンさんが東京アメッシュをいじくっていたので、
ソースコードを眺めてみました。

- Rain?
-- http://aivy.jp/rain/

なるほど、

東京アメッシュは、以下のように画像を3枚重ねていたのですか。
画像を表示し、表示の絶対位置を動かすことで、
全ての画像を重ね合わせていたのです。すごいなぁ。

降水量を表現する透過GIF画像
都道府県等を区切る透過PNG画像
関東地方の絵JPG画像

降水量を表現するGIF画像は1日経つと削除されていくようですね。

URLはこんな感じ。
年月日を8桁にして、正規表現部分に当てはめてあげれば見られます。

- 低解像度版
-- http://tokyo-ame.jwa.or.jp/mesh/000/[0-9]{4}[0-9]{2}[0-9]{2}0000.gif

- 高解像度版
-- http://tokyo-ame.jwa.or.jp/mesh/100/[0-9]{4}[0-9]{2}[0-9]{2}0000.gif

例、2011年1月1日1の12時ちょうどの場合。
http://tokyo-ame.jwa.or.jp/mesh/000/201101011200.gif


都道府県区切り画像と、関東の絵は、それぞれ以下のURLで取得可能。

- 低解像度版
-- http://tokyo-ame.jwa.or.jp/map/msk000.png
-- http://tokyo-ame.jwa.or.jp/map/map000.jpg

- 高解像度版
-- http://tokyo-ame.jwa.or.jp/map/msk100.png
-- http://tokyo-ame.jwa.or.jp/map/map100.jpg



ほとんどモダシンさんのソースコードですけど、
要するに以下のようにすると、東京アメッシュな感じになります。

このサンプルを実行すると、ご覧の環境の時計に合わせて、
現在から10分以内の降水量を表示します。
時計がずれ過ぎてると、何も表示されないかも。

<style type="text/css">
<!--
 .image-position{position:absolute;left:300px;}
-->
</style>
<script language="javascript" type="text/javascript">
<!--
 function getNow() {
   var date   = new Date();
   var tmp_y  = date.getYear();
   var year   = (tmp_y < 2000) ? (tmp_y + 1900) : tmp_y;
   var mon    = date.getMonth() + 1;
   var day    = date.getDate();
   var hour   = date.getHours();
   var min    = date.getMinutes();
   if (mon < 10) {mon = "0" + mon;}
   if (day  < 10) {day = "0" + day;}
   if (hour < 10) {hour = "0" + hour;}
   min = parseInt(min / 10) + "0";
   var now = year + mon + day + hour + min;
   return now;
 }
//-->
</script>
<div>
<img src="http://tokyo-ame.jwa.or.jp/map/map100.jpg" class="image-position" style="z-index:1;" width="300">
<img src="http://tokyo-ame.jwa.or.jp/map/msk100.png" class="image-position" style="z-index:2;" width="300">
<script language="javascript" type="text/javascript">
var now = getNow();
document.write("<br><img src=\"http://tokyo-ame.jwa.or.jp/mesh/000/" + now + ".gif\" class=\"image-position\" style=\"z-index:3;\" width=\"300\" >");
document.write("<br><br><br><br><br><br><br>" + now + "の画像<br>");
</script>
</div>


動作例は以下のとおり。

無理矢理表示しているので、FireFox以外ではちゃんと表示されないかも。



きちんと3つの画像が重なります。すごいすごい。

東京アメッシュのことを、ちょっと分かったので、
どんなアプリケーションを作るうか考えてみます。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

2008-08-30 Sat

アルプスの少女ハイジを少しずつ見ている

先週にスタジオジブリのレイアウト展に行ってきたのですが、
そのときから無性にハイジを見たくなってレンタルしてきました。

画像
- アルプスの少女ハイジ公式サイト
-- http://www.heidi.ne.jp/hp/index.html

ちなみに公式サイトは、素晴らしい出来です。

バナーのアニメーションは僕が確認した限り5パターンもあります。
アニメーションバナーに15分くらい釘付けになったのは生まれて初めて。
鳥が歌い、もみの木が揺れ、鳥が歌い、もみの木が揺れ、キター。みたいな感じです。

脱線しまくったので話を元に戻します。

ハイジは二十数年ぶりに見たのですが、
僕の記憶の中のハイジとは全然違いました。
DVDで今見直したハイジの方が、ずっと良いお話です。

今見ても、すごく楽しい。
というか、むしろ、今こそハイジを見るべき。

子供と大人が、それぞれ別々に楽しめるようになってるので、
大人になってみると二重に楽しめます。
理屈抜きのシーンが随所に見られて、ポカーンとすることもあります。

ハイジがんばれ、がんばれ、と、画面に釘付けっすよ。

全部まとめて見たくなったので、DVDボックスを探してみたらありました。いいですね。

アルプスの少女ハイジ 35周年メモリアルボックス

[Amazonで詳細を見る]


2万円台なので、ポチろうかと、かなり心がグラつきます。

買うかなぁ。自重するかなぁ。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

2008-08-29 Fri

Nutch の 1.0 は、まだ出ないのか

Nutchのページを見ていたら気がついたのですが、
公式には1.0が出ていないんですね。

- Welcome to Nutch!
-- http://lucene.apache.org/nutch/

2 April 2007: Nutch 0.9 Released


1年前から公式にバージョンアップされていないので、
雰囲気的にはそろそろでしょうか。

でも、そんな気配なさそうだな。

それにしても日本国内のNutchに関する記事、少なすぎだなぁ。

まぁ、HEとかSennaとかあるしね。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

NIKE+を使って仮想レース 「猛レース」

地図実験サイト「LatLongLab」が開設されました。

ヤフーが開設した、とのことですが、ロゴのデザインも色も、
それっぽい色をあんまり感じなくて良いですね。

- ヤフーが地図実験サイト開設、仮想レースサービスを公開
-- http://internet.watch.impress.co.jp/cda/news/2008/08/28/20683.html

ヤフーは28日、位置情報や関連技術を扱った地図実験サイト「LatLongLab(ラットロングラボ)」を開設した。第1弾サービスとして、地図上で仮想レースを作成・参戦できる「猛レース」を公開した。


- 猛レース - LatLongLab
-- http://latlonglab.yahoo.co.jp/race/

どうやるのかなぁ、と思ったら。。

レースに参戦するには、当該コースを実際に走行・記録した各種GPSデータや自己計測のラップタイム、「NIKE+」データを登録する。GPSデータは、auやNTTドコモ端末などに対応する。


おお、GPSとNIKE+を掛け合わせて、みんなでレースするのは楽しいですね。
もちろん、手作業でもコースを入力することはできますが、面倒そうですね。

使用可能なGPSにいての言及もあります。

TRK、GPX、auのあしあとデータ、NTT DoCoMoの足あとデータ、Sony GPS-CS1Kのログデータをお持ちの方は、[GPSデータ]タブ(A)をクリックして、各データをコピー・ペーストしてください。


ALPSLAB routeではGPS-CS1Kで記録したNMEAファイルは
そのままでは投稿できず、TRKとかに変換しなきゃいけなかったはずですが、
なんと、そのまま投稿できてしまうのですね。

# 「NIKE+」をご利用の方は、[NIKE+]タブをクリックして、NIKE+ 形式のジョギングデータをコピー・ペーストしてください。


なるる。

これは位置情報大好きな人には、たまらないのかも。
僕はまだ、その領域には踏み出していないので、なんともいえませんが。

GPS-CS1Kは良いですね。買うか迷ってます。

どうせならGPS-CS1KじゃなくてGPS-CS1KSPの方が、新しくて良さそうです。

ソニー GPSユニットキット GPS-CS1KSP

[Amazonで詳細を見る]

GPS-CS1Kより安いですね。

NIKE+は、早くiPhone、iPod touch版が出ると良いのにな。

Apple Nike + iPod Sport kit MA365J/B

[Amazonで詳細を見る]

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

初めてサイトに来たユーザにいかにアピールするか

アマゾンの公式ブログで、「初めてサイトに来たユーザにいかにアピールするか」という難しいテーマについての記事が公開されています。

難しいテーマなのでかなり長文。

- Amazon アソシエイト・プログラム(アフィリエイト) 公式ブログ: 「ユーザーは説明を読まない」~短時間でアピールするサイトデザイン
-- http://affiliate-blog.amazon.co.jp/2008/08/post-5.html

ごく短い滞在時間の中で、あなたのサイトをアピールするためには、パッと見て何のサイトなのかわかるようする必要があります。さらに「また来たい」と感じ、実際にブックマークをしてもらうためには、さらなる努力が必要です。


この記事のなかで、響いた一言はこれ。

「ユーザーは説明文を読まない」ことを理解してページを作ろう


ですね。

僕も、「欠かせなくなったサイトで行き詰まる」まで説明文は読みません。
もちろん、研究的な探究心がくすぐられた場合は別ですが。

僕のつくるものは、割と分かりづらいので、次につくるものは分かりやすさに気を配ります。

少し前の記事もおもしろいです。

- Amazon アソシエイト・プログラム(アフィリエイト) 公式ブログ: アマゾン・アソシエイトのみなさんに、たったふたつの質問
-- http://affiliate-blog.amazon.co.jp/2008/07/post-2.html
唐突ですが、ふたつ質問をさせてください。
質問1: あなたのサイトは何をテーマにしたサイト(ブログ)ですか?
質問2: あなたのサイトを見に来る人には、どんないいことがありますか?


ふむふむ。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

マウスバトラー

マウスバトラーなるゲームがあると分かったのでやってみた。

- マウスバトラー:戦ってくだちい
-- http://mouse.battler.jp/

これは、ついついやってしまいますね。
対戦相手が常にいるのもいい感じです。

マウスバトラーは、ロケットスタートの矢野さとるさんが開発した、マウスカーソルの先から玉が出るシューティングゲーム。
非常に単純明快です。

こういうのは無かったなぁ。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

MacBookにGMPと、Math::GMPと、Math::BigInt::GMPをインストールするんだ

GCC4.3をコンパイルするときにGMPが必要になって気がついたのですが、
Math::BigInt::GMPってGMPを入れたら無事にインストールできますね。

- The GNU MP Bignum Library
-- http://gmplib.org/#DOWNLOAD

GMPのバージョンは4.3.2。
GMP自体は、clouderさんの記事をみたら、すんなりインストールできました。

- MacBook AirにGMPをインストールする方法 (Clouder::Blogger)
-- http://blog.clouder.jp/archives/001049.html

でも、その先が、ぜんぜんうまくいかないのです。

そもそもMath::GMPのインストールでこけまくります。

数時間悩んで仕方がないので、portsでMath::GMPをインストール。

$ sudo port install p5-math-gmp


その後、Math::BigInt::GMPをインストールしたら入った。

$ sudo cpan 'Math::BigInt::GMP'


うーん、GMPのバージョンが良くないのでしょうか。
portsは、4.2.2でMath::GMPをテストしていたのです。
でも、僕は、4.2.3をインストールしたので。うーん。

とりあえず、パフォーマンスを計測しました。

計測プログラムはdanさんのところのを使いました。

- 404 Blog Not Found:備忘録 - Intel Mac vs. GMP
-- http://blog.livedoor.jp/dankogai/archives/50712932.html

まずは、Math::BigInt::Calc。
$perl bench.pl Calc 5000
Math::BigInt::Calc at mbibench.pl line 10.
elapsed: 6.72095084190369s


次に、Math::BigInt::GMP。
perl bench.pl GMP 5000
Math::BigInt::GMP at mbibench.pl line 10.
elapsed: 0.470081090927124s


おお、全然早さが違う。あまりの早さに驚きました。

MacBookのCPUがせっかくcore2なので、これも試してみました。

- gmp-4.2.3-core2
-- http://www.geocities.jp/ct35z/gmp-core2.html
このパッチは GMP (GNU Multiple Precision Library) ver. 4.2.3 に Intel Core 2 最適化アセンブリコードを追加するものです。


インストールは無事にうまくいきました。

専用の環境を用意せずにパフォーマンスを計ってみたら、
調子が良いときは、0.01秒くらい速くなりますけど、
調子が悪いと同じくらいですから、体感速度的には誤差範囲です。

これは調子が良いとき。

$ perl bench.pl GMP 5000
Math::BigInt::GMP at bench.pl line 10.
elapsed: 0.438695192337036s


まぁ、ちょい早いのか。

とりあえず、疲れたので終了。
また同じことになるだろうから、その時考えます。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

2008-08-28 Thu

Yahooの「Yahoo!ショッピング コンテンツマッチランキングAPI」を試してみる

Yahooが、「Yahoo!ショッピング コンテンツマッチランキングAPI」をリリースしました。
このコンテンツマッチランキングAPIが、
良い感じで文書のカテゴリを当ててくれるのか気になったので、
簡単に試せるフォームを設置して試すことにしました。

以下がそのフォーム。

コンテンツマッチランキングAPI お試しフォーム


気になるURLを入力してみましょう。



どうですか?
XMLファイルの中に、もとのURLにふさわしい商品が入っていましたか?

まだ、ちょっと微妙ですよね。

同じお店の商品ばかり推薦されて、ちょっと困ります。
僕のブログは、セブンアンドアイだらけでした。

今後改善されると思うので期待してます。

そのうちJSON形式の結果を取得できるようになるらしいので、
そうすると気軽にブログパーツを作れて良い感じですね。

ちなみに、Yahoo!ショッピングAPIはバリューコマースの登録ユーザになると、お小遣い稼ぎにも使えて良さげです。意外な商品が売れるのでオススメです。


投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

いまさらだけど「Google Adsense のセクションターゲット」と「Yahoo! Slurpのclass=robots-nocontent」を組み込んだ

この日記ブログについて、調べ物をしているときに、
検索エンジンなどの本文抽出精度がいまいちなことに、気がつきました。

なので早速、「Google Adsense のセクションターゲット」と「Yahoo! Slurpのclass=robots-nocontent」をテンプレートに組み込むことにしました。

それぞれ、どのようなものかと言うと、以下のようなものです。

- セクション ターゲットとは何ですか。また、実装方法を教えてください。 - AdSense ヘルプ センター
-- https://www.google.com/adsense/support/bin/answer.py?answer=23168&cbid=-1e21013b4cp9a&src=cb&lev=index

セクション ターゲットを使用するとサイトのコンテンツと広告を照合する場合に、強調または無視すべきテキストや HTML コンテンツのセクションを Google に知らせて、 広告表示の関連性における精度をより向上させることができます。


なるほど。

- How do I mark web page content that is extraneous to the main unique content on the page? - Yahoo! Search Help
-- http://help.yahoo.com/l/us/yahoo/search/webcrawler/slurp-14.html
Yahoo! Search observes the class="robots-nocontent" present on XHTML elements, such as div, span, and all others.


Yahooサーチは、class="robots-nocontent"なタグで囲まれた部分を、
理解して不要な部分として解釈してくれるようです。

早速以下のような、セクションターゲットタグを設置しました。

HTML中のタイトルや本文となる内容部分


HTML中のタイトルや本文となる部分は、
各ページが固有に持っていることを期待できます。

そのような部分を、 google_ad_section_startとendで囲みます。

<!-- google_ad_section_start -->
タイトルや本文となる内容を含んだ部分
<!-- google_ad_section_end -->



余分な部分


ヘッダー部分や、サイドバー、フッターなどは、
複数のHTMLファイルで使い回すことが多く、
着目しているHTMLファイルの中で固有とは言えないのでは。

そのような部分は「google_ad_section_start(weight=ignore) 」とendで囲みます。

<!-- google_ad_section_start(weight=ignore) -->
サイドバーなど、複数ページ間で共通である余分な部分
<!-- google_ad_section_end -->


囲むときには、HTMLのタグの対応が壊れないように


今回設定した「google_ad_section_start(weight=ignore) 」は、
検索エンジンの本文抽出器の抽出精度を上げるためのものだと、
考えることができます。

ユーザやプロバイダが本文部分だと明示している部分があれば、
クローラーは、その部分の内容を、HTMLファイルから抜き出すでしょう。

以下のような場合には、

<body>
<div>。。。</div>
<!-- google_ad_section_start -->
<div>
タイトルや本文となる内容を含んだ部分
</div>
<!-- google_ad_section_end -->
<div>。。。</div>
</body>


このように、必要な部分だけを残すでしょう。

<!-- google_ad_section_start -->
<div>
タイトルや本文となる内容を含んだ部分
</div>
<!-- google_ad_section_end -->


また、ユーザやプロバイダが不要部分だと明示している部分があれば、
クローラーは、その部分の内容を削除したあとに、
HTMLファイルから本文を抜き出すでしょう。

以下のような場合には、

<body>
<!-- google_ad_section_start(weight=ignore) -->
<div>。。。</div>
<!-- google_ad_section_end -->
<div>
タイトルや本文となる内容を含んだ部分
</div>
<!-- google_ad_section_start(weight=ignore) -->
<div>。。。</div>
<!-- google_ad_section_end -->
</body>


このように不要な部分は削除するでしょう。

<body>
<div>
タイトルや本文となる内容を含んだ部分
</div>
</body>


class="robots-nocontent"を組み込んだ以下のような場合には、

<body>
<!-- google_ad_section_start(weight=ignore) -->
<div class="robots-nocontent">。。。</div>
<!-- google_ad_section_end -->
<div>
タイトルや本文となる内容を含んだ部分
</div>
<!-- google_ad_section_start(weight=ignore) -->
<div class="robots-nocontent">。。。</div>
<!-- google_ad_section_end -->
</body>


Yahooのクローラーが解釈した結果が、
少なくとも以下のようになることが期待できるでしょう。

<body>
<!-- google_ad_section_start(weight=ignore) -->
<!-- google_ad_section_end -->
<div>
タイトルや本文となる内容を含んだ部分
</div>
<!-- google_ad_section_start(weight=ignore) -->
<!-- google_ad_section_end -->
</body>


クローラーは手元に残ったHTMLファイルの一部を解析する際に、
さらにそのHTMLを木構造と呼ばれるデータ構造に置き換えるでしょう。

<!-- -->


で囲まれた部分は、HTMLを描画する際に無視される部分なので、
木構造の構築に影響がないと考えればOKでしょう。

クローラーが解釈したHTMLファイルの構造が壊れていたら、
クローラーは正しく本文抽出ができない可能性が高まるでしょう。

そのため、クローラーがHTMLの一部を抽出したり、削除したときに、
HTMLのタグの対応が壊れないようにすると、
自分が狙った挙動に近い動きをクローラーがしてくれると思います。





このような対応をしたところ、本文の抽出精度が上がったような気がします。

ということで、記事にしてみました。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

入力フォームを作る際に気をつけたい7個のこと

会員登録フォームを作る際に気をつけたいポイントについて、
綺麗にまとめてある記事を読みました。

良いなぁ、と思ったのでメモ。

- Web2.0ナビ: 会員登録フォームを構築するポイント
-- http://www.web-20.net/2008/08/post_81.html

こうすれば登録数が劇的に上がる!とか、売上が上がる!といった方法はありませんが、少しだけユーザーに安心感を与えたり、ストレスを取り除いたりする方法はたくさんありますし、見ていたサイトでも登録しやすいサイトには共通点が多くありました。


すごく良い記事です。

会員登録フォームに限らず、
ありとあらゆる入力フォームを作成するときに、
気に留めておくと使いやすいフォームが作れそうです。

覚えきれないので、7個の特に大切に感じたことを抜き出します。

- ユーザが入力の目的を分かるようにしよう
- ユーザが入力中に安心できるようにしよう
- ログインIDはメールアドレスにしよう
- ユーザのマウスクリックが最小になるようにしよう
- ユーザが選択していないものは未選択にしよう
- 入力から完了までStepのうち、今どの状態なのか明示しよう
- ボタンは大きく!分かりやすく!

7個くらいなら、さっと確認できますし覚えていられます。

【関連リンク】
- ウノウラボ Unoh Labs: フォームのユーザビリティを改善する10のTips
-- http://labs.unoh.net/2007/08/10tips.html
- メールアドレスの誤入力防止 (ユーザビリティ実践メモ)
-- http://www.bebit.co.jp/memo/2005/12/post_4.html
- 会員登録の敷居を下げる入力フォームの作り方(PC編) - キャズムを超えろ!
-- http://d.hatena.ne.jp/wa-ren/20080410/p1

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

2008-08-27 Wed

新納浩幸先生の研究室のゼミのレジュメ集

昨日、「分かりやすいパターン認識」のページをメモしたのですが、
そのページのあるディレクトリの一つ上を見てみたら、
いろいろ見たことのない資料がザクザク。

- 新納浩幸 - ゼミのレジュメ集
-- http://nlp.dse.ibaraki.ac.jp/~shinnou/zemirejume.html

最近はビショップ本の輪読をやっているようです。

こういう感じで、自分が読んだ教科書をまとめておくと、
自分がよく理解することに役立つだけでなく、
後から同じ本を読む人の役に立つのですね。

素晴らしいと思いました。

ちなみに、昨日の記事はコレ。

- [O] わかりやすいパターン認識
-- http://overlasting.dyndns.org/2008-08-26-4.html

パターン認識と機械学習 上 - ベイズ理論による統計的予測

[Amazonで詳細を見る]

パターン認識と機械学習 下 - ベイズ理論による統計的予測

[Amazonで詳細を見る]

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

Googleが豪華な福利厚生の大半を廃止するらしい

Googleが豪華な福利厚生の大半を廃止する、
ということを伝える記事が公開されていました。

- グーグル、豪華な福利厚生の大半を廃止へ——同社を去る従業員が増加 : Googleウォッチ - Computerworld.jp
-- http://www.computerworld.jp/topics/google/119589.html

これまでGoogleの従業員は、無料の食事や進んだ出産支援制度、敷地内のスポーツ・クラブ、洗車/オイル交換設備など、きわめて恵まれた待遇を受けていた。
しかし、最近出た米国New York Times紙の記事によると、こうした制度の大半は廃止される見通しという。


中の人は、外のノイズに負けずに、Googleじゃないとできないことで、
幸せになる人を増やしてください。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

The Common Craft Show

たつをさんが紹介していたので、気がつきました。

- The Common Craft Show
 http://www.commoncraft.com/show

ひとつひとつの解説が分かりやすく、かつ、あっという間に終わってしまいます。
これは見ていて全然疲れません。

- Twitter in Plain English


- [を] 紙とペンと平易な英語でいろんな話題を分かりやすく解説してくれるムービー
-- http://chalow.net/2008-08-26-2.html

若干早口だけど、使われている単語や表現は基本的なものばかりなので聞き取りやすいです。
スラング、ジャーゴン、馴染みのない固有名詞は出てきません。
発音も明瞭。リスニングしやすい。
これでディクテーションとかしてみても良いかも。 英語の勉強として。


なるほど。

短いのでディクテーション初心者の僕は、こういうのからやると楽しく出来そう。
確かに、ちょい早口ですけど。。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

成功の鍵のひとつは楽天主義

楽天主義を貫くことは、開発や研究だけでなく、
日常生活においても重要だと、僕は思います。

僕がいろいろ過去を振り返り、なんだかスゴイなぁと思う人は、
ほぼ全員、「上手に楽天主義を実践している」人でした。

僕は、それにかなり前に気がついてから楽天的に物事を考える方法について、
考察していたのですが、たつをさんが参考になりそうな本を紹介していました。

それが、これ。

オプティミストはなぜ成功するか

[Amazonで詳細を見る]

定価660円。新品でもマーケットプレイスの送料を考えるとトントン。

どうやら、非常に論理的に楽天主義の効用について分析しているようです。

- [を] オプティミストはなぜ成功するのか
-- http://chalow.net/2008-08-25-1.html

定番本、ベストセラー、ロングセラーである、 オプティミスト(楽天家)に関する研究本です。
「自己啓発書」ではなく、心理学の研究本です。
至ってまじめな内容で非常に参考になります。


さっそくポチったので読んでみます。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

検索関連ワードSEOの2業者「コミュニケーションデザインシステムズ」と「RKコンサルティング」が何となく関係者っぽい件


「株式会社コミュニケーションデザインシステムズ」と「株式会社RKコンサルティング」は、Yahoo!JAPANの検索結果の関連検索ワード枠に、依頼されたキーワードを表示するサービスを運営しています。

で、ふと、今日になって、

- インターネットビルダーとSEOの - コミュニケーションデザインシステムズ
-- h*tp://www.cdsinc.co.jp/

のトップページと、

- 株式会社RKコンサルティング
-- ht*p://www.rkinc.co.jp/index.html

のトップページを眺めた時に、どういうわけか

『この2つは中の人が同じじゃないかな?』

と思いました。

いや、ほんとになんとなくなんです。

ということで、2つの業者の「Web上に公開されている情報」を引用してみます。
whoisで検索する作業はWebブラウザを使っている人なら誰でもできます。
興味があるドメインがあったら検索してみると楽しいですよ。

- ANSI Whois Gateway: ドメイン名 / IPアドレス検索サービス
-- http://whois.ansi.co.jp/

まず、スィートクラスSEOの、株式会社コミュニケーションデザインシステムズ。

- 検索結果: CDSINC.CO.JP
-- http://whois.ansi.co.jp/?key=cdsinc.co.jp

日本
CDSINC.CO.JP

Domain Information: [ドメイン情報]
a. [ドメイン名] CDSINC.CO.JP
e. [そしきめい]
かぶしきがいしゃこみゅにけーしょんでざいんしすてむず
f. [組織名] 株式会社コミュニケーションデザインシステムズ
g. [Organization] Communication Design Systems Co., Ltd.
k. [組織種別] 株式会社
l. [Organization Type] corporation
m. [登録担当者] SH4684JP
n. [技術連絡担当者] SH5099JP
p. [ネームサーバ] 01.dnsv.jp
p. [ネームサーバ] 02.dnsv.jp
[状態] Connected (2009/02/28)
[登録年月日] 2005/02/28
[接続年月日] 2005/02/28
[最終更新] 2008/06/17 16:25:48 (JST)

Contact Information: [担当者情報]
a. [JPNICハンドル] SH4684JP
b. [氏名] 保津 章一
c. [Last, First] Hozu, Shoichi
d. [電子メイル] bqs00246 at nifty dot ne dot jp
f. [組織名] 株式会社コミュニケーションデザインシステムズ
g. [Organization] Communication Design Systems Co., Ltd.
k. [部署] 経営
l. [Division] Management Office
m. [肩書] 代表取締役
n. [Title] General Manager
o. [電話番号]
p. [FAX番号]
y. [通知アドレス]
[最終更新] 2005/02/28 15:01:02(JST)
form@dom.jprs.jp


次に、特急SEOの株式会社 RKコンサルティング。

- 検索結果: RKINC.CO.JP
-- http://whois.ansi.co.jp/?key=rkinc.co.jp
日本
RKINC.CO.JP

Domain Information: [ドメイン情報]
a. [ドメイン名] RKINC.CO.JP
e. [そしきめい] ゆうげんかいしゃあーるけいこんさるてぃんぐ
f. [組織名] 有限会社RKコンサルティング
g. [Organization] RKConsulting,inc
k. [組織種別] 有限会社
l. [Organization Type] limited private company
m. [登録担当者] KS14765JP
n. [技術連絡担当者] KS14793JP
p. [ネームサーバ] uns01.lolipop.jp
p. [ネームサーバ] uns02.lolipop.jp
[状態] Connected (2009/02/28)
[登録年月日] 2006/02/10
[接続年月日] 2006/02/10
[最終更新] 2008/03/01 01:37:18 (JST)

Contact Information: [担当者情報]
a. [JPNICハンドル] KS14765JP
b. [氏名] 西藤 広一郎
c. [Last, First] Saito, Koichiro
d. [電子メイル] saito at cdsinc dot co dot jp
f. [組織名] 有限会社RKコンサルティング
g. [Organization] RKConsulting,inc
k. [部署]
l. [Division]
m. [肩書]
n. [Title]
o. [電話番号]
p. [FAX番号]
y. [通知アドレス]
[最終更新] 2006/02/10 12:02:01(JST)
form@dom.jprs.jp


「なんだ。両者は関係ないのか。」

なんとなく中の人が同じ会社なのかと思っていましたが、違うようですね。。。

。。。と思っていたのですがよくよく見ると、特急SEOはRKコンサルティングとは違うドメインで運用しているようです。

なるる。

ということで、今度は特急SEO。

- ようこそ:HOME - 特急SEO
-- ht*p://www.recommend-seo.jp/

公開情報を引用してみます。

- 検索結果: RECOMMEND-SEO.JP
-- http://whois.ansi.co.jp/?key=recommend-seo.jp
日本
RECOMMEND-SEO.JP

Domain Information: [ドメイン情報]
[Domain Name] RECOMMEND-SEO.JP

[登録者名] 保津 章一
[Registrant] Shoichi Hozu

[Name Server] 01.dnsv.jp
[Name Server] 02.dnsv.jp

[登録年月日] 2008/07/04
[有効期限] 2009/07/31
[状態] Active
[最終更新] 2008/07/05 21:11:37 (JST)

Contact Information: [公開連絡窓口]
[名前] 保津 章一
[Name] Shoichi Hozu
[Email] hozu at cdsinc dot co dot jp
[Web Page]
[郵便番号] 107-0062
[住所] 東京都港区
南青山
[Postal Address] Minato-ku
Minamiaoyama
[電話番号] oe-eaoe-8**6
[FAX番号] oe-eaoe-8**6


へー、特急SEOのドメイン管理者は保津 章一さんなんですか。

って、

保津 章一さんは、株式会社コミュニケーションデザインシステムズの代表取締役ってことになってますよ。 (゚д゚)Σガーン

-- RKコンサルティング、指定キーワードをYahoo!関連検索ワード欄に表示するサービス開始 :: SEM R
--- http://www.sem-r.com/08h1/20080804112326.html
株式会社RKコンサルティングは2008年8月4日、Yahoo!JAPANの関連検索ワード枠内に、指定したキーワードを表示する「特急SEO」を開始した。 特急SEOは、コミュニケーションデザインシステムズが発表したサービスと同様に、Yahoo!JAPAN検索結果の検索窓直下(自然検索より上)の関連検索ワード枠内に、クライアント企業から依頼されたキーワードを表示するサービス。


って、そりゃあたりまえだなー、と感じちゃいます。

両方とも下手したら全く同じ同じシステムを使っていのでは。

結論として、2業者の中の人は異なるのかも知れませんが、RKコンサルティングの商品の管理を、コミュニケーションデザインシステムズの中の人が管理していることが分かりました。

また、「スィートクラスSEO」と「特急SEO」はもしかすると、全く同じシステムなのではないかなぁ、と思えてきました。

とはいえ、疲れたし、いろいろ裏事情があるのかもしれないので、これ以上は考えないことにします。

「検索関連ワードSEO」がSEO業界で流行しているのかな、と思っていたのですが、自作自演色が出てきましたね。

おしまい。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

2008-08-26 Tue

わかりやすいパターン認識

わかりやすいパターン認識という書籍の、講義資料が置いてあるサイト。
気になるのでメモ。

わかりやすいパターン認識

[Amazonで詳細を見る]


講義資料はこちら。

- わかりやすいパターン認識
-- http://nlp.dse.ibaraki.ac.jp/~shinnou/zemi1.html

書籍の評判が非常に良いです。
僕は読んだことが無いので、覚えておいて近いうちに読みます。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

未踏ユース2008上期の公募結果

未踏ユースの結果が出ていますね。

その中に、筑波大宇津呂研の川場さんの名前がありました。
合同研で拝見したときに、すごく困難の多そうな研究だなぁ、と思った記憶があります。

倍率は5倍だったようで、大変すばらしいことだと思います。
おめでとうございます。

- 情報処理推進機構:未踏:公募結果:2008年度上期 未踏本体 公募結果
-- http://www.ipa.go.jp/jinzai/mitou/2008/2008_1/youth/k_koubokekka.html#kakehi

川場 真理子
多言語ブログにおける文化間ギャップ発見システム


内容は本当のところまだよく分かりませんが、以下の論文で同種の実験を行なっているので、そのような方向性のものをシステム化するのでしょうか。。。

- Wikipediaエントリとブログサイトの対応付けによる日本語ブログ空間のトピック分布推定
-- 川場真理子,中崎寛之,宇津呂武仁(筑波大),福原知宏(東大)
--- http://www.ieice.org/~de/DEWS/DEWS2008/proceedings/files/b4/b4-1.pdf
本研究では,対照分析の方法として,各言語ブログに出現する共起語を用いる.
これを用いる理由は,片方のブログでは高い確率で出現し,その対訳が相手言語ブログではあまり出現しない共起語をみることで,内容分析を容易にすることができると考えているからである.

中略

抽出した語句の訳語が相手言語ブログに出現するか調べるために,Wikipedia の言語間リンクを使用して語句の訳語を求める.
Wikipedia で語句の対訳を取得できない場合は,英辞郎で語句の対訳を取得する.

中略

ドラゴンボール,Wii,新世紀エヴァンゲリオンのような商品となるキーワードで検索されたブログサイトでは,日本とアメリカの社会的な興味,需要の違いを反映した違いが多く観測された.

中略

各言語の特徴的な語を踏まえた上で,日英ブログサイトの内容の対照分析を行い,その記述内容を抜粋した結果を表4 に示す.

中略

捕鯨や靖国神社のような社会問題に関するキーワードで検索されたブログサイトの場合は,日本語ブログサイトと英語ブログサイトで全く逆の意見が見られた.


うむむ。僕も頑張るぞ。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

秋の夜長に一人でじっくりAVじゃなくて、「ショーペンハウアーの幸福論」

聖幸さんが、ドイツの哲学者ショーペンハウアーの「幸福について—人生論」に関する記事を書いていたのが、目に付いたのでメモ。

どうやら最近、この文庫本がネットで話題みたい。

幸福について—人生論

[Amazonで詳細を見る]

新潮文庫 : 定価540円。安っっ。

ショーペンハウアーは、中学生位のときに読もうとして難しくてやめてしまったけど、今ならちょっとくらい分かるかも。

ちなみに、本当にメモりたかったのは以下の一文。

- 「ショーペンハウアーの幸福論」がネットの書き込みから話題に:[俺100]
-- http://blog.zikokeihatu.com/archives/001403.html

秋の夜長に一人でAVを見るのも、もちろん自由です。それがあなたの幸福ならば。


そうすねー。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

livedoor の frepa が2008年11月25日(火)に終了

livedoor の frepa がサービス提供を終了するそうです。

frepaは、「もしmixiより優れた機能を持つサイトを作ったら」という、頭にちょっとよぎる疑問に真正面から取り組んだ素晴らしいサイトだった、と僕は思います。
サービスの充実度は大変素晴らしいですし、ソーシャル系のサービスに必要な要素が何かを多く示唆してくれました。

- 「frepa」サービス終了のお知らせ - ソーシャルネットワーキングサイト (SNS) - フレパ
-- http://www.frepa.livedoor.com/announce/

誠に勝手ながら、このたび都合により2008年11月25日(火)をもちまして 「frepa」 のすべてのサービスの提供を終了させていただくこととなりましたので、お知らせ致します。


で、今回、本当に素晴らしいと思ったのは、ユーザに対するデータ返却を行なうところ。

しかも、かなり本気でデータを返却しようとしていると思います。

frepa でお使いのデータをお客様にお返しできるように準備を進めております。
それに伴い、livedoor の他のコンテンツへも移行を行えるようにする予定です。

■移行が可能なデータについて(予定)
・frepa 日記と画像、コメント
・送受信のメッセージ
・参加しているコミュニティのトピックと画像、コメント


ユーザがログインできるサービスを提供する際には「これくらいやらなきゃ」といえる、教科書的な素晴らしい対応が行なわれるのだろうと思います。

今ごろ中の人は、大変なのだと思います。
おつかれさまです。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

2008-08-25 Mon

Hadoopのソースコード解析資料

PFIがNTTレゾナントと共同で、Hadoopに関する解析資料をまとめ、公開しました。

Hadoopの解析やパフォーマンス測定だけでなく、GFSとHadoopとの仕様上の比較も行なっており、有益な資料だと思います。

- オープンソース分散システム「Hadoop」の解析資料
-- http://preferred.jp/pub/hadoop.html

オープンソース分散システム「Hadoop」に関する解析資料を公開させて戴いております。この調査はNTTレゾナント株式会社様と共同で行いました(プレスリリース)。


全体的にザックリ。詳しくはソース読めというノリ。

5章と6章は、とくに興味をもって読めました。
おつかれさまです。

Hadoopの配布サイトはこちら。

- Welcome to Hadoop!
-- http://hadoop.apache.org/core/

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

CoNLL 2008 の Proceedings

CoNLL 2008 の Proceedings。

- Proceedings of CoNLL-2008
-- http://www.cnts.ua.ac.be/conll2008/proceedings.html

こういうのも、今後はChangeLogに貯めていきます。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

lvで、bz2やgz圧縮したテキストファイルの中身を確認

知らなかった、けど公式ページに書いてありました。

- LV Homepage
-- http://www.ff.iij4u.or.jp/~nrt/lv/

Compressed files that have suffix ``gz, ``z, or ``GZ, ``Z are extracted by lv using zcat (1), and ``bz2 or ``BZ2 with bzcat (1). Please install zcat and bzcat that can expand all of them.


なるほど。OSXのlvのmanにはそんなこと書いてなかったのになぁ。

拡張子に基づき、gcatやbzcatで解凍してたのですね。

別にgcatやbzcatを、わざわざインストールした覚えが無いので、
近年のOSには両方とも最初からはいっているのかなと思ったら、
MacOSXにはgzcatが入っていて、ちゃんとファイルの中身が見えました。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

2008-08-22 Fri

Yokohama.pm - Yokohama Perl Mongers Technical Talk #2

Yokohama.pmのテクニカルトークが開催されたので行ってきました。

とても暖かいイベントでした。
スタッフの方と、会場を提供をしてくれたデジハリさんに感謝。
どうもありがとうございます。

平日の夕方に横浜ってありえないなぁ、と言いつつ、通っていた高校やバイト・パート先が横浜駅周辺にあったので、楽しみにしていました。

- Conference2 - Kwiki
-- http://yokohama.pm.org/wiki/index.cgi?Conference2

# 開催予定日
   2008/8/22(金) 18:00 Open 18:30 Start 20:30 End
# 開催予定会場
   デジハリ横浜校


カンファレンスは最初から最後まで、全体的に暖かい雰囲気。
2時間は、本当にあっという間で、ちょっと物足りないくらい。
3時間くらいだと、満足感が出そうですね。

横浜に、やる気のあるPerlユーザーが集まる場所ができたことは、とても素晴らしいことです。
横浜で開催するから来られる人も多そう。

今後もタイミングが合ったら積極参加します。

【関連リンク】
- Yokohama.pm テクニカルトーク #2に行ってきた! - dann@webdev
-- http://dann.g.hatena.ne.jp/dann/20080822/p1
- Yokohama.pm#2でLTをさせて頂きました。 - iDeaList::Writing
-- http://d.hatena.ne.jp/acotie/20080824/1219530707
- ゆーすけべー日記: Yokohama.pm tech talk #2 に行って来た&『Perlモジュールだけで挑戦「画像の物体認識類似検索」』
-- http://yusukebe.com/archives/08/08/24/200952.html

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

Spectral Graph Theory

すぐに目を通すわけではないですが、目に付いたのでメモ。

- Spectral Graph Theory and its Applications
-- http://www.cs.yale.edu/homes/spielman/eigs/

この講義資料に目を通している人を何人か見たのでメモ。

- 2008-08-17 - smly’s notepad
-- http://d.hatena.ne.jp/smly/20080817

資料の Lecture 1, 2 は視覚的にSpectral Graph Theory から意義のあるものが得られることを実際に例を用いて確認させた後, 実際にラプラシアン行列から得られることを見ていきます.


- [3DCG] - malibu-bulldogの日記
-- http://d.hatena.ne.jp/malibu-bulldog/searchdiary?word=*%5B3DCG%5D
ここ最近、イエール大学のDanさんという方の講義ノートを読むのが日課です。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

アイディアを完成させるのは1人/10000人

naoyaさんが、いままでのプレゼンの「まとめ部分の集大成」的な発表をしたみたいですね。

- 「君たちは“世界を変える切符”を手にしている」---セキュリティ&プログラミングキャンプ2008:ITpro
-- http://itpro.nikkeibp.co.jp/article/NEWS/20080818/312904/

はてなの伊藤氏は,プログラマは世界を変える力を持っていると話す。


記事からnaoyaさんの発表からの引用を引用してみます。

- プログラマは世界を変える力を持っている
- 何が正しいかは自分にしか分からない。自分の手でそれを証明しよう
- みなさんはそれを証明する力,“世界を変える切符”を手にしている
- ただし、この切符には有効期限がある。
- 自分の時間を無自覚に過ごしてはいけない


自分が大学入りたてくらいに、このプレゼンを聞いていたら、
すごく「背中を押されてる感じ」を感じられたと思います。

今回、とくに目が止まったのは、このフレーズ。

- 同じアイデアは1万人が思いつくと言われる。でもそれを作ることができるのは100人で,実際に作るのは10人,完成させるのは1人


僕も自分の妄想を形にするために、手を動かします。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

2008-08-21 Thu

隠語対応の犯罪検知には、人手による辞書作成が現実的

総務省が、またまた犯罪検知に向けた取り組みを開始するようです。

- 犯罪検知ソフト開発へ ネット監視強化、「隠語」にも対応 総務省(産経新聞) - Yahoo!ニュース
-- http://headlines.yahoo.co.jp/hl?a=20080821-00000098-san-ind

サイト運営企業はネット上の有害情報対策を強化しているものの、監視人員の確保が困難な上、通常の検知ソフトでは、隠語のような特殊言語への対応は困難という。開発は平成21年度から3年程度かけて取り組み、総事業費は十数億円規模を想定している。


いろいろ考えたのですが、十数億円かけてソフトやシステムを作っても、
そのソフトが本当に考えるべき問題を解決しなかった場合には、
ほんの1年くらいで、ゴミソフトになってしまうのではないかと思います。

考えるべきことは「いかにしてイタチごっこを軽減するか」だと思います。

どうせ、守る側と攻める側のイタチごっこに終わりはないのです。
何故なら隠語は無限に終わり続けるし、バリエーションも増え続けます。

現実的な解を考えると、やはりWikipediaのように共同作業で
隠語データベースを作成できるような仕組みのうえで、
大量の人が辞書を整備するのが良いだろうと思います。

探してみると、そういう試みをしている人は、すでにいました。

- 隠語データベースβ | トップ
-- http://saburo.biz/ingo/
隠語をデータベース化して有志たちによってこの情報を精査できたらいいのではないか


まだまだ件数が集まっていませんし、登録エントリを審査にかけるあたりの、
コストの高さが非常に心配ですが、数年後には有望な辞書になっているかも。

ところで、シンナーには「純トロ」と呼ばれるものがあることを知り、
検索してみたのですが、胸が痛くなるような結果の山です。

- シンナー 純トロ - Google 検索
-- http://www.google.co.jp/search?q=%E3%82%B7%E3%83%B3%E3%83%8A%E3%83%BC%E3%80%80%E7%B4%94%E3%83%88%E3%83%AD+&lr=lang_ja&ie=utf-8&oe=utf-8&aq=t&rls=org.mozilla:ja:official&client=firefox-a

胸が痛くなる検索結果が減るような取り組みは、今後自分でも積極的にやるべきだと思いました。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

指定形容詞係り先検索の検索対象が狭すぎな件について、簡単に考えてみる

Yahoo! JAPAN が日本語係り受け解析のAPIを公開しました。

- Yahoo!デベロッパーネットワーク - テキスト解析 - 日本語係り受け解析
-- http://developer.yahoo.co.jp/jlp/DAService/V1/parse.html

日本語文の係り受け関係を解析する機能を提供します。


と、同時に「指定形容詞係り先検索」APIという聞き慣れない名前のAPIも公開されました。

- Yahoo!デベロッパーネットワーク - テキスト解析 - 指定形容詞係り先検索
-- http://developer.yahoo.co.jp/jlp/DAServiceSearch/V1/search.html
1 : 「うれしい」が係る単語を返します。
2 : 「おもしろい」が係る単語を返します。
3 : 「すごい」が係る単語を返します。
4 : 「たのしい」が係る単語を返します。
5 : 「かっこいい」が係る単語を返します。
6 : 「かわいい」が係る単語を返します。
7 : 「きれい」が係る単語を返します。
8 : 「おいしい」が係る単語を返します。


え?これだけ?

うーん。なんでこんなに取得できる条件が絞られているんだろう。

考えてみますか。

APIから得られる結果は?



APIの返す結果が『「うれしい」に係る』じゃないところがポイントですね。

おもに連体形の形容詞(名詞などの体言にかかる)が係る単語がとれそうです。
「単語を返す」と言っているのは、形容詞の係り先にある形態素を返すので、
名詞なのか、未知語なのか、固有名詞なのか、
よく分からないということなのではないかなぁ、と思います。

では、ちょっと結果を見てみます。

- 指定形容詞係り先検索 : うれしいの係る単語
-- http://jlp.yahooapis.jp/DAServiceSearch/V1/search?appid=YahooDemo&mode=1
<Word>
<Surface>人気ブログランキング</Surface>
<Frequency>8</Frequency>
</Word>


Surfaceは表層、つまり見たままの文字列のことではないでしょうか。
Frequencyは頻度、つまり何かの頻度を表しているのではないでしょうか。

どんなデータから、表層と頻度を取得しているのか



頻度が出ていることから、何らかのコーパスを解析したことが分かります。

ふと気がつきましたが、結果の中に以下のような結果が混ざっています。

<Word>
<Surface>金メダル</Surface>
<Frequency>24</Frequency>
</Word>

中略

<Word>
<Surface>ソフトボール</Surface>
<Frequency>9</Frequency>
</Word>


実は、この検索をした日の前日に、ソフトボールの日本代表が、
北京オリンピックで金メダルを取ったのです。

また、この一つ前の引用のように「人気ブログランキング」という単語が頻出していました。

取得できる結果からは、なんとなくブログ記事を使っている気がしますね。

もしかして、昨日以前のブログ検索結果から上位n件を取得しているのかな
ということが想像できます。

APIが結果として返してくれそうなデータを考える



APIのことと、APIで使っていそうなデータのことが、ちょっとわかったので
こんどは、結果として得られそうな「形容詞と単語の組み合わせ」と、
「組み合わせが得られそうな文」について考えてみようと思います。

形容詞「きれい」から何を得られるか

「きれい」という形容詞が係る、名詞「花」という組み合わせを考えます。
そうすると、「きれいな花」や「きれいだと思ったのは花」などの
文から、形容詞と単語の組み合わせが得られそうです。

ということは、別の形容詞についても何かを考えられますね。

APIの動きを想像して、APIの条件に無い形容詞の結果を考えてみる。



諸々考えたので、指定形容詞係り先検索と同等の結果を得る
アルゴリズムを考えてみます。

指定形容詞係り先検索っぽいアルゴリズム

1、クエリとして形容詞を与える
2、与えられた形容詞をクエリとして、ブログ検索する。その際に、形容詞は連体形に変換し、検索結果は日付順でランキングし取得する。
3、検索結果のタイトルとスニペットを取得。
4、スニペットを文に分割する。
5、タイトルとスニペットを正規化
6、与えられた形容詞を含むタイトルとスニペット文を文として取得。
7、取得した文を係り受け解析
8、構文情報から、与えられた形容詞が係っている形態素を取得。とりあえず、形容詞が係る、一番近い名詞、固有名詞、未知語を取得する。
9、形態素の頻度情報を得る
10、頻度が4件以上の単語のみを取得する
11、ストップワードリストによるフィルタリング

素朴なアルゴリズムは、こんな感じなのではないでしょうか。

アルゴリズムどおりに手を軽く動かしてみる。



アルゴリズムを想定したので、このアルゴリズムで形容詞を処理してみます。
と言っても、まずは自分の手を動かすことにします。

処理する形容詞を「嫌い」に設定してみます。
何故かというと、指定形容詞係り先検索にはネガティブな形容詞が含まれていなかったからです。

ブログ検索の結果を手作業で処理してみる。

以下の検索結果から、想定したアルゴリズムにマッチする単語を上から30個くらい取得してみます。

- 「嫌いな」の検索結果 - Yahoo!ブログ検索
-- http://blog-search.yahoo.co.jp/search?p=%E5%AB%8C%E3%81%84%E3%81%AA&ei=UTF-8

すると、試した瞬間には、以下のようになりました。


自分
季節
モノ
タイプ
ところ
子供

選手
タイプ
タイプ
もの
上司

中学校教師

選手

上司
雨降り
人間


日常
食べ物
キャラ
サウンド

もの



具体的な名詞をあえて省いているのですが、
人や上司やタイプ、はたまた企業や物、そして自分なんてものが
「嫌い」なものとして言及されています。

 
少し手を動かしてみて、以下のような処理くらいはした方が良さそうだと分かりました。

- 連体形の形容詞が最初に係るのは、おもに一般名詞。おもしろくない。もう少し後ろまで取得したほうが良い。
- 言及されている対象が何かを考えるために、形容詞の係先の名詞と同格になっている名詞を取得する。

でも、なんとなく分かった。



「指定形容詞係り先検索の検索対象が狭すぎな件について、簡単に考える」が目的だったので、簡単に考えてみます。

簡単に考えると、指定できる形容詞が自由だと、
おそらくすごく便利だと思います。

現状でも、上手に検索結果を利用することで、
急激にみんなが言及している形容詞のランキングを作れますよね。

このランキングを様々な形容詞に対して適用してみると、
わりと面白いことになりそうだと分かります。

たとえば、「うれしい」の検索結果を見てみると、
「キャラメルコーン」のような固有名詞も含まれています。

ということは、最も今嬉しいワードが分かりますし、
最も今嫌われているワードも分かるわけです。

嫌い、悪い、臭いなど極めてネガティブな形容詞の係先を
Yahoo自らが明らかにする必要はなさそうですよね。

しかもネガティブな情報を発信しているユーザが特定できてしまうときに、
Yahoo側には、いろいろ面倒なことが起こりそうな気もします。

ここら辺が、指定形容詞係り先検索の検索対象が狭すぎる原因じゃないかと。

まとめ


指定形容詞係り先検索は研究用途に使うには、ちょっと物足りません。

でも、このような結果を出すしか無かった大人の事情がありそうなことも、
ちょっと試したら、微妙に分からなくもないような気がしてきました。

とはいえ、非常に有用な資源がぶら下がっている状態だと思うので、
研究用途に限り形容詞を網羅的に処理した結果を提供する枠組みを
用意していただけると、すごく嬉しいなぁと、感じました。

疲れたのでおしまい。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

2008-08-20 Wed

mixiがOpernID認証サービスを提供開始

mixiがついにOpenIDの認証サーバーをオープンするようです。
ついに!ですね!

- ミクシィ、認証サービス「mixi OpenID」を提供--「mixi Platform」第1弾:ニュース - CNET Japan
-- http://japan.cnet.com/news/media/story/0,2000056023,20378945,00.htm

クシィは8月20日、オープンな分散認証技術「OpenID」とソーシャルネットワーキングサービス(SNS)「mixi」を融合した認証サービス「mixi OpenID」を同日15時に提供開始することを発表した。


今後は、mixiのデータを外部サービスで利用できるようにもする。。
とのことですので、そちらも楽しみです。

開発者の方々、おつかれさまです!

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

海外の有名ソーシャルメディアの、人気検出アルゴリズム

Del.icio.us、Redditなどの、海外の有名ソーシャルメディア
が使っている人気検出アルゴリズムに関する記事を見ました。

- 著名ソーシャルメディアが使っているアルゴリズムを大公開! | Web担当者Forum
-- http://web-tan.forum.impressrd.jp/e/2008/08/19/3751

著名なソーシャルメディアサイトが、ユーザーデータを活用する上でどのようにアルゴリズムを用いているのか、白日の下にさらそう。


del.icio.usははてなブックマークの元ネタとして
国内の技術者には割と有名だと思います。

- del.icio.us
http://del.icio.us/popular

でも、他のHacker Newsや、Reddit、StumbleUponを
僕はあんまり見ません。diggはたまに見ます。

- Hacker News
-- http://news.ycombinator.com/

おお、Redditって、オープンソース化してるんですね。
いつのまに。知らなかったなぁ。

- reddit の trac
-- http://code.reddit.com/

ソーシャルメディアっていうか、
ニュースサイトはこれからさらに、おもしろくなりますよね。
僕はどういうニュースサイトを使いたいのかなぁ。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

2008-08-19 Tue

壊れたChangeLogの再生

ここ数日調整しながら書いていた、日記ブログからChangeLogを再生するスクリプトができたので、早速使ってみた。

割と良い感じに再生できたので、細かいことにこだわらず、
とりあえず。。。な感じでChangeLogを再生した。

ブログとしてUPしていなかった部分は戻って来ないけれど、
写真が無事だったので、思い出は残っている。

明日には、ブログの更新ができるかもしれない。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

otsune's FreeBSD memo

このエントリーをはてなブックマークに追加 otsune's FreeBSD memo "), 'delicious','toolbar=no,width=550,height=550'); return false;">Delicious [bookmark]

otsuneさんの、FreeBSDに関するメモが掲載されています。
Jailの話や、HOMEにCPANを突っ込む話など、お役立ち系です。

- otsune's FreeBSD memo
- http: //www.otsune.com/bsd/

最近参考になったので、知ってる人が多そうですが紹介します。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

月刊言語 2008年8月号

以前は頻繁に読んでいた月刊言語を、また読み始めました。

- 大修館書店(雑誌):月刊言語
-- http://www.taishukan.co.jp/magazine/magazine.html

全世界で1万ともいわれる各国・各民族の言語。その個別性と普遍性、構造、人間・社会との関わりなど、言語のあらゆる情報を提供する、世界で唯一の月刊誌。


8月号は言語処理研究の新展開ということで、
奥村先生や、徳永先生や、寺井さんなどが出稿してます。

冒頭の辻井先生、乾先生の記事にはじまり、
さまざまな現代の自然言語処理のトピックにぐいぐいひきこまれます。

身近に月刊言語がある方や、自然言語処理を始めたての方は、
お茶をすすりつつ読んでみてください。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

2008-08-18 Mon

六本木 ジンギスカン だるま

紹介してもらったジンギスカン屋さん。
週の初めから、ちょっとヘビーすぎて行けないけど、
そのうち行ってみたい。

- だるま 東京 六本木〜高級ジンギスカンが嬉しい食べ放題♪〜
-- http://www.jingisukan-daruma.com/

シピは秘伝のたれと、特製のお鍋で、とろけるジンギスカンが食べ放題♪東京・六本木のお店で個室焼肉はいかが♪


4000円くらいで食べ飲み放題なので、
週末に事前に予約して行くのがよさそうです。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

早起き

今日は割と早く起きることができた。
実は、最近、早起きができない。

昨夜は、寝る寸前に突如、

「自分の願望を、強い危機感とともに脳に刷り込むと自然に早起きできるかも」

と思い、不安になることを考え、寝られない感じで寝てみた。
そしたら、目が覚めた。

いやー、まいりましたね。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

2008-08-17 Sun

iPhone アプリを、Windows3.1 の時代まで戻って考えてみる

このごろ無料の iPhone アプリを片っ端からインストールして、
どんなアプリケーションが使いやすいかを調査しています。

結論としては、どれだけ簡素化、明確化できるかがポイントみたいです。
以下の5点に気をつけると良さげです。

- 入力テキストが無い。または必須な入力テキスト量が少ない。
- タッチする領域が指先くらいの大きさ。
- レスポンスが早いか、変化をつけて遅さをまかしてくれる。
- 見ただけで何をするのかが分かる。
- スクリーンの上下移動が不要。またはタブ化してある。

ここら辺のポイントはヒューマンインターフェイスガイドラインに、
普通に書いてある内容と、かぶりまくりです。

- iPhone ヒューマンインターフェイスガイドライン
-- iPhone Human Interface Guidelines: Introduction


さて、ここまで考えると、1つのことが分かります。

それは、

「iPhone アプリはユーザに複雑なことをさせてはいけない。
1つのタスクを、極力簡単にできるようにするんだ。」

ということです。

ボタンが大きく、情報量をしぼり、目的を明確に、ってやると
1画面内で実現できる機能は、限りなく少なくなります。
無理矢理多機能にしても良いですけど、操作が複雑になるでしょうし、
そうすると多くのユーザの快適感をサポートできない気がします。

どうやら、超シンプルなアプリが求められる時代が再来したのかもしれません。

僕が超シンプルなアプリと聞いて思い出すのは、Windows 3.1 以前の時代。

Windows3.1 以前は、まだまだマウスがろくに動かないことが、
しばしばあったと記憶しています。再起動しまくりだったなぁ。
CPUやメモリも貧弱なので、アプリは簡素なものが多かったです。

あのころはリターンキーを押すことでPCMファイルが再生されるだけで
大喜びだったものです。

あの時代にあった、超簡単な操作で秀逸なアウトプットをしてくれた
アプリを復活させると喜ばれるかもしれません。
僕も、ちょっと考えてみます。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

日記用の ChangeLog を復旧

僕の開発環境はDebian LinuxをインストールしたVMwareイメージです。
その環境で、日記もつけていたのですが、
このたびVMwareのイメージが3月上旬まで巻き戻っていました。

気がついたキッカケはChangeLogが5ヶ月前の状態になっていたから。
あと、CodeReposのリビジョン番号がすごく撒き戻ってた。

被害状況を確認すると、日記データの他にも消えたデータ多数。
とくに、年度末に書いていた論文原稿とその実験データ、
おまけにソースコードの一部が消失していたのが痛いです。あああ。

どうやらイメージに差分データが書き込まれる前に、
差分データに不具合が起きてしまったみたいです。
毎回きちんとシャットダウンせずにサスペンドしていたからかな。

他の人が絡んでいるデータについては、ほぼ消失していなかったので、
徐々にオンラインから差分を回収して復旧します。

今日から日記は、MacBookのファイルシステム上で書きます。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

iPhone OS 2.0 用の iPhone SDK をダウンロード

iPod Touch にインストールできるアプリを自作したくなりました。
早速、iPhone OS 2.0 用の iPhone SDK をダウンロード。

- iPhone Dev Center
-- http://developer.apple.com/iphone/

ファイルサイズが1.2GByteもあるので、時間がかかりまくり。

なんとか保存できたので、インストールして準備完了。

Objective-C 2.0 は未体験なので、週明けに練習してみます。

最初の目標は、自分が欲しいアプリを作ること。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

マクドナルドで昼ご飯

昼ご飯は、さんざん歩いた末にマクドナルドでした。

最初は近所の洋食屋に行こうと思ったのですが、
それ以降ガーデンプレイスに到着するまで、
入ろうと思う店が、以下のとおり全部閉まってたのです。

- 近所の洋食屋 → お盆休み
- イエローカンパニー → お盆休み
- 上海食堂 → ランチタイムだけど、中で家族が食事してるっw。
- モンタンベール → 定休日らしい

駅の西口まで戻ろうか、悩みましたが元気が出ませんでした。

日曜だし、お盆だしで、そういうこともありますね。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |

涼しい一日

今朝は、昨日までと違い、ぐっと冷え込みました。
風邪をひいちゃった人も多いのでは?

僕はクーラー切って寝ていたのがよかったのか
風邪はひきませんでした。
でも、起きたら毛布にくるまってました。
昨日までは考えられなかったことですね。

ということで、今日は長袖っす。

投稿者:としのり  日時:23:59:59 | コメント | トラックバック |