私の関わりのある法人
ksbutton.png omemebuttan.png sowerbuttan.png
※このブログに書いていることは、私の関わりある法人の意見ではなく、
 あくまでも、私個人の意見です。

2010年05月15日

包摂的アーキテクチャ

 大昔の話です。

 知的障害特別支援学校にいた頃。


 かつて「認知心理学」というキーワードで盛り上がったことが
ありましたが・・・

 おおみそかに整理していて「パソコンtips」という私のファイルから
アサヒパソコン1997.11.15号(古い!!)の切り抜きを見つけました。

SONYのアイボ発表を受けて当時(今も?)ソニーD21ラボラトリー所長の
土井利忠さんへのインタビューです。

(引用開始)
 その背景は、MIT(マサチューセッツ工科大学)にいるロドニー・ブルックス
教授という人工知能の研究者が発明した、サブサンプション(包摂)
アーキテクチャに始まります。彼はある時期、やることがなくて毎日裏山に
登って寝っころがっていた。そこで、昆虫をずーっと観察していたんですね。
その昆虫の動きからヒントを得て、包摂アーキテクチャーというのを作ったん
です。
 それまでの自律ロボットは、まず状況を与えて、その中でどういう行動を
するかを、トップダウンでプログラミングしていった。「こういう状況に
なったらこうしなさい、ああいう状況になったらああしなさい」それでは
状況の想定も大変ですし、ソフトウェアの量も膨大になってしまう。CPU
にものすごい負担がかかる。なにより、あらかじめセッティングしていない
状況に遭遇すると、動けなくなる。そういうものだったんです。
 それを克服する方法として、ブルックスは昆虫の反射神経みたいなものを
定式化しました。センサーで何かが見つかると、反射的に何か運動するように
した。センサーの入力と運動を1対1に組み合わせ、そういう組み合わせを
たくさん作っておく。その場に応じて、ある意味ではでたらめな行動をする
けれど、反射神経から自律ロボットを設計していく。その上にいろいろな
ものを組み立てていくと、非常に小さなソフトウエアでいろいろなことが
できるようになり、CPUにも負担がかからない。ぞさから想定して
いなかった状況でも、一応、自律的な運動をすることができる。
(引用終了)

 しかし、その限界として、どうしても昆虫の動きにしか見えない(!!)
とかいう問題も出てきます。で、そのために反射神経とインテリジェンスを
どう組み合わせていくか、というのが開発の課題になったとか。

 また「自分で歩くことを学習する」システム(?)もできたのだけど、
それは入れなかった、という話も出てきます。なぜなら「壊れるくらい
激しい動きをすると少しずつ覚えていく」けれど「壊れない程度の動きだと
学習しない」からだそうです。うーーむ、すごく示唆的やなあ。



この記事へのコメント
コメントを書く
お名前:

メールアドレス:

ホームページアドレス:

コメント:

この記事へのトラックバックURL
http://blog.seesaa.jp/tb/182530036

この記事へのトラックバック