view&vision46
37/54

3546トピックストが物々交換をしているうちに、貨幣が創発します。貨幣は連続量ですから、そこでいろいろな方程式モデルが作られて、計量経済学のモデルとなります。これをエージェント・ベース・モデリングでは、ゼロから作り直していると言えるかと思います。ただ、ここまでですと、例えば統計力学でも同じ議論が成り立ちます。マイクロな分子の影響というのがはじまりで、それらのインタラクションの中からマクロな秩序が出てきて、圧力とか温度というような概念が出てきます。それをきちんと扱うことによって統計物理ができてくるわけです。 ここまでは自然現象も社会現象も同じです。しかし、ここからが社会現象では違います。 エージェントが内部状態と通信機能を持つとなると、マクロな秩序が個別のエージェントから観測できることになります。その結果、マクロの秩序からトップダウンな影響がマイクロなレベルに伝わってこれによってエージェントの行動が変わってしまいます。これが社会現象全般にいえるような、複雑な動きということになります。マクロな状況をマイクロなエージェントが観測できると言った途端に、ミクロ・マクロ・リンクという複雑なインタラクションが生じてきます(図1)。 これを、できることなら直截的にプログラム化したいというのが、私がエージェント・ベース・モデリングに近づいたきっかけになったわけです。このプログラミングそのものは、そう難しくありません。しかし、そこから先が非常に難しくなります。難しさは以下の3点にまとめられます(図2)。 まず1つ目は理論と現実とをうまく結びつける必要があります。例えば、ゲーム理論がありますが、それが実際のSNSの集団行動とか何とかになると、現実問題になります。この2つを意識しながらモデリングしなければいけない。 2つ目に、これは境界領域になりますから、自然科学、社会科学と工学技術の時間スケールの差を意識しなければなりません。自然科学の理論は測定技術の範囲でずっと正しくなければなりません。社会科学としては、理論として1世紀ぐらい保ってほしい。ところが、我々、工学分野の技術者としては、10年も持てばいいのです。10年経つと、また古い技術書を持ってくると新しくなったりすることが起こります。このスケール感の差というのが、モデル化するときに非常に面倒なことを引き起こします。 3つ目の側面として、この、出来上がったモデルが正しいかどうかということです。1つは、妥当性評価。もう1つの方でシステムが正しいということを、逆に保証するだけでいい。例えば株の取引で、ストップ高ストップ安という制度がありますが、あれは、たとえば20%株価が動いたらストップ高にする、というのは、根拠なしに値を決めているわけです。こういうことが世の中にはたくさんある。モデルを現実に合わせることは何とかできるのですが、新しい仕組みをデザインすることを考えると、モデルが正しく動くかどうかは、説得力の問題になります。利用者の立場では納得力の問題です。この辺がエージェント・ベース・モデリングの非常に難しいことになります。 その意味で、物理科学と情報科学の重要性というような議論が吉田民人先生の論説にみられます2。20世紀は物理科学の世界であり、物に対する第1原理を発見して、それを利用するというのが学問の王道でした。•物理科学、社会科学と工学技術の時間スケールの差–例:物理科学:永久、社会科学:1 世紀、工学技術:10年•理論と現実–例:ゲーム理論/経済学対人間の集団行動理論現実•妥当性評価とシステムの保証–例:避難行動予測の結果は正しいか交通渋滞予測を信じるか図1 エージェント・ベース・モデリングとミクロ・マクロ・リンク図2 エージェント・ベース・モデリングの難しさ

元のページ  ../index.html#37

このブックを見る