私が脳の研究に目を向けさせられることになったのは、15年以上も前に、ある物理屋が行った「連想記憶」という神経回路モデルの講義に、たまたま居合わせたためである。講演者の名前は忘れてしまったが、「アトラクター力学系」を記憶の想起に使うとか、複数の記憶の情報をシナプス結合に重ね書きするとか、私にとって新鮮なアイデアに満ちていた。じつは、講義自体は準備不足が目立ったのだが、自分が学んだ物理学を使い、脳という生物進化が生んだ最も複雑で巧妙な情報処理装置が解明できる可能性を教えてくれた点で、これまで人生中、最もインパクトのあった講義の一つだったとも言える。
よくよく思い返して見ると、私自身が脳に思い至ったのは、もっとずっと小さい頃だったかもしれない。小学生にもなると、たいてい「死」を意識し始め、それに対立するものとしての「生」とか「意識」の存在に思い至る。毎晩ふとんの中で、一体なぜ自分は「他人」ではなくて「自分」なのかとか、「自分」の存在を認識しているものの正体は何かとか、こもごも悩んだ記憶がある。もっとも中学に入学してテニスクラブが忙しくなると、そんな悩みはどこかへ忘れてしまったが(ちなみにそのときテニスをやりすぎて、テニスはいくら誘われても興味がわかない今である)。
そういうことが影響したのかはわからないが、私が今、興味あることの一つに「時間認知」の神経メカニズムがある。「意識」にかかわる問題として「視覚的注意」がよく研究されるが、主観的な時間経験は(自分では10分ぐらいだと思っていたのに、実際には1時間も経っていたという類の経験)、意識に関わる脳の内部状態についても、何か教えてくれるかもしれない。それを期待している。
もう少しまっとうな(?)興味に、神経がどのように情報を表現しているのかという問題がある。脳のスライス標本では規則的な応答を示すニューロンも、生きた動物の脳の中では、極めて不規則なスパイク列を示す。しかも、動物が同じ行動課題を行っていても、ニューロンのスパイク発火には再現性が見られないことが多い。不規則なスパイク発火の一方で、多数のニューロンの同期発火が重要であることを示唆する実験もあり、「神経情報表現」の問題は、常に自分の興味の一角を占めている。また今は、6層構造をもつ大脳皮質局所神経回路で、どのような計算がどのように行われているのか理解したいと思っている。脳の高度で柔軟な計算の本質に関わると思うから。
複雑な脳の情報処理を理解するためには生物学、数学、物理学、心理学など、さまざまな分野からのアプローチが必要であろう。しかも、それらがばらばらに行われるのではなく、協調している必要がある。理研のBSIが存在する意義も、そこにあるはずである。生物学は脳の物質基盤と素過程を明らかにし、数学は脳情報処理の数理的構造を明らかにしてくれるだろう。ならば物理学の方法で、脳がそれら二要素を結合し、ニューロンという複雑な要素によって超並列マシンを実現する仕組みを明らかにしたい。ある計算を実行する方法は一つとは限らない。脳ではその実行のメカニズムが極めて巧妙なために、既存のいかなる計算機も及ばない、高度で柔軟な情報処理が実現されるのではないか。私はその仕組みを明らかにしたい。
筆者近影。研究室にて。