Sorry, this page is only in Japanese.


これは、文部省重点領域研究「脳の高次情報処理」成果報告書を兼ねて出版された「脳と計算論」(外山敬介・杉江昇編、朝倉書店)に掲載した解説論文で、1997年までに得られた研究成果の一部をなるべく易しく述べたものです。無断で転載したり配布したりしないで下さい。

時系列パターンの学習・記憶の計算論

1. はじめに

 脳の学習・記憶機構を神経回路モデルを用いて研究する際,二つのアプローチが考えられる.一つは,学習や記憶に関係する脳の部分,例えば海馬の神経回路をモデル化し,その情報処理能力を検討する方法である.不明な部分に関しては適当な仮定を行い,それにより目的の機能が達成されるならば,モデルはその機能を実現するための一つの十分条件を示すことになる.
 もう一つは,計算論的なアプローチ,すなわち適当な前提の下で,ある機能の実現に必要な原理は何かを検討する方法である.そして,そのような原理に基づく最も簡明な神経回路モデルを構成する.ここで言う原理とは,神経回路網の基本構造,回路網の動作(ダイナミクス),情報表現(コーディング),学習アルゴリズムの4つを合わせたものを指す.最初の前提が現実の脳にも当てはまるならば,脳の神経回路も同様な原理に基づいているはずであり,モデルは目的の機能の必要条件を示すことになる.
 脳の記憶機構を解明するためには,前者だけではなく後者のようなアプローチをとることが不可欠だと考えられる.しかし,これまでなされてきた脳の記憶機構に関する理論的研究のほとんどは,天下り的に与えられたモデルを扱っており,原理的な必然性や生理学的な妥当性に乏しいものであった.
 記憶の計算論的研究が困難なのは,一つには記憶系に関する生理学的知見が基本的な部分で不足していたからである.もう一つの大きな原因は,従来の理論的研究の対象が学習アルゴリズムの面に偏っており,ダイナミクスに関する理解が不十分だったことにあると思われる.しかし,最近の実験と理論双方における研究の進展により,これらの困難さも解消されつつある.そこで,ここでは時系列パターンの学習と記憶の問題に対して計算論的アプローチを試みた結果について述べる.
 脳内では,運動系列や一連のエピソード,メロディなどの情報は,あるニューロン群の興奮パターンの時系列によって表現されていると考えられる.これらの時系列パターンの一部は,脳のある領域に長期記憶として保持され,必要に応じて再生される.長期記憶が保持される領域は記憶の種類によって異なり,特に陳述記憶(認知性記憶)と手続き記憶(運動性記憶)とは,全く別の記憶システムに属するとされている.つまり,これらの記憶のメカニズムは異なっている.
 しかしながら,神経回路網による時系列パターンの記憶という観点から見たとき,それぞれが全く別の原理に従っているとは考えにくい.その基礎には何らかの共通な原理があるものと思われる.しかし,そのような原理は不明であり,その有力な候補となり得るものも知られていない.そこで,従来のモデルの問題点を足がかりに,脳における時系列パターンの記憶原理を探ることにする.

2. 従来のモデルの問題

 まず,情報表現について考えよう.簡単のため各神経素子が1(興奮状態)か0(静止状態)の2値を取るものとすれば,時系列を素子の活動パターンによって表現する方法として図1のようなものが考えられる.
図1(a)
(a) おばあさん細胞型表現
図1(b)
(b) 非同期的分散表現
図1(c)
(c) 同期的分散表現
図1 神経回路網における時系列の
コーディング
図2
図2 従来の記憶モデルのダイナミクス
 (a)は,おばあさん細胞型の表現の例である.ある瞬間に興奮している素子が1つだけではノイズに弱すぎるので,興奮している期間に重なりを持たせているが,各素子は特定の系列の特定の部分のみをコードしているため分散表現とは言えない.このようなコーディングをすれば,時系列の記憶や想起は容易である.
 しかしながら,この表現では記憶する系列の数と同じだけの素子群が必要であるから,非常に効率が悪い.また,ノイズに対する耐性も低く,それを高めようとすると記憶効率が更に低下する.それ以外にも,コードに時間以外の情報構造を持たせる(情報間の関係をパターン間の関係に反映させる)ことができないといった問題がある.
 一方,(b)と(c)では,一つの素子は複数の異なる部分をコードしており,共に分散表現(集団コーディング)に属する.但し,(c)は素子の状態変化が同期している特別な場合であり,従来のモデルではほとんどこちらが採用されている.以下にその理由を簡単に述べる.
 図2は従来の典型的な記憶モデルのダイナミクスを示したものである.横軸は回路網の取り得る状態(興奮パターン),縦軸はポテンシャルエネルギーを表す.各状態でのエネルギーを結ぶことにより,仮想的な地形が描ける.回路網の状態は,外部からの入力がなければ常にエネルギーが減少するように変化するから,エネルギー地形の谷底が安定状態(アトラクタ)に対応する.
 記憶は目的のパターンをエネルギーの深い谷(図2のS0S1)にすることによって行う.このとき一般に,エネルギーの地形は谷底に近いところほど急な傾斜を持ち,パターンが記憶されている地点では下向きにとがっている.そのため,記憶パターンはお互いにある程度離れていなければならず,その間にはエネルギーの高台が存在することになる.
 従って,ある記憶パターンを想起してから,連続的な状態遷移によって別のパターンを想起することができない.パターン系列を想起するためには,回路網の状態が離れた地点に飛び移る必要がある.状態が飛び移るとは,多数の素子が同時に状態変化することであるから,このことは素子の動作に同期が必要なことを意味している.
 このような理由で図1(c)のようなコーディングが多く用いられてきたのだが,これにはいくつかの問題点がある.まず,素子間の同期のために特別なメカニズムが必要である.また,同じパターンがある期間続くので,(b)に比べて時間の表現能力が劣る.更に,時間的な近さとパターンの近さとの対応関係が不自然である.例えば,S0S1が同じ系列中の隣接する部分をコードしているとき,S0S1の中間的なパターンはその中間部分をコードしていないし,そのようなパターンから系列を想起することもできない.
 以上のように,図1の中では(b)のような表現が最も合理的だと考えられるが,それを用いた記憶原理は知られていなかった.拡張した逆伝播学習アルゴリズムなどを用いる方法も,極めて複雑な計算を要するにもかかわらず,実際にはうまくいかない場合がほとんどである(森田, 1995).なぜならば,問題の本質は図2のようなダイナミクスにあるのであって,それは学習アルゴリズムの改良では解決されないからである.

3. 原理的モデル

 前節で述べたように,非同期的集団コーディングされた時系列パターンを記憶するためには,ダイナミクスの改良が必要である.逆にある改良したダイナミクスを用いれば,記憶は容易であることが明らかになっている.本節では,その原理をわかりやすく示すために,生理学的な妥当性にはあまりこだわらずに構成したモデルについて述べる.なお,このモデルの詳細についてはMorita (1996a)を参照されたい.

3.1 構造とダイナミクス

 モデルの全体構造を図3に示す.時系列パターンS(t)n個の素子からなる回路網N1に入力され,そこに記憶される.N1の素子間には相互結合があるため,N1は自身からの再帰的入力を受ける.また,学習時には回路網N2から送られた学習信号Rも入力される.

図3 図4
図3 モデルの全体構造 図4 素子の非単調入出力特性

 学習信号Rは,入力パターンSを回路網N1のどの状態にコードするかを指定するものであるが,ここでは最も単純にR=Sとする.この場合,N2は単なる中継器であり,N1からN2への信号も不要である.
 このモデルの最大の特徴は,回路網N1を構成する各素子が,図4に示すような非単調入出力特性を持つことである.それ以外は,従来の連続型ダイナミクスと同じである.このような素子の非単調特性により,回路網の記憶容量が大幅に増加することなどが知られている(Morita, 1993)が,ここでそれ以上に重要な性質は,図2に示したダイナミクスの性質が変化し,仮想的なエネルギーの地形が記憶パターンの周辺でなだらかになることである(図5を参照).これは,強いアトラクタに近づくにつれて多数の素子が大きな入力を受け,それらの出力強度が非単調特性によって低下するからである.

3.2 コーディング

 前述のように,このモデルでは非同期的な集団コーディングを用いる.すなわち,学習信号R(t)は時間と共に成分が少しずつ反転するようなn次元のパターンである.但し,ここでは簡単のため,コードの各成分が±1を等確率で取るものとする.また,R=Sを仮定したので,入力パターンS(t)もそのようなパターンでなければならない.

3.3 学習アルゴリズム

 学習アルゴリズムは非常に単純であり,時系列パターンを連続的に入力しながら,学習信号Rと回路網N1の出力パターンXとの間のコバリアンス学習(具体的には,i番目の素子への入力シナプス荷重wijをその素子への学習信号riと他の素子からの入力信号xjの積に応じて修正する)を実行するだけである.
 学習の過程を模式的に示したのが図5である.回路網の状態空間(実際にはn次元である)における仮想的なエネルギーの地形が3次元的に描かれている.図中の小球は回路網の現在状態X,矢印は現在の学習信号Rを表す.

図5(a) 図5(b) 図5(c)
図5(d) 図5(e)
図5 学習過程における仮想的なエネルギー地形の変化

 まず最初,ある静止パターンが入力され,学習信号Rが変化せずに一定に保たれたと仮定しよう.そうすると,まもなくXRと一致する.このとき,Xを中心とする領域におけるエネルギーは学習によって低下し,入力したパターンは安定な状態として記憶される(a).
 この状態から入力パターンが変化し,Rが少し動いたとする.XRに追従しようとするが,エネルギーの傾斜に逆らって動かなければならないので,すぐには追いつくことができない.その間,上記の学習則は,XRの間のエネルギーを低下させるだけでなく,両者の食い違いのためXRの方向に動かそうとする流れを作り出す(b).
 同様に,入力パターンが変化し続けRが連続的に動くと,Xは常にRの少し後方を追従する.その結果,Xの軌跡に沿って溝が刻み込まれ(c,d),その底にはXの進行方向に沿った緩やかな流れができることになる.この「エネルギーの溝」は,ちょうど心理学で言うところの記憶痕跡に相当するものだと言える.
 更に同じ時系列パターンを繰り返し学習することにより,エネルギーの溝がより深く明瞭なものとなると共に,Xの動きが次第に外部からの学習信号に依存しなくなる(この際,学習の進行につれて学習信号の入力強度を弱めると,学習がよりうまくいく).そして数回の学習の後には,外部からの信号なしに学習時と同じ軌道上を移動できるようになる.このことは,時系列パターンが回路網に記憶されたことを意味している.
 学習が完了した後は,適当な初期状態を与えるだけで,刻み込まれたエネルギーの溝の中を回路網の状態Xが動いていき,記憶した時系列パターンが自動的に想起される.外乱を加えても回路網の状態が溝から飛び出さない限り想起は続くから,この過程は非常に安定である.

4. 現実的モデル

 前節のモデルは,脳内でも実現可能と思われる単純な原理に基づいているが,脳のモデルとして見るといくつかの問題点がある.
 第一に,現実のニューロンは一般に単調な入出力特性を持っており,図4のような特性は備えていない.その意味で,前節のダイナミクスは非現実的である.第二に,上記のモデルのコーディングでは記憶回路網の約半数の素子が興奮しているが,これも現実と合わない.脳における情報表現には不明な部分も多いが,最近の生理実験によれば,記憶系ではスパースコーディングが用いられているという考えが有力である.少なくとも興奮しているニューロンは興奮していないものよりずっと少数であることは間違いない.そのほか上記のモデルには,数学的表現の単純化のために,信号が正負両方の値を取るなどやや不自然な点がある.
 これらの問題を解消し,モデルと実際の記憶系との比較検討を行いやすくするために,より現実的なモデルを構成した(Morita, 1996b).以下では,このモデルについて述べる.

4.1 構造とダイナミクス

 モデル全体の構造は図3と同じであるが,回路網N1の内部は,図6に示すように2種類の細胞の対をユニットとして構成されている.この図で,Ci+は興奮性の出力細胞であり,その出力xiがユニットの出力となる.Ci-は抑制細胞で,その出力yiCi+を強力に抑制する.ユニットの出力xiは,他のユニットの出力細胞および抑制細胞の両方に入力される.数式で示すと,

式(1)〜(3)

となる.ここで,wij+wij-はそれぞれj番目のユニットからCi+およびCi-へのシナプス荷重,wi*Ci-からCi+への抑制性シナプスの効率,uiは平均膜電位,ziは外部からの入力信号を表す.また,f(u)は0から1の値を取るシグモイド関数,τとθは正の定数である.

図6
図6 回路網N1の内部構造

 f(u)が単調増加関数なので,各細胞は単調な入出力特性を持つ.しかし,適当な条件下では,ユニット全体の入出力特性は非単調となる(図7).すなわち,ユニットへの入力vが小さいときには出力xvと共に増加するが,vが大きくなると,抑制細胞の出力の増大によりxは減少する.但しxのピーク値などは一定ではなく,入力のパターンやシナプス荷重の分布に依存する.

図7
図7 各ユニットの入出力特性

 このように,このモデルでは単調特性の細胞の組み合わせで非単調特性を実現しているが,図6の構成はその最も単純な解である.

4.2 コーディング

 スパースコーディングを実現するために,学習信号Rとして,成分の一部が1で残りは0であるようなパターンを用いる.1を取る成分の比率は,1〜10%程度が適当である.この比率が高すぎるとスパースコーディングにならず,モデルがうまく動作しないし,低すぎるとノイズに対して弱くなり,安定な想起が難しい.時系列パターンを学習する場合,Rが時間と共に徐々に変化することは前節と同じである.
 もう一つスパースコーディングにとって重要なことは,回路網の活動度(ユニットの出力xiの総和)を低く一定に保つことであるが,これはユニット間の側抑制および抑制細胞の働きにより自然に実現される.例えば,何らかの理由で出力細胞への興奮性信号が増加し,回路網の活動度が高まると,抑制細胞の出力の増加によって抑制性信号が大幅に増加し,活動度を下げるように作用する.つまり,ここでもユニットの非単調特性が重要な意味を持っている.
図8
図8 各シナプスの学習則

4.3 学習アルゴリズム

 学習過程は基本的に前節のモデルと同じである.但し,2種類の細胞があるため,学習則は若干複雑になる(図8).
 まず,i番目のユニットの出力細胞Ci+へのシナプス結合wijは,ri=1 すなわち学習信号が送られてきたときのみ,j番目のユニットからの信号xjに応じて強化される.また,抑制細胞Ci-へのシナプス結合は,ri=1 でxiが小さい値のときにはxjに応じて抑圧されるが,xiが大きな値になると増強される.このように,抑制細胞への入力シナプスがユニットの出力に応じて強化されることは,ユニットの非単調特性の維持と安定な学習のために不可欠である.なお,抑制シナプスの効率wi*は一定でよい.
 これを式で表すならば,

式(4),(5)

となる.ここでα, β1, β2は正の学習係数でβ12を満たす.またγは正の定数で,ユニット間の一様な側抑制を表す.τ'は学習の時定数でτ'>>τである.

4.4 モデルの振る舞い

 シミュレーションの結果を図9に示す.これは,1000個のユニットからなる記憶回路網に(a)の時系列パターン(全体のごく一部のみが表示されている)を記憶させた例である.この時系列パターンは,成分の10%が1であるようなパターンをランダムに100個選び,その間をなめらかにつないで作ったもので,各ユニットは平均10箇所の異なる部分をコードしている.

図9(a)
(a) 学習に用いた入力パターン
図9(b)
(b) 学習後の想起パターン
図9 シミュレーション結果

 この時系列パターンを5回繰り返し入力し,上述の学習を行った後,先頭部分にノイズを加えたパターンを短時間入力した.その後外部入力を絶ったときの出力パターンが(b)である.入力した時系列パターンがほぼ正しく再生されていることがわかる.また,想起の途中にかなりのノイズを加えても,ほとんど影響はない.
 図10は,想起中の各ユニットの出力値の分布を示したものである.(a)は学習したパターンが正しく想起されている場合,(b)はランダムなパターンを入力し,どの記憶パターンも想起されない場合である.いずれの場合も,時間と共に個々のユニットの値は変化するが,分布全体の形はほぼ一定である.これらのヒストグラムは,サルの下部側頭葉TE野の短期記憶ニューロンに関するMiyashita (1988)の実験結果とよく一致するが,非単調特性を持たないモデルは普通このような分布を示さない(森田, 1991).

図10(a) 図10(b)
図10 ユニットの出力値の分布

 また,SakaiとMiyashita (1991)は,対連合課題を課した場合のTE野ニューロンの活動を観察した.その結果,ある図形を見て他の図形を連想するまでの間,ほぼ一定の興奮を持続するもののほか,次第に活動が増加するものや減少するものがあることを報告している.このような活動パターンの推移も,このモデルに多数の短い系列を記憶させた場合を考えることにより,うまく説明することができる.

5. 脳との関係

 前節で述べたモデルは,(1)単純な構造を持ち,遅延回路や同期機構などが不要である,(2)局所的な抑制細胞により,非単調入出力特性とスパースコーディングが自然な形で実現されている,(3)学習アルゴリズムが非常に単純で,繰り返し入力も数回しか必要としない,という特長を持ち,その原理は脳が持つ生物学的な制約の中でも十分に実現可能である.また,(4)記憶容量が大きい,(5)想起能力が高い,(6)静止パターンや周期パターンなど種々のパターンを記憶できる,など連想記憶装置として優れた性能を示す.更に,従来のモデルでは説明が困難ないくつかの実験的事実を説明することができる.
 これらの性質を備えたモデルは今のところ他に知られていない.それだけでなく,非同期的分散表現を前提とし,個々のニューロンはごく単純な情報処理しかできないとするならば,時系列パターンの記憶原理のうち脳内で実現可能なものは,上記の原理以外にはないように思われる.
 以上の理由から,脳における時系列情報を扱う記憶システムは,このモデルと同じ原理に基づいているに違いない,というのが筆者の考えである.もちろん,これが本当に正しいかどうかは今後の検証を待たなければならないが,ここではこの主張を認めた上で,モデルと脳の部位との対応関係を論じる.
 まず,モデルの回路網N1には,入力された時系列が長期記憶として保持される.従って,この部分は,陳述記憶の場合には側頭連合野のどこか(記憶の種類によって異なると考えられる)に対応し,手続き記憶の場合には高次運動野(運動前野や補足運動野)に対応すると考えるのが妥当であろう.
 では,回路網N2はどこに対応づけられるであろうか.この問題を検討するために,この部分の機能について考察しよう.
 回路網N2の基本的な役割は,学習信号Rを回路網N1に送ることであった.実は,時間的に変化しない静止パターンだけを記憶するのであれば,Rを外部から与える必要はない.N1の出力パターンX自身を学習信号として用いればよいからである.しかし,時系列パターンの記憶には,RXに時間的に少し先行することが不可欠であるから,N1とは別に学習信号を発する部分がなくてはならない.
 では,この学習信号Rをどのように生成するのか,という点が問題となる.これはかなり大きな問題であり,まだ解決していない.そのため,前節までの議論では入力パターンS自体を学習信号Rとして用いていた.しかし,一般にはこのようなことはできない.なぜならば,入力パターンSは,そのコード(回路網N1に記憶される状態)Xと表現が異なるのが普通だからである.
 特に陳述記憶の場合,情報表現の構造を大きく変換しなければならない.その様子を図11に模式的に示した.Sは主に外界から受け取った感覚情報に依存して決まると考えられるから,その空間(a)における距離は,外界からの情報が持つ属性の類似度を反映している.例えば,いろいろな図形が次々に提示された場合を考えると,Sが似ていることは,提示された図形がいくつかの共通の属性を持つことを意味する.これを属性に基づく情報表現と呼ぶことにしよう.一方,学習信号Rは,基本的に時間と共に変化するものであり,RおよびXの空間(b)における距離は,主として時間的な関連性を表している(これを関連性に基づく情報表現と呼ぶことにする).従って,例えば全く異なる図形であっても,連続して提示されればN1の似た状態にコードされるし,異なる文脈で提示されれば,同じ図形であっても異なる状態にコードされることになる.
図11
図11 情報表現の変換

 回路網N2でこのような表現の変換を行うためには,N1の現在状態を受け取り(図3の破線),それを入力パターンSと連合することが必要だと考えられる.そうして一時的にでもSRとの対応関係がN2に保持されていれば,繰り返し学習によってSからXへの変換を直接行うことができる.そのような学習が完了すれば,N2がなくても時系列パターンを想起可能である.
 以上の考察および生理学や神経心理学の知見から,陳述記憶システムにおいてN2に相当する部位の最も有力な候補は,海馬だと考えられる.より具体的に,各種連合野から内嗅野,歯状回を経てCA3に至る経路では属性に基づく表現が,内嗅野から直接CA1に入り側頭連合野に戻る経路で関連性に基づく表現が取られており,CA3からCA1への高い可塑性を持つ結合により情報変換と学習信号の生成が行われるものと考えている(図12).但し,この部分のモデル化については現在検討中であり,詳しい議論は今後の機会に譲りたい.

図12
図12 陳述記憶システムのモデル

 一方,手続き記憶システムについては,図13のような対応づけができそうである.また,これに基づいて以下のような記憶形成のメカニズムが考えられる.

図13
図13 手続き記憶システムのモデル

 まず,新たにある動作をしようとする際,それに必要な詳細な運動指令の系列が連合野において計算される.結果は高次運動野を経て一次運動野に送られ,動作が実行される.これと並行して,その動作の意図ないし大まかな運動計画を表す信号が大脳基底核に送られ,それを元に基底核で学習信号が生成される.学習信号は,視床を介して高次運動野に入力され,それを用いて連合野からの運動指令の系列が学習される.この学習が繰り返されることによって記憶が形成されると,基底核経由の信号を高次運動野に送ることによって,学習した運動指令の系列が再生される.すなわち,意図を発するだけで,複雑な計算をすることなく目的の動作が実現されるわけである.但し,これは推測による仮説であって,実験的根拠はあまりないし,具体的なモデル化もこれからの課題である.
 以上,時系列パターンの学習・記憶に関する計算論的研究について紹介した.まだまだ不十分な部分も多いが,脳の記憶メカニズムの解明にはこのようなアプローチが不可欠であり,今後の研究の進展が期待される.

文  献

  1. Miyashita, Y.(1988): Neuronal correlate of visual associative long-term memory in the primate temporal cortex. Nature, 335, 817-820.
  2. 森田昌彦 (1991): 側頭葉短期記憶力学系の神経回路モデル. 電子情報通信学会論文誌,J74-D-II, 54-63.
  3. 森田昌彦 (1995): 非単調ダイナミクスを用いた時系列パターンの連想記憶. 電子情報通信学会論文誌,J78-D-II, 678-688.
  4. Morita, M. (1996a): Memory and learning of sequential patterns by nonmonotone neural networks. Neural Networks, 9, 1477-1489.
  5. Morita, M. (1996b): Computational study on the neural mechanism of sequential pattern memory. Cognitive Brain Research, 5, 137-146.
  6. Sakai, K and Miyashita, Y. (1991): Neural organization for the long-term memory of paired association. Nature, 354, 152-155.


森田のページに戻る