ラット・マウスの系列学習

人間の系列学習では,系列を構成する刺激(項目)は,言語刺激や空間位置であることが多いです。ラットの系列学習でも,物体や空間位置を項目として用いることもあります。しかし,私は,特に,餌の量を一定の順序で変化させた場合のラットの遂行について検討してきました。つまり,このような報酬量の系列を与えられた場合に,「次にどれくらいの餌が与えられるか」ということを,ラットがどれくらい学習して予測できるか,について調べてきたわけです。
 実験は主に,
直線走路という装置を使って行います。例えば,1回目に目標箱まで走っていくと1個45mgという小さな餌粒が14個与えられます。それを食べ終わると装置から取り出されて20秒くらい別の箱の中で待たせます。その後,2回目の走行を行い,7粒の餌が与えられます。以後の走行で,3粒,1粒,0粒と報酬を減らしていきます。これで,14-7-3-1-0という5つの項目からなる系列を提示したことになるわけです。
 ラットはこのような系列をすぐに学習します。学習すると,14や7粒といった大報酬の時には速く走り,0粒の走行では非常に遅く走ります。最終的には0粒の時には,これを予測して全く走らなくなります。
 ところが,項目の順番を少し入れ替えて14-3-7-1-0のように少し複雑な系列にすると,とたんに成績が悪くなるのです。このように,学習されやすい系列とそうでない系列が出てくる理由として,主なものとして2つの仮説が提案されてきました。
 一つは,ラットが項目間の関係性を学習すると考える仮説です。つまり,14-7-3-1-0系列では項目間の関係は常に「減少」であるので,ラットは1粒の次にそれよりも大きい報酬は決して来ないことを容易に学習できると考えるわけです。これに対して,14-3-7-1-0系列では,項目間の関係性は一定ではなく,「減少」したり「増加」したりします。そこで,ラットは次に走っていったときにいまよりも餌が増えるのか減るのかなかなか学習できなくなるのだと説明されます。このような項目間の関係性の学習は法則学習と呼ばれています。
 もう一つの仮説では,ラットは項目間連合を形成すると考えます。つまり,直前の走行で与えられた報酬量を手がかりとして,次の報酬量を予期するのです。この場合,14-7-3-1-0系列の0粒の手がかりも,14-3-7-1-0系列の0粒の手がかりも,ともに1粒になります。しかし,14-7-3-1-0系列では1粒と類似する3粒が1粒という小報酬の手がかりになっている(3→1)のに対して,14-3-7-1-0系列では3粒は7粒という大報酬の手がかりになっています(3→7)。このため,14-3-7-1-0系列を与えられたラットは,1粒が与えられたときに,次が0粒なのか7粒なのかの区別が難しくなるので,成績が悪くなるのだと考えます。
 「法則学習」ではラットは具体的な報酬の大きさにとらわれない「減少」や「増加」といった抽象的な心的表象を形成・を操作できることになります。これに対して,後者の連合仮説では,ラットは報酬の「具体的な」大きさとそれらの間の時間的関係しか理解していないことになります。私は,ラットがこれらの学習方法のどちらを使っているのかについて調べてきたわけです。基本的な立場としては,ラットは抽象的な符号を使うのが苦手であり,事物の具体的な側面に注目して連合学習を行うが,いくつかの条件がそろうと抽象的法則の学習を行う場合もあり得ると考えています。
 上で紹介した以外にもいろいろな方法でラットの系列学習を調べています。でも,本当に知りたいのは,ラットが自分を取り巻く世界に対して,感覚でとらえたままの情報しか認識しないのか,それともそれらの情報から何からの抽象的な「意味」を世界に認めているかどうかです。現在は,系列学習以外にも,計数や異同の概念等の学習を通じてこの問題について調べています。