古典的条件付け

データソース編集

条件付けの理論的問題に関する実験は、主に脊椎動物、特にラットとハトで行われてきました。しかし、コンディショニングは無脊椎動物でも研究されており、コンディショニングの神経基盤に関する非常に重要なデータは、アメフラシ、Aplysiaでの実験から得られました。最も関連する実験は古典的条件付け手順を使用しましたが、器械的(オペラント)条件付け実験も使用されており、古典的条件付けの強さは、条件付け抑制(上記の現象のセクションを参照)や自動整形のように、オペラント効果によって測定されることがよくあります。 / p>

刺激-置換理論編集

詳細情報:カウンターコンディショニング

パブロフによると、コンディショニングは新しい行動の獲得を伴うのではなく、新しい刺激への古い方法。したがって、彼は、CSが反射反応を誘発する際に米国の代わりになるだけであると理論づけました。この説明は、条件付けの刺激置換理論と呼ばれます。:84刺激置換理論の重大な問題は、CRとURが常に同じであるとは限らないことです。パブロフ自身は、CRとして生成された犬の唾液は、URとして生成された唾液とは組成が異なることを観察しました。CRはURとは逆の場合もあります。たとえば、感電に対する無条件の反応は心拍数の増加です。一方、電気ショックと組み合わせたCSは心拍数の低下を引き起こします(ただし、URが中枢神経系を含まない場合にのみ、CRとURが反対になることが提案されています)。

Rescorla–Wagnerモデル編集

主な記事:Rescorla–Wagnerモデル

Rescorla–Wagner(R–W)モデルは、比較的シンプルでありながら強力な条件付けモデルです。モデルは多くの重要な現象を予測しますが、重要な方法で失敗するため、多くの修正や代替モデルにつながります。ただし、過去40年間の条件付けに関する理論的研究の多くは、このモデルまたは反応によって引き起こされてきたためです。それなら、R–Wモデルはここで簡単に説明する価値があります。 :85

Rescorla-Wagnerモデルは、2つの刺激のペアリングで発生する可能性のある条件付けの量には制限があると主張しています。この制限の1つの決定要因は、米国の性質です。例:ベルとジューシーなステーキを組み合わせると、ベルを乾いたパンと組み合わせるよりも唾液分泌が発生する可能性が高く、乾いたパンは段ボールよりもうまく機能する可能性があります。 R–Wモデルの背後にある重要なアイデアは、CSが米国に信号を送るか予測することです。条件付けの前に、主題は米国に驚かされていると言う人もいるかもしれません。しかし、条件付けの後、CSは米国の到来を予測しているため、対象はもはや驚かされません。 (モデルは数学的に説明でき、predict、surprise、expectなどの単語は、モデルの説明にのみ使用されることに注意してください。)ここでは、モデルの動作を、取得、消滅、およびブロックについて簡単に説明します。このモデルは、他の多くの現象も予測します。モデルのメイン記事を参照してください。

EquationEdit

ΔV=αβ( λ−ΣV){\ displaystyle \ Delta V = \ alpha \ beta(\ lambda- \ Sigma V)}

これはRescorla-Wagnerの式です。これは、条件刺激(CS)と無条件刺激(US)の単一のペアで発生する学習量を指定します。上記の方程式は、このような多くの試行にわたって学習の過程を予測するために繰り返し解かれます。

このモデルでは、学習の程度は、CSが米国をどれだけうまく予測するかによって測定されます。これは「結合力」によって与えられます。 “CSの。この式で、VはCSの現在の連想強度を表し、ΔVは特定の試行で発生するこの強度の変化です。 ΣVは、状況に存在するすべての刺激の強さの合計です。 λは、特定の米国がサポートする最大の連想強度です。その値は通常、米国が存在する場合は試験で1に設定され、米国が存在しない場合は0に設定されます。 αとβは、CSの顕著性と特定の米国の学習速度に関連する定数です。方程式がさまざまな実験結果をどのように予測するかについては、次のセクションで説明します。詳細については、モデルのメイン記事を参照してください。:85–89

R–Wモデル:acquisitionEdit

R–Wモデルは、「連想強度」を割り当てることによって条件付けを測定します。 CSや他の局所刺激に。 CSが調整される前は、結合強度はゼロです。 CSとUSをペアリングすると、CSの結合強度が徐々に増加します。この増加は、米国の性質(例:その強度)によって決定されます。:85–89単一のCS-USペアリング中に発生する学習の量は、CSと状況に存在する他の刺激の合計連想強度(方程式のΣV)と米国によって設定された最大値(式のΣV)の差によって異なります。方程式のλ)。 CSとUSの最初のペアリングでは、この違いは大きく、CSの結合力は大きく向上します。 CS-USペアリングが蓄積されるにつれて、USはより予測可能になり、各試行での連想強度の増加はますます小さくなります。最後に、CSの結合強度(および他の刺激によって発生する可能性のあるもの)と最大強度の差はゼロになります。つまり、米国は完全に予測され、CSの結合力は成長を停止し、条件付けは完了します。

R–Wモデル:extinctionEdit

学習におけるRWモデルによる連想強度の比較

R–Wモデルによって記述された連想プロセスも絶滅の原因となります(上記の「手順」を参照)。絶滅の手順は、CSの正の連想力から始まります。これは、CSが米国が発生すると予測していることを意味します。絶滅の裁判では、米国はCSの後に発生しません。この「驚くべき」結果の結果として、CSの結合強度は低下します。CSの強度がゼロに達すると消滅が完了します。USは予測されず、USは発生しません。ただし、同じCSが米国なしで提示されたが、十分に確立された条件付き阻害剤(CI)、つまり、米国の不在を予測する刺激(RW用語では、負の結合強度を持つ刺激)を伴う場合、RWはCSが消滅します(Vのサイズは減少しません)。

R–Wモデル:blockingEdit

主な記事:ブロッキング効果

最も重要で斬新な貢献R–Wモデルの前提は、CSのコンディショニングは、そのCSだけでなく、米国との関係だけでなく、コンディショニング状況に存在する他のすべての刺激にも依存するという仮定です。特に、モデルは、米国は、コンディショニング状況に存在するすべての刺激の結合強度の合計によって予測されますイオン。学習は、この総連想力と米国がサポートする力との違いによって制御されます。この強さの合計が米国によって設定された最大値に達すると、条件付けは今説明したように終了します。:85–89

ブロッキング現象のR–Wの説明は、今述べた仮定の1つの結果を示しています。ブロッキング(上記の「現象」を参照)では、条件付けが完了するまでCS1がUSとペアになります。次に、追加の条件付け試行で、2番目の刺激(CS2)がCS1と一緒に表示され、両方の後に米国が続きます。最後に、CS2についての学習が、CS1についての最初の学習によって「ブロック」されたため、CS2がテストされ、応答がないことが示されています。R–Wモデルは、最初の条件付けの後、CS1が米国を完全に予測すると説明しています。予測されることと起こることの違いは、CS1 + CS2を使用した追加の試行では新しい学習が発生しないため、CS2は後で応答を生成しません。

Rescorla–Wagnerモデルの理論上の問題と代替案編集

R–Wモデルが重要である主な理由の1つは、モデルが比較的単純で明確な予測を行うことです。これらの予測のテストにより、多くの重要な新しい発見がもたらされ、条件付けの理解が大幅に向上しました。新しい情報は理論を支持しましたが、多くは支持していません、そして理論はせいぜい単純すぎると一般に認められています。しかし、実験が生み出したすべての現象を説明する単一のモデルはないようです。以下は簡単な要約です。いくつかの関連する理論的問題のアリーズ。

learningEditの内容

R–Wモデルは、条件付けをCSとUSの関連付けに減らし、これを単一の数値、関連付けで測定します。 CSの強さ。多くの実験結果は、これよりも多くのことが学ばれていることを示しています。これらの中には、この記事で前述した2つの現象があります

  • 潜在的抑制:条件付けが始まる前に被験者がCSに繰り返しさらされると、条件付けに時間がかかります。前露光ではCSの強度がゼロのまま変化しないため、R–Wモデルではこれを説明できません。
  • 消滅後の応答の回復:いくつかの手順により結合強度がゼロに低下した後、何かが残っているようです。それ以上の調整なしで再表示に応答します。

学習における注意の役割編集

被験者が米国とペアになる前に頻繁に見られるCSに焦点を合わせるのをやめるため、潜在的な抑制が起こる可能性があります。実際、CSへの注意の変化は、R–Wモデルを困難にする実験結果に対処しようとする2つの著名な理論の中心にあります。ニコラス・マッキントッシュによって提案されたこれらの1つでは、条件付けの速度はCSに注がれる注意の量に依存し、この注意の量はCSが米国をどれだけうまく予測するかに依存します。 PearceとHallは、異なる注意原理に基づいて関連モデルを提案しました。両方のモデルは広範囲にテストされており、どちらもすべての実験結果を説明していません。その結果、さまざまな著者が2つの注意プロセスを組み合わせたハイブリッドモデルを試みました。 PearceとHallは、2010年に注目のアイデアを統合し、Rescorla-Wagner方程式を統合モデルに組み込む可能性を提案しました。

ContextEdit

前述のように、条件付けの重要なアイデアCSが米国に信号を送るか予測するということです(上記の「ゼロコンティンジェンシー手順」を参照)。ただし、たとえば、条件付けが行われる部屋は、米国が発生する可能性があることも「予測」します。それでも、米国が不在の場合、実験の合間に部屋が存在するため、部屋は実験的なCS自体よりもはるかに確実性が低く予測します。そのような文脈の役割は、パブロフの実験の犬が、CSを見たり聞いたりする前に、実験装置に近づくと唾液分泌を開始することがあるという事実によって示されています。このようないわゆる「文脈」刺激は常に存在し、それらの影響は、他の方法では不可解な実験結果を説明するのに役立ちます。コンテキスト刺激の連想強度は、Rescorla-Wagner方程式に入力でき、以下に概説する比較および計算理論で重要な役割を果たします。

比較理論編集

何を学んだかを知るには、テスト状況での行動(「パフォーマンス」)を何らかの方法で測定する必要があります。ただし、学生はよく知っているので、テスト状況でのパフォーマンスは必ずしも学習内容の適切な尺度条件付けに関しては、ブロック実験の被験者が「ブロックされた」CSについて何かを学習するという証拠がありますが、通常はテストであるため、この学習を示すことができません。 d。

条件付けの「コンパレータ」理論は「パフォーマンスベース」です。つまり、テスト時に何が起こっているかを強調します。特に、彼らはテスト中に存在するすべての刺激と、これらの刺激によって獲得された関連がどのように相互作用するかを調べます。やや単純化しすぎると、コンパレータ理論では、条件付け中に被験者がCS-USとコンテキスト-USの両方の関連付けを取得すると想定しています。テストの時点で、これらの関連付けが比較され、CSへの応答はCS-USの関連付けがコンテキスト-USの関連付けよりも強い場合にのみ発生します。 CSとUSが単純な取得で繰り返しペアにされた後、CS-USの関連付けは強く、コンテキスト-USの関連付けは比較的弱くなります。これは、CSが強力なCRを引き出すことを意味します。 「偶発性ゼロ」(上記を参照)では、コンテキストとUSの関連付けがCSとUSの関連付けとほぼ同じであるため、条件付き応答が弱いか存在しません。ただし、ブロッキングやその他のより微妙な現象は、比較理論によっても説明できます。繰り返しになりますが、すべてを説明することはできません。

計算理論編集

将来の出来事を予測する生物の必要性は、現代の条件付け理論の中心です。ほとんどの理論は、これらの予測を処理するために刺激間の関連を使用します。例:R–Wモデルでは、CSの結合強度は、CSが米国をどれだけ強く予測するかを示します。 Gallistel & Gibbon(2000、2002)によって提案されたモデルなど、予測に対する別のアプローチが提案されています。ここでは、応答は連想強度によって決定されません。代わりに、生物はCSとUSの開始とオフセットの時間を記録し、これらを使用して、USがCSに従う確率を計算します。多くの実験により、人間と動物はイベントの時間を計ることを学ぶことができ(動物の認知を参照)、ガリステル&ギボンモデルはさまざまな実験データに非常に優れた定量的適合をもたらします。ただし、最近の研究では、期間ベースのモデルでは、いくつかの経験的発見や連想モデルを説明できないことが示唆されています。

要素ベースのモデル編集

Rescorla-Wagnerモデルは、刺激を次のように扱います。単一のエンティティであり、1つの数値を持つ刺激の結合強度を表し、その数値にどのように到達したかについての記録はありません。上記のように、これにより、モデルが多くの実験結果を説明することが困難になります。刺激が要素のコレクションによって内部的に表され、各要素が1つの連想状態から別の連想状態に変化する可能性があると想定することにより、柔軟性が向上します。たとえば、ある刺激と別の刺激の類似性は、2つの刺激が要素を共有していると言うことで表すことができます。これらの共有要素は、刺激の一般化および一般化に依存する可能性のある他の現象を説明するのに役立ちます。また、同じセット内の異なる要素は異なる関連付けを持っている可能性があり、それらのアクティブ化と関連付けは異なる時間と異なるレートで変更される可能性があります。これにより、要素ベースのモデルで説明できない結果を処理できるようになります。

SOP modelEdit

要素アプローチの代表的な例は、Wagnerの「SOP」モデルです。導入以来、さまざまな方法で精巧に作られ、現在では、原則として非常に多様な実験結果を説明することができます。モデルは、要素の大規模なコレクションを持つ任意の刺激を表します。さまざまな刺激の提示時間、要素の状態、および要素間の相互作用はすべて、連想プロセスのコースとコンディショニング実験中に観察される動作を決定します。

単純なコンディショニングのSOPアカウントは、SOPモデルのいくつかの重要事項を例示しています。まず、モデルCSとUSはそれぞれ、要素の大きなグループによって表されると想定しています。これらの刺激要素はそれぞれ、次の3つの状態のいずれかになります。

  • 一次活動(A1)-大まかに言えば、刺激「に出席」しています。 (「注意」への言及は、理解を助けることのみを目的としており、モデルの一部ではありません。)
  • 二次的活動(A2)-刺激は「周辺的に注意を払う」。
  • 非アクティブ(I)–刺激は「注意を払われていない」。

特定の瞬間に単一の刺激を表す要素のうち、状態A1にあるもの、状態A2にあるものがあります。

刺激が最初に現れると、その要素のいくつかは非アクティブIからプライマリアクティビティA1にジャンプします。A1状態から徐々に減衰してA2になり、最後にIに戻ります。要素アクティビティこの方法でのみ変更できます。特に、A2の要素を直接A1に戻すことはできません。CSとUSの両方の要素が同時にA1状態にある場合、2つの刺激間の関連が学習されます。つまり、後でCSがUSの前に提示され、一部のCS要素がA1に入ると、これらの要素は一部のUS要素をアクティブにします。ただし、US要素はこの方法で間接的にアクティブになります。 A2状態にのみブーストされます。 (これは、CSが米国の記憶を呼び起こすと考えることができますが、これは本物ほど強くはありません。)CS-USの試行が繰り返されると、ますます多くの要素が関連付けられ、ますます多くの米国の要素がA2に移動します。 CSがオンになったとき。これにより、米国自体が表示されたときにA1に入ることができる米国の要素が徐々に少なくなります。その結果、学習が遅くなり、限界に近づきます。米国は「完全に予測されている」または「驚くべきことではない」と言う人もいるかもしれません。なぜなら、その要素のほとんどすべてがCSが開始されたときにのみA2に入ることができ、新しい関連付けを形成するためにほとんど残っていないからです。

モデルは説明できますRescorla-Wagnerモデルによって説明される調査結果と同様に多くの追加の調査結果。たとえば、他のほとんどのモデルとは異なり、SOPは時間を考慮に入れます。要素の活性化の上昇と減衰により、モデルは、CSが米国の直前に来るときに条件付けが最も強く、CSが米国の後に来るときに結果(「後方条件付け」)などの時間依存効果を説明できます。は抑制性CSであることがよくあります。他の多くの微妙な現象も説明されています。

近年、要素表現を組み込んだ他の強力なモデルが多数登場しています。これらには、関連付けに次のネットワークが含まれるという仮定が含まれることがよくあります。刺激、応答、およびおそらく中間相互接続の1つ以上の「隠された」層を表す「ノード」間の接続。このようなモデルは、神経ネットワーク、人工知能、機械学習に関する研究の現在の爆発的な増加と接触します。

Write a Comment

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です