Эти ученые обусловливали эмоциональную реакцию страха у 11-месячного
мальчика, известного в анналах психологии под именем «Маленький Альберт». Как и
многие дети, Альберт вначале не боялся живых белых крыс. К тому же его никогда
не видели в состоянии страха или гнева. Методика эксперимента состояла в
следующем; Альберту показывали прирученную белую крысу (УС) и одновременно за
его спиной раздавался громкий удар в гонг (БС). После того, как крыса и
звуковой сигнал были представлены семь раз, реакция сильного страха (УР) плач и
запрокидывание — наступала, когда ему только показывали животное. Через пять
дней Уотсон и Рейнер показали Альберту другие предметы, напоминающие крысу тем,
что они были белые и пушистые. Было обнаружено, что реакция страха у
Альберта распространилась на множество стимулов, включая кролика, пальто из
котикового меха, маску Деда Мороза и даже волосы экспериментатора. Большинство
из этих обусловленных страхов все еще можно было наблюдать месяц спустя после
первоначального обусловливания. К сожалению, Альберта выписали из больницы (где
проводилось исследование) до того, как Уотсон и Рейнер смогли угасить у ребенка
страхи, которые они обусловили. О «Маленьком Альберте» больше никогда не
слышали. Позже многие резко критиковали авторов за то, что они не убедились в
отсутствии у Альберта стойких болезненных последствий эксперимента.
Хотя ретроспективно этот случай можно назвать жестоким, он
действительно поясняет, как подобные страхи (боязнь незнакомых людей, зубных
врачей и докторов) можно приобрести в процессе классического обусловливания.
Респондентное поведение — это скиннеровская
версия павловского, или классического обусловливания. Он также называл его обусловливанием
типа С, чтобы подчеркнуть важность стимула, который появляется до реакции и
выявляет ее. Однако Скиннер полагал, что в целом поведение животных и
человека нельзя объяснять в терминах классического обусловливания. Напротив, он
делал акцент на поведении, не связанном с какими-либо известными стимулами.
Пример для иллюстрации: рассматривая поведение, вы непосредственно
сейчас занимаетесь чтением. Определенно, это не рефлекс, и стимул, управляющий
этим процессом (экзамены и оценки), не предшествует ему. Наоборот, в основном
на ваше поведение чтения воздействуют стимульные события, которые наступят
после него, а именно — его последствия. Так как этот тип поведения
предполагает, что организм активно воздействует на окружение с целью изменить
события каким-то образом, Скиннер определил его как оперантное поведение. Он
также называл его обусловливание типа Р, чтобы подчеркнуть воздействие
реакции на будущее поведение: R --- S.
Оперантное поведение, т.е. вызванное оперантным научением, определяется
событиями, которые следуют за реакцией. За поведением идет следствие, и природа
этого следствия изменяет тенденцию организма повторять данное поведение в
будущем. Например, катание на роликовой доске, игра на
фортепиано, метание дротиков и написание собственного имени — это образцы
оперантной реакции, или операнты, контролируемые результатами, следующими за
соответствующим поведением. Это произвольные приобретенные реакции у которых
есть стимул, но он не поддаётся распознаванию. Скиннер понимал, что
бессмысленно рассуждать о происхождении оперантного поведения, так как нам
неизвестны стимул или внутренняя причина, ответственная за его появление. Оно происходит
спонтанно.
Если последствия благоприятны для организма, тогда вероятность
повторения операнта в будущем усиливается. Когда это происходит, говорят, что
последствия подкрепляются, и оперантные реакции, полученные в результате
подкрепления (в смысле высокой вероятности его появления) обусловились. Сила
позитивного подкрепляющего стимула т. о. определяется в соответствии с его
воздействием на последующую частоту реакций, которые непосредственно
предшествовали ему.
И напротив, если последствия реакции не благоприятны и не подкреплены,
тогда вероятность получить оперант уменьшается. Например, вы скоро перестанете
улыбаться человеку, который в ответ на вашу улыбку всегда бросает на вас
сердитый взгляд или вообще никогда не улыбается. Скиннер полагал, что,
следовательно, оперантное поведение контролируется негативными
последствиями.
По определению, негативные, или аверсивные
последствия ослабляют поведение, порождающее их, и усиливают поведение,
устраняющее их. Если человек постоянно угрюм, вы, вероятно, попытаетесь совсем,
избегать его.
Для того, чтобы изучать оперантное поведение в лаборатории, Скиннер
придумал на первый взгляд простую процедуру, названную свободным
оперантным методом.
Полуголодную крысу поместили в пустую
«свободно-оперантную камеру» (известную как «ящик Скиннера»), где был только
рычаг и миска для еды. Сначала крыса демонстрировала множество оперантов:
ходила, принюхивалась, почесывалась, чистила себя и мочилась. Такие реакции не
вызывались никаким узнаваемым стимулом; они были спонтанны. В конце концов,
крыса, в ходе своей ознакомительной деятельности нажимала на рычаг, тем самым
получая шарик пищи, автоматически доставляемый в миску под рычагом. Т. к.
реакция нажатия рычага первоначально имела низкую вероятность возникновения, ее
следует считать чисто случайной по отношению к питанию; то есть мы не можем
предсказать, когда крыса будет нажимать на рычаг, и не можем заставить ее
делать это. Однако, лишая ее пищи, скажем, на 24 часа, мы можем убедиться, что
реакция нажима рычага приобретет, в конце концов, высокую вероятность в такой
особой ситуации. Это делается при помощи метода, называющегося научение
через кормушку, посредством которого экспериментатор дает шарики пищи
каждый раз, когда крыса нажимает на рычаг. Потом можно увидеть, что крыса
проводит все больше времени рядом с рычагом и миской для пищи, а через
соответствующий промежуток времени она начнет нажимать рычаг все быстрее и
быстрее. Таким образом, нажатие рычага постепенно становится наиболее частой
реакцией крысы на условие пищевой депривации. В ситуации оперантного научения
поведение крысы является инструментальным, то есть оно действует на окружающую
среду, порождая подкрепление (пищу). Если далее идут неподкрепляемые опыты, то
есть если пища не появляется постоянно вслед за реакцией нажатия рычага, крыса,
в конце концов, перестанет нажимать его, и произойдет экспериментальное
угасание.
Теперь, когда мы познакомились с природой оперантного научения, будет
полезно рассмотреть пример ситуации, встречающейся почти в каждой семье, где
есть маленькие дети, а именно — оперантное научение поведению плача. Как только
маленькие дети испытывают боль, они плачут, и немедленная реакция родителей —
выразить внимание и дать другие позитивные подкрепления. Так как внимание
является подкрепляющим фактором для ребенка, реакция плача становится
естественно обусловленной. Однако плач может возникать и тогда, когда боли нет.
Хотя большинство родителей утверждают, что они могут различать плач от
расстройства и плач, вызванный желанием внимания, все же многие родители упорно
подкрепляют последний.
Могут ли родители устранить обусловленное поведение плача или ребенку
«судьба быть плаксой» на всю жизнь? Уильямс (1959) сообщает о случае, который
показывает, как обусловленный плач был подавлен у 21-месячного ребенка. Из-за
серьезного заболевания в течение первых 18 месяцев жизни ребенок получал
повышенное внимание от своих обеспокоенных родителей. Фактически, из-за его
крика и плача, когда он ложился спать, кто-то из родителей или тетя, жившая
вместе с этой семьей, оставались в его спальне до тех пор, пока он не засыпал.
Такое ночное бодрствование обычно занимало два-три часа. Оставаясь в комнате,
пока он не засыпал, родители, несомненно, давали позитивное подкрепление
поведению плача у ребенка. Т.о. он прекрасно контролировал своих родителей.
Чтобы подавить это неприятное поведение, врачи велели родителям оставлять
ребенка засыпать одного и не обращать никакого внимания, на плач. Через семь
ночей поведение плача фактически прекратилось. К десятой ночи ребенок
даже улыбался, когда его родители уходили из комнаты, и можно было слышать его
довольный лепет, когда он засыпал. Через неделю, однако, ребенок сразу начал
кричать, когда тетя уложила его в постель и вышла из комнаты. Она возвратилась
и осталась там, пока ребенок не заснул. Этого одного примера позитивного
подкрепления было достаточно, чтобы стало необходимым во второй раз пройти
через весь процесс угасания. К девятой ночи плач ребенка, наконец,
прекратился, и Уильямс сообщил об отсутствии рецидивов в течение двух лет.
РЕЖИМЫ ПОДКРЕПЛЕНИЯ
Суть оперантного научения состоит в том, что подкрепленное поведение
стремится повториться, а поведение неподкрепленное или наказуемое имеет
тенденцию не повторяться или подавляться. Следовательно,
концепция подкрепления играет ключевую роль в теории Скиннера.
Скорость, с которой оперантное поведение приобретается и сохраняется,
зависит от режима применяемого подкрепления. Режим подкрепления — правило,
устанавливающее вероятность, с которой подкрепление будет происходить.
Самым простым правилом является предъявление подкрепления каждый раз, когда
субъект дает желаемую реакцию. Это называется режимом непрерывного
подкрепления и обычно используется на начальном этапе любого оперантного
научения, когда организм учится производить правильную реакцию. В большинстве
ситуаций повседневной жизни, однако, это либо неосуществимо, либо неэкономично
для сохранения желаемой реакции, так как подкрепление поведения бывает не
всегда одинаковым и регулярным. В большинстве случаев социальное поведение
человека подкрепляется только иногда. Ребенок плачет неоднократно, прежде чем
добьется внимания матери. Ученый много раз ошибается, прежде чем приходит к
правильному решению трудной проблемы. В этих примерах неподкрепленные реакции
встречаются до тех пор, пока одна из них не будет подкреплена.
Выделяют четыре основных режима подкрепления:
1. Режим подкрепления с постоянным соотношением (ПС). В данном режиме организм подкрепляется по наличию заранее
определенного или «постоянного» числа соответствующих реакций. Этот режим
является всеобщим в повседневной жизни и ему принадлежит значительная роль в
контроле над поведением. Во многих сферах занятости сотрудникам платят отчасти
или даже исключительно в соответствии с количеством единиц, которые они
производят или продают. В промышленности эта система известна как плата за
единицу продукции. Режим ПС обычно устанавливает чрезвычайно высокий оперантный
уровень, т.к. чем чаще организм реагирует, тем большее подкрепление он
получает.
2. Режим подкрепления с постоянным интервалом (ПИ). В режиме подкрепления с постоянным интервалом организм подкрепляется
после того, как твердо установленный или «постоянный» временной интервал
проходит с момента предыдущего подкрепления. На уровне человека режим ПИ – это
выплата зарплаты за работу, выполненную за час, неделю или месяц. Подобно
этому, еженедельная выдача денег ребенку на карманные расходы образует ПИ форму
подкрепления. Университеты обычно работают в соответствии с временным режимом
ПИ. Экзамены устанавливаются на регулярной основе и отчеты об академической
успеваемости издаются в установленные сроки. Любопытно, что режим ПИ дает
низкую скорость реагирования сразу после того, как получено подкрепление —
феномен, названный паузой после подкрепления. Это показательно для
студентов, испытывающих трудности при обучении в середине семестра
(предполагается, что они сдали экзамен хорошо), так как следующий экзамен будет
еще нескоро. Они буквально делают перерыв в обучении.
3. Режим подкрепления с вариативным соотношением (ВС). В этом режиме организм подкрепляется на основе какого-то, в среднем
предопределенного числа реакций. Возможно, что наиболее драматической
иллюстрацией поведения человека, находящегося под контролем режима ВС, является
захватывающая азартная игра. Рассмотрим действия человека, играющего в
игральный автомат, где нужно опускать монетку или специальной рукояткой
вытягивать приз. Эти аппараты запрограммированы таким образом, что подкрепление
(деньги) распределяется в соответствии с числом попыток, за которые человек
платит, чтобы управлять рукояткой. Однако выигрыш непредсказуем, непостоянен и
редко позволяет получать свыше того, что вложил игрок. Это объясняет тот факт,
почему владельцы казино получают значительно больше подкреплений, чем их
постоянные клиенты. Далее, угасание поведения, приобретенного в соответствии с
режимом ВС, происходит очень медленно, так как организм точно не знает, когда
будет следующее подкрепление. Таким образом, игрок принуждается опускать монеты
в прорезь автомата, несмотря на ничтожный выигрыш (или даже проигрыш), в полной
уверенности, что в следующий раз он «сорвет куш». Такая настойчивость типична
для поведения, вызванного режимом ВС.
4. Режим подкрепления с вариативным интервалом (ВИ). В этом режиме организм получает подкрепление после того, как проходит
неопределенный интервал времени. Подобно режиму ПИ, подкрепление при этом
условии зависит от времени. Однако время между подкреплениями по режиму ВИ
варьирует вокруг какой-то средней величины, а не является точно установленным.
Как правило, скорость реагирования при режиме ВИ является прямой функцией
примененной длины интервала: короткие интервалы порождают высокую скорость, а
длинные интервалы порождают низкую скорость. Также при подкреплении в режиме ВИ
организм стремится установить постоянную скорость реагирования, и при
отсутствии подкрепления реакции угасают медленно. В конечном итогe, организм
не может точно предвидеть, когда будет следующее подкрепление.
В повседневной жизни режим ВИ нечасто встречается, хотя несколько его
вариантов можно наблюдать. Родитель, например, может хвалить поведение ребенка
довольно произвольно, рассчитывая, что ребенок будет продолжать вести себя
соответствующим образом и в неподкрепленные интервалы времени. Подобно этому,
преподаватели, которые дают «неожиданные» контрольные работы, частота которых
варьирует от одной в три дня до одной в три недели, в среднем одна в две
недели, используют режим ВИ. При этих условиях от студентов можно ожидать
сохранения относительно высокого уровня прилежания, так как они никогда не
знают, в какой момент будет следующая контрольная работа.
Как правило, режим ВИ порождает более высокую скорость реагирования и
большую сопротивляемость угасанию, чем режим ПИ.
Условное
подкрепление
Теоретики, занимающиеся научением, признавали два типа подкрепления —
первичное и вторичное. Первичное подкрепление — это любое событие или
объект, сами по себе обладающие подкрепляющими свойствами. Они не требуют
предварительной ассоциации с другими подкреплениями, чтобы удовлетворить
биологическую потребность. Первичные подкрепляющие стимулы для людей — это
пища, вода, физический комфорт и секс. Их ценностное значение для организма не
зависит от научения.
Вторичное, или условное подкрепление, — это
любое событие или объект, которое приобретает свойство осуществлять
подкрепление через тесную ассоциацию с первичным подкреплением, обусловленным
прошлым опытом организма. Примерами общих вторичных
подкрепляющих стимулов у людей являются деньги, внимание, привязанности и
хорошие оценки.
Небольшое изменение в стандартной процедуре оперантного научения
демонстрирует, как нейтральный стимул может приобрести подкрепляющую силу для
поведения. Когда крыса научилась нажимать на рычаг в
«ящике Скиннера», сразу же ввели звуковой сигнал (сразу после осуществления
реакции), за которым следовал шарик еды. В этом случае звук действует как различительный
стимул (то есть животное учится реагировать только при наличии звукового
сигнала, так как он сообщает о пищевом вознаграждении). После того, как эта
специфическая оперантная реакция устанавливается, начинается угасание: когда
крыса нажимает на рычаг, не появляются ни пища, ни звуковой сигнал. Через
какое-то время крыса перестает нажимать на рычаг. Затем звуковой сигнал
повторяется каждый раз, когда животное нажимает на рычаг, но шарик пищи не
появляется. Несмотря на отсутствие первоначального подкрепляющего стимула,
животное понимает, что нажатие на рычаг вызывает звуковой сигнал, поэтому оно
продолжает настойчиво реагировать, тем самым ослабляя угасание. Другими
словами, установленная скорость нажатия на рычаг отражает тот факт, что
звуковой сигнал теперь действует как условный подкрепляющий фактор. Точная
скорость реагирования зависит от силы звукового сигнала как условного подкрепляющего
стимула (т. е. от числа случаев, когда звуковой сигнал ассоциировался с
первичным подкрепляющим стимулом, пищей, в процессе научения).
Страницы: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24
|