Einleitung
Eine bekannte Verhaltenstheorie ist die operante Konditionierung, formuliert von B. F. (Burrhus Frederic) Skinner (1904–1990). Beginnend in den 1930er Jahren veröffentlichte Skinner eine Reihe von Artikeln, in denen er die Ergebnisse von Laborstudien mit Tieren darlegte, in denen er die verschiedenen Komponenten der operanten Konditionierung identifizierte. Er fasste einen Großteil dieser frühen Arbeit in seinem einflussreichen Buch The Behavior of Organisms (Skinner, 1938) zusammen.
Skinner wandte seine Ideen auf menschliche Probleme an. Früh in seiner Karriere interessierte er sich für Bildung und entwickelte Lehrmaschinen und programmierten Unterricht. The Technology of Teaching (Skinner, 1968) behandelt Unterricht, Motivation, Disziplin und Kreativität. 1948, nach einer schwierigen Zeit in seinem Leben, veröffentlichte er Walden Two, das beschreibt, wie Verhaltensprinzipien angewendet werden können, um eine utopische Gesellschaft zu schaffen. Skinner (1971) befasste sich mit den Problemen des modernen Lebens und plädierte für die Anwendung einer Verhaltenstechnologie auf die Gestaltung von Kulturen in Beyond Freedom and Dignity. Skinner und andere haben Prinzipien der operanten Konditionierung auf Bereiche wie schulisches Lernen und Disziplin, kindliche Entwicklung, Spracherwerb, soziales Verhalten, psychische Erkrankungen, medizinische Probleme, Substanzmissbrauch und Berufsausbildung angewendet (DeGrandpre, 2000; Karoly & Harris, 1986; Morris, 2003).
Als junger Mann strebte Skinner danach, Schriftsteller zu werden (Skinner, 1970):
Ich baute ein kleines Arbeitszimmer auf dem Dachboden und machte mich an die Arbeit. Die Ergebnisse waren katastrophal. Ich vertrödelte meine Zeit. Ich las ziellos, baute Schiffsmodelle, spielte Klavier, hörte das neu erfundene Radio, trug zu einer humorvollen Kolumne einer Lokalzeitung bei, schrieb aber fast nichts anderes und dachte darüber nach, einen Psychiater aufzusuchen. (S. 6)
Er interessierte sich für Psychologie, nachdem er Pawlows (1927) Conditioned Reflexes und Watsons (1924) Behaviorism gelesen hatte. Seine anschließende Karriere hatte einen tiefgreifenden Einfluss auf die Psychologie des Lernens.
Trotz seines Eingeständnisses, dass “ich als Schriftsteller gescheitert war, weil ich nichts Wichtiges zu sagen hatte” (Skinner, 1970, S. 7), war er ein produktiver Schriftsteller, der seine literarischen Ambitionen in ein wissenschaftliches Schreiben umwandelte, das sich über sechs Jahrzehnte erstreckte (Lattal, 1992). Seine Hingabe an seinen Beruf zeigt sich darin, dass er acht Tage vor seinem Tod eine Festrede auf der Tagung der American Psychological Association hielt (Holland, 1992; Skinner, 1990). Die Vereinigung ehrte ihn mit einer Sonderausgabe ihrer monatlichen Zeitschrift American Psychologist (American Psychological Association, 1992). Obwohl seine Theorie von den heutigen Lerntheoretikern in Verruf geraten ist, weil sie höherwertige und komplexe Formen des Lernens nicht angemessen erklären kann (Bargh & Ferguson, 2000), wirkt sein Einfluss weiterhin fort, da Prinzipien der operanten Konditionierung häufig angewendet werden, um das Lernen und Verhalten von Schülern zu verbessern (Morris, 2003). Im Eröffnungsszenario wendet Leo beispielsweise Prinzipien der operanten Konditionierung an, um Fehlverhalten von Schülern zu kontrollieren. Emily und Shayna hingegen argumentieren für die Bedeutung kognitiver Faktoren.
Konzeptioneller Rahmen
Dieser Abschnitt erörtert die Annahmen, die der operanten Konditionierung zugrunde liegen, wie sie eine funktionale Analyse des Verhaltens widerspiegelt, und die Implikationen der Theorie für die Vorhersage und Kontrolle von Verhalten. Die Theorie und die Prinzipien der operanten Konditionierung sind komplex (Dragoi & Staddon, 1999); die Prinzipien, die für das menschliche Lernen am relevantesten sind, werden in diesem Kapitel behandelt.
Wissenschaftliche Annahmen
Pawlow führte den Ort des Lernens auf das Nervensystem zurück und betrachtete Verhalten als eine Manifestation neurologischer Funktionen. Skinner (1938) bestritt nicht, dass neurologische Funktionen das Verhalten begleiten, aber er glaubte, dass eine Psychologie des Verhaltens in ihren eigenen Begriffen verstanden werden kann, ohne Bezugnahme auf neurologische oder andere interne Ereignisse.
Skinner erhob ähnliche Einwände gegen die unbeobachtbaren Prozesse und Entitäten, die von modernen kognitiven Sichtweisen des Lernens vorgeschlagen werden (Overskeid, 2007). Private Ereignisse oder interne Reaktionen sind nur für das Individuum zugänglich und können durch die verbalen Berichte der Menschen untersucht werden, die Verhaltensformen darstellen (Skinner, 1953). Skinner bestritt nicht die Existenz von Einstellungen, Überzeugungen, Meinungen, Wünschen und anderen Formen des Selbstwissens (er hatte sie schließlich), sondern qualifizierte eher ihre Rolle.
Menschen erfahren nicht Bewusstsein oder Emotionen, sondern ihren eigenen Körper, und interne Reaktionen sind Reaktionen auf interne Reize (Skinner, 1987). Ein weiteres Problem bei internen Prozessen ist, dass ihre Übersetzung in Sprache schwierig ist, da Sprache die Dimensionen einer internen Erfahrung (z. B. Schmerz) nicht vollständig erfasst. Vieles von dem, was als Wissen bezeichnet wird, beinhaltet die Verwendung von Sprache (verbales Verhalten). Gedanken sind Verhaltensweisen, die durch andere Reize (Umwelt oder privat) hervorgerufen werden und Reaktionen (offen oder verdeckt) hervorrufen. Wenn private Ereignisse als offene Verhaltensweisen ausgedrückt werden, kann ihre Rolle in einer funktionalen Analyse bestimmt werden.
Funktionale Analyse des Verhaltens
Skinner (1953) bezeichnete seine Methode zur Untersuchung des Verhaltens als funktionale Analyse:
Die externen Variablen, von denen das Verhalten eine Funktion ist, ermöglichen eine sogenannte kausale oder funktionale Analyse. Wir unternehmen es, das Verhalten des einzelnen Organismus vorherzusagen und zu kontrollieren. Dies ist unsere “abhängige Variable”—der Effekt, für den wir die Ursache finden sollen. Unsere “unabhängigen Variablen”—die Ursachen des Verhaltens—sind die äußeren Bedingungen, von denen das Verhalten eine Funktion ist. Beziehungen zwischen den beiden—die “Ursache-Wirkungs-Beziehungen” im Verhalten—sind die Gesetze einer Wissenschaft. Eine Synthese dieser Gesetze, ausgedrückt in quantitativen Begriffen, ergibt ein umfassendes Bild des Organismus als ein sich verhaltendes System. (S. 35)
Lernen ist “die Neuordnung von Reaktionen in einer komplexen Situation”; Konditionierung bezieht sich auf “die Verstärkung von Verhalten, die sich aus Verstärkung ergibt” (Skinner, 1953, S. 65). Es gibt zwei Arten von Konditionierung: Typ S und Typ R. Typ S ist die Pawlowsche Konditionierung, die durch die Paarung des verstärkenden (unkonditionierten) Reizes mit einem anderen (konditionierten) Reiz gekennzeichnet ist. Das S lenkt die Aufmerksamkeit auf die Bedeutung des Reizes bei der Auslösung einer Reaktion des Organismus. Die Reaktion auf den auslösenden Reiz wird als respondentes Verhalten bezeichnet.
Obwohl die Typ-S-Konditionierung konditionierte emotionale Reaktionen erklären kann, werden die meisten menschlichen Verhaltensweisen in Gegenwart von Reizen emittiert und nicht automatisch von ihnen ausgelöst. Reaktionen werden durch ihre Konsequenzen kontrolliert, nicht durch vorhergehende Reize. Diese Art von Verhalten, die Skinner als Typ R bezeichnete, um den Reaktionsaspekt zu betonen, ist operantes Verhalten, weil es auf die Umwelt einwirkt, um eine Wirkung zu erzielen.
Skinner (1938, S. 21):
Wenn auf das Auftreten eines Operanten die Präsentation eines verstärkenden Reizes folgt, wird die Stärke erhöht. . . . Wenn auf das Auftreten eines Operanten, der bereits durch Konditionierung gestärkt wurde, nicht der verstärkende Reiz folgt, wird die Stärke verringert.
Wir könnten uns operantes Verhalten als “Lernen durch Handeln” vorstellen, und tatsächlich findet viel Lernen statt, wenn wir Verhaltensweisen ausführen (Lesgold, 2001). Im Gegensatz zum respondenten Verhalten, das vor der Konditionierung nicht auftritt, ist die Wahrscheinlichkeit des Auftretens eines Operanten nie Null, da die Reaktion erfolgen muss, damit eine Verstärkung bereitgestellt werden kann. Verstärkung verändert die Wahrscheinlichkeit oder Rate des Auftretens der Reaktion. Operante Verhaltensweisen wirken auf ihre Umwelt und treten aufgrund von Verstärkung mit größerer oder geringerer Wahrscheinlichkeit auf.
Grundlegende Prozesse
Dieser Abschnitt untersucht die grundlegenden Prozesse der operanten Konditionierung: Verstärkung, Extinktion, primäre und sekundäre Verstärker, das Premack-Prinzip, Bestrafung, Verstärkungspläne, Generalisierung und Diskriminierung.
Verstärkung
Verstärkung ist verantwortlich für die Verstärkung von Reaktionen – die Erhöhung der Reaktionsrate oder die Wahrscheinlichkeit des Auftretens von Reaktionen. Ein Verstärker (oder verstärkender Reiz) ist jeder Reiz oder jedes Ereignis, das auf eine Reaktion folgt und zu einer Verstärkung der Reaktion führt. Verstärker (Belohnungen) werden basierend auf ihren Auswirkungen definiert, die nicht von mentalen Prozessen wie Bewusstsein, Absichten oder Zielen abhängen (Schultz, 2006). Da Verstärker durch ihre Auswirkungen definiert werden, können sie nicht im Voraus bestimmt werden.
Skinner (1953, S. 72–73):
Die einzige Möglichkeit, um festzustellen, ob ein bestimmtes Ereignis unter bestimmten Bedingungen für einen bestimmten Organismus verstärkend wirkt oder nicht, besteht darin, einen direkten Test durchzuführen. Wir beobachten die Häufigkeit einer ausgewählten Reaktion, machen dann ein Ereignis davon abhängig und beobachten jede Veränderung der Häufigkeit. Wenn es eine Veränderung gibt, klassifizieren wir das Ereignis als verstärkend für den Organismus unter den gegebenen Bedingungen.
Verstärker sind situationsspezifisch: Sie gelten für Einzelpersonen zu bestimmten Zeiten unter bestimmten Bedingungen. Was für einen bestimmten Schüler während des Lesens jetzt verstärkend wirkt, muss es nicht während des Mathematikunterrichts jetzt oder während des späteren Lesens sein. Trotz dieser Spezifität können Reize oder Ereignisse, die Verhalten verstärken, bis zu einem gewissen Grad vorhergesagt werden (Skinner, 1953). Schüler finden typischerweise Ereignisse wie das Lob des Lehrers, Freizeit, Privilegien, Aufkleber und gute Noten verstärkend. Dennoch kann man nie sicher wissen, ob eine Konsequenz verstärkend wirkt, bis sie nach einer Reaktion präsentiert wird und wir sehen, ob sich das Verhalten ändert.
Das grundlegende operante Konditionierungsmodell ist die Drei-Term-Kontingenz:
Ein diskriminativer Reiz gibt den Anlass für eine Reaktion (R), die emittiert wird, der ein verstärkender Reiz ( , oder Verstärkung) folgt. Der verstärkende Reiz ist jeder Reiz (Ereignis, Konsequenz), der die Wahrscheinlichkeit erhöht, dass die Reaktion in Zukunft emittiert wird, wenn der diskriminative Reiz vorhanden ist. In vertrauteren Begriffen könnten wir dies als das A-B-C-Modell bezeichnen:
Positive Verstärkung beinhaltet das Präsentieren eines Reizes oder das Hinzufügen von etwas zu einer Situation nach einer Reaktion, was die zukünftige Wahrscheinlichkeit erhöht, dass diese Reaktion in dieser Situation auftritt. Ein positiver Verstärker ist ein Reiz, der, wenn er nach einer Reaktion präsentiert wird, die zukünftige Wahrscheinlichkeit erhöht, dass die Reaktion in dieser Situation auftritt. In dem Eröffnungsszenario verwendet Leo Punkte als positive Verstärker für gutes Verhalten.
'L' bezieht sich auf den Lernenden, 'T' auf den Lehrer:
| Diskriminativer Reiz | Reaktion | Verstärkender (Bestrafender) Reiz |
|---|---|---|
| Positive Verstärkung (Präsentiert positiven Verstärker) | - | - |
| 'T': gibt Zeit für selbstständiges Lernen | 'L': lernt | 'T': lobt 'L': für gute Arbeit |
| Negative Verstärkung (Entfernt negativen Verstärker) | - | - |
| 'T': gibt Zeit für selbstständiges Lernen | 'L': lernt | 'T': sagt 'L': muss keine Hausaufgaben machen |
| Bestrafung (Präsentiert negativen Verstärker) | - | - |
| 'T': gibt Zeit für selbstständiges Lernen | 'L': vergeudet Zeit | 'T': gibt Hausaufgaben |
| Bestrafung (Entfernt positiven Verstärker) | - | - |
| 'T': gibt Zeit für selbstständiges Lernen | 'L': vergeudet Zeit | 'T': sagt 'L': wird Freizeit verpassen |
Negative Verstärkung beinhaltet das Entfernen eines Reizes oder das Wegnehmen von etwas aus einer Situation nach einer Reaktion, was die zukünftige Wahrscheinlichkeit erhöht, dass die Reaktion in dieser Situation auftritt. Ein negativer Verstärker ist ein Reiz, der, wenn er durch eine Reaktion entfernt wird, die zukünftige Wahrscheinlichkeit erhöht, dass die Reaktion in dieser Situation auftritt. Einige Reize, die oft als negative Verstärker fungieren, sind helles Licht, laute Geräusche, Kritik, nervende Menschen und schlechte Noten, da Verhaltensweisen, die sie entfernen, tendenziell verstärkend wirken. Positive und negative Verstärkung haben die gleiche Wirkung: Sie erhöhen die Wahrscheinlichkeit, dass die Reaktion in Zukunft in Gegenwart des Reizes gezeigt wird.
Um diese Prozesse zu veranschaulichen, nehmen wir an, dass ein Lehrer eine Frage-und-Antwort-Runde mit der Klasse abhält. Der Lehrer stellt eine Frage ( oder A), ruft einen freiwilligen Schüler auf, der die richtige Antwort gibt (R oder B) und lobt den Schüler ( oder C). Wenn die Freiwilligenarbeit dieses Schülers zunimmt oder auf einem hohen Niveau bleibt, ist Lob ein positiver Verstärker und dies ist ein Beispiel für positive Verstärkung, weil das Geben des Lobs die Freiwilligenarbeit erhöht hat. Nehmen wir nun an, dass der Lehrer dem Schüler, nachdem er die richtige Antwort gegeben hat, sagt, dass er die Hausaufgaben nicht machen muss. Wenn die Freiwilligenarbeit dieses Schülers zunimmt oder auf einem hohen Niveau bleibt, sind die Hausaufgaben ein negativer Verstärker und dies ist ein Beispiel für negative Verstärkung, weil das Entfernen der Hausaufgaben die Freiwilligenarbeit erhöht hat.
Positive und negative Verstärkung
Lehrer können positive und negative Verstärkung nutzen, um Schüler zu motivieren, Fähigkeiten zu meistern und mehr Zeit mit Aufgaben zu verbringen. Zum Beispiel könnte ein Lehrer, während er Konzepte in einer naturwissenschaftlichen Einheit unterrichtet, die Schüler bitten, Fragen am Ende des Kapitels zu beantworten. Der Lehrer könnte auch Aktivitätszentren im Raum einrichten, die praktische Experimente im Zusammenhang mit der Lektion beinhalten. Die Schüler würden zirkulieren und die Experimente in Abhängigkeit davon durchführen, ob sie die Kapitel Fragen erfolgreich beantworten (positive Verstärkung). Diese Kontingenz spiegelt das Premack-Prinzip wider, die Möglichkeit zu bieten, sich einer höherwertigen Aktivität (Experimente) als Verstärker für die Ausübung einer geringerwertigen Aktivität (Beantwortung der Kapitel Fragen) zu widmen. Schüler, die 80 % der Fragen richtig beantworten und an mindestens zwei Experimenten teilnehmen, müssen keine Hausaufgaben machen. Dies würde als negative Verstärkung fungieren, insofern die Schüler Hausaufgaben als negativen Verstärker wahrnehmen.
Ein Mittelschulberater, der mit einem Schüler an der Verbesserung des Klassenzimmerverhaltens arbeitet, könnte jeden der Lehrer des Schülers bitten, “Ja” oder “Nein” anzukreuzen, da es sich auf das Klassenverhalten für diesen Tag bezieht (akzeptabel, inakzeptabel). Für jedes “Ja” erhält der Schüler 1 Minute im Computerraum, um Computerspiele zu spielen (positive Verstärkung für diesen Schüler). Am Ende der Woche kann der Schüler die verdiente Computerzeit nach dem Mittagessen nutzen. Wenn der Schüler außerdem mindestens 15 Minuten im Labor verdient, muss er keine Verhaltensnotiz mit nach Hause nehmen, die von den Eltern unterschrieben werden muss (dies setzt voraus, dass der Schüler eine Verhaltensnotiz als negativen Verstärker wahrnimmt).
Extinktion
Extinktion beinhaltet den Rückgang der Reaktionsstärke aufgrund von Nicht-Verstärkung. Schüler, die im Unterricht ihre Hände heben, aber nie aufgerufen werden, hören möglicherweise auf, ihre Hände zu heben. Leute, die viele E-Mails an dieselbe Person senden, aber nie eine Antwort erhalten, hören möglicherweise irgendwann auf, Nachrichten an diese Person zu senden.
Wie schnell Extinktion auftritt, hängt von der Verstärkungsgeschichte ab (Skinner, 1953). Extinktion tritt schnell auf, wenn nur wenige vorhergehende Reaktionen verstärkt wurden. Das Reagieren ist viel dauerhafter bei einer längeren Verstärkungsgeschichte. Extinktion ist nicht dasselbe wie Vergessen. Reaktionen, die erlöschen, können durchgeführt werden, aber nicht aufgrund von mangelnder Verstärkung. In den vorhergehenden Beispielen wissen die Schüler immer noch, wie man die Hände hebt, und die Leute wissen immer noch, wie man E-Mails sendet. Vergessen beinhaltet einen echten Verlust der Konditionierung im Laufe der Zeit, in der die Möglichkeiten zum Reagieren nicht vorhanden waren.
Primäre und sekundäre Verstärker
Reize wie Nahrung, Wasser und Unterkunft werden als primäre Verstärker bezeichnet, weil sie für das Überleben notwendig sind. Sekundäre Verstärker sind Reize, die durch ihre Verbindung mit primären Verstärkern konditioniert werden. Das Lieblingsmilchglas eines Kindes wird sekundär verstärkend durch seine Verbindung mit Milch (einem primären Verstärker). Ein sekundärer Verstärker, der mit mehr als einem primären Verstärker gepaart wird, ist ein generalisierter Verstärker. Menschen arbeiten lange Stunden, um Geld zu verdienen (ein generalisierter Verstärker), das sie verwenden, um viele Verstärker zu kaufen (z. B. Nahrung, Unterkunft, Fernseher, Urlaub).
Operante Konditionierung erklärt die Entwicklung und Aufrechterhaltung eines Großteils des sozialen Verhaltens mit generalisierten Verstärkern. Kinder verhalten sich möglicherweise auf eine Weise, um die Aufmerksamkeit von Erwachsenen zu erregen. Aufmerksamkeit ist verstärkend, weil sie mit primären Verstärkern von Erwachsenen gepaart ist (z. B. Nahrung, Wasser, Schutz). Wichtige pädagogische generalisierte Verstärker sind das Lob der Lehrer, gute Noten, Privilegien, Auszeichnungen und Abschlüsse. Diese Verstärker sind oft mit anderen generalisierten Verstärkern gepaart, wie z. B. Zustimmung (von Eltern und Freunden) und Geld (ein College-Abschluss führt zu einem guten Job).
Premack-Prinzip
Erinnern Sie sich, dass wir eine Verhaltenskonsequenz erst dann als verstärkend bezeichnen, nachdem wir sie angewendet haben und sehen, wie sie das zukünftige Verhalten beeinflusst. Es ist etwas beunruhigend, dass wir bei der Auswahl von Verstärkern den gesunden Menschenverstand oder das Trial-and-Error-Verfahren anwenden müssen, weil wir nicht im Voraus mit Sicherheit wissen können, ob eine Konsequenz als Verstärker fungieren wird.
Premack (1962, 1971) beschrieb ein Mittel zur Anordnung von Verstärkern, das es ermöglicht, Verstärker vorherzusagen. Das Premack-Prinzip besagt, dass die Möglichkeit, sich einer höherwertigen Aktivität zu widmen, die Ausübung einer geringerwertigen Aktivität verstärkt, wobei “Wert” in Bezug auf das Ausmaß des Reagierens oder die Zeit, die mit der Aktivität verbracht wird, in Abwesenheit von Verstärkung definiert wird. Wenn eine Kontingenz so angeordnet ist, dass der Wert des zweiten (bedingten) Ereignisses höher ist als der Wert des ersten (instrumentellen) Ereignisses, wird ein Anstieg der Auftrittswahrscheinlichkeit des ersten Ereignisses erwartet (die Belohnungsannahme). Wenn der Wert des zweiten Ereignisses niedriger ist als der des ersten Ereignisses, sollte die Auftrittswahrscheinlichkeit des ersten Ereignisses abnehmen (die Bestrafungsannahme).
Angenommen, einem Kind wird erlaubt, zwischen der Arbeit an einem Kunstprojekt, dem Besuch des Medienzentrums, dem Lesen eines Buches im Klassenzimmer oder der Arbeit am Computer zu wählen. Im Laufe von 10 solchen Entscheidungen geht das Kind 6 Mal ins Medienzentrum, arbeitet 3 Mal am Computer, arbeitet 1 Mal an einem Kunstprojekt und liest nie ein Buch im Klassenzimmer. Für dieses Kind wird die Möglichkeit, ins Medienzentrum zu gehen, am meisten geschätzt. Um das Premack-Prinzip anzuwenden, könnte ein Lehrer zu dem Kind sagen: “Nachdem du dieses Buch fertig gelesen hast, kannst du ins Medienzentrum gehen.” Es gibt beträchtliche empirische Belege, die Premacks Ideen unterstützen, insbesondere in Bezug auf die Belohnungsannahme (Dunham, 1977).
Das Premack-Prinzip bietet eine Anleitung für die Auswahl effektiver Verstärker: Beobachten Sie, was Menschen tun, wenn sie die Wahl haben, und ordnen Sie diese Verhaltensweisen nach Wahrscheinlichkeit. Die Reihenfolge ist nicht dauerhaft, da sich der Wert von Verstärkern ändern kann. Jeder Verstärker kann bei häufiger Anwendung zu Sättigung führen und zu einer verminderten Reaktion führen. Lehrer, die das Premack-Prinzip anwenden, müssen die Präferenzen der Schüler regelmäßig überprüfen, indem sie sie beobachten und fragen, was sie gerne tun. Die frühzeitige Bestimmung, welche Verstärker in einer Situation wahrscheinlich wirksam sein werden, ist entscheidend für die Planung eines Programms zur Verhaltensänderung (Timberlake & Farmer-Dougan, 1991).
Bestrafung
Bestrafung verringert die zukünftige Wahrscheinlichkeit, auf einen Reiz zu reagieren. Bestrafung kann das Entziehen eines positiven Verstärkers oder das Präsentieren eines negativen Verstärkers nach einer Reaktion beinhalten, wie in Tabelle 'Verstärkungs- und Bestrafungsprozesse' gezeigt. Nehmen wir an, dass ein Schüler während einer Frage-und-Antwort-Runde wiederholt einen anderen Schüler belästigt, wenn der Lehrer nicht aufpasst (Lehrer passt nicht auf oder A; Fehlverhalten = R oder B). Der Lehrer entdeckt das Fehlverhalten und sagt: “Hör auf, ihn zu belästigen” ( oder C). Wenn der Schüler aufhört, den anderen Schüler zu belästigen, wirkt die Kritik des Lehrers als negativer Verstärker und dies ist ein Beispiel für Bestrafung, weil das Geben der Kritik das Fehlverhalten verringert hat. Beachten Sie jedoch, dass dies aus der Sicht des Lehrers ein Beispiel für negative Verstärkung ist (Fehlverhalten = oder A; Kritik = R oder B; Ende des Fehlverhaltens = oder C). Da der Lehrer negativ verstärkt wurde, wird der Lehrer wahrscheinlich weiterhin das Fehlverhalten des Schülers kritisieren.
Anstatt den Schüler zu kritisieren, nehmen wir an, dass der Lehrer sagt: “Du musst heute während der Pause drinnen bleiben.” Wenn das Fehlverhalten des Schülers aufhört, wirkt die Pause als positiver Verstärker und dies ist ein Beispiel für Bestrafung, weil der Verlust der Pause das Fehlverhalten stoppt. Wie zuvor ist die Beendigung des Fehlverhaltens des Schülers für den Lehrer negativ verstärkend.
Bestrafung unterdrückt eine Reaktion, beseitigt sie aber nicht; wenn die Androhung von Bestrafung entfernt wird, kann die bestrafte Reaktion zurückkehren. Die Auswirkungen von Bestrafung sind komplex. Bestrafung führt oft zu Reaktionen, die mit dem bestraften Verhalten unvereinbar sind und stark genug sind, um es zu unterdrücken (Skinner, 1953). Ein Kind für Fehlverhalten zu schlagen kann Schuld und Angst hervorrufen, die Fehlverhalten unterdrücken können. Wenn sich das Kind in Zukunft schlecht benimmt, können die konditionierte Schuld und Angst wieder auftreten und das Kind schnell dazu bringen, sich nicht mehr schlecht zu benehmen. Bestrafung konditioniert auch Reaktionen, die dazu führen, dass man der Bestrafung entkommt oder sie vermeidet. Schüler, deren Lehrer falsche Antworten kritisiert, lernen schnell, das Geben von Antworten zu vermeiden. Bestrafung kann maladaptive Verhaltensweisen konditionieren, weil Bestrafung nicht lehrt, wie man sich produktiver verhält. Bestrafung kann das Lernen weiter behindern, indem sie einen Konflikt erzeugt, so dass das Individuum zwischen der einen oder anderen Art des Reagierens schwankt. Wenn der Lehrer Schüler manchmal für falsche Antworten kritisiert und manchmal nicht, wissen die Schüler nie, wann Kritik bevorsteht. Ein solches variables Verhalten kann emotionale Nebenprodukte haben – Angst, Wut, Weinen –, die das Lernen beeinträchtigen.
Bestrafung wird oft in Schulen eingesetzt, um mit Störungen umzugehen. Häufige Strafen sind der Verlust von Privilegien, das Entfernen aus dem Klassenzimmer, schulinterne und schulexterne Suspendierungen und Ausschlüsse (Maag, 2001). Es gibt jedoch mehrere Alternativen zur Bestrafung. Eine davon ist die Änderung der diskriminativen Reize für negatives Verhalten. Zum Beispiel kann sich ein Schüler, der hinten im Raum sitzt, oft schlecht benehmen. Lehrer können die diskriminativen Reize ändern, indem sie den störenden Schüler nach vorne in die Klasse setzen. Eine andere Alternative ist es, das unerwünschte Verhalten so lange fortsetzen zu lassen, bis der Täter gesättigt ist, was ähnlich wie Guthries Ermüdungsmethode ist. Ein Elternteil kann einem Kind erlauben, einen Wutanfall zu bekommen, bis es müde wird. Eine dritte Alternative ist es, ein unerwünschtes Verhalten durch Ignorieren zu unterdrücken. Dies kann gut funktionieren bei geringfügigem Fehlverhalten (z. B. wenn sich Schüler gegenseitig zuflüstern), aber wenn Klassenzimmer störend werden, müssen Lehrer auf andere Weise handeln. Eine vierte Alternative ist es, inkompatibles Verhalten mit positiver Verstärkung zu konditionieren. Das Lob des Lehrers für produktive Arbeitsgewohnheiten hilft, diese Gewohnheiten zu konditionieren. Der Hauptvorteil dieser Alternative gegenüber der Bestrafung ist, dass sie dem Schüler zeigt, wie er sich adaptiv verhalten kann.
| Alternative | Beispiel |
|---|---|
| Ändern Sie die diskriminativen Reize | Setzen Sie den sich schlecht benehmenden Schüler von anderen sich schlecht benehmenden Schülern weg. |
| Lassen Sie das unerwünschte Verhalten fortsetzen | Lassen Sie den Schüler, der steht, wenn er sitzen sollte, weiterhin stehen. |
| Unterdrücken Sie das unerwünschte Verhalten | Ignorieren Sie geringfügiges Fehlverhalten, so dass es nicht durch die Aufmerksamkeit des Lehrers verstärkt wird. |
| Konditionieren Sie ein inkompatibles Verhalten | Verstärken Sie den Lernfortschritt, der nur auftritt, wenn sich der Schüler nicht schlecht benimmt. |
Verstärkungspläne
Pläne beziehen sich darauf, wann Verstärkung angewendet wird (Ferster & Skinner, 1957; Skinner, 1938; Zeiler, 1977). Ein kontinuierlicher Plan beinhaltet die Verstärkung für jede richtige Antwort. Dies kann wünschenswert sein, während Fähigkeiten erworben werden: Schüler erhalten nach jeder Antwort Feedback über die Genauigkeit ihrer Arbeit. Kontinuierliche Verstärkung trägt dazu bei, dass falsche Antworten nicht gelernt werden.
Ein intermittierender Plan beinhaltet die Verstärkung einiger, aber nicht aller richtigen Antworten. Intermittierende Verstärkung ist in Klassenzimmern üblich, da es Lehrern normalerweise nicht möglich ist, jeden Schüler für jede richtige oder wünschenswerte Antwort zu verstärken. Schüler werden nicht jedes Mal aufgerufen, wenn sie ihre Hände heben, werden nicht gelobt, nachdem sie jedes Problem bearbeitet haben, und ihnen wird nicht ständig gesagt, dass sie sich angemessen verhalten.
Intermittierende Pläne werden in Bezug auf Zeit oder Anzahl der Antworten definiert. Ein Intervallplan beinhaltet die Verstärkung der ersten richtigen Antwort nach einem bestimmten Zeitraum. In einem Fixintervallplan (FI) ist das Zeitintervall von einer Verstärkung zur nächsten konstant. Ein FI5-Plan bedeutet, dass die Verstärkung für die erste Antwort nach 5 Minuten geliefert wird. Schüler, die jeden Freitag 30 Minuten Freizeit erhalten (abhängig von gutem Verhalten während der Woche), arbeiten nach einem Fixintervallplan. In einem Variablenintervallplan (VI) variiert das Zeitintervall von Gelegenheit zu Gelegenheit um einen Durchschnittswert. Ein VI5-Plan bedeutet, dass im Durchschnitt die erste richtige Antwort nach 5 Minuten verstärkt wird, aber das Zeitintervall variiert (z. B. 2, 3, 7 oder 8 Minuten). Schüler, die im Durchschnitt einmal pro Woche 30 Minuten Freizeit erhalten (abhängig von gutem Verhalten), aber nicht unbedingt am gleichen Tag jeder Woche, arbeiten nach einem Variablenintervallplan.
Ein Ratioschema hängt von der Anzahl der richtigen Antworten oder der Reaktionsrate ab. In einem Fixratio-Schema (FR) wird jede n-te richtige Antwort verstärkt, wobei n konstant ist. Ein FR10-Schema bedeutet, dass jede 10. richtige Antwort Verstärkung erhält. In einem Variableratio-Schema (VR) wird jede n-te richtige Antwort verstärkt, aber der Wert variiert um eine durchschnittliche Zahl n. Ein Lehrer kann nach jeder fünften bearbeiteten Arbeitsmappe (FR5) oder periodisch um einen Durchschnitt von fünf bearbeiteten Aufgaben (VR5) Freizeit geben.
Verstärkungspläne erzeugen charakteristische Reaktionsmuster. Im Allgemeinen erzeugen Ratioschemen höhere Reaktionsraten als Intervallschemen. Ein begrenzender Faktor bei Ratioschemen ist die Ermüdung aufgrund schneller Reaktion. Fixintervallpläne erzeugen ein gewelltes Muster. Das Reagieren nimmt unmittelbar nach der Verstärkung ab, nimmt aber gegen Ende des Intervalls zwischen den Verstärkungen zu. Der Variablenintervallplan erzeugt eine konstante Reaktionsrate. Unangekündigte Tests funktionieren nach Variablenintervallplänen und sorgen in der Regel dafür, dass die Schüler regelmäßig lernen. Intermittierende Pläne sind widerstandsfähiger gegen Extinktion als kontinuierliche Pläne: Wenn die Verstärkung eingestellt wird, wird die Reaktion für längere Zeit fortgesetzt, wenn die Verstärkung intermittierend statt kontinuierlich war. Die Haltbarkeit intermittierender Pläne zeigt sich in der Beharrlichkeit der Menschen bei Ereignissen wie dem Spielen an Spielautomaten, dem Angeln und dem Einkaufen nach Schnäppchen.
Generalisierung
Sobald eine bestimmte Reaktion regelmäßig auf einen bestimmten Reiz auftritt, kann die Reaktion auch auf andere Reize auftreten. Dies wird als Generalisierung bezeichnet (Skinner, 1953). Generalisierung scheint für die operante Theorie problematisch zu sein, weil eine Reaktion nicht in einer Situation gezeigt werden sollte, in der sie nie verstärkt wurde. Skinner erklärte die Generalisierung, indem er feststellte, dass Menschen viele Verhaltensweisen ausführen, die zu der endgültigen (verstärkten) Reaktion führen. Diese Verhaltensweisen sind oft Teil der Verhaltensketten verschiedener Aufgaben und werden daher in verschiedenen Kontexten verstärkt. Wenn sich Menschen in einer neuen Situation befinden, führen sie wahrscheinlich die Verhaltensweisen aus, die eine genaue Reaktion oder einen schnellen Erwerb der richtigen Reaktion erzeugen.
Zum Beispiel kommen Schüler mit guten Lerngewohnheiten in der Regel zum Unterricht, nehmen an den Aktivitäten teil, machen sich Notizen, lesen die erforderliche Lektüre und halten sich an die Aufgaben. Diese Verhaltensweisen führen zu hohen Leistungen und Noten. Wenn solche Schüler einen neuen Kurs beginnen, ist es nicht erforderlich, dass der Inhalt ähnlich ist wie bei früheren Kursen, in denen sie eingeschrieben waren. Vielmehr haben die Verhaltensweisen wiederholte Verstärkung erhalten und werden daher wahrscheinlich auf die neue Umgebung übertragen.
Generalisierung tritt jedoch nicht automatisch auf. O’Leary und Drabman (1971) stellten fest, dass Generalisierung “wie jede andere Verhaltensänderung programmiert werden muss” (S. 393). Ein Problem bei vielen Programmen zur Verhaltensmodifikation ist, dass sie Verhaltensweisen ändern, aber die neuen Verhaltensweisen sich nicht außerhalb des Trainingskontextes generalisieren. O’Leary und Drabman (1971) geben Vorschläge, wie Generalisierung erleichtert werden kann.
Diskriminierung
Diskriminierung, der komplementäre Prozess zur Generalisierung, beinhaltet das unterschiedliche Reagieren (in Intensität oder Rate) in Abhängigkeit vom Reiz oder den Merkmalen einer Situation (Rilling, 1977). Obwohl Lehrer möchten, dass Schüler das, was sie lernen, auf andere Situationen generalisieren, möchten sie auch, dass sie diskriminierend reagieren. Beim Lösen mathematischer Textaufgaben möchten Lehrer möglicherweise, dass Schüler einen allgemeinen Problemlösungsansatz anwenden, der Schritte wie die Bestimmung der gegebenen und der benötigten Informationen, das Zeichnen eines Bildes und das Erstellen nützlicher Formeln umfasst. Lehrer möchten auch, dass Schüler lernen, Problemtypen zu unterscheiden (z. B. Fläche, Zeit-Geschwindigkeit-Entfernung, Zinssatz). Die Fähigkeit, den Problemtyp schnell zu identifizieren, erhöht den Erfolg der Schüler.
Generalisierung
Generalisierung kann die Entwicklung von Fähigkeiten in verschiedenen Fachbereichen vorantreiben. Das Finden von Hauptideen ist relevant für Sprachkunst, Sozialkunde, Mathematik (Textaufgaben) und andere Inhaltsbereiche. Ein Sprachkunsterzieher könnte den Schülern eine Strategie zum Finden von Hauptideen vermitteln. Sobald die Schüler diese Strategie beherrschen, erklärt der Lehrer, wie man ihre Verwendung für andere akademische Fächer modifiziert, und bittet die Schüler, sich Anwendungen auszudenken. Indem sie die Strategie in einem Bereich gut unterrichten und potenzielle Anwendungen in anderen Bereichen erleichtern, sparen Lehrer viel Zeit und Mühe, weil sie die Strategie nicht in jedem Inhaltsbereich unterrichten müssen.
Das Unterrichten von erwarteten Verhaltensweisen (z. B. Gehen im Flur, Heben der Hand zum Sprechen) kann ebenfalls generalisiert werden. Wenn beispielsweise alle Lehrer der siebten Klasse beschließen, dass die Schüler das gleiche Format für die Überschrift auf ihren Papieren verwenden sollen, könnte dies in einer Klasse erklärt werden. Dann könnten die Schüler gebeten werden, das gleiche Format (mit geringfügigen Änderungen) in jedem ihrer anderen Kurse zu verwenden.
| Name | Zweck |
|---|---|
| Elterliche Beteiligung | Beziehen Sie Eltern in Programme zur Verhaltensänderung ein. |
| Hohe Erwartungen | Vermitteln Sie den Schülern, dass sie in der Lage sind, gute Leistungen zu erbringen. |
| Selbstbewertung | Bringen Sie den Schülern bei, ihr Verhalten zu überwachen und zu bewerten. |
| Kontingenzen | Ziehen Sie künstliche Kontingenzen (z. B. Punkte) zurück und ersetzen Sie sie durch natürliche (Privilegien). |
| Teilnahme | Erlauben Sie den Schülern, sich an der Festlegung der zu verstärkenden Verhaltensweisen und der Verstärkungskontingenzen zu beteiligen. |
| Akademisches | Bieten Sie ein gutes akademisches Programm an, weil viele Schüler mit Verhaltensproblemen akademische Defizite haben. |
| Vorteile | Zeigen Sie den Schülern, wie Verhaltensänderungen ihnen zugute kommen, indem Sie Änderungen mit Aktivitäten von Interesse verknüpfen. |
| Verstärkung | Verstärken Sie Schüler in verschiedenen Umgebungen, um die Diskriminierung zwischen verstärkten und nicht verstärkten Situationen zu reduzieren. |
| Konsistenz | Bereiten Sie Lehrer in regulären Klassen darauf vor, das Verhalten von Schülern in speziellen Klassen weiterhin zu formen, nachdem sie in das reguläre Programm integriert wurden. |
Spence (1936) schlug vor, dass gewünschte Reaktionen verstärkt und unerwünschte Reaktionen durch Nichtverstärkung unterdrückt werden sollten, um Diskriminierung zu lehren. In der Schule weisen Lehrer auf Ähnlichkeiten und Unterschiede zwischen ähnlichen Inhalten hin und sorgen für regelmäßige Überprüfungen, um sicherzustellen, dass die Schüler richtig unterscheiden und korrekte Problemlösungsmethoden anwenden.
Fehler werden im Allgemeinen als störend angesehen und führen zum Erlernen falscher Reaktionen. Dies deutet darauf hin, dass Schülerfehler auf ein Minimum beschränkt werden sollten. Ob alle Fehler beseitigt werden müssen, ist umstritten. Die Motivationsforschung zeigt, dass Schüler, die lernen, adaptiv mit Fehlern umzugehen, anschließend länger an schwierigen Aufgaben festhalten als Schüler, die fehlerfreies Lernen erlebt haben (Dweck, 1975).
Verhaltensänderung
Verstärkung kann nur dann für korrekte Reaktionen gegeben werden, wenn die Leute wissen, was zu tun ist. Oft existieren operante Reaktionen jedoch nicht in endgültiger, ausgefeilter Form. Wenn Lehrer warten, bis Lernende die richtigen Reaktionen zeigen, würden viele Lernende niemals eine Verstärkung erhalten, weil sie die Reaktionen nie erlernen würden. Wir wenden uns nun einer Diskussion darüber zu, wie Verhaltensänderung in der operanten Konditionierung stattfindet, was wichtige Implikationen für das Lernen hat.
Sukzessive Annäherungen (Shaping)
Die grundlegende Methode der operanten Konditionierung zur Verhaltensänderung ist Shaping, oder differentielle Verstärkung von sukzessiven Annäherungen an die gewünschte Form oder Rate des Verhaltens (Morse & Kelleher, 1977). Um Verhalten zu formen, hält man sich an die folgende Sequenz:
- Identifizieren Sie, was der Schüler jetzt kann (Anfangsverhalten)
- Identifizieren Sie das gewünschte Verhalten
- Identifizieren Sie potenzielle Verstärker in der Umgebung des Schülers
- Zerlegen Sie das gewünschte Verhalten in kleine Teilschritte, die nacheinander beherrscht werden müssen
- Bewegen Sie den Schüler vom anfänglichen Verhalten zum gewünschten Verhalten, indem Sie jede Annäherung an das gewünschte Verhalten sukzessive verstärken
Shaping ist Lernen durch Handeln mit korrigierendem Feedback. Ein natürliches Beispiel für Shaping ist ein Schüler, der versucht, einen Basketball von einem Punkt auf dem Feld zu werfen. Der erste Wurf verfehlt den Korb. Der Schüler wirft beim zweiten Mal härter, und der Ball trifft das Brett. Der Schüler wirft beim dritten Mal nicht ganz so hart, und der Ball trifft den rechten Rand und springt ab. Beim vierten Versuch wirft der Schüler genauso hart wie beim dritten Versuch, zielt aber nach links. Der Ball trifft den linken Rand und springt ab. Schließlich wirft der Schüler genauso hart, zielt aber leicht nach rechts, und der Ball geht in den Korb. Allmählich wurde der Wurf zu einer genauen Form geschliffen.
Shaping könnte systematisch bei einem hyperaktiven Schüler angewendet werden, der nur ein paar Minuten an einer Aufgabe arbeiten kann, bevor er abgelenkt wird. Das Ziel ist es, das Verhalten des Schülers so zu formen, dass er 30 Minuten ununterbrochen arbeiten kann. Anfangs gibt der Lehrer einen Verstärker, wenn der Schüler 2 Minuten lang produktiv arbeitet. Nach mehreren erfolgreichen 2-Minuten-Intervallen wird das Kriterium für die Verstärkung auf 3 Minuten erhöht. Angenommen, sie arbeitet mehrere 3-Minuten-Perioden ununterbrochen, wird das Kriterium auf 4 Minuten erhöht. Dieser Prozess wird bis zum Ziel von 30 Minuten fortgesetzt, solange der Schüler zuverlässig auf dem Kriteriumsniveau arbeitet. Wenn der Schüler an irgendeinem Punkt Schwierigkeiten hat, wird das Kriterium für die Verstärkung auf ein Niveau gesenkt, auf dem er erfolgreich arbeiten kann.
Eine akademische Fähigkeit, die geformt werden könnte, ist das Unterrichten eines Schülers in den Multiplikationsfakten für 6. Derzeit kennt er nur und Um eine Verstärkung zu verdienen, muss er diese beiden plus richtig aufsagen. Nachdem er dies zuverlässig kann, wird das Kriterium für die Verstärkung auf erhöht. Dieser Prozess wird fortgesetzt, bis er alle Fakten bis zu genau aufsagt.
Verkettung
Die meisten menschlichen Handlungen sind komplex und umfassen mehrere dreigliedrige Kontingenzen (A–B–C), die sukzessive miteinander verbunden sind. Zum Beispiel erfordert das Werfen eines Basketballs Dribbeln, Drehen, In-Position-Bringen, Springen und Loslassen des Balls. Jede Reaktion verändert die Umgebung, und diese veränderte Bedingung dient als Stimulus für die nächste Reaktion. Verkettung ist der Prozess des Produzierens oder Veränderns einiger der Variablen, die als Stimuli für zukünftige Reaktionen dienen (Skinner, 1953). Eine Kette besteht aus einer Reihe von Operanten, von denen jeder den Anlass für weitere Reaktionen setzt.
Ketten ähneln Guthries Akten, während einzelne dreigliedrige Kontingenzen Bewegungen ähneln. Einige Ketten erwerben eine funktionale Einheit; die Kette ist eine integrierte Sequenz, so dass die erfolgreiche Implementierung eine Fähigkeit definiert. Wenn Fähigkeiten gut geschliffen sind, erfolgt die Ausführung der Kette automatisch. Fahrradfahren besteht aus mehreren diskreten Handlungen, dennoch führt ein geübter Fahrer diese mit wenig oder gar keiner bewussten Anstrengung aus. Eine solche Automatisierung ist oft in kognitiven Fähigkeiten vorhanden (z. B. Lesen, Lösen mathematischer Probleme). Verkettung spielt eine entscheidende Rolle beim Erwerb von Fähigkeiten (Gollub, 1977; Skinner, 1978).
Behavior Modification
Verhaltensmodifikation (oder Verhaltenstherapie) bezieht sich auf die systematische Anwendung von Prinzipien des behavioralen Lernens, um adaptives Verhalten zu fördern (Ullmann & Krasner, 1965). Verhaltensmodifikation wurde bei Erwachsenen und Kindern in so unterschiedlichen Kontexten wie Klassenzimmern, Beratungsstellen, Gefängnissen und psychiatrischen Kliniken eingesetzt. Sie wurde zur Behandlung von Phobien, dysfunktionaler Sprache, disruptivem Verhalten, negativen sozialen Interaktionen, schlechter Kindererziehung und geringer Selbstkontrolle eingesetzt (Ayllon & Azrin, 1968; Becker, 1971; Keller & Ribes-Inesta, 1974; Ulrich, Stachnik, & Mabry, 1966). Lovaas (1977) setzte erfolgreich Verhaltensmodifikation ein, um autistischen Kindern Sprache beizubringen.
Behavior Modification
Verhaltensmodifikation für disruptive Schüler ist schwierig, da solche Schüler möglicherweise nur wenige angemessene Reaktionen zeigen, die positiv verstärkt werden können. Ein Lehrer könnte Shaping verwenden, um ein bestimmtes störendes Verhalten anzugehen. Kathy Stone hat Probleme mit Erik, der ständig andere Schüler schubst und drängt, wenn sich die Klasse aufstellt, um irgendwo im Gebäude hinzugehen. Wenn die Klasse nur eine kurze Strecke zurücklegt, könnte Frau Stone Erik mitteilen, dass er der Linienführer auf dem Rückweg zur Klasse sein wird, wenn er in der Schlange bleibt, ohne zu schubsen und zu drängen; wenn er jedoch schubst oder drängt, wird er sofort aus der Schlange entfernt. Dieses Verfahren kann wiederholt werden, bis Erik kurze Strecken bewältigen kann. Frau Stone kann ihm dann erlauben, mit der Klasse über immer längere Strecken zu gehen, bis er sich über jede beliebige Entfernung in der Schlange benehmen kann.
Sarah, ein anderes Kind in Kathy Stones Klasse, gibt häufig schlampige Arbeiten ab. Frau Stone könnte generalisierte Verstärker wie spezielle Aufkleber (die gegen verschiedene Privilegien eingetauscht werden können) verwenden, um Sarah zu helfen, deren Arbeit typischerweise schmutzig, zerrissen und kaum lesbar ist. Sarah wird gesagt, dass sie einen Aufkleber verdienen kann, wenn sie eine saubere Arbeit abgibt; wenn sie nicht zerrissen ist, einen weiteren Aufkleber; und wenn die Schrift ordentlich ist, einen dritten Aufkleber. Sobald Sarah beginnt, Verbesserungen zu erzielen, kann Frau Stone die Belohnungen schrittweise auf andere Bereiche zur Verbesserung verlagern (z. B. korrekte Arbeit, rechtzeitige Erledigung der Arbeit).
Techniken
Die grundlegenden Techniken der Verhaltensmodifikation umfassen die Verstärkung erwünschten Verhaltens und die Extinktion unerwünschten Verhaltens. Bestrafung wird selten eingesetzt, beinhaltet aber, wenn sie eingesetzt wird, eher das Entfernen eines positiven Verstärkers als das Darbieten eines negativen Verstärkers.
Bei der Entscheidung für ein Veränderungsprogramm konzentrieren sich Verhaltensmodifikatoren typischerweise auf die folgenden drei Punkte (Ullmann & Krasner, 1965):
- Welche Verhaltensweisen des Individuums sind maladaptiv und welche sollten verstärkt (verringert) werden?
- Welche Umweltbedingungen unterstützen derzeit das Verhalten des Individuums (entweder um unerwünschtes Verhalten aufrechtzuerhalten oder um die Wahrscheinlichkeit zu verringern, dass adaptivere Reaktionen gezeigt werden)?
- Welche Umweltmerkmale können verändert werden, um das Verhalten des Individuums zu verändern?
Eine Veränderung ist am wahrscheinlichsten, wenn Modifikatoren und Klienten sich einig sind, dass eine Veränderung erforderlich ist, und gemeinsam die gewünschten Ziele festlegen. Der erste Schritt bei der Einrichtung eines Programms ist die Definition des Problems in Verhaltenstermen. Zum Beispiel bezieht sich die Aussage “Keith ist zu oft von seinem Platz auf” auf ein offenes Verhalten, das gemessen werden kann: Man kann eine Aufzeichnung darüber führen, wie lange Keith von seinem Platz auf ist. Allgemeine Ausdrücke, die sich auf nicht Beobachtbares beziehen (“Keith hat eine schlechte Einstellung”), ermöglichen keine objektive Problemdefinition.
Der nächste Schritt besteht darin, die Verstärker zu bestimmen, die unerwünschtes Verhalten aufrechterhalten. Vielleicht bekommt Keith nur dann die Aufmerksamkeit des Lehrers, wenn er von seinem Platz aufsteht und nicht, wenn er sitzt. Ein einfacher Plan ist, dass der Lehrer Keith beachtet, während er sitzt und sich mit akademischer Arbeit beschäftigt, und ihn ignoriert, wenn er von seinem Platz aufsteht. Wenn die Häufigkeit, mit der Keith von seinem Platz aufsteht, abnimmt, ist die Aufmerksamkeit des Lehrers ein positiver Verstärker.
Ein Verhaltensmodifikationsprogramm könnte generalisierte Verstärker wie Punkte verwenden, die Schüler gegen Backup-Verstärker wie materielle Belohnungen, Freizeit oder Privilegien eintauschen. Mehr als einen Backup zu haben, stellt sicher, dass mindestens einer für jeden Schüler zu jeder Zeit wirksam ist. Es muss ein Verhaltenskriterium festgelegt werden, um eine Verstärkung zu erhalten. Das Fünf-Schritte-Shaping-Verfahren (das zuvor besprochen wurde) kann angewendet werden. Das Kriterium wird anfänglich auf der Ebene des anfänglichen Verhaltens definiert und schreitet in kleinen Schritten in Richtung des gewünschten Verhaltens fort. Ein Punkt wird dem Schüler jedes Mal gegeben, wenn das Kriterium erfüllt ist. Um unerwünschtes Verhalten von Keith zu löschen, sollte der Lehrer ihm nicht zu viel Aufmerksamkeit schenken, wenn er von seinem Platz aufsteht, sondern ihm privat mitteilen, dass er keinen Punkt verdient, weil er das Kriterium nicht erfüllt.
Bestrafung wird nur selten angewendet, kann aber erforderlich sein, wenn das Verhalten so störend wird, dass es nicht ignoriert werden kann (z. B. Kämpfen). Eine übliche Bestrafung ist Time-out (von der Verstärkung). Während der Time-out-Zeit wird der Schüler aus dem sozialen Kontext der Klasse entfernt. Dort setzt der Schüler die akademische Arbeit ohne soziale Interaktion mit Gleichaltrigen oder die Möglichkeit, eine Verstärkung zu erhalten, fort. Eine weitere Bestrafung besteht darin, positive Verstärker (z. B. Freizeit, Pause, Privilegien) für Fehlverhalten zu entfernen.
Kritiker haben argumentiert, dass Verhaltensmodifikation ruhiges und fügsames Verhalten formt (Winett & Winkler, 1972). Obwohl ein angemessenes Maß an Ruhe erforderlich ist, um sicherzustellen, dass Lernen stattfindet, streben einige Lehrer zu jeder Zeit nach einem ruhigen Klassenzimmer, selbst wenn etwas Lärm durch soziale Interaktionen das Lernen erleichtern würde. Die Verwendung von Verhaltensmodifikation ist an sich weder gut noch schlecht. Sie kann ein ruhiges Klassenzimmer hervorbringen oder soziale Initiativen von zurückgezogenen Kindern fördern (Strain, Kerr, & Ragland, 1981). Wie die Techniken selbst müssen die Ziele der Verhaltensmodifikation von denjenigen, die die Verfahren umsetzen, sorgfältig durchdacht werden.
Cognitive Behavior Modification
Forscher haben auch kognitive Elemente in Verhaltensmodifikationsverfahren integriert. Bei der kognitiven Verhaltensmodifikation fungieren die Gedanken der Lernenden (wenn sie verbalisiert werden) als diskriminative und verstärkende Reize. So können sich Lernende verbal anweisen, was zu tun ist, und dann das entsprechende Verhalten ausführen. Kognitive Verhaltensmodifikationstechniken werden häufig bei Schülern mit Behinderungen angewendet (Hallahan, Kneedler, & Lloyd, 1983) und zur Reduzierung von Hyperaktivität und Aggression eingesetzt (Robinson, Smith, Miller, & Brownell, 1999). Meichenbaums (1977) Selbstinstruktionstraining ist ein Beispiel für kognitive Verhaltensmodifikation.
Selbstregulation
Operante Konditionierung befasst sich auch mit Selbstregulation (Mace, Belfiore & Hutchinson, 2001; Mace, Belfiore & Shea, 1989). Diese Perspektive wird in Kapitel 9 ausführlich behandelt. Die operante Theorie besagt, dass selbstreguliertes Verhalten die Wahl zwischen alternativen Handlungsweisen beinhaltet (Brigham, 1982), typischerweise durch das Aufschieben eines unmittelbaren Verstärkers zugunsten eines anderen, und in der Regel größeren, zukünftigen Verstärkers. Zum Beispiel bleibt Trisha am Freitagabend zu Hause, um für eine Prüfung zu lernen, anstatt mit Freunden auszugehen, und Kyle arbeitet weiterhin an einer akademischen Aufgabe, obwohl ihn Mitschüler in der Nähe verspotten. Sie verschieben unmittelbare Verstärkung für erwartete zukünftige Verstärkung, wie auch John im nächsten Beispiel.
John hat Schwierigkeiten beim Lernen. Trotz guter Absichten verbringt er zu wenig Zeit mit dem Lernen und lässt sich leicht ablenken. Ein Schlüssel zur Veränderung seines Verhaltens ist die Etablierung diskriminativer Stimuli (Hinweisreize) für das Lernen. Mit der Unterstützung seines High-School-Beraters legt John eine feste Zeit und einen festen Ort für das Lernen fest (19:00 bis 21:00 Uhr in seinem Zimmer mit einer 10-minütigen Pause). Um ablenkende Hinweisreize zu beseitigen, verpflichtet sich John, während dieser Zeit weder sein Handy, seinen CD-Player, seinen Computer noch seinen Fernseher zu benutzen. Zur Verstärkung wird sich John für jede Nacht, in der er seine Routine erfolgreich absolviert, einen Punkt geben. Wenn er 10 Punkte erreicht hat, kann er sich einen Abend frei nehmen.
Aus einer operanten Konditionierungsperspektive entscheidet man, welche Verhaltensweisen man regulieren möchte, etabliert diskriminative Stimuli für deren Auftreten, bewertet die Leistung danach, ob sie dem Standard entspricht, und verabreicht Verstärkung. Wie bereits erwähnt, sind die drei wichtigsten Subprozesse Selbstüberwachung (bewusste Aufmerksamkeit auf ausgewählte Aspekte des eigenen Verhaltens), Selbstinstruktion ( s, die den Anlass für selbstregulierende schaffen und zu führen) und Selbstverstärkung (sich selbst für die Durchführung einer korrekten Reaktion verstärken).