Tse, nein, oje: Die Denkweise des fehlerfreien Lernens ebnet den Weg zur Verstärkung

 

Originaltitel: Tsk, No, Eh-eh: Clearing the Path to Reinforcement with an Errorless Learning Mindset, Übersetzung von Dagmar Heidebluth, veröffentlicht auf www.vogelecke.de im März 2018. Mit freundlicher Genehmigung von Susan G. Friedman, Ph.D., www.behaviorworks.org

 

 

Kurze Zusammenfassung: "Gelingt es nicht auf Anhieb, probiere weiter, bis es klappt", solche Sprüche kennen wir alle. Leider führt die Herangehensweise mit Versuch und Irrtum zumeist zu niedrigen Verstärkungsraten, die unerwünschte Konsequenzen mit sich bringen. Der Lerner übt Fehler, die das richtige Reagieren weniger wahrscheinlich machen, dies führt zu Frustration und schafft die Bedingungen für aggressives Verhalten und Aufgeben. Aufgrund dieser negativen Auswirkungen stellten sich Forscher und Praktiker die Frage, sind Fehler tatsächlich notwendig, damit Lernen stattfindet? Der Begriff fehlerfreies Lernen beschreibt eine Lehrmethode, bei der unrichtige Reaktionen durch sorgfältiges Arrangement der Lernbedingungen begrenzt werden. In dieser Präsentation werden die Grundelemente zur Entwicklung einer Fehler mindernden Lernumgebung dargelegt, um effektivere, effizientere und humanere Trainingspläne erstellen zu können.

Viele unserer effektivsten Trainingsstrategien waren in der Vergangenheit nicht so gut bekannt wie heute. Nehmen wir Thorndike als Beispiel, der 1889 dringend das Mittel der Verhaltensformung benötigt hätte, um einem Hund beizubringen, in die Ecke eines großen Geheges zu gehen. Thorndike schrieb:

Ich pflegte mit einem Stock zu pochen und zu sagen, "Geh rüber in die Ecke." Nach einem Intervall (35 Versuche à 10 Sekunden, 60 Versuche à 5 Sekunden) pflegte ich hinüber in die Ecke (3,50 Meter entfernt) zu gehen und dort ein Stück Fleisch hinzulegen. Er folgte natürlich und nahm es. Beim 6., 7., 16., 17., 18. und 19. Versuch tat er tatsächlich das Gewünschte, bevor die 10 Sekunden um waren, dann ging er während der 2-Minuten-Intervalle mehrmals hin, ohne auf das Signal zu achten, und schließlich gab er das Verhalten komplett auf (S. 77).

Während Thorndikes Hingabe zu Daten eindrucksvoll ist, stand seine Herangehensweise mit Versuch und Irrtum dem Erfolg seines Hundetrainings im Wege. Ich habe Versuch und Irrtum im Urban Dictionary nachgeschlagen - zugegebenermaßen nicht gerade eine wissenschaftliche Quelle, aber dieses "satirische crowdsourced Online-Wörterbuch der Slang-Begriffe und -Sätze" (Urban Dictionary, 2016) trifft es genau. Die Benutzer lieferten die folgenden Beschreibungen zu Lernen anhand von Versuch und Irrtum:

  • Etwas probieren, bis du es richtig hinkriegst.
  • Kommt dem Raten am nächsten.
  • Wenn du etwas wiederholt vermasselst, bevor du es richtig hinkriegst.
  • Jemand versucht etwas, macht es falsch, lernt aus den Fehlern, versucht nochmal und macht es hoffentlich irgendwann richtig.
  • Ein systematisches Verfahren, um die Lösung eines Problems zu finden, erfordert oft sehr viel Zeit; beinhaltet oft das Ausschließen von Möglichkeiten.
  • Die Geschichte meines Lebens.

Tradition

Versuch und Irrtum (V & I) ist die übliche Herangehensweise im Unterricht, wie es der ziemlich abgegriffene Spruch "Gelingt es nicht auf Anhieb, probiere weiter, bis es klappt" ausdrückt. Obgleich das operante Training und auch die V & I - Methode auf der Wahl des Verhaltens anhand der Konsequenzen basieren, ist der Erfolg bei V & I unplanbar, ein Zufallsprodukt.

Zwar kann das Feedback auf unrichtige Reaktionen (d. h. Bestrafung oder Löschung) den Lerner am Ende zum richtigen Verhalten führen, wird aber viele Konsequenzen à la "tze, nein, oje" erfordern, bis die Menge der falschen Entscheidungen vom Baum der Möglichkeiten gepflückt sind. V & I wird dadurch zu einem langsamen Prozess mit vielen negativen Ergebnissen. Der Lerner übt Fehler und Bemühung wird bestraft (Chance, 2009, S. 312). Außerdem zeigen Forschungsergebnisse, dass Löschung ein aversives Verfahren ist, das unerwünschte emotionale Reaktionen wie Frustration, Aggression und Aufgeben hervorruft. Pierce & Cheney (2013) berichten die folgende negative Auswirkung (Informationen in Klammern und kursiv wurden hinzugefügt):

Tauben schlagen auf aggressive Weise mit den Flügeln und sind sogar bereit, für die Möglichkeit zu arbeiten, einen anderen Vogel anzugreifen, während der SΔ [Stimulus-delta, der Löschungsstimulus, d. h. das Signal für keine Reaktion] nach einem multiplen Plan präsentiert wird. Die Vögel hacken auf eine andere Taste, wenn dieses Hacken den Löschungsstimulus abschaltet, was darauf schließen lässt, dass der Stimulus aversiv ist. Es gibt weitere Probleme mit sukzessiven Diskriminationsverfahren. Da emotionales Verhalten hervorgerufen wird, entwickelt sich diskriminatives Reagieren [korrekt auf den diskriminativen Stimulus SD reagieren und korrekt auf den Löschungsstimulus SΔ nicht reagieren] sehr langsam. Hinzu kommt, dass ein hin und wieder spontanes Wiederaufflammen der SΔ-Reaktion das Aneignen der Diskrimination stört. Schließlich und endlich machen Vögel und andere Lebewesen selbst nach intensivem Training weiterhin Fehler, indem sie in Anwesenheit des Löschungssignals [SΔ] reagieren. (S. 238).

Die allgegenwärtige Anwendung von V & I bildet, zumindest teilweise, den kulturellen Nebel ab, der das Verständnis, wie Verhalten funktioniert, umgibt. Damit Lernen stattfindet, sind keine hohen Fehlerquoten erforderlich, diese können sogar kontraproduktiv für den Lernerfolg sein. Um den Nebel zu lichten, muss folgendes klar sein: Prompts sind Informationen, keine Bestechung; auf die Umwelt einzuwirken, um Verstärker zu erhalten, ist unsere Biologie und kein Trick; Lernerfolg ist in der Umwelt angesiedelt, nicht im Lerner. Ist uns dies nicht klar, übersehen wir leicht, welche Kraft in der Änderung des Umfelds steckt, um ein Verhalten zu ändern.

In seinem hervorragenden Artikel, der sich mit operantem Training und V & I auseinandersetzt, zitiert Rosales-Ruiz (2007) B.F. Skinners Sichtweise aus dessen Buch "The Technology of Teaching [Die Lehrtechnologie]", Veröffentlichung 1968:

Fehler sind keine Funktion des Lernens oder umgekehrt, noch sind sie dem Lerner anzulasten. Fehler sind eine Funktion einer mangelhaften Verhaltensanalyse, eines mangelhaft entwickelten Shaping-Programms, des zu schnellen Weitergehens von einem Programmschritt zum nächsten und des Mangels an Verhaltensvoraussetzungen, die für den Erfolg des Programms notwendig sind.

Fehlerfreies Lernen

Der Begriff fehlerfreies Lernen beschreibt eine Lehrmethode, welche falsche Reaktionen mittels sorgfältig arrangierter Lernbedingungen limitiert. Terrace (1963) untersuchte fehlerfreies Lernen anhand einer Aufgabe zur sukzessiven Diskrimination. Im traditionellen sukzessiven Diskriminationsverfahren (das sich von Terraces Verfahren unterscheidet), erhält z. B. eine Taube einen Futterverstärker, wenn sie auf eine Scheibe (Leuchttaste oder Taste genannt) an der Wand der operanten Testkammer pickt, falls diese rot leuchtet. Nach vielen Wiederholungen, wenn das Pickverhalten bei roter Taste gefestigt ist, wechselt die Taste zu grün und das Picken wird nicht mehr verstärkt. Nach dem Standardverfahren ist das rote Licht der diskriminative Stimulus (SD), der das Picken für Futterverstärkung anstößt und das grüne Licht ist der Stimulus-delta (SΔ), der die Löschungsbedingung signalisiert, d. h. Picken bewirkt keine Futterverstärkung. Die rote und die grüne Taste werden dann abwechselnd gezeigt, wobei die zugehörigen Verstärkungs- oder Löschungsbedingungen in Kraft sind. Nach anfänglich zahlreichen Fehlern (aufgrund von Reaktionsgeneralisierung) tritt die richtige differenzierte Reaktion auf die Tastenfarbe allmählich auf (Pierce & Cheney, 2013).

Abweichend davon verwendete Terrace in seinem Training zur fehlerfreien Diskrimination zwei Verfahren, die untypisch für übliches Diskriminationstraining sind. Erstens wurde die SΔ-Bedingung, die grüne Taste, sehr früh in das Programm eingeführt, noch bevor das Picken bei rotem Licht gefestigt war. Zweitens verwendete Terrace eine Einblendtechnik, um die grüne Taste mit unterschiedlichen Werten zu präsentieren, wobei Helligkeit, Wellenlänge und Dauer im Laufe der Wiederholungen schrittweise gesteigert wurden. Diese beiden Methoden führten zu schnellerem Erlernen der Diskrimination und zu sehr wenigen Fehlern. Die nach der Methode der fehlerfreien Diskrimination trainierten Tauben machten ungefähr 25 Fehler (d. h. pickten auf die grün leuchtende Taste); im Vergleich dazu machten die mit der Standardmethode trainierten Tauben 2000 bis 5000 Fehler. Nur die mit V & I trainierten Vögel zeigten emotionale Reaktionen in Gegenwart des SΔ. Die nach dem Fehlerfrei-Verfahren trainierten Tauben blieben ruhig, bis die rote Taste, der SD, erschien.

Diese Forschungsergebnisse konnten mit verschiedenen Tierarten vielfach wiederholt werden. Powers, Cheney & Agostino (1970) fanden heraus, dass Vorschulkinder mit der Fehlerfrei-Methode die Farben schneller und mit weniger Fehlern erlernten und mehr Spaß am Lernen hatten als die Kinder, die mit Standard-Methoden unterrichtet wurden. Roth berichtete von ähnlichen Resultaten mit Delfinen (wie in Pierce & Cheney, 2013, zitiert wird).

Mehr als ein Trainingsplan: Eine Denkweise

Terraces Fehlerfrei-Diskriminationsplan, der die frühzeitige Präsentation des SΔ und das schrittweise Einblenden der diskriminativen Eigenschaften des SΔ beinhaltet, und seine Wichtigkeit für das Verbessern der Lernergebnisse ist das eine. Unter der Fehlerfrei-Denkweise ergibt sich jedoch ein umfassenderes Bild, das nicht außer Acht gelassen werden darf. Rosalez-Ruiz (2007) beschreibt es in einfachen Worten:

Wir wissen auch, dass es das Programm ist, welches die ausschließliche Verwendung von positiver Verstärkung möglich macht. Jedes Mal, wenn wir in die Situation geraten zu korrigieren oder zu lange auf die Reaktion zu warten, ist es an der Zeit, unser Shaping-Programm zu überdenken (S. 6).

Mit anderen Worten, die Ratte irrt nicht, es liegt am Programm. Die Denkweise des fehlerfreien Lernens ist eine, in der wir die Verantwortung dafür übernehmen, Fehler zu reduzieren. Und das liegt in unserer Macht. Verhalten ist immer an Bedingungen geknüpft. Verhalten findet niemals in einem Vakuum statt.

Wissensbasiertes, gekonntes und kreatives Arrangement der Bedingungen, d. h. der vorausgehenden Bedingungen (Antezedenten) und der Konsequenzen ist der Schlüssel zur Reduzierung von Fehlern und zur Steigerung von Effizienz, Erfolg und Zufriedenheit der Lerner. Einige Beispiele für die Anwendung der Fehlerfrei-Lernen-Denkweise auf Antezedenten, Konsequenzen und bemerkenswerte Verfahren werden nachstehend erläutert.

Einflüsse, die dem Verhalten vorausgehen (Antezedenten)

Vorausgehende Einflüsse (Antezedenten) sind diejenigen Reize, Bedingungen und Ereignisse, die die Möglichkeit schaffen, dass das Verhalten stattfinden kann. Die sich überlappenden Kategorien der Antezedenten werden nachstehend kurz erläutert.

Bestimmende Faktoren. Nicht alle Arrangements der Antezedenten stellen gute Lernbedingungen dar. Änderungen der Merkmale in der Trainingsumgebung können das richtige Verhalten erleichtern und dadurch dem Lerner zu Erfolg verhelfen. Mitunter genügt es schon, den Reiz für den Fehler zu entfernen und einen Reiz für die richtige Reaktion hinzuzufügen. Zum Beispiel startete Pella Shades [Anm. ein US-amerikanischer Jalousienhersteller] 2015 eine Medienkampagne, die den Wert von bestimmenden Faktoren zeigt. Indem der Halter seine Pella-Jalousie herunterließ, reduzierte er das ständige Bellen seines Hundes, wenn Leute vorbeigingen (LoveThatRebecca, 2015). Weitere Beispiele wären, mit geeignetem Bodenbelag gute Fortbewegungsmöglichkeiten schaffen, Ein- und Ausgänge vergrößern, Futterverstärker in der Tasche verbergen, anstatt sie sichtbar in der Hand zu halten.

Motivierende Operationen. Die Stärke von Verstärkern ist keine feste Größe, sie ist außerdem bedingt, d. h. die Stärke der Verstärker ist, abhängig von den jeweiligen Umständen, schwankend. Motivierende Operationen sind all das, was Bedingungen schafft, die die Stärke des Verstärkers erhöhen. Für das gleiche Futter zu arbeiten, welches täglich frei verfügbar ist, kann wenig motivierend sein, deshalb trainieren wir mit besonderen Leckerlis. Wenn das Signal für ein Verhalten von einem nicht vertrauten Trainer gegeben wird, kann es wenig motivierend sein, darauf zu reagieren; deshalb regen wir an, zunächst eine gute Beziehung aufzubauen, indem Verstärker auf das Verstärkungskonto eingezahlt werden. Im Cheyenne Mountain Zoo steigerten die Trainer den Wert der Rückkehr in die Unterkunft, indem sie Äste auf den Heimweg von Miss Ginger Biber legten.

Diskriminative Reize und Prompts. Werden SDs mit starken Verstärkern gepaart, erhält man starke, eindrucksvolle Signale. Wenn das Signal einen schwachen Verstärker ankündigt, erhalten wir oftmals ein schwaches Reaktionsmuster. Ich weiß zwar, was ein Feueralarm ist, aber wenn ich vermute, es handelt sich nur um einen Probealarm und draußen prasselt der Hagel nieder, mache ich mir eventuell nicht die Mühe, das Gebäude zu verlassen.

Natürlich können wir kein Verhalten verstärken, welches niemals auftritt, daher können zu Anfang Prompts verwendet werden, die dann sukzessive ausgeblendet werden, um die Stimuluskontrolle auf den SD allein zu übertragen. Prompts können verbal, optisch oder durch Gesten gegeben werden und schließen das Locken mit Futter und das Vormachen ein. Prompts können, je nach Situation, nach der Methode minimal zu maximal oder maximal zu minimal gegeben werden. Die Hilfestellung minimal zu maximal ist nützlich, wenn es um vorhandene Fähigkeiten geht, d. h. um Dinge, die der Lerner selbstständig oder mit wenig Hilfe tun kann. Zu schnelles oder (häufiger) zu langsames Ausblenden kann problematisch sein (MacDuff, Krantz, & McClannahan, 2001).

Target Sticks sind häufig benutzte Prompts, die nach einigen verstärkten Wiederholungen des erwünschten Verhaltens schnell ausgeblendet werden können. Auch die Platzierung des Verstärkers kann die richtige Reaktion prompten. Peta Clark, eine talentierte Trainerin aus Australien, fordert [den Hund] zum Verbeugen auf, indem sie den Futterverstärker etwas unter der Brust des Hundes liefert und blendet den Prompt aus, indem sie das Futter schrittweise in einer neutraleren, aufrechteren Position liefert.

Einfluss der Konsequenzen und coole Verfahren

Es sind viele wichtige Faktoren zu berücksichtigen, um höchstmögliche Verstärkung zu erzielen. Zu den wichtigsten Merkmalen effektiver Verstärkung zählen eindeutige Kontingenz, d. h. Abhängigkeit zwischen Verhalten und Resultat. Kontingenz wird am besten durch konsistente Verstärkung vermittelt, speziell in der Lernphase beim Erlernen einer neuen Fähigkeit. Ein weiteres Merkmal der effektiven Verstärkung ist ihre Kontiguität. Kontiguität bezieht sich auf die Schnelligkeit, mit der Verstärker geliefert werden. Die Kontiguität wird oft durch akustische oder visuelle Marker (Brückensignale), z. B. durch Klicker, Pfeife oder ein kurzes Wort, stark verbessert, die uns erlauben, die richtige Reaktion punktgenau dann zu "markieren", wenn sie auftritt. Anschließend wird der Marker mit einem gut eingeführten Verstärker gestützt. Ferner können Motivation und Resultat durch Art, Menge, Neuheit und Vielfalt der Verstärker beeinflusst werden.

Zwei entscheidende Faktoren, um Fehler, Frustration und Aggression zu reduzieren, sind die verwendeten Trainingsmethoden und unsere Anwendungskompetenz. Zu den wirkungsvollsten Werkzeugen zum Ersetzen von Problemverhalten und zum Lehren neuer Fähigkeiten gehören die Verhaltensformung (Shaping), der Effekt differenzieller Resultate, differenzielle Verstärkung alternativer Verhalten und Verhaltensmomentum.

Shaping (Verhaltensformung). Shaping ist ein Prozess, bei dem die sukzessiven Annäherungen an das erwünschte Verhalten verstärkt werden. Das Shaping erlaubt uns, Verhalten zu trainieren, die sonst vielleicht niemals auftreten. Chance (2009) gibt die folgenden fünf Tipps für ein erfolgreiches Shaping:

  1. Kleine Schritte verstärken. Trainer, die schwache Resultate erzielen, verlangen oftmals zu viel auf einmal.
  2. Sofort in dem Moment, wenn die erwünschte Annäherung auftritt, den Verstärker liefern.
  3. Kleine Verstärker geben, gerade eben groß genug, sodass sie wirksam sind, ohne das Tempo zu verzögern.
  4. Die beste verfügbare Annäherung verstärken und nicht an einem starr vorgegebenen Plan festhalten.
  5. Falls nötig , zu einer zuvor erfolgreichen Annäherung zurückkehren und so schneller zum endgültigen Ziel vorankommen (S. 141).

 

Die Trainer im Zoo Knoxville brachten ihren Elefanten mittels Shaping die verschiedenen Verhaltenskomponenten für eine freiwillige Blutentnahme bei. Hunde-Verhaltensberaterin Lori Stevens verwendet Shaping, um Hunde zu lehren, über Cavaletti-Stangen (Hindernisstangen) erst zu gehen und dann zu laufen, um ihr Körpergefühl und ihre Kraft aufzubauen. Lori erhöht die Schwierigkeit, indem sie Anzahl, Höhe und Abstand der Stangen ändert.

Effekt differenzieller Resultate. Beim Effekt differenzieller Resultate ändert sich der Verstärker systematisch mit dem Verhalten. Ein Beispiel: Grasen verstärkt den Wechsel auf die Weide, und Karotten verstärken die Rückkehr zum Stall. Es konnte gezeigt werden, dass der Effekt differenzieller Resultate ein robustes Phänomen ist, welches das Lernen bei einer Vielzahl von Tierarten, Lernzielen und Verstärkern beschleunigen kann (siehe z. B. für Pferde: Miyashita, Nakajima, & Imada, 2000).

Im Oakland Zoo nutzten Senior-Tierpflegerin Amy Phelps und Beraterin Lisa Clifton-Bumpass den Effekt differenzieller Resultate aus, um Giraffen zu lehren, ihre Füße in die Mitte einer Röntgenplatte zu stellen. Den Fuß irgendwo auf den Rand der Sperrholzatrappe zu setzen, brachte ihnen Salat ein, und den Fuß direkt in die Mitte zu stellen, brachte ihnen Bananenscheiben ein.

Da die Änderung von Verhalten immer eine Studie des Individuums ist, sollten wir der Individualität Rechnung tragen, wenn es darum geht herauszufinden, welche Konsequenzen für den Lerner tatsächlich als Verstärker wirken.

Differenzielle Verstärkung alternativer Verhalten (DRA). Bei der differenziellen Verstärkung alternativer Verhalten handelt es sich um eine Kombination zweier Verfahren - Verstärkung des Zielverhaltens und Löschung des unerwünschten Verhaltens. Die differenzielle Verstärkung alternativer Verhalten ist die Antwort auf die Frage: "Was soll das Tier anstelle des unrichtigen oder unangemessenen Verhaltens tun?" Die Trainer im Columbus Zoo verstärkten einen asiatischen Zwergotter für das Festhalten eines Klotzes, eine inkompatible Alternative zum Ergreifen des Targets, das sie als Prompt für das Öffnen der Schnauze verwendeten. Trainer im San Diego Zoo verstärkten einen männlichen Löwen für sich hinlegen, eine inkompatible Alternative zu aggressivem Verhalten an der Tür zum anderen Gehege.

Verhaltensmomentum. Auf der Basis von Nevins Arbeit beschrieben Mace et al. (1988) Verhaltensmomentum als "die Tendenz von Verhalten, nach einer Änderung der Umweltbedingungen fortzubestehen" (S. 123). Mace entwickelte eine entsprechende angewandte Intervention für Verweigerung, die daraus bestand, eine Folge von Aufforderungssignalen zu geben, denen das Tier mit hoher Wahrscheinlichkeit nachkommen würde (Aufforderungen mit hoher Wahrscheinlichkeit), bevor die Aufforderung mit niedriger Wahrscheinlichkeit gegeben wird. Es wurden Momentum-ähnliche Effekte gezeigt. Die vorangegangene Sequenz von Aufforderungen mit hoher Wahrscheinlichkeit erhöhte die Befolgung und verringerte die Befolgungslatenz und die Dauer der Ausführung.

Ken Ramirez von Shedd Aquarium und Karen Pryor Clicker Training verwendet das Verhaltensmomentum als wesentliches Element seiner Reaktion auf nicht befolgte Aufforderungen bei Seelöwen, Belugawalen, Ottern und anderen Tieren. Nach einem sehr kurzen Moment des Zurückhaltens des Verstärkers fordert Ken zu ein paar Verhalten mit hoher Wahrscheinlichkeit auf und gibt dann erneut die zuvor nicht befolgte Aufforderung. Voraussetzung für die richtige Anwendung dieses Verfahren ist, dass das Tier die Fähigkeit zu ruhiger, auf den Trainer fokussierter Aufmerksamkeit während der kurzen Pause (des Zurückhaltens des Verstärkers) besitzt, was wiederum das Ergebnis ausgezeichnetem Trainings ist.

Realistisch betrachtet

Es ist in unserer Welt weder realistisch noch notwendig, beim Erlernen neuer Fähigkeiten überhaupt keine Fehler zu machen (oder anders ausgedrückt, es ist für uns nicht nötig, dass jede Reaktion zu positiver Verstärkung führt). Wir sind belastbar und wir lassen uns von Fehlern nicht unterkriegen, sie lehren und bereichern uns sogar, vorausgesetzt, es gibt eine starke Lerngeschichte voller Erfolge. Schließlich haben sogar diejenigen Tauben Fehler gemacht, die mit Terraces sorgfältig abgestimmter Fehlerfrei-Diskriminationstechnik trainiert wurden. Jedoch machte die V & I-Gruppe 80 bis 200 Mal mehr Fehler und sie waren die einzigen Tauben, die Frustration und Aggression zeigten.

Die Fehler zu reduzieren ist ganz klar ein lohnendes Ziel und das führt uns zu der Frage, wie viele Fehler sind zu viel? Wenn es darauf nur eine einfache Antwort gäbe! Vielleicht ist die Frage besser so formuliert: Woher können wir wissen, was für das jeweilige Individuum zu viele Fehler sind? Was ist das Maß? Die Antwort liegt im Lesen und Beachten der Kommunikation des Tiers. Große und kleine Änderungen von Schwanz, Augen, Fell und Federn sind Nachrichten in der Konversation, die wir mit dem Tier haben sollten. Latenz beim Reagieren auf Signale, zu viel oder zu wenig Konzentration und die Intensität der Reaktion liefern ebenfalls Informationen darüber, wie viele Fehler für den jeweiligen Lerner zu viele sind. Ferner können ernsthafte Problemverhalten, wie immer wiederkehrende und selbstverstümmelnde Verhalten, eine Vermeidungsfunktion haben (negative Verstärkung). Dies bedeutet, Problemverhalten können möglicherweise gezeigt werden, um aversive Bedingungen, wie das Verlangen von weitgehend erfolglosen Trainingseinheiten, zu beseitigen, d. h. die Fehler sind zu viele.

Auch interessant und bemerkenswert ist, dass einige Forschungen nahelegen, dass Tarraces Fehlerfrei-Diskriminationsverfahren in denjenigen Situationen besonders nützlich sein können, in denen die Kontingenzen festgelegt sind (was bei vielen trainierten Verhalten der Fall ist) anstatt sich zu ändern. Bei Problemlösungssituationen mit sich häufig ändernden Kontingenzen, bei denen es darauf ankommt, fehlerhafte Reaktionen zu eliminieren (z. B. Such- und Rettungshunde) können traditionelle V & I-Verfahren zu flexibleren Reaktionen führen und besseres Merken und Erinnern ermöglichen (Pierce & Che­ney, 2013. S. 239). Weitere Studien sind erforderlich, um den Zusammenhang zwischen Trainingsverfahren und verschiedenen operanten Klassen des Verhaltens zu erforschen.

Schlusswort

Die Trainingsherangehensweise mit Versuch und Irrtum führt typischerweise zu hohen Fehlerquoten und niedrigen Verstärkungsraten - das perfekte Rezept für unerwünschte Auswirkungen. Der Lerner übt Fehler, wodurch richtige Reaktionen auf Dauer gesehen weniger wahrscheinlich werden und er zeigt oftmals Frustration, Aggression oder gibt ganz einfach auf. Auch der Trainer kann durch den langsamen Lernerfolg seiner Tiere und das häufige Zurückhalten des Verstärkers aufgrund fehlerhafter Reaktion ähnlich entmutigt werden.

Die Werkzeugkiste für operantes Training ist voller Alternativen, die sich vom Lernen durch Versuch und Irrtum unterscheiden, weil sie Möglichkeiten bieten, den Lerner zum verstärkenden Erfolg zu leiten. Terraces Methode der sukzessiven Diskrimination ist eine Alternative zum herkömmlichen Training mit Versuch und Irrtum und erlangte unter dem Namen fehlerfreies Lernen Bekanntheit. Fehlerfreies Lernen ist jedoch mehr als eine Trainingsweise. Es ist eine Denkweise, die Trainer dazu ermutigt, die Verantwortung für die Resultate ihrer Lerner zu übernehmen; dies führt zu mehr Sorgfalt und Kreativität bei der Gestaltung der Umweltbedingungen und der Trainingspläne. Mit der auf fehlerfreies Lernen ausgerichteten Denkweise haben die Tiere in menschlicher Obhut mehr Erfolgserlebnisse und dies verbessert ihr Wohlergehen ganz erheblich.

Quellenangaben:

Chance, P. (2009). Learning and Behavior Active Learning Edition. Belmont, CA: Wadsworth, Cengage Learning.

MacDuff, G. S., Krantz, P. J., & McClannahan, L. E. (2001). Prompts and prompt-fading strategies for people with autism. In C. Maurice, G. Green, & R. M. Foxx (Eds.), Making a difference: Behavioral intervention for autism (37- 50). Austin, TX: PRO-ED.

Mace, F. C., Hock, M. L., Lalli, J. S., West, B. J., Belfiore, P., Pinter, E., & Brown, D. K. (1988). Behavioral momentum in the treatment of non-compliance. Journal of Applied Behavior Analysis, 21, 123–141.

Miyashita, Y., Nakajima, S, & Imada, H. (2000). Differential outcome effect in the horse. Journal of Experimental analysis of Behavior, 74, 245-253.

LoveThatRebecca. (2015, August 7). Pella Shades, national TV campaign 2015: DENIED DOG [Video File]. Retrieved from https://www.youtube.com/watch?v=YfFliWRqbO0

Pierce, W.D. & Cheney C.D. (2013). Behavior Analysis and Learning. New York, NY: Psychology Press.

Powers, R., Cheney, C.D., & Agostino, N.R. (1970). Errorless training of a visual discrimination in preschool children. The Psychological Record, 20, 45-50.

Rosales-Ruiz, J. (2007). Teaching dogs the clicker way. Retrieved from http://stalecheerios.com/blog/wp-content/uploads/2011/07/Teaching-Dogs-the-Clicker-Way-JRR.pdf

Urban Dictionary. (2016, April 8). Retrieved from https://en.wikipedia.org/wiki/Urban_Dictionary

Terrace, H.S. (1963). Discrimination errors with and without “errors.” Journal of the Experimental Analysis of Behavior, 6, 1-27.

Thorndike, E.L., (1898). Animal Intelligence. Psychological Review Monographs, 2(8). Retrieved from https://archive.org/stream/animalintelligen00thoruoft/animalintelligen00thoruoft_djvu.txt

Trial and Error. (2004). In urbandictionary.com. Retrieved from http://www.urbandictionary.com/define.php?term=trial+and+error

 

Friedman

Susan G. Friedman,
Ph. D. (Doctor of Philosophy)
Utah State University and
Behavior Works, LLC


Die Amerikanerin ist eine Koryphäe auf dem Gebiet der Verhaltensforschung und arbeitet seit 2015 als Behavior Consultant, Behavior + Works LLC; Professor Emeritus an der Utah State University. Sie hat Pionierarbeit bei der Anwendung der Applied Behavior Analysis (ABA) von in Gefangenschaft gehaltenen und begleitenden Tieren geleistet. Aufgrund der Vielzahl ihrer Publikationen, Beratertätigkeiten und Einladungen zu Workshops und Vorträgen können wir hier leider nur eine kleine Auswahl abbilden. Sie war u. a. als Beraterin tätig für: Calgary Zoo - Alberta Canada, Living Desert - Palm Desert, CA, Dallas Zoo – Texas, University of Minnesota, College of Veterinary Medicine, Minnesota u. v. m. In den letzten 2 Jahren hat sie auf Einladung an vielen namhaften Instituten und Universitäten Präsentationen bzw. Seminare abgehalten. Sie war bereits dreimal für den Media Award der International Association for Behavior Analysis nominiert. Alle Infos finden Sie auf ihrer Webseite www.behaviorworks.org

von

Zurück