Diese Seite ist Teil der Homepage von Thomas Knob aus Österreich. - Letzte Änderung 30.8.2017


Vorbemerkung:
Dieses unentgeltlich zur Verfügung gestellte Kompendium dient dem Verfasser und seinen Schülerinnen und Schülern vor allem als Vorlage für den gymnasialen Schulunterricht im Unterrichtsfach "Psychologie" und erhebt weder Anspruch auf Vollständigkeit noch auf Fehlerlosigkeit. Es ist hemmungslos eklektizistisch und will Hilfestellung für Lehrende und Lernende, nicht Wiedergabe eigener Forschungen sein. Quellenangaben werden, soweit dies möglich ist, beigegeben. Sollten diesbezüglich (oder anderweitig) Fehler bzw. Unterlassungen passiert sein, so möge dies bitte nachgesehen und über die beigegebene Mailadresse gemeldet werden. So bald wie möglich werden Korrekturen erfolgen. Alle Informationen werden unter Ausschluss jeder Gewährleistung oder Zusicherung, ob ausdrücklich oder stillschweigend, zur Verfügung gestellt. Der Verfasser übernimmt ferner keine Haftung für die Inhalte verlinkter, fremder Seiten.

 

 

KOMPENDIUM DER PSYCHOLOGIE, 3. TEIL

(mit LINKS ins Internet)

 

 


Teil 1 - Teil 2 - Teil 4 - Teil 5 - Materialien - Home

Volltextsuche in allen 5 Teilen:
(Auf der Seite selbst: STRG+F)

 

 

 

Fragen und Kommentare an thomas.knob@chello.at

 

 


 

INHALT DES 3. TEILS

V. DIE INTELLIGENZ
(Der Intelligenzquotient [IQ] - Die Anlage-Umwelt-Problematik - Intelligenztests und -konzepte) ø
VI. DENKPSYCHOLOGIE (Funktion des Denkens - Entwicklung des Denkens nach Piaget - Erscheinungsformen des Denkens - Denken und Sprache) ø
VII. LERNEN UND GEDÄCHTNIS (Lernen im kognitiven Bereich - Lernen im vegetativen Bereich - Lernen im Verhaltensbereich - Lernmodelle) ø


 

 


V. DIE INTELLIGENZ
 

 

 

Vgl. Seite von neuronation.de, Seite von GEO oder die IQ-Page von Mensa.at, .de oder .ch

 

MÖGLICHE DEFINITIONEN

* H. Rohracher 1953: Intelligenz ist der Leistungsgrad der psychischen Funktionen bei der Lösung neuer Probleme.

* D. Wechsler 1956:
Intelligenz ist die zusammengesetzte oder globale Fähigkeit des Individuums, zweckvoll zu handeln, vernünftig zu denken und sich mit seiner Umgebung wirkungsvoll auseinander zu setzen.

* E. Claparede 1947:
Intelligenz ist ein durch mangelhafte Anpassung hervorgerufener geistiger Prozess, der dazu dient, das Individuum wieder anzupassen.

* Anastasi / Foley 1949:
Unter Intelligenz versteht man jene Fähigkeiten, die den innerhalb einer Kultur Erfolgreichen gemeinsam sind.

* E. Bohring 1923:
Intelligenz ist das, was Intelligenztests messen.

* Günther Paal (alias Gunkl) 2012: „Intelligenz“ kommt ja von „intellegere“, wörtlich „wähle zwischen“, also ist Intelligenz zuallererst die Fähigkeit, Unterscheidungen treffen zu können.

* G. Roth 2016: Intelligenz ist kreatives Problemlösen unter Zeitdruck.

Schon aus dieser kurzen Zusammenstellung geht die Problematik des IQ hervor. Misst er wirklich, was er zu messen vorgibt? Lässt sich Intelligenz überhaupt messen? Welche Definition von Intelligenz lege ich meiner Messung zugrunde? ... Folgerichtigerweise wurde und wird die IQ-Messung von zahllosen Autoren - je nach Position -  immer wieder gefordert, in Frage gestellt, relativiert, problematisiert etc. In letzter Zeit könnte man etwa auf die vom Buch The Bell Curve (Richard Herrnstein und Charles Murray) ausgelöste Diskussion um die Unausweichlichkeit angeborener Intelligenzgrenzen oder den 1995 in die Diskussion gebrachten "EQ" (s. u.) verweisen. Prinzipiell ist Intelligenz als eine Eigenschaft wie jede andere zu betrachten, die nicht fetischisiert werden darf und deren Niveau z. B. nicht mit einem bestimmten moralischen Niveau korreliert: Auch Serienmörder und Staatsverbrecher (vgl. z. B. das Nürnberger Tagebuch von Gustave M. Gilbert, in dem er als amerikanischer Gerichtspsychologe Gespräche mit den Angeklagten des Nazi-Regimes führt) besitzen tw. hohe Intelligenz. (Stephen Hawking, * 1942, meint, dass nicht mangelnde Intelligenz, sondern fehlende Empathie der Grund für das Aussterben der Menschheit sein werde.)

 

DER INTELLIGENZQUOTIENT - IQ

- Definition:
IQ ist ein ursprünglich 1912 von William Stern (aus Berlin gebürtiger, in die USA emigrierter Begründer des "Kritischen Personalismus"; Vater des Philosophen Günther Anders) für Kinder eingeführtes Verhältnismaß, das nach folgender Formel berechnet wird:

                                          
                           Intelligenzalter (IA)
Intelligenzquotient (IQ) =    __________________       mal 100
                           Lebensalter (LA)

 

Der IQ für Erwachsene wird heute mittels geeichter Intelligenztests erstellt.

- Verteilung:
Die Verteilung der Intelligenz in der Bevölkerung kann immer mit der 1832 erstellten Normalverteilung (Gauss'sche Glockenkurve, s. Graphik) erfasst werden. Grund: Der IQ ist kein absolutes, über alle Zeiten gültiges Maß, sondern durch die individuelle Abweichung vom Mittelwert der Bezugsgruppe definiert (ø = 100), der durch Eichung der Intelligenztests (s. u.) an der gleichaltrigen Gesamtbevölkerung gewonnen wird. James R. Flynn (* 1934) wies nach, dass der absolute Wert im Laufe der Jahrzehnte (vor allem bei guten Nicht-Krieges-Bedingungen) um ca. 3 Punkte pro Jahrzrehnt ansteigt. (Dieses Phänomen wird seit 1994 Flynn-Effekt genannt und zeigt, dass Intelligenz und Weisheit zweierlei sind, da die Probleme der Menschheit ja durch dieses Phänomen nicht verringert wurden).


IQ 52
schwachsinnig
IQ 68
sehr niedrig
IQ 84
niedrig
IQ 100
durchschnittlich
IQ 116
hoch
IQ 132
sehr hoch
IQ 148
extrem hoch

Die Glockenkurve der Intelligenzverteilung (Graphik aus IQTest.ag)

     _
IQ X = 100; Verteilung etwa:    1 von 1000 zwischen 0 und 52
                                                 22 von 1000 zwischen 52 und 68
                                               136 von 1000 zwischen 68 und 84
                                               341 von 1000 zwischen 84 und 100
                                               341 von 1000 zwischen 100 und 116
                                               136 von 1000 zwischen 116 und 132
                                                 22 von 1000 zwischen 132 und 148
                                                   1 von 1000 zwischen 148 und 200
Also sind 68,26% der Gesamtbevölkerung im Normalbereich zwischen 84 - 116 IQ-Punkten. 95% liegen zwischen 69 und 132.

 

- Bezeichnungen der verschiedenen Intelligenzgrade:
* idiotisch, imbezill: IQ von 0 bis 52

* debil,
engl.: moron: IQ von 53 bis 68

* schwachbegabt:
IQ von 69 bis 84

* normalbegabt:
IQ von 85 bis 116

* überbegabt:
IQ von 117 bis 132

* hochbegabt:
IQ von 133 bis 148

* genial: IQ von 149 bis 200

Die Terminologie schwankt und ist von außenwissenschaftlichen Faktoren wie der so genannten Sprache der PC (politcal corectness) beeinflusst.

 

DAS ANLAGE-UMWELT-PROBLEM

- Grundeinstellungen:
Die Frage, ob Intelligenz hauptsächlich vererbt oder durch die Umwelt beeinflusst sei, wird je nach Grundeinstellung unterschiedlich beantwortet:

* milieuoptimistische Schule:
Intelligenz ist vor allem durch Erziehung bestimmt; z. B. Behaviouristen, v. a. Gründer (mit Psychology as the behaviorist views it, 1913) Watson. (s. auch Teil 3)

* milieupessimistische Schule:
Intelligenz wird durch die Erbanlangen determiniert (z. B. Galton, s. u.)

Durch den Nachweis so genannter epigenetischer Vorgänge (Adrian Peter Bird, * 1947: "Epigenetik beschreibt die strukturelle Anpassung chromosomaler Regionen, um veränderte Zustände der Aktivierung zu kodieren, zu signalisieren, oder zu konservieren.") sieht man heute die beiden gegensätzlichen Schulen enger miteinander verflochten als ursprünglich angenommen. Die Epigenetik geht prinzipiell davon aus, dass die Aktivitäten bestimmter Gene durch Umwelteinflüsse beeinflusst und diese Festlegungen auch an die Folgegeneration weitergegeben werden können, ohne dass die DNA selbst verändert wird. Das Zusammenwirken von Genetik, Entwicklung und Umwelt bestimmt also unsere "Seele" mit all ihren Eigenheiten (z. B. das Ausmaß, in dem spätere Einwirkungen positiv oder negativ wirksam werden können). Für eine positive Intelligenzentwicklung haben neuropsychologische Untersuchungen vor allem eine stressfreie Schwangerschaft, gute Bindungserfahrungen und eine ruhige, anregende Umwelt in den ersten Lebensjahren festgestellt. Nach den ersten drei, vier Lebensjahren seien diesbezüglich die wichtigsten Entscheidungen bereits gefallen.
(Zum Einfluss der Genetik auf unser Verhalten vgl. folgende Dokumentation.)

 

- Historische Klärungsversuche:
* Zuchtforschung: untersucht Intelligenzzusammenhang von tierischen Nachkommen mit der jeweiligen Elterngeneration, z. B. Ex. von Tolman (s. u.): Kreuzt man labyrinthkluge Ratten miteinander, so sind die Nachfolgegenerationen im ø intelligenter als die von labyrinthdummen. Vorteil: rasche Generationenabfolge; Nachteil: nur bedingt auf Menschen übertragbar.

* Familienforschung:
untersucht Intelligenzzusammenhang von menschlichen Nachkommen mit der jeweiligen Elterngeneration, zB Untersuchungen über die musikalische Familie von Bach oder die mathematisch begabte Familie von Bernoulli. Vorteil: Menschen- statt Tierbeobachtung; Nachteil: Erb- und Umwelteinfluss sind schwer trennbar, da die Kinder meist von ihren Erbgebern erzogen werden.

* Zwillingsforschung:
begründet 1875 von Francis Galton (s. a. Teil 1; Pionier der Experimentalpsychologie aus England, Cousin von Charles Darwin, der die Vererbung geistiger Eigenschaften behauptet und den später missbrauchten Begriff Eugenik geprägt hat. Am bekanntesten wurde die in den 70er-Jahren von Bouchard u. a. durchgeführte "Minnesota-Studie".) Voraussetzung: eineiige Zwillinge (EZ) haben im Unterschied zu ZZ und anderen Geschwistern (G) identische Erbanlagen. Daraus folgt, dass alle Unterschiede umweltbedingt sein müssen. Folgende Korrelationskoeffizienten bezüglich der Intelligenz wurden gefunden:

  EZ, zusammen aufgewachsen:   r = 0,92
  EZ, getrennt aufgewachsen:  r = 0,84
  G, zusammen aufgewachsen:  r = 0,60
  G, getrennt aufgewachsen:  r = 0,46

Interpretation: Sowohl der Erbeinfluss (r von getrennten EZ ist höher als der gemeinsam aufgewachsener Geschwister!) als auch der Umwelteinfluss (r bei getrennten EZ ist nicht 1!) wurden nachgewiesen. Die Erblichkeit der Intelligenz wird mit etwa 0,80 angenommen. Vorteil: methodisch einwandfrei; Nachteil: geringe Zahl beobachtbarer Fälle. (Zu genetischen Programmierung siehe "Wie Gene unsere Persönlichkeit beeinflussen")

Zu Zwillingen siehe Zwillinge, Zwillingsforschung, Seiten der Univ. Saarland, Seiten der Univ. Bielefeld

 

- Fazit:
Insgesamt geht man heute davon aus, dass der Faktor der Erblichkeit bei Körpermerkmalen (Größe, Haarfarbe etc.) sehr hoch, bei kognitiven Fähigkeiten (Intelligenz, Lernfähigkeit etc.) relativ hoch, bei den großen Persönlichkeitsmerkmalen (Ängstlichkeit, Offenheit etc.) mittel und bei den Einstellungen (moralische Vorstellungen, Werte) gering ist. (Zu Intelligenz im Allgemeinen vgl. diese Vorlesung.)

 

INTELLIGENZZTESTS UND -KONZEPTE

- Ältere Tests:
* Erste Tests: Intelligenztests wurden seit 1904 vom Franzosen Alfred Binet (1857-1911) aus Schulreife- und Rekrutentauglichkeitstests entwickelt ("Binetarium") und 1916 von Lewis Madison Terman (1977-1956), der auch 1928 die erste Hochbegabtenstudie (die Materie wird heute v. a. im MHP - Marburger Hochbegabtenprojekt -, das mit gängigen Vorurteilen wie dem von großteils sozial schlecht integrierten Underachievern aufräumt, von Detlev Rost, * 1945, bearbeitet) initiierte, an der Universität Stanford weiterentwickelt ("Stanford-Binet-Test"). Im deutschen Sprachraum durch Ebbinghaus (s. Teil 3) verbreitet. Inhalt: Lücken-, Ergänzungs-, Analogie-, logische, sprachliche, rechnerische Tests etc.

* Faktorentheorie:
Seit 1904 vom Londoner Charles E. Spearman (1863-1945) im Anschluss an Galton folgende Unterscheidung vollzogen wurde, haben Tests die Faktoren-Theorie zur Grundlage:

° g-Faktor (genereller F., an allen Leistungen mitbeteiligt)
° s-Faktor (spezieller F., für jede Leistung anders)

1938 entwickelte Thurstone die Faktorentheorie in Chicago weiter und unterschied folgende 7 Begabungsfaktoren:

° spatial ability (Raumvorstellungsvermögen)
° numerical ability (zahlengebundenes Denken)
° verbal comprehension (Sprachkreativität)
° verbal fluency (Wortflüssigkeit)
° memory (Merkfähigkeit)
° inductive reasoning (Abstraktionsfähigkeit)
° perceptual speed (Konzentration, Tempo)

Die Testaufgaben nehmen diese Faktoren in unterschiedlicher Weise in Anspruch. (Ähnlich: Sampling-Theorie von Thomson und Thorndike; Thurstones Faktoren wurden für den deutschen Sprachraum von Jäger adaptiert). Da Tests, die einzelne Faktoren betreffen, miteinander manchmal korrelieren (was nicht sein dürfte, wenn es sich tatsächlich um eigenständige Faktoren handelte), ist die Faktorenzerlegung nur tw. geglückt. Die prinzipielle Schwierigkeit der Faktorenbestimmung besteht darin, Überschneidungen zu vermeiden und Vollständigkeit herzustellen.
Die Faktorentheorie wurde später neu aufgegriffen: 1963 beschrieb Raymond Bernard Cattell (1905-1998) die fluide (angeboren, kann nicht durch die Umwelt beeinflusst werden; z. B. geistige Kapazität, Auffassungsgabe, generelles Verarbeitungsniveau, mentale Prozesse) und die von ihr abhängige kristalline Intelligenz (umfasst alle durch Umwelt und Lernen beeinflussbaren Fähigkeiten; explizites Wissen, z B: semantisches, episodisches, Faktenwissen, die individuelle Wissensbasis und implizit Gelerntes, z. B. bestimmte Verhaltensweisen, Fahrradfahren, Rechnen etc.)

 

- Moderne Tests:
Seit dem Zweiten Weltkrieg wird zunehmend versucht, die Soziale Intelligenz (Verhaltensintelligenz) sowie die Kulturabhängigkeit und seit Neuestem die Emotionale Intelligenz (EQ, s. u.) als Testvoraussetzung zu berücksichtigen.

* HAWIE (Hamburg-Wechsler-Intelligenztest für Erwachsene):
1955 entwickelte Überarbeitung eines vom Amerikaner David Wechsler erstellten Tests. (Wechsler Adult Intelligence Scale "WAIS"; der Hamburg-Wechsler-Intelligenztest für Kinder, HAWIK, erschien schon 1949.) Zugrunde liegende Intelligenzdefinition: s. o. Der HAWIE, einer der bekanntesten Intelligenztests, besteht aus 11 Subtests, die jeweils mehrere Items enthalten (Sprachteil, Handlungsteil; 6 sprachliche Subtests, 5 sprachfreie Subtests) und wurde 1991 als HAWIE-R (für revidiert) neu bearbeitet, seit 2006, heute basierend auf WAIS IV, nur noch Wechsler-Intelligenztest für Erwachsene "WIE" betitelt.

Allgemeinwissen 6 sprachliche Tests     5 sprachfreie Tests   (HAWIE)
Allgemeines Verständnis Zahlen-Symbol-Test
Nachsprechen einer Zahlenreihe Ordnen von Bildergeschichten
Rechnerisches Denken Bilder ergänzen
Auffinden von Gemeinsamkeiten Mosaiktest
Wortschatz (Synonyme-Test) Figuren legen

* I-S-T-70 (Intelligenzstrukturtest von R. Amthauer): einer der (v. a. in Deutschland) meistverwendeten Tests. Er dient zur Schullaufbahn- und Berufsberatung bei über 14jährigen und prüft in 176 Einzelaufgaben 9 Fähigkeiten.

* ISM (Intelligenzstrukturmodell) von J. P. Guilford:
der Autor unterschied 1967 120 verschiedene Intelligenzleistungen, die sich dadurch ergeben, dass 5 Operationen, 4 Inhalte und 6 Produkte miteinander in Beziehung gebracht werden. In einem dreidimensionalen Modell (s. Graphik) ergeben sich daher 5 mal 4 mal 6 = 120 Würfel; für jeden steht eine Testaufgabe zur Verfügung.

° 5 Operationen:
     + Gedächtnis: Behalten des Erkannten; Schaffung neuer Information aus bekannter und erinnerter Information
     + Kognition: Entdecken, Wiederentdecken, Begreifen oder Wiedererkennen
     + Evaluation, Bewertung: Entscheidungen hinsichtlich der Güte, (Folge)richtigkeit, Eignung oder Angemessenheit des Gedachten und Produzierten beurteilen
     + divergentes Denken: geht in verschiedene Richtungen, aus gegebenen Informationen mehrere "Lösungen" finden
     + konvergentes Denken: aus den gegebenen Informationen die einzig richtige Antwort finden
° 4 Inhalte:
     + figural: Bearbeiten von konkretem Material, wie es durch sinnliche Wahrnehmung in einer Figur-Grund-Darstellung erfasst wird
     + symbolisch: Bearbeiten von Buchstaben, Zahlen und anderen konventionellen Zeichen
     + semantisch: Erkennen von Formen sprachlicher Bedeutungen und Vorstellungen
     + verhaltensbezogen: Umsetzen des Potentials, "soziale Intelligenz", Verhaltensintelligenz (Interaktion)
° 6 Produkte (Ergebnisse):
     + Einheiten: Bearbeiten nicht mehr zerlegbarer Informationen
     + Klassen, Begriffe: Einordnung nach bestimmten Kriterien
     + Beziehungen: Erkennen logisch-hierarchischer Strukturen der Information
     + Systeme: Herstellen von komplexen Strukturen
     + Transformationen: Verarbeitung und Umformung von Information
     + Implikationen: Finden von Abhängigkeiten

Intelligenzstrukturmodell von Guilford

Beispiel: An einer Aufgabe für Verbalverständnis wären Kognition, semantische Inhalte und Einheiten beteiligt. Noch sind nicht alle Möglichkeiten faktorenanalytisch isoliert. Angeblich besser abgesichert ist das BIS (Berliner Intelligenzstrukturmodell 1984) von. A. O. Jäger, das zwischen operativen Fähigkeiten und inhaltsbezogenen Fähigkeiten trennt und einen g-Faktor (s. o.) annimmt.

* Culture-fair-Tests:
Um dem Vorwurf zu entgehen, dass Menschen aus anderen Kulturkreisen bei Tests, die in Europa oder Amerika entwickelt werden, nicht die gleichen Chancen hätten, wurde mehrfach und mit wechselndem Erfolg versucht, kulturunabhängige Testaufgaben zu entwickeln, z. B. den CFFT (Autor: Cattell 1958 u. 1960, als CFT3 1971 auf deutsch erschienen) oder die Symmetrietests von Hektor und Heunig, bei denen Kalahari-Buschmänner genauso gut oder schlecht abschnitten wie amerikanische Collegestudenten.

* Weitere Konzeptionen und Tests:

° Hans Jürgen Eysenck (1916-1997) unterscheidet biologische Intelligenz (angeborene biochemisch-neuronal-physiologisch-hormonelle Voraussetzungen), psychometrische Intelligenz (die von Biologie, Kultur und sozioökonomischem Status beeinflussten in Tests messbaren Fähigkeiten) und soziale Intelligenz (die durch die psychometrische Intelligenz, soziale Faktoren, Persönlichkeit, Erfahrung, Motivation etc. beeinflusste Fähigkeit, mit anderen Menschen zurecht zu kommen).
° Dietrich Dörner (* 1938) setzt im Gegensatz zu den Faktorentheorien bei seinen Tests auf das Bearbeiten komplexer Szenarien wie die Führung von Entwicklungsländern oder die Übernahme der Bürgermeisterrolle in am Computer simulierten Städten. (Es erwies sich, dass das menschliche Gehirn kaum in der Lage ist, komplexe, vernetzte Situationen zu verstehen bzw. angemessen zu behandeln; vgl. Aktienkurse, Umweltproblematik etc. Es gebe eine "Logik des Misslingens"; vgl. u..)
° Howard Gardnber (* 1942) entwickelte nach dem Studium der Inselbegabung (Savant-Syndrom; ist das Phänomen, dass Menschen außergewöhnliche Leistungen in einem kleinen Teilbereich vollbringen können. Viele Inselbegabten sind Autisten, 6 von 7 sind männlich) und der Beobachtung, dass die in Schulen und durch konventionelle Intelligenztests postulierten Fähigkeiten nichts mit dem späteren Erfolg im Leben zu tun hätten, die Theorie der multiplen Intelligenzen: 1983 schreibt er von der sprachlichen, der logisch-mathematischen, der räumlichen, der musikalischen, der motorischen und der intra- bzw. interpersonalen Intelligenz (der Fähigkeit, mit sich selbst und anderen umgehen zu können; später erweitert).
° Robert Sternberg (* 1949) postuliert eine Intelligenztriade, die sich aus praktischer (betrifft das Verhältnis der Intelligenz zur externen Welt), analytischer (betrifft das Verhältnis der Intelligenz zur internen Welt) und kreativer (betrifft das Verhältnis von Intelligenz und Erfahrung) Intelligenz zusammensetzt. Alle drei Anteile hängen zusammen und voneinander ab.
° Zu Daniel Goleman (* 1946) und seiner Theorie von der Emotionalen Intelligenz s. u.

Laut Aljoscha Neubauer gehören IQ-Tests entgegen ihrem Ruf zu den aussagekräftigsten Tests überhaupt, sind sehr valide, korrelieren signifikant mit dem höchsten erreichten Schulabschluss etc. und sind auch als prognostisches Instrument weit treffender als z.B. Assessmentverfahren, wenn es etwa um zukünftigen Berufserfolg geht. Intelligenztests fokusssieren jedoch häufiger auf die Unterschiede zwischen den Probanden in einem spezifischen Test als auf Intelligenz an sich.

Vgl. Allgemeines zu Tests, Online-Kurz-IQ-Test, Online-IQ-Test, IQ-Test von focus.de etc. Eine Kurzbeschreibung einiger Tests findet sich unter diesem Link.

 


 

 


VI. DENKPSYCHOLOGIE
 

 

 

DEFINITIONEN

Gedanken sind selbständige, unanschauliche Erlebniseinheiten, deren Beziehung durch einen Sinn hergestellt wird (nach Karl Bühler, s. auch u. Sprachfunktionen).
Verstehen ist die Einordnung von etwas Neuem in bereits Bekanntes ("logische Platzanweisung").
Aha-Erlebnis (zuerst beschrieben vom österreichischen Psychologen Karl Bühler): schlaglichtartiges, plötzliches Klarwerden eines Zusammenhanges, der Augenblick der Lösungsfindung.

 

FUNKTION DES DENKENS

- Biologische Bedeutung des Denkens:
Der Überlebensvorteil eines denkenden Wesens gegenüber einem rein instinktgesteuerten liegt in der erhöhten Flexibilität und in der Möglichkeit einer theoretischen Vorwegnahme (Antizipation, gedankliches "Probehandeln") einer Situation. (Nicht alles muss ausprobiert, ein ev. letaler Ausgang muss nicht riskiert werden.)

 

- Verkürzung der Lösungszeit bei gestellten Problemen:
Denken, um Probleme zu lösen, wurde auch bei Tieren beobachtet: vgl. Ex. mit Schimpansen des Gestaltpsychologen Wolfgang Köhler, das dieser im Ersten Weltkrieg in der Menschenaffenstation der Preußischen Akademie der Wissenschaften auf der Insel Teneriffa durchgeführt hat: Schimpansen, die ihre außerhalb des Käfigs liegenden Bananen mit keinem der beiden im Käfig befindlichen Stöcke zu erreichen imstande sind, verharren nach einer erfolglosen trial-and-error-Phase und "denken nach". Dann setzen sie die Stöcke zusammen und holen das Futter mit dem nun längeren Gerät herbei.

Die meisten Alltagsprobleme "lösen" wir allerdings nach den Erkenntnissen der modernen Neurowissenschaften automatisch, da wir über zwei Denk- bzw. Entscheidungsfindungssysteme verfügen: System 1, ein schnelles, intuitives und System 2, ein langsames, das Aufmerksamkeit erfordert. (Näheres s. o.)

 

ENTWICKLUNG DES DENKENS NACH Piaget

- Äquilibration:
Ist laut dem Schweizer Kinderpsychologen Jean Piaget (s. a. o.) ein Vorgang zur Herstellung eines Gleichgewichts zwischen Erkenntnissubjekt und Erkenntnisobjekt. Das Kind hat zunächst noch einfache Schemata von den Umweltgegebenheiten, gewinnt aber immer komplexere Schemata. Das erkennende Subjekt pendelt zwischen Adaptation bzw. Assimilation (Aufnahme neuer Inhalte, immer bessere Beherrschung der Umwelt) und Akkomodation (Anpassung der Weltsicht an neue Erkenntnisse, Entwicklung neuer Schemata, wenn die Adaptation nicht mehr gelingt).

 

- Phasen des Denkens im Laufe der Entwicklung:
Die Unterschiede im Laufe der Entwicklung sind hauptsächlich der rasanten Hirnentwicklung im Laufe der ersten Lebensjahre geschuldet (s. o.) Nach Piaget lassen sich folgende Phasen unterscheiden:
* sensomotorische Phase (0,0 bis 2;0): Erkenntnis wird hauptsächlich - als Resultat der Interaktion von Subjekt und Objekt - über Sinneseindrücke und Bewegungen gewonnen

* präoperationale (vorbegriffliche) Phase (2;0 bis 4;0):
Das Kind lernt allmählich, dass die Welt durch Sprache zeichenhaft repräsentiert wird.

* intuitive Phase (4;0 bis 7;0):
Gleiche Elemente werden als Inhalt einer Gegenstandsklasse erkannt. Einfache (eindimensionale) logische Schlussfolgerungen werden möglich, der kindliche Egozentrismus verhindert aber das Einnehmen einer anderen Perspektive.

* Phase der konkreten Operationen (7;0 bis 11/12;0):
Logisches Denken ist handlungsabhängig möglich, z. B. sind Invarianzaufgaben (s. o.) konkret eher lösbar als abstrakt. Die Dezentrierung ermöglicht das Einnehmen anderer Perspektiven.

* Phase der formalen Operationen (ab 11/12;0):
Rein abstraktes Denken, unabhängig von konkreten Gegenständen, Personen oder Handlungen, wird möglich.

Vgl. Die Stadientheorie, Der Zusammenhang zwischen Entwicklung und Lernen nach Piaget

 

ERSCHEINUNGSFORMEN DES DENKENS

- Problemlösen:
* Definition:
Problemlösen bedeutet selbständiges Auseinandersetzen mit einer in dieser Form neuartigen Aufgabe. (Vgl. z. B. Problemlösen mit Online-Exn., PISA-Beispiele) In Exn fand man

* 2 Methoden:

° Probieren, trial and error [Zeitaufwand wegen des Transfereffektes abhängig von der Erfahrung, auf jeden Fall im ø größer als bei der 2. Methode, wie Exe. (zB Durkin-Puzzle 12,5 min statt 38sec) erwiesen. zB: Durch Umlegen von genau vier Hölzern sollen drei Quadrate entstehen:



° Analysieren, nachdenken (führt rascher zur Lösung); meist folgender Denkablauf: Vororientierung - Problematisierung - Strukturierung - Lösungsschema - Lösungsvollzug; auch hier Transfereffekt; oft Umstrukturierung im Gehirn notwendig (vgl. auch Köhler-, Durkin-Exe, s. o.): zB um die Frage zu lösen, ob ein Bergsteiger, der eine Gipfelhütte zwischen 8 Uhr und 16 Uhr in gleichmäßigem Tempo erwandert und nach einer Übernachtung zwischen 12 Uhr und 16 Uhr ebenso gleichmäßig auf demselben Weg absteigt, einen Punkt des Weges zur selben Uhrzeit passiert; weitere Rätsel im Krealand
anderes Beispiel, bei dem die Gestaltwahrnehmung im Wege steht: Die folgenden neun Punkte sind mit einer Geraden, die nur dreimal ihre Richtung ändern darf, durchzustreichen:

 


O       O       O

O       O       O

O       O       O

 

Zum Logischen Denken vgl. Seite der Univ. Bern bzw. Seite der Univ. Heidelberg

* Lösungssuche:
Ein gestelltes Problem fordert an sich das konvergente Denken, der Lösungsweg wird jedoch vielfach, auch wenn es nur eine Lösung gibt, divergent angegangen.

zB: Zwei von der Decke hängende Schnüre - man kann die eine nicht erreichen, wenn man, mit der anderen in der Hand, in ihre Richtung geht - sollen so verknotet werden, dass beide nach wie vor an ihren unerreichbaren Befestigungen verankert sind; einziges Hilfsmittel: Schere.

Anderes Beispiel: In einem Raum sieht man drei Lichtschalter, in einem anderen, den man nur einmal betreten darf, um die Folgen seiner Aktionen zu überprüfen, drei herkömmliche Glühbirnen. Wie lässt sich mit 100%iger Sicherheit feststellen, welcher Schalter welche Birne kontrolliert?

Oder: Drei Gefangene stehen so auf den vordersten drei von fünf in einer Linie angeordneten Marterpfählen, dass sie jeweils nur die vor ihnen stehenden Pfähle sehen können. Wer die Farbe seines Pfahles, den er selbst nicht sehen kann, als erster nennt, wird losgebunden und darf nach Hause gehen. Die Gefangenen wissen, dass drei Pfähle rot und zwei gelb sind. Wie ist es möglich, dass gerade der an Position 1 befindliche, der nichts sieht, der Glückliche ist?

Oder: Wie kann man mit zwei Krügen, die 5 bzw. 3 Liter fassen, die Menge von 4 Litern Wasser abmessen?

Oder: Eine große Menge von sehr schlauen, aber auch eitlen Philosophen sitzt in einem Zug, so dass jeder jeden sehen kann. Nachdem der Zug durch einen Tunnel gefahren ist, klärt der Schaffner die Menge darüber auf, dass mindestens einer von ihnen ein rußiges Gesicht habe. Jeder weiß nun von jedem, dass er, wüsste er 100%ig von sich, dass er Ruß im Gesicht habe, bei der nächsten Station ausstiege. Niemand spricht einen Ton, niemand gibt Zeichen und niemand prüft bei sich selbst, ob er rußig im Gesicht sei. Der Zug hält bei der ersten Station, aber niemand rührt sich, genauso bei den nächsten 2 Stationen. Als der Zug seine Fahrt verlangsamt, um bei der 4. Station zu halten, stehen auf einmal alle auf, die Ruß im Gesicht haben und verlassen geschlossen den Zug. Wie viele waren es?

Andere Rätsel: Vgl. Rätsel und Denksportaufgaben (mit Trivia-Quiz)

* Frustrationsverhalten: wenn eine - im Ex absichtlich unlösbare, aber lösbar scheinende - Aufgabe (z. B. einen Besen auffangen, bevor er den Boden berührt) nicht gelöst werden kann. [Frustration = der Zustand, der bei der Behinderung der Befriedigung bewusster oder unbewusster Wünsche auftritt. Die Frustrationstoleranz ist verschieden hoch und hängt vom Anspruchsniveau (dem Leistungsgrad, den man sich selbst zutraut und der unrealistisch hoch sein kann) ab.] Folgende Verhaltensweisen, die z. T. an die Abwehrmechanismen (s. u.) erinnern, können (auch kombiniert) auftreten:

° Bagatellisierung: das zu lösende Problem wird als nicht wichtig erachtet
° Aggression (nach der Frustrations-Aggressions-Hypothese von Dollard und Miller)
° Resignation: Rückzug und Aufgabe
° Rationalisierung: Vorschieben von das Versagen rechtfertigenden Scheingründen
° Depressionen: unverhältnismäßige Niedergeschlagenheit
° Flucht vor der frustrierenden Situation
° Ablenkung: Hinweisen auf Unwichtiges
° Übersprungshandlungen (auch bei Tieren beobachtet): sinnlose Ersatzhandlungen zur Überbrückung der unangenehmen Situation
° Regression: Zurückfallen in bereits überwundene (Kindheits)phase (z. B. infantile Äußerungen)
° Vernünftiges Sich-Abfinden

* Lösen komplexer Probleme: unterscheidet sich fundamental vom Lösen einfach durchschaubarer Probleme und wurde vor allem von Dietrich Dörner u. a. 1983 in seinen berühmt gewordenen "Lohhausen-Exn" bzw. "Tanaland-Exn" erforscht. Dabei geht es darum, (am Computer) verschiedenste Parameter eines fiktiven Dorfes bzw. eines fiktiven afrikanischen Landes zu verändern, um die Situation zu verbessern. Meist tritt jedoch das Gegenteil ein, da die Komplexität nicht ausreichend erfasst werden kann. Das Lösen komplexer Probleme (z. B. Umweltfragen, Börsenentwicklungen, Gruppendynamiken etc.) erfordert "operative Intelligenz" (vgl. Seite der Univ. Heidelberg). Die Merkmale komplexer Probleme sind:

° Komplexität: Vielzahl an Variablen verlangt Reduktion auf das Wesentliche
° Vernetzheit: Vernetzte Variable verlangen Modellbildung und Sichtbarmachung der Abhängigkeiten
° (Eigen)dynamik: Durch Eingriffe in ein System unbeabsichtigt in Gang gesetzte Prozesse bzw. Eigenveränderungen des Systems ohne Eingriffe verlangen Kalkulierung des Zeitfaktors
  ° Intransparenz: Unbekannte Variable oder unklare Zielsetzungen verlangen Informationsbeschaffung
  ° Polytelie: Mehrzieligkeit verlangt Abwägung und Ausbalancieren einander womöglich widersprechender Zielsetzungen

Nach der (philosophischen) Evolutionären Erkenntnistheorie besteht das Problem darin, dass die Menschheit - als "Zauberlehrling der Evolution" - "mit dem Hirn von gestern die Probleme von morgen" lösen müsse. Unser Gehirn reiche nicht dazu aus, komplexe Phänomene (wie vernetzte statt linearer Kausalitäten) zu erfassen. Deshalb werden z. B. Wetter-, Markt- oder Umweltzusammenhänge schlecht verstanden. Manchmal werden auch relativ einfache Phänomene wie exponentielles Wachstum (s. z. B. das - z. B. zwischen 26:00 und 27:00 min geradezu prophetische - Interview mit Aldous Huxley über das Bevölkerungswachstum) oder die Folgen eines Auseinanderschneidens eines Möbiusbandes an der Mittellinie entlang nicht adäquat erfasst (s. a. Möbiusbandexperimente; vor dem Ansehen der Videos selbst überlegen: Was passiert, wenn ich ein Möbiusband entlang seiner Mittellinie durchschneide? Und was, wenn ich das Ergebnis noch einmal an der Mittellinie durchschneide?).

 

- Kreatives Denken:
* Manifestationen: Kreatives Denken äußert sich

° beim Problemlösen (z. B., um folgende Zahlenreihe fortzusetzen: 1 2 3 4 7 13 14 17 20 21 22 23 24)
° im musisch-künstlerischen Bereich
° im Spiel

* 4 Faktoren:

° Produktivität (Häufigkeit der Einfälle, Einfallsreichtum, divergentes Denken)
  ° Elaboration (Ausgestaltung der Einfälle und Ideen)
° Originalität (Tendenz zu Lösungen, die noch nicht erprobt sind, Prozentsatz von vorher noch nicht Gesehenem)
° Flexibilität (Umstellbarkeit) - Gegenteil: Rigidität (Denkstarre) = Tendenz, einen einmal bewährten Lösungsweg auch dann beizubehalten, wenn durch neue Umstände bessere Lösungen möglich werden.
  • Bewiesen durch Ex. mit Hühnern (H, s. Graphik), die auch dann die große Runde gehen, um ihr Futter (F) zu erreichen, wenn die Glaswand (G) nach einigen Wochen entfernt wird:

  • und (Ex.) die Luchins'schen Umfüllaufgaben (Näheres hier), bei denen es (nach dem Muster des Milchkannenrätsels) gilt, einen bestimmten Wasserbetrag mit drei verschieden großen Krügen abzumessen. Nachdem sich die Lösungstechnik B - A - 2C mehrmals bewährt hat, wird sie auch dann angewendet, wenn weniger umständliches Abmessen zum selben Ergebnis führte (z. B. C - A).
  • Unbewusst erworbene und angewendete Denkroutinen (die wir als unbewusste Navigationshilfe für die Bewältigung des Alltags dringend benötigen, auch wenn uns ihre Filtersysteme partiell blind machen) können uns Lösungswege überhaupt verschließen, wie Allan Snyder in Exe., bei denen durch Umlegen von Streichhölzern Gleichungen mit römischen Zahlen richtig gestellt werden mussten, gezeigt hat. Nachdem viele Male hintereinander die Lösung darin bestand, ein X (10) zu einem V (5) zu verändern, konnte die letzte Gleichung, bei der dies nicht funktionierte, kaum gelöst werden. Snyder glaubt, durch Abschalten gewisser Hirnteile im linken Schläfenlappen mit Hilfe einer elektrische Impulse aussendenden "Denkkappe" diesen Mangel kompensieren zu können.

* Phantasie = das Vermögen, vorhandene Inhalte neu zu kombinieren

* Vier-Phasenmodell
des kreativen Prozesses nach Poincaré:

° Vorbereitungsphase: Entdecken des Problems
° Inkubationsphase: Liegenlassen, Ratlosigkeit
° Illuminationsphase: Lösungsfindung, s. a. o.
° Verifikationsphase: Lösungsvollzug

Kreativitätsforschung wird erst seit einem entsprechenden Aufruf von Guilford im Jahr 1950 betrieben, der Kreativität zu den intellektuellen Fähigkeiten im weitestem Sinne zählte. Am besten wird die Ideenhäufigkeit durch Idea Sharing, also durch das „Zuspielen“ Ideen anderer Personen, gefördert. Kreativität kann auch durch Entspannungsübungen und Meditation, durch Musik, Humor und ganz allgemein positive Affekte (vgl. die auf Neurotransmitter bezogene Theorie von der Dopamindusche) gesteigert werden.

 

DENKEN UND SPRACHE

Die menschliche Sprachfähigkeit wird im Gehirn vor allem durch zwei Areale gesteuert: das Broca- und das Wernicke-Areal. Näheres im neurolinguistischen Tutorial Sprache und Gehirn.

 

- Zusammenhang:
Die wechselseitige Abhängigkeit von Sprache und Denken wurde mehrfach untersucht. Ausgangsbeobachtung: die Welt wird durch Sprache nicht nur beschrieben, sondern auch eingeteilt, z. B.:

Bedeutung Deutsch Dänisch Französisch Spanisch
Baum "Baum" "trae" "arbre" "arbol"
Brennholz "Holz" "bois" "leña"
Holz als Material "madera"
Kleiner Wald "Wald" "skov" "bosque"
Großer Wald "forêt" "selva"

                                                                                                                                                                                                                                        aus: dtv-Atlas zur deutschen Sprache

* Sapir-Whorf-Hypothese (Linguistische Relativitätstheorie): Verschiedene Einteilungen der Außenwelt ziehen auch verschiedene Wahrnehmungen und Bewertungen nach sich. Die Zuñi-Indianer z. B., die kein eigenes Wort für "orange" haben, können diese Farbe im Ex. auch in ihrer Wahrnehmung nicht gut von gelb unterscheiden. (Es geht jedoch eher um die Unterscheidungen, die typischerweise tatsächlich gemacht werden, weniger um die, die theoretisch gemacht werden könnten.) Fazit: Denken ist von der Sprache abhängig.

* Lévi-Strauss:
Denkweise wirkt sich auf die Sprache aus. Beleg: Politische Denkungsart zieht eigenen Sprachstil nach sich.

* Glossematik:
In Weiterführung der strukturalistischen Sprachtheorie des Schweizer Linguisten Ferdinand De Saussure leugnen der Däne Louis Hjelmslev u.a. jeden Zusammenhang zwischen Sprache und Denken. Das sprachliche Zeichen ist eine willkürliche Verbindung einer Ausdrucks- mit einer Inhaltsform, was sich z. B. an der völlig unterschiedlichen Einteilung des Farbspektrums in der englischen bzw. der walisischen Sprache erweist.

* Sprachinhaltsforschung
(Vorläufer Wilhelm von Humboldt): Die Sprache ist eine Tätigkeit und hat ein eigenes "sprachliches Weltbild", das zwischen Sprachgemeinschaft und außersprachlicher Wirklichkeit steht und sich in Wörtern, die etwas suggerieren, wie z. B. "Sternbild", "Purzelbaum" usw. ausdrückt. (Dynamische Sprachauffassung, v.a. Leo Weisgerber)

 

- Begriffe:
* Definition: Begriffe sind abstrakte, mit Wörtern (Begriffsnamen) bezeichnete Vorstellungen, die Elemente des Denkens darstellen. Sie garantieren, dass die Welt verfügbar gehalten wird.

* Begriffsdreieck
(am Beispiel "Baum")












"Bezeichnendes"
(Lautfolge [baom, tri:, árbol etc.])

 

 

Begriff "Baum" (Denkabstraktion)


arbiträre, nur auf Übereinkunft beruhende Beziehung.
Ausnahme: onomatopoetische (lautmalerische) Wörter)










"Bezeichnetes"
(Gegenstand der Außenwelt)

 

* Begriffsbildung = einer Reihe von Bewusstseinsinhalten gemeinsame spezifische Eigenschaften zuzuschreiben und diese relevanten Merkmale von den irrelevanten Merkmalen zu trennen.

° Konjunktivische Begriffsbildung: von zwei Eigenschaften müssen einem Gegenstand beide zukommen (leichter zu erkennen)
° Disjunktivische Begriffsbildung: von zwei Eigenschaften müssen einem Gegenstand entweder die eine oder die andere zukommen (schwerer zu erkennen)
Warenhausex. von Ach: Nachdem längere Zeit große, schwere Gegenstände mit dem Phantasienamen "Gazun", kleine, leichte mit "Ras" bezeichnet worden waren, konnten die Vpn im Warenhaus den Auftrag des Vls, Gazuns und Ras' zu besorgen, erfüllen - neue Begriffe waren durch abstrahierendes Denken entstanden.

* Bedeutung:

° Denotation: Begriffskern, reine Information, z. B. bei einem Wort wie "recht(s)" oder "links": Richtungsbezeichnung vom Standpunkt des Sprechers aus gesehen
° Konnotation: das, was "mitschwingt", z. B. bei einem Wort wie "recht(s)" oder "links" ("rechtschaffen", "das Recht", "Rechtschreibung" etc. versus "linkisch", "eine Linke drehen", "zwei linke Hände haben" etc.

 

- Dimensionen der sprachlichen Zeichens nach Morris (Semiotik):
Ausgangspunkt: Die Sprache ist ein System von (zu erlernenden) Zeichen, die zunächst keinen Zusammenhang mit den Gegenständen der außersprachlichen Wirklichkeit haben (vgl. oben: Begriffsdreieck). Um sie dekodieren zu können, muss man nicht nur um ihre Bedeutung wissen (Semantik), sondern auch ihre Zusammenstellung (Syntax) beachten. Die gewollte Redeabsicht lässt sich jedoch endgültig erst nach der Analyse der der Redesituation (Pragmatik) beurteilen, die diese die Semantik (bis ins Gegenteil) verändern kann, etwa durch ironisches Sprechen.

* syntaktische Dimension: regelt die Beziehung zu anderen sprachlichen Zeichen

* semantische Dimension:
regelt die Beziehung zu der Bedeutung der sprachlichen Zeichen

* pragmatische Dimension:
regelt die Beziehung zu den Verwendern der sprachlichen Zeichen

 

- Kommunikationsmodelle:
Sie versuchen (meist graphisch) alle Bedingungen, unter denen (nicht nur sprachliche) Kommunikation erfolgt, darzustellen: Sender - Empfänger - Medium der Kommunikation - äußere und innere Rückkoppelungs-Regelkreise - ev. Störfaktoren - (aktiver / passiver), sich überschneidender Zeichenvorrat - Enkodierung / Dekodierung - Signalisierung (Übermittlung) - soziale Normen - Situation - etc. Bekannt wurden neben diesem allgemein gehaltenen Modell folgende drei Modelle:

* Organon-Modell: stammt von Karl Bühler. Dabei symbolisiert der Kreis in der Mitte das konkrete Schallphänomen, das Dreieck das sprachliche Zeichen, die Seiten des Dreiecks stehen für die semantischen Sprachfunktionen.

* 4 Ohren- (4 Schnäbel)-Modell: von Friedrich Schulz von Thun (vgl. Video). Dabei geht es darum, dass vier Botschaften auf einmal ausgesendet bzw. verstanden werden können: auf der Sachebene nach Wahrheit, Relevanz und Hinlänglichkeit qualifizierbare Inhalte, auf der Ebene der Selbstkundgabe implizit/explizit bzw. bewusst/unbewusst übermittelte Informationen über den Sender selbst, auf der Beziehungsebene implizit/explizit transportierte Hinweise auf den Beziehungsstatus und auf der Appellebene offen/versteckt ausgesendete Handlungsaufforderungen. (Beispiel: "Die Ampel ist rot." bzw. "Sie ist nicht grün." / "Ich denke mit." / "Du wirst nie Auto fahren lernen, brauchst jedenfalls meine Hilfe." / "Halt an!")

         

Kommunikationsmodelle von Bühler und Schulz von Thun (Quellen: https://de.wikipedia.org bzw. http://www.fachdidaktik-einecke.de)

* Konstruktivistisches Modell: von Paul Watzlawick (1921-2007) u. a. (zu Watzlawick s. auch u.; mit Videolinks). Grundidee: Durch Kommunikation werden (verschiedene) Wirklichkeiten konstruiert, auf die aus der eigenen Perspektive repliziert wird, sodass Missverständnisse vorprogrammiert sind. Die Fünf pragmatischen Axiome der Kommunikation (siehe Tabelle) stellen den Grundrahmen auf, innerhalb dessen sich sie Kommunikationspartner bewegen. ("Pragmatisch" bezeichnet den Verwendungszusammenhang des sprachlichen Zeichens, also die Sprechsituation, ein "Axiom" ist eine nicht weiter beweisbare Grundannahme.)

° Man kann nicht nicht kommunizieren.
° Jede Kommunikation hat einen Inhalts- und einen Beziehungsaspekt, derart, dass letzterer den ersteren bestimmt und daher eine Metakommunikation ist.
° Die Natur einer Beziehung ist durch die Interpunktion der Kommunikationsabläufe seitens der Partner bedingt.
° Menschliche Kommunikation bedient sich digitaler und analoger Modalitäten. Digitaler Kommunikationen haben eine komplexe und vielseitige logische Syntax, aber eine auf dem Gebiet der Beziehungen unzulängliche Semantik. Analoge Kommunikationen dagegen besitzen dieses semantische Potential, ermangeln aber die für die eindeutige Kommunikationen erforderliche logische Syntax.
° Zwischenmenschliche Kommunikationsabläufe sind entweder symmetrisch oder komplementär, je nachdem, ob die Beziehung zwischen den Partnern auf Gleichheit oder Ungleichheit beruht.

* Sprechakttheorie: von John Langshaw Austin (1911-1960; How to Do Things with Words 1955, dt. Theorie der Sprechakte 1972) unterscheidet zwischen drei in alltäglichen Kommunikationssituationen simultan ablaufenden Sprechakten:

° Lokutiver (lokutionärer) Sprechakt: „Saying something ‘in the full normal sense’“. Z. B.: „Fahr vorsichtig, die Straße da vorn in der Kurve ist glatt.“ bringt eine Lautkette hervor (phonetischer Akt), die grammatisch geordnet ist (phatischer Akt) und auf eine Stelle hinweist, ihr eine Eigenschaft zuordnet und sich über das Fahrverhalten äußert (rhetischer Akt, der Beziehung zur Außenwelt - reference - und Sinn - sense - hat).
° Illokutiver Sprechakt: „Doing something in saying something“ (Warnen, Bitten, Drohen, Fragen etc.); = das Ergebnis einer Sprachhandlung, fällt zeitlich mit deren Vollzug zusammen; man vollzieht, indem man sich (lokutionär) äußert. Im Beispiel: Warnung
° Perlokutiver Akt: "Doing something by saying something“; Folgen einer Sprachhandlung, die sich an den Vollzug anschließen; man vollzieht, dadurch, dass man sich (illokutiv) äußert. Im Beispiel will der Sprecher Einfluss auf das Verhalten des Fahrers nehmen. (Der perlokutive Effekt kann aber ein anderer sein, z. B. Ärger.)

Beispiel nach wikipedia: Ein Sprecher vollzieht den perlokutionären Akt des Kränkens des Hörers, dadurch dass er den illokutionären Akt des Behauptens vollzieht, indem er einen lokutionären Akt vollzieht, wie z. B. die Aussage „Du bist hässlich".

* "Theorie des kommunikativen Handelns": von Jürgen Habermas (geb. 1929), tw. mit Bezug auf Austin, 1981 veröffentlicht. Beschreibt aus philosophischer Sicht die Notwendigkeit einer konsensorientierten "idealen" Kommunikationssituation (die zwar in der Realität nicht herstellbar sei, aber gefordert werden müsse), in der im "herrschaftsfreien Diskurs" ohne Täuschung über die Redeabsicht von allen, die sich dem „eigentümlich zwanglosen Zwang des besseren Argumentes“ unterordnen, gleichberechtigt nicht nur Wahrheits- und Wahrhaftigkeits-, sondern auch Gerechtigkeitsfragen gelöst werden sollen (auch eine Demokratietheorie).

* Theorie der Echokammern (Filterblasen): von Eli Pariser (geb. 1980). Kommunikation im Internet, vor allem in den (a)sozialen Netzwerken, tendiert dazu, aufgrund der Personalisierung ("Micro-Targeting") der Webinhalte selbstverstärkend nur solche Informationen zu liefern, deren Inhalte und Aussagen ohnehin dem User nahe sind. Auf algorithmischen Voraussagen beruhende, im Hintergrund angewendete Benutzermodelle führen automatisch in eine Echokammer (in die man hineinruft und aus der dasselbe wieder herausschallt). In der Isolation dieser Filterblase werden Standpunkte, die nicht denen des Users entsprechen, allmählich geschwächt. So entsteht eine einseitige Information, die kontroverse Aspekte allmählich verschwinden lässt und zu einer Diskursverarmung führt. [Eine ähnliche Selbstverstärkung hat Elisabeth Noelle-Neumann, 1916-2010) in ihrer Theorie von der Schweigespirale schon in den 1970er-Jahren beschrieben, nach der Minderheitenmeinungen dadurch allmählich in den Hintergrund gedrängt werden, dass ihren Vertretern der Widerspruch zur Mehrheitsmeinung unangenehm wird (Isolationsfurcht). Die Gate-Keeper-Funktion der Medien verstärkt diesen Effekt.]

Zu Kommunikationsproblemen vgl. "Feierabend" oder "Das Ei ist hart"

 

- Funktionen der Sprache:
* Ausdruck: beruht auf (Nicht)übereinstimmung von Innen und Außen; wahrhaftig / nicht wahrhaftig, z. B. "Au!"

* Appell:
will zu einem Verhalten veranlassen; wirksam / unwirksam, z. B. "Achtung!"

* Darstellung:
will die außersprachliche Wirklichkeit wiedergeben; richtig / falsch, z. B. "Die Giraffe hat 7 Halswirbel." Im Gegensatz zu den beiden ersten Funktionen nicht situations-, zeit- oder ortgebunden. (Bedingt auch bei Tieren; Bienen z. B. unterrichten ihre Artgenossen - allerdings in einem sehr starren, angeborenen und instinktgesteuerten (daher nicht flexibel veränderbaren) System von Tänzen, das kein Wahrheitsproblem kennt - über Duft, Richtung, Entfernung und Rentabilität eines Futterplatzes)

* Argumentation:
will (schlüssige, nachvollziehbare) Gedankengänge wiedergeben; gültig / ungültig, z. B. "Strafe und Belohnung sind als Erziehungsmittel abzulehnen, weil sie bewirken, dass das (vielleicht) Richtige aus den falschen Motiven getan wird." (Es wird darüber gesprochen, ob ein Satz wahr ist oder nicht. Als einzige Funktion ausschließlich dem Menschen vorbehalten)
(Bezeichnungen 1 bis 3 von Karl Bühler, 4 hinzugefügt von Karl R. Popper)

 

- Defizithypothese von Basil Bernstein:
* 2 Sprachausformungen (tendenziell durch die soziale Schicht determiniert, daher milieuabhängig):

° public speech, restringierter Code: Unterschicht, parataktisch, geringer Wortschatz, unvollständige, kurze Sätze (Fragen, Befehle), kontextgebunden, voraussagbar, stereotype, traditionelle Wendungen, Tatsachenfeststellungen als Begründungen, erwartete Antwort implizit in Frage enthalten
° formal speech, elaborierter Code: Oberschicht, hypotaktisch, großer Wortschatz (viele Adjektiva und Adverbien), kreativer, origineller, grammatikalisch komplexer, Möglichkeit, Gefühle und Gedanken zu formulieren, aber auch zu abstrahieren ("es", "man"), kontextunabhängig, komplexe Begriffshierarchie, Trennung von Tatsachenfeststellungen und Begründungen

* Maßnahmen: kompensatorischer Sprachunterricht in der Schule, der die mitgebrachten Unterschiede (Sprachbarrieren) beseitigen soll. Problem: Kinder sind zu diesem Zeitpunkt schon relativ alt, viele irreversible Entscheidungen sind bereits gefallen.

Dieses Konzept wurde z. B. von William Labov kritisiert, der ihm seine Differenzhypothese bzw. emanzipatorischen Sprachunterricht gegenüber stellte.

 


 

 

 


VII. LERNEN UND GEDÄCHTNIS
 

 

 

vgl. Das Lernen lernen, Einführung in die Kognitive Psychologie (Lernprogramm über Gedächtnis u. a.), Das Gedächtnis

 

DEFINITIONEN

* Lernen ist Verhaltensänderung auf Grund von Erfahrung (im Gegensatz zur Reifung, s. o., der Veränderung aufgrund endogener Entwicklungsursachen); im engeren Sinn systematisches Wiederholen.

* Gedächtnis
ist die Wirkung vergangener, in der Zwischenzeit nicht bewusster Erlebnisse und Verhaltensweisen auf das spätere Erleben und Verhalten. Es ermöglicht

° Einprägen (Enkodierung)
° Behalten (Retention)
° Erinnern (recall)
° Wiedergeben (Reproduzieren)
° Wiedererkennen (Rekogniszieren) von Bewusstseinsinhalten.

Man unterscheidet (nach Ludwig Goldscheider und Elise Pilek):

° Materialgedächtnis
° Gestaltgedächtnis
° Sinngedächtnis

bzw. innerhalb des Langzeitgedächtnisses (s. u.) in der heutigen Terminologie zwei Formen, die in unterschiedlichen Hirnarealen gespeichert werden:

° deklaratives (explizites) Gedächtnis: Wissensgedächtnis; gliedert sich in semantisches (personenunabhängige Fakten) und episodisches (persönliche Erinnerungen) Gedächtnis)
° prozedurales (implizites) Gedächtnis: Verhaltensgedächtnis; speichert Handlungsabläufe (wie Gehen, Radfahren, die dann automatisch ausgeführt werden können)

* Vergessen ist Abnahme der Wirksamkeit einer sich selbst überlassenen Einprägung im Laufe der Zeit. Vgl. Vergessen (Univ. Linz)

 

LERNEN IM KOGNITIVEN BEREICH

- Definition und Allgemeines:
Der kognitive Bereich ist jener Bereich, in dem Informationen verarbeitet werden.

Neuere Forschungen (von Spitzer u. a.; vgl. Video "Wie lernen Kinder") scheinen nahe zu legen, dass die Lebenserfahrung des Menschen die Stärke der Synapsen festlegt und es daher nicht egal ist, mit welchen Erfahrungen man aufwächst. Das Drüberlaufen von Impulsen verändert die Feinstruktur unseres Gehirnes fortlaufend = Neuroplastizitätshypothese: Synapsen ändern sich, wenn sie benutzt werden: "Neurons wire together if they fire together"; die Hirnbeschaffenheit ist also nicht nur eine Frage der Intelligenz, sondern auch der domänenspezifischen Kompetenz. (Auch Therapieerfolge bestehen in einem "Überlernen" alter Verdrahtungen; an der Basisverschaltung kann allerdings nichts mehr geändert werden, sodass man mit lebenslangen Schwierigkeiten rechnen muss.) Ex.: Bei Londoner Taxifahrern fand man das Hirnareal für räumliche Navigation vergrößert). Man beschäftigt sich mit „gehirngerechtem“ Lernen in den drei relevanten Aufgabenfeldern (kognitiv, kreativ, sozial). Prinzipiell arbeiten die Hirne intelligenterer Menschen nicht härter, sondern effizienter. Sie verbrauchen für die Lösung gestellter Probleme weniger Energie, „strengen sich weniger an“ (Neurale Effizienzhypothese; bereits 1988 von Richard Haier untersucht). Diese Effizienz bereits bestehender neuronaler Verbindungen (die meisten Hirnforscher würden sagen: und nur sie) lässt sich auch bei erwachsenen Menschen noch durch Lernen steigern.

 

- Gedächtnis:
Vgl. Wie funktioniert unser Gedächtnis? (WDR), Gedächtnis, Memory Test

* Inhalte: Man unterscheidet:

° implizite oder prozedurale Inhalte (bewusstseinsbegleitete Fertigkeiten wie Klavierspielen)
° explizite oder deklarative Inhalte (sprachlich berichtbare Inhalte des Wissens- und Faktengedächtnisses und des episodischen Gedächtnisses (Kern: autobiographisches Gedächtnis)

* Funktion: Das Gedächtnis ist einem Speichersystem (Arbeits- und Dauerspeicher) mit ausreichend vorhandenem Speicherplatz vergleichbar. (Dichotomische Speicherhypothese) Seine Funktionsweise ist nicht restlos geklärt, die angenommenen Veränderungen des Nervensystems nennt man Engramme. Grundlage scheinen biochemisch-elektrische Vorgänge, Synapsenbildungen und morphologische Veränderungen im Gehirn zu sein. Eine stark beteiligte Hirnregion ist der Hippocampus. Vor der Ausreifung des Gehirns herrscht infantile Amnesie (die ersten gesicherten Erinnerungen reichen oft nur bis zum 2. bis 4. Lebensjahr oder noch später zurück), im Laufe des Lebens kann das Gedächtnis durch Läsionen und vor allem altersbedingte Degenerationserscheinungen (z. B. die Alzheimer-Erkrankung; s. o.) Schaden erleiden. Auch in der Kindheit erworbene Fehlverdrahtungen und falsche Konditionierungen können nicht mehr gelöscht werden, sodass jedes Neulernen (z. B. im Rahmen einer Therapie) ein Überlernen ist und nicht mit der Löschung der alten Gedächtnisinhalte rechnen darf. Prinzipiell verschwindet Gelerntes nicht einfach (wie man bei Schlaganfallopfern beobachten kann, die plötzlich bereits "Vergessenes" produzieren können - auch fällt das Wiedererlernen eines Gedichts auch nach vielen Jahren leichter als beim ersten Lernen). Der Zugang zum Gespeicherten kann jedoch verlegt sein bzw. werden. Außerdem ist zu beachten, dass Erinnerungen wieder hervorgerufene Befindlichkeiten des Gehirns in der Vergangenheit und somit nicht konstant sind. Ihre Unverlässlichkeit kann durch widersprüchliche Zeugenaussagen (die nicht bewusste Lügen darstellen, sondern nach bestem Wissen und Gewissen gemacht wurden) jederzeit bewiesen werden.

Ex. von Rock beweist, dass es beim Lernen keine Spurenbildung gibt, sondern das Alles-oder-Nichts-Gesetz wirksam wird:

° 1. Phase: Vp lernt 12 Paare sinnloser Silben (s. u.). Nach 10maliger Darbietung werden im ø 8 Treffer erzielt, wenn der 2. Paarling zum ersten assoziiert werden soll.
° 2. Phase: Vp wird bereits im 2. Durchgang geprüft. Richtig beantwortete Paare erscheinen im 3. Durchgang wieder, falsche werden durch ein völlig neues Paar ersetzt. Ergebnis: nach 10 Runden wieder im ø 8 Treffer.
° 3. Phase: wie 2. Phase, es wird jedoch bei einer falschen Antwort nur der 2. Paarling, nicht das gesamte Paar ersetzt. Das Ergebnis (neuerlich ø-lich 8 Treffer nach 10 Durchgängen) beweist das Alles-oder-Nichts-Gesetz, da bei Spurenbildung aufgrund der assoziativen Gedächtnishemmung (s. u.) die Lernleistung gelitten haben müsste.

* Speicher:
(Vgl. auch Informationen zum Kurzzeitgedächtnis)

 

STM (short term memory)
Kurzzeit-, Arbeits-, Aktualgedächtnis

LTM (long term memory, Langzeitgedächtnis)
Ort aller unserer Erfahrungen und unseres Wissens, sofern sie / es einmal bewusst war/en

  Kapazität ist gering, bis zu 9 Einheiten lassen sich ohne Aufwand merken Kapazität fast unbegrenzt, Sinz nahm 1977 etwa 1016 bit als Obergrenze an
  Wiedergabe ohne Einprägung Wiedergabe wegen Einprägung
  ca. 30 sec (bereits nach 5 sec. verschwinden die erszen Wahrnehmungsdetails) Jahre und Jahrzehnte
  Regelkreise, arbeitet sequentielll morphologische Veränderungen
  labil, störanfällig stabil, überdauernd
  nicht trainierbar trainierbar
  eher akustisch orientiert eher sinnorientiert
  Inhalte werden (rückstandslos) gelöscht (vgl. Computerarbeitsspeicher) Inhalte werden (wieder aktivierbar) vergessen (vgl. Festplatte)
  Beispiel: Telephonnummer aus Telephonbuch bis zum Anruf Beispiel: Prüfungsstoff
  Beweise für die Existenz eines STM: Korsakow-Syndrom (Mnestisches Syndrom): bei alten Leuten und Alkoholikern beobachtbarer Schwund des Kurzzeitgedächtnisses (anterograde Amnesie) Beweise für die Existenz eines LTM: Retrograde Amnesie: rückwirkender Gedächtnisschwund, z. B. nach einem Unfall, durch Störung der postmentalen Erregungen (s. u.).
     
  ° Außerdem existiert ein nur wenige Sekunden aktives Ultrakurzzeitgedächtnis (ikonisch-echoischer Speicher, sensorischer Puffer)
  ° Déjà vu-Erlebnis (Paramnesie): Scheinbekanntheit mit einer tatsächlich noch nie erlebten Situation. Versuch einer Erklärung: Paramnesien entstehen durch "Schaltfehler": etwas gerade erst Erlebtes wird sofort in das LTM transferiert => es entsteht subjektiv der Eindruck einer Erinnerungsvorstellung.

 

- Einprägen, Wiedergeben und Vergessen:

 Hermann Ebbinghaus
* Methoden:
Seit dem 1885 erschienenen Buch "Über das Gedächtnis" von Ebbinghaus werden als Untersuchungsmaterial sinnlose Silben benutzt. Sie bestehen aus assoziationslosen Konsonant-Vokal-Konsonant-Kombinationen (z.B. ZUN, FIM, PES, HEM ...; die Eichung erfolgt auch hinsichtlich eines eventuellen von Restorff-Effektes, s. u.).
Zur Überprüfung der Wiedergabeleistung dienen:

° Methode der behaltenen Elemente: überprüft, wie viele Elemente einer dargebotenen Reihe gemerkt wurden.
° Wiederholungsmethode = Erlernungsmethode: überprüft, wie viele Wiederholungen notwendig sind, bis der Lehrstoff fehlerlos beherrscht wird.
° Ersparnismethode: überprüft, wie viele Durchgänge man sich nach einer Wiederholung (bzw. mehreren Wh-Durchgängen) erspart.
° Treffermethode: Silben werden paarweise dargeboten, überprüft wird die Trefferquote, wenn der zweite Paarling abgefragt wird. (von Müller und Pilzecker)
° Wiedererkennungsmethode (v.a. im klinischen Bereich verwendet): überprüft, wie viele Elemente einer dargebotenen Reihe rekognisziert werden können. (Die Leistung beim Wiedererkennen ist im ø dreimal so hoch wie beim Reproduzieren.)

* Vergessenskurve von Ebbinghaus: Hermann Ebbinghaus' Untersuchung des menschlichen Erinnerungsvermögens ergab die Vergessenskurve, die die Abnahme der Wirksamkeit einer Einprägung, die sich selbst überlassen wird, darstellt. "Die Quotienten aus Behaltenem und Vergessenem verhalten sich umgekehrt wie die Logarithmen der Zeit (ln y = lg a - (lg b).t"). Mathematisch kann sie mithilfe folgender Funktion näherungsweise beschrieben werden kann:

  W(t) =                35                            t .........Zeit in Stunden (h)
                1  –  0,65 ∙ –1,24·t                       W(t)....vorhandenes Wissen nach t Stunden in Prozent
 

Ergebnisse: Der Mensch kann 20 Minuten nach dem Lernen 60 % des Erlernten abrufen. Nach 1 Stunde sind noch 45 %, nach 1 Tag 34 % und nach 6 Tagen 23 % des Erlernten im Gedächtnis. Dauerhaft abrufbar sind ohne Wiederholungen höchstens 15 % des Erlernten.


Abbildung nach http://www.waldmathematik.com/pool_1/teil_a/Vergessenskurve_nach_Ebbinghaus-141024.pdf

            Folgerungen:

  ° Der Abfall der Kurve ist unmittelbar nach dem Lernvorgang am steilsten.
° Der Einprägungswert einer Wiederholung ist um so stärker, je mehr bereits vergessen worden ist.
° Nach einem Tag sind ²/3 des Stoffs bereits vergessen! Die Kurve geht asymptotisch gegen 0.
° Die Kurve verläuft umso flacher, je sinnvoller das verwendete Material ist bzw. je öfter bereits wiederholt worden ist.

* Gesetz von Ebbinghaus: stellt das Verhältnis Lernstoff / Lernaufwand dar:

Abb. nach kzg.htm der Universität Bonn

Folgerung: "Jede Vergrößerung des Lernmaterials macht eine unverhältnismäßig große Steigerung der Lernzeit notwendig."

* Sätze von Jost
(Schüler von Ebbinghaus):

° "Haben 2 Assoziationen mit gleicher Stärken ein verschiedenes Alter, so wird die Stärke der älteren Assoziation langsamer geringer als die der jüngeren."
(In der Graphik grau vs. blau)

° "Sind 2 Assoziationen von gleicher Stärke, aber verschiedenem Alter, so hat eine Wiederholung für die ältere einen größeren Wert."
(In der Graphik grün vs. gelb)

Die Graphik bezieht sich auf 20 Silbenpaare, die mit der Treffermethode erlernt wurden. Im Schnittpunkt wurden beide Reihen (wenn auch bei unterschiedlicher Lerngeschichte) gleich gut gekonnt: zu 50%. Die Gruppe A, deren Erlernkurve schwarz eingetragen ist, vergisst also ab dem Schnittpunkt langsamer (Vergessenskurve der Gruppe A = blau) als die Gruppe B, deren Erlernkurve und Vergessenskurve grau eingetragen sind, da der steile Abfall bei A schon überwunden ist, bei B jedoch erst gerade beginnt. (A hat ja schon früher den Lernstoff einmal zu 100% beherrscht.)
Genauso wäre A bei einem neuerlichen Lernvorgang (= grün) schneller (wieder) auf 100% als B (=gelb), da für B die Silben 11-20 neu wären.

* Gedächtnisspanne:

° Statische Gedächtnisspanne: Nach Darbietung einer Reihe wird überprüft, wie viele Elemente spontan gemerkt werden konnten.
° Gleitende Gedächtnisspanne (kürzer): Sie wird überprüft, indem die Anzahl der Elemente, die nach dem Abbrechen der Darbietung von hinten wiedergegeben werden müssen, unbekannt bleibt.

 

- Ergebnisse der Lernpsychologie (Praxisanwendung), positive Effekte:
vgl. Tipps und Hinweise, Lern-Links

* Pausen:
Verteiltes Lernen ist besser als massiertes Lernen. (Es ist zB nutzbringender, 6 x eine Viertelstunde zu lernen als 1 x zwei Stunden.) Empfohlen werden pro Stunde maximal 3 Lektionen (eine Lektion: ca. 15 min, dazwischen 5 min Pause); pro Tag höchstens fünf Lerneinheiten (drei am Vormittag, zwei am Nachmittag => 15 Lektionen pro Tag.

* Wiederholungen:
notwendig, um den Abfall der Vergessenskurve (s. o.) auszugleichen.
           Empfohlen wird:

° 1. Wiederholung: nächster Tag
° 2. Wiederholung: nach 3-4 Tagen
° 3. Wiederholung: nach 10 Tagen
° 4. Wiederholung: nach 3 Wochen, wenn es die Struktur des Lernstoffes erlaubt, am besten mit der Lernkartei (Schachtel mit fünf Fächern: 1cm/2cm/5cm/8cm/14cm tief; 1 Lektion entspricht etwa 20 Karteikarten, der Aufbau des Kastens entspricht der Vergessenskurve). Die Karteikarten (Vorderseite: Frage, Rückseite: Antwort) eines Stoffgebietes werden in das erste Fach (1 cm) gegeben und durchgearbeitet. War die Antwort richtig, kommt die Karte ins nächste Fach, war sie falsch, bleibt sie im ersten Fach. Ist die Mehrheit der Karten im zweiten Fach, wird dieses durchgearbeitet, wobei nicht gewusste Karten wieder im ersten Fach landen, usw. Ist das erste Fach (fast) leer, kann man, ohne die alten Karten zu entfernen, ein neues Stoffgebiet einlegen. (Besonders geeignet für Lernstoffe, die sich in kleine Einheiten gliedern lassen, zB Frage-Antwort, Vokabel, ungeeignet für Sinnzusammenhänge.)

"Repetitio est mater studiorum"

* PU (Programmierter Unterricht): von Skinner (s. u.) erfundene Praxisanwendung der Lerngesetze. Der Lernstoff wird in kleine Einheiten (frames) gegliedert, die eine Aufgabenstellung enthalten. Nur bei einer korrekten Antwort gelangt man zum nächsten frame. (Es entstanden programmierte Lehrbücher, die heute durch immer bessere Computerlernprogramme, die aber letztlich auf demselben Prinzip beruhen, obsolet geworden sind; Vorläufer: Lernkartei und Pressey 1926).

            Zwei Typen:

° Lineares Programm, das eine Lektion, die nicht beherrscht wird, einfach wiederholt
° Verzweigter Typ ("scrambled system"), der einen individuellen Lernweg ermöglicht (Umwege bei Nicht-Können) von Crowder

* Sinnhaftigkeit des Materials: Je "assoziationsgeläufiger" das Material, desto flacher die Vergessenskurve. Es empfiehlt sich manchmal, die logischen Zusammenhänge eines Stoffgebietes in Form einer sogenannten Mind Map (= eine von Tony Buzan, geb. 1942,  entwickelte Form der kreativen Gedankenfixierung oder Mitschrift; vgl. folgende Links) graphisch darzustellen.

* Positionseffekte: Innerhalb eines Kontinuums lässt sich der Beginn (primacy effect) und das Ende (recency effect) leichter merken. => Reihenfolge ändern, z. B. durch die Lernkartei, s. o.

* von Restorff-Effekt:
Herausfallen eines aus welchen Gründen immer assoziationsgeläufigen Elementes aus einer Reihe assoziationsloser Elemente.

* Reminiszenzeffekt:
nach einer längeren Pause scheint etwas einmal Beherrschtes leichter auszuführen als davor (gilt v.a. für körperliche Fähigkeiten).

* Beschallung:
in Exen. zeigte sich, dass weißes Rauschen (s. Teil 1) im Hintergrund besser für die Lernleistung ist als absolute Stille. Erklärungsversuch: Es hebt das Aktivierungsniveau ohne abzulenken.

* Lerntyp:
je nach dem bevorzugten "Kanal" sollte der Lernstoff optisch, akustisch oder motorisch (vgl. Tu-Effekt) aufgenommen werden. (Kanalkapazität: Menge der von einem System pro Zeiteinheit übertragbaren Information, beim Menschen 7±2 Einheiten)
Ex. Stroop-Merz-Test zur Untersuchung der Mehrkanaligkeit des Menschen (nach John Ridley Stroop): Das Wortpaar "laut-leise", 50mal untereinandergeschrieben, muss entsprechend der Lautstärker einer vom Tonband kommenden Stimme, die jeweils "laut" oder "leise" laut oder leise ausspricht, angehakt werden. Es kommt zu Interferenzen zwischen dem akustischen und dem semantischen Kanal. (Siehe Variante mit Farben und andere Tests und Erklärung)

 

 

Prinzipiell fördert aktive Beteiligung am Lerngeschehen den Grad des Behaltens. (Konfuzius: "Sage es mir, und ich vergesse es / zeige es mir, und ich erinnere mich / lass es mich tun, und ich behalte es.")

* Mnemotechnische Hilfen: Künstlich geschaffene Assoziationen, sog. "Eselsbrücken", die die Merkleistung erhöhen. Vgl. Gedächtnistricks oder folgendes Ex.: Die (immer gleich angeordneten) Punkte lassen sich in der Darbietungsweise 2 oder 3 leichter merken (und reproduzieren) als in der Darbietungsweise 1.

1

2

3

Abb. aus einer FBA von E. Feichter, Wals-Siezenheim

* Motivation: Je stärker das Motiv, desto besser die Lernleistung. Intensität, Richtung und Form des Lernens (jedes Verhaltens) werden von der Motivation wesentlich beeinflusst.

* Flow-Erlebnis: Manchmal lässt sich ein eventuell auftretendes so genanntes Flow-Erlebnis ausnutzen. (Begriff nach dem ungar.-amerik. Psychologen Mihaly Csikszentmihalyi, der darunter eine in vielen Lebensbereichen mögliche länger andauernde Euphorie versteht, in der man alles richtig macht, ohne darüber nachdenken zu müssen. Challenge complexity und skills stehen in richtigem Verhältnis zueinander. (Siehe Graphik rechts; engl. Ausrücke im Uhrzeigersinn: flow, control, relaxation, boredom, apathy, worry, anxiety.) Die meisten gelungenen Lernprozesse erfolgen aus den Bereichen Erregung (durch Erhöhung der Fähigkeiten) und Kontrolle (durch Erhöhung der Anforderungen). Laut Csikszentmihalyi hat ein Flow-Erlebnis („jenseits von Angst und Langeweile im Tun aufgehen“) folgende Bestimmungsstücke:

   - Die Aktivität hat deutliche Ziele, unmittelbare Rückmeldung und ihre Zielsetzung bei sich selbst. (Sie ist autotelisch, intrinsisch motiviert.)
   - Wir sind fähig, uns auf unser Tun zu konzentrieren.
   - Anforderung und Fähigkeit stehen im ausgewogenen Verhältnis, so dass keine Langeweile oder Überforderung entsteht.
   - Wir haben das Gefühl von Kontrolle über unsere Aktivität.
   - Es besteht Mühelosigkeit, bei der unsere Sorgen um uns selbst verschwinden.
  
- Unser Gefühl für Zeitabläufe ist verändert: "Zeitlosigkeit" entsteht. ("Dem Glücklichen schlägt keine Stunde".)
   - Handlung und Bewusstsein verschmelzen ("Extase").

Flow-Erlebnis nach  Csikszentmihalyi:  

 

- Ergebnisse der Lernpsychologie (Praxisanwendung), negative Effekte:
* Ablenkung: informationshaltige Beschallung (s. o.) und jede andere Ablenkung am Arbeitsplatz senken die Lernleistung, da der Mensch nur bedingt mehrere Inhalte gleichzeitig bearbeiten kann (= Simultankapazität, s. o.: Stroop-Merz-Test) ist. Beachte v.a. Ablenkung durch Stress!

* Demotivation:
innere Ablehnung des Stoffes erhöht den Lernaufwand

* Plateau-Phase:
jene Phase, in der der Lernaufwand in keinem Verhältnis zum Ertrag mehr steht. Abhilfe: Pause!

* Überlernen:
ein zu über 100% erlernter Stoff unterliegt beinahe derselben Vergessensgeschwindigkeit wie ein zu 100% erlernter (im Ex. von Luh 1922 in den USA nachgewiesen; Begriff von H. Roth).

* Gedächtnishemmungen:
beruhen auf Störungen der postmentalen Erregungen (Aktivitäten des Gehirnes nach dem eigentlichen Lernvorgang). Der Lernstoff kann sich nicht festigen. ("Das Gehirn lernt länger als das Bewusstsein.") Beweis: retrograde Amnesie, s. o., eine besonders starke Form der affektiven Hemmung (s .u.). Nachgewiesen wurden folgende Hemmungen (die jeweils relevanten postmentalen Erregungen werden mit ~~ symbolisiert):

° Retroaktive Hemmung: Lernstoff B, unmittelbar nach Lernstoff A gelernt, stört ~~ und damit das Einprägen von Lernstoff A, der wiedergegeben werden muss
° Proaktive Hemmung: ~~ von A, unmittelbar vor B gelernt, stören den Konsolidierungsprozess von B, der wiedergegeben werden muss
° Ähnlichkeitshemmung (Paul Ranschburg'sche Hemmung): die zwei in zeitlicher Nachbarschaft gelernten Stoffe sind einander ähnlich; die stärkste Hemmung! (Kann natürlich auch als ekphorische Hemmung auftreten.)
° Ekphorische Hemmung (Abrufhemmung): ~~ von B, unmittelbar vor der Wiedergabe von A gelernt, stören Wiedergabe von A)
° Affektive Hemmung: ein emotional tiefgreifendes Ereignis stört die Einprägung eines Lernstoffes. (=> Nachweis der postmentalen Erregungen auch über längere Zeit, vgl. Retrograde Amnesie). Ex. in einer Volksschule: die Vg konnte nach einem Feueralarm von drei in einem eben gehörten Märchen vorkommenden Zauberwörtern keines, die Kg alle nennen.
° Linguale Hemmung ("es liegt auf der Zunge"): partielle Erregungskollisionen im Gehirn, z. B. wegen ähnlich klingender Wörter, hemmen den Output. Abhilfe: an etwas anderes denken.
° Assoziative Hemmung: Umlernen von Assoziationen ist aufwendiger als Neulernen, z. B. neue Telephonnummer eines alten Freundes.

Abhilfe bei Gedächtnishemmungen: Pausen zwischen den Lernvorgängen einlegen, am besten für die ~~: Schlaf nach jedem Lernvorgang; Vermeidung von Ablenkung, Stress etc.; Time-Manegement; Wechsel der Lernmethoden (z. B. nicht Vokabel zweier Fremdsprachen hintereinander lernen)

* Digitale Demenz: Nach dem Hirnforscher Manfred Spitzer beeinflussen seit geraumer Zeit in den Lernbiographien vor allem schlechter Schüler/innen viel zu früh auftauchende Bildschirme die Lern- und Intelligenzleistungen negativ. Forschungen ergaben, dass durch die digitalen Medien die nach der Plastizitätshypothese (s. o.) notwendige "Hirnbildung" unterbleibt, wodurch - verstärkt in vielen Fällen durch "Multitasking" (einem immer schädlichen, zu Aufmerksamkeitsstörungen führendem gleichzeitigen Verfolgen von zwei oder mehr Bedeutungssträngen) den Kindern Lernerfahrungen vorenthalten werden (z. B. die für das Einprägen extrem wichtige Handschrift oder die Lektüre längerer, zusammenhängender Texte), die die Grundlage für einen gewinnbringende Nutzung dieser Medien erst schaffen würden. (Zur Überforderung des Menschen durch die anschwellende Flut digitaler Daten vgl. folgende Dokumentation.) Die unten stehende Graphik illustriert die negativen Folgen dieser Entwicklung und stellt aus Sicht der Hirnforschung auch positive Einflüsse dar.

Manfred Spitzer: Digitale Demenz (Quelle: https://www.youtube.com/watch?v=FEjMzb0YlLk)

* Weitere negative Faktoren: Drogen, z. T. Ernährung, Alter, Nervosität, Depressionen etc.

 

- Dem Gedächtnis verwandte Phänomene:
* Negative Nachbilder (s. o.)

* Eidetisches Phänomen
("photographisches Gedächtnis"): besonders bei Kindern auftretende Fähigkeit, ein detailreiches Bild nach kurzer Ansicht auch nach längerer Zeit beinahe fehlerfrei reproduzieren zu können.

* Halluzinationen
(Trugwahrnehmungen): Subjektiv als Wahrnehmung erscheinende Bewusstseinsinhalte, die keine Entsprechung in der Außenwelt haben (v. a. bei Geisteskranken)

* Pseudohalluzinationen:
Meist im Zustand der Ermüdung auch bei Gesunden auftretende Trugwahrnehmungen, deren Inhalt meist über längere Zeit durchgeführte Tätigkeiten sind.

* Illusionen
(Pareidolien): Umdeutungen (Verkennung) bestehender Wahrnehmungen; der Begriff wird auch für optische Täuschungen verwendet. "Pareidolie" meint oft "Hinzufügung". Illusionen können auch bezüglich Realität und Fiktion bestehen. So sehen sich z. B. manche Menschen in Videospielen in eine "reale" Atmosphäre versetzt, hingegen wurde z. B. am 11.9.2001 der reale Einschlag der Flugzeuge in die Twin Towers des WTC  in New York als einem Action-Film oder Videospiel gleichartig empfunden.

* Vorstellungen:

° Sie haben keine Reizgrundlage
° Sie sind ungenauer als Wirklichkeit
° Sie sind willentlich hervorrufbar

            2 Arten:

° Phantasievorstellungen (Neukombinationen)
° Erinnerungsvorstellungen (aus Gedächtnis)

Die Vorstellungsfähigkeit ("Imagery") lässt sich für das Mentale Training (Verschiebung des Realverhaltens in den kognitiven Bereich) nützen.

* Perseveration:
sowohl bei psychisch Kranken wie bei Gesunden ungerufenes Auftreten und Verharren gewisser Gedächtnisinhalte (z. B. Melodien).

 

LERNEN IM VEGETATIVEN BEREICH

- Definition
Der Vegetativbereich eines Lebewesens ist - neben dem sensorischen und dem motorischen System - der dritte große Teil des Nervensystems. Es handelt sich um jenen Bereich, der nicht dem freien Willen unterliegt und der die lebenserhaltenden Funktionen steuert (Blutkreislauf, Herzschlag, Atmung...). Dieser Bereich ist klassisch konditionierbar.

 

- Klassisches Konditionierungsex von Pawlow:
Vgl. Webseite Klassische Konditionierung nach Pawlow (Folien 16-26) und eine Seite mit interaktiver Simulationsmöglichkeit
Der russische Physiologe Iwan Petrowitsch Pawlow (Nobelpreis 1904) fand in seinen Exen. folgendes heraus: Speichelfluss, der bei Hunden normalerweise reflexhaft als Reaktion auf Fleischpulver auftritt, kann auch durch einen ursprünglich neutralen Glockenton ausgelöst werden, wenn dieser lange genug in zeitlicher Nachbarschaft mit der Nahrung dargeboten wurde. (=> Klassische Konditionierung, erlernte Assoziation, Antizipation der Nahrung durch die Glocke). => Verhalten ist ein Komplex reflektorischer Vorgänge.
Vgl. Seite über Pawlow

* Begriffe:

° UCS = unconditioned stimulus, unbedingter Reiz (im Ex das Fleischpulver)
° UCR = unconditioned reaction, unbedingte Reaktion (Reflex; im Ex der primäre Speichelfluss; Verhältnis UCS/UCR: r = 1)
° CS = conditioned stimulus, bedingter Reiz (im Ex der Glockenschlag, am wirksamsten 1/2 sec vor dem UCS)
° CR = conditioned reaction, bedingte Reaktion (im Ex der durch die Glocke ausgelöste Speichelfluss; Verhältnis CS/CR: r = zwischen 0 und 1)

* Generalisation und Erweiterung: Wenn mit einem dem gelernten ähnlichen CS eine CR erreicht wird, nennt man diese Erscheinung Reizgeneralisation. (z. B. Glocke eine Oktav höher, rotes statt grünes Licht etc.) Generalisationsexe lassen Rückschlüsse auf die Abstraktionsfähigkeit eines Tieres zu. Basis: Irradiation (Überschneidung von Erregungsfeldern)
Ex.: Zu einer "experimentellen Neurose" führte die Konditionierung von Hunden auf Ellipsen als CSs. Nachdem sie die Unterscheidung zwischen einer projezierten Ellipse (mit UCS gekoppelt) und einem projezierten Kreis (nie mit dem UCS gekoppelt) erlernt hatten (Differenzierung), wurde die Achsenlänge dem Kreis so stark angenähert, dass für die Tiere die Unterschiede nicht mehr merkbar waren => Übersprungsbewegungen, Unsicherheit. Außerdem lässt sich die Konditionierung erweitern, indem man vor den CS (z. B. Glocke) einen zweiten CS (z. B. Lichtsignal) setzt. ("Bedingter Reflex zweiter Ordnung", beim Menschen sind Konditionierungen bis zur 7. Ordnung u. mit dem 2. Signalsystem, der Sprache, gelungen.)

* Extinktion:
Wird der CS über längere Zeit weggelassen bzw. tritt der CS immer öfter ohne UCS auf, wird die erlernte Assoziation gelöscht (extinguiert).

* Spontanremission:
Werden in einer Extinktions-Phase eine Zeitlang weder CS noch UCS dargeboten, so steigt die Bereitschaft, auf den CS zu reagieren nach dieser Pause wieder etwas an (Spontanremission). Erklärung: Die Hemmung, die sich aufbaut, wenn der CS alleine wahrgenommen wird, baut sich in der Pause wieder ab.

 

LERNEN IM VERHALTENSBEREICH (Behaviouristische Theorien und ihre Überwindung)

- Definitionen:
Lernen im Bereich des Verhaltens wurde v. a. von der amerikanischen Psychologie erforscht. Der extrem milieuoptimistische Behaviourismus (Behaviorismus) hat sich hauptsächlich als Lerntheorie etabliert. (Lernen ist für ihn Verhaltensänderung aufgrund einer S -> R-Beziehung, s. o., "Psychologie ohne Seele")

* Grundthese des Behaviourismus:
Das (menschliche) Verhalten ist aufgrund von Reiz-Reaktions-Beziehungen erklärbar (S = stimulus, Reiz; R = reaction, Reaktion). Beobachtbar sind nur der Input (S) und der Output (R), das Lebewesen selbst bleibt eine "black box" (Verzicht auf jeden Introspektionismus)

* Ziele des Behaviourismus:

° adäquate Beschreibung des (tierischen und menschlichen) Verhaltens
° Voraussagemöglichkeit und Kontrolle
° Entwicklung einer Lern- und Verhaltenstheorie

 

- Entwicklung des Behaviourismus anhand seiner Hauptvertreter:
Vgl. Behaviorismus

* J. B. Watson: Watson (vgl. Kap. 6.2.1) gilt als Begründer des Behaviourismus ("Psychologie ist ein objektiver Zweig der Naturwissenschaft."), extremer Milieuoptimist ("Gebt mir ein Dutzend gesunder, wohlgebildeter Kinder und meine eigene Umwelt ..., und ich garantiere, dass ich jedes ... zu einem Spezialisten in irgendeinem Beruf erziehe, zum ... Künstler, Kaufmann oder zum Bettler und Dieb..."). Wissenschaftlich zulässig ist für ihn allein das Reiz-Reaktions-Schema.
Ex. "Little Albert": Um seine Theorien zu beweisen, züchtete Watson dem Kleinkind Albert Angst vor seinem Stofftier an (durch Koppelung mit einem angsterregenden Gongschlag), die er auf alles Pelzige generalisierte. Grund: Er wollte zeigen, dass Angst etwas Erlerntes und daher auch wieder Verlernbares ist.
Vgl. Watsons Little Albert Study

* E. L. Thorndike:
Thorndike erweitert das S-R-Modell, indem er ein Streben nach Bedürfnisbefriedigung und damit eine Eigengesetzlichkeit des Organismus (EdO) als intervenierende Variable (iV) unterstellt. Er beschrieb als erster Behaviourist das trial-and-error-Verhalten.

* C. G. Hull:
Hull führt ein zusätzliches, antizipatorisches Element ein, die Erfolgserwartung (EE). Innerhalb der Habit-Familie (zur Verfügung stehende Verhaltensweisen) ergibt sich je nach Situation eine Hierarchie, die bewirkt, dass das Individuum die zum Ziel führende Verhaltensweise auswählt. Bedingte Reaktionen werden durch Erfolg stabilisiert.

* B. F. Skinner:
Skinner, der Erfinder des Programmierten Unterrichts (s. o.) und der "Skinner-Box" (vgl. Darstellung z. B. in diesem Video mit Skinner-Interview), eines Tierkäfigs, der eine störungsfreie Beobachtung bei Exn garantiert, rechnet als erster Behaviourist mit spontanem Verhalten ohne Reizgrundlage (= operantes Verhalten oV) im Gegensatz zum reaktiven Verhalten. Lernen ist für ihn Veränderung von Reaktionswahrscheinlichkeiten. (Vgl. auch sein Buch "Jenseits von Freiheit und Würde")
Der Gang der Entwicklung des Behaviourismus zeigt, dass der ursprüngliche Ansatz umso mehr verlassen wird, je adäquater die Beschreibung des Verhaltens gelingt. (Vgl. Seite der Skinner-Foundation)

* E. CH. Tolman:
Tolman gilt als der Überwinder des Behaviourismus. Er rechnet mit Lernen von Bedeutungen und Mustern und zielorientiertem Handlung und formuliert damit eine schon kognitive Lerntheorie. Beim Lernen von Labyrinthen zB hätten die Tiere eine geistige Landkarte (cognitive map) im Kopf. - Weiterentwickelt von

* R. M. Gagnés: Gilt nach Tolman als wichtigster Vertreter einer "kognitiven Wende". Seine Theorie von Lernen als Informationsverarbeitung vor allem im schulischen Bereich schreibt dem Lehrer die Aufgabe zu, Teilaufgaben in einer hierarchischen Sequenz anzuordnen und eine "Lernstruktur" zu schaffen. Der Lernende stehe in einer Reizsituation, die Reaktionen hervorrufe. Lernen sei eine „Änderung in menschlichen Dispositionen oder Fähigkeiten, die erhalten bleibt und nicht einfach dem Reifungsprozess zuzuschreiben ist." In einer veränderten Leistung zeige sich das Ergebnis. (Gagné beeinflusste die Curriculumtheorien, die eine möglichst präzise Regelung nicht nur von Lernzielen und Lerninhalten, sondern auch von Lernprozessen und der Lernorganisation schaffen wollen und befasste sich v. a. mit dem Regellernen.)
Vgl. Seite über Gagnés.

 

LERNMODELLE  (vgl. folgende Übersicht)

- Neurophysiologisches Modell:
Lernen besteht in einem "Prozess des Herausbildens relativ überdauernder neuraler Leistungsbögen durch simultane Aktivität der den Bogen konstituierenden neuralen Elemente, sodass mit fortschreitender Veränderung der Zellstrukturen eine schnellere Aktivierung des gesamten Bogens dann erfolgen kann, wenn nur eines der neuralen Elemente aktiviert (gereizt) wird." (so schon Bugelski 1956)

 

- Kognitives Lernmodell:
Kognitive Lerntheorien gehen von der Auffassung aus, dass kognitive Strukturen erlernt werden. Das kognitive Feld wird durch Lernen umgestaltet. Die "kognitive Wende" wollte das behaviouristische Erklärungsparadigma ablösen. Kognitionspsychologie beschreibt Prozesse des Wahrnehmens, Denkens, Urteilens und Schließens und beschäftigt sich mit der Frage, wie Menschen ihre Erfahrungen strukturieren, ihnen Sinn beimessen und wie sie ihre gegenwärtigen Erfahrungen zu vergangenen - im Gedächtnis gespeicherten - Erfahrungen in Beziehung setzen. („It is quite possible - overwhelmingly probable, one might guess - that we will always learn more about human life and human personality from novels than from scientific psychology.“ Noam Chomsky, Language and Problems of Knowledge: The Managua Lectures, Lecture 5, 1988, S. 159)

 

- Lernmodell von Pawlow:
Lernen erfolgt durch wiederholte gemeinsame Darbietung von CS und UCS. Die dadurch eingeprägte Assoziation ist das Ergebnis des Lernvorganges, der an natürliche Reflexe gebunden erscheint.

 

- Lernmodelle des Behaviourismus:
* Torndike: Lernen beginnt, bei Lernbereitschaft, mit einem trial-and-error-Verhalten, das drei Gesetzen unterliegt:

° Gesetz des Effekts (law of effect): Je stärker das Motiv (etwa Hunger) und der Effekt (etwa Erreichen des Futters), desto eher wird ein Lernvorgang (etwa Öffnen eines Käfigschlosses) erfolgreich abgeschlossen werden. ("Lernen am Erfolg")
° Gesetz der Frequenz (law of exercise): Je häufiger eine S-R-Verbindung wiederholt wird, desto eher prägt sie sich ein.
° Gesetz der Bereitschaft (law of readiness ): Eine Serie von Reaktionen kann, um ein Ziel zu erreichen, dessen Verfehlung Ärgernisse erzeugen würde, aneinandergekettet werden.

Folgerung: Lernen erfordert Belohnung, Übung und Verbindungen.

* Skinner: Lernen basiert auf Verstärkung (reinforcement) zufällig (operant) auftretender Verhaltensweisen, die in die gewünschte Richtung gehen bzw Bestrafung des Gegenteils (positive / negative Verstärkung = belohnende / punitive Reize, "Operantes Konditionieren", "Instrumentelles Lernen", Dressur nach dem Motto: "Jetzt haben wir ihn endlich so weit", sagte eine Ratte zur anderen, "jedes Mal, wenn wir diese Taste drücken, wirft er uns ein Stück Futter herunter.").
Ex.: Auch der Vegetativbereich erwies sich (bei Ratten!) als operant konditionierbar. So gelang es Miller und Di Cara, durch Bio-Feed-Back die Durchblutung eines Ohres zu steuern. Zur verbalen operanten Konditionierung vgl. den Greenspoon-Effekt

 

- Lernen am Modell:
s. dazu Transmission of Aggression
Nach Bandura erfolgt Lernen durch Nachahmung von Vorbildern. (Zwei Phasen: Akquisition und Ausführung)
Ex.: Nach der Konsumation von Fernsehfilmen mit Gewaltszenen stieg die Bereitschaft bei Kindern signifikant an, auch im Spiel Aggression umzusetzen (gilt v. a. für die Kindheit und für motorische Fähigkeiten, z. B: im Sport: Trainieren = z: T. Nachahmen).

 

- Lernen aus Einsicht:
Direktes Erfassen von Bedeutungen und Sinnzusammenhängen bzw. das Erkennen von Beziehungen zwischen Hinweisreizen (z. B. Instrumenten) und einem Zielreiz (z. B. Futter), das im Beispiel zum Gebrauch des ersten führt, um das zweite zu erhalten, wird "Lernen aus Einsicht" genannt.

* Hegel:
Er unterscheidet diese Form des Lernens vom Auswendiglernen: "Die Gedanken anderer können nur durch das Denken aufgefasst werden, und dieses Nachdenken ist auch Lernen."

* A. Petzelt:
Lernen als eigenständiges Erkennen (Kant: "Ich kann einen anderen niemals überzeugen als durch seine eigenen Gedanken.") führt nach Petzelt zum Possesivverhältnis zwischen dem Lernenden und dem zu erlernenden Gegenstand. "Nach jeder neuen Wissenseinheit entsteht ein neues Ich. ... Das Ich vermehrt (beim Lernen) nicht seinen Besitz, sondern es macht sich in eigenen Akten neu." Lernen ist daher keine Addition von Wissen, sondern bedeutet Auseinandersetzung und Veränderung.

 

 


Fragen und Kommentare an thomas.knob@chello.at

 



Seitenbeginn - Teil 1 -
Teil 2 - Teil 4 - Teil 5 - Materialien - Home

 

Copyright © 1999-2017 Thomas Knob. All rights reserved. - Die Informationen erfolgten nach bestem Wissen und Gewissen. Für den Inhalt der verlinkten Seiten wird keine Verantwortung übernommen.