Anzeige
Anzeige
🔑

Ein rascher Notenschlüssel…

*ohne Gewähr


Klassenarbeiten

Warum verwenden wir in der Schule so wenig Multiple-Choice-Tests? 07.01.2008, 12:24

Multiple-Choice-Test
Bild: Alberto G./flickr: Exam [CC by]

Geschlossene Fragen (vulgo: Multiple-Choice-Tests) werden unter Didaktiker/innen mit Misstrauen beäugt. Dabei sind sie vielleicht besser als ihr Ruf.

Anzeige
Anzeige
  • (geändert: )

Geschlossene Fragen minimieren nicht nur den Korrekturaufwand von Klassenarbeiten immens, sie haben auch eine Eigenschaft, die einer ureigenen Dimension unseres (Lehr-)Berufs entspricht: Sie sind - sofern korrekt konstruiert - objektiv und vergleichbar. Im Regelschulbetrieb werden sie allerdings kaum verwendet. Wieso nicht?

Multiple-Choice-Tests: Kritik

Viele Lernzieltypen oder Fachinhalte eignen sich nicht für die Überprüfung durch Multiple-Choice-Tests. Denn die Antworten bei diesen Fragetypen sind immer kompromisslos nur richtig oder falsch. Individuellen Lernprozessen, Zugängen oder Ausdrucksformen wird damit ganz und gar die Gurgel abgedreht. Diese Kritik an Multiple-Choice-Formaten gilt besonders für Fächer, in denen die hermeneutische Tradition eine Rolle spielt (z.B. Deutsch: Literaturinterpretation).

Wo ist die Wahrheit? Kann sie in ein paar Kreuzchen liegen?

Freitextaufgaben haben zudem den Vorteil, dass die SchülerInnen in einer Prüfungssituation Texte/Bilder/Vokabeln… generieren müssen, was einen nicht zu vernachlässigenden Lerneffekt hat (Rekonstruktion und Anwendung von Gelerntem, Förderung der schriftlichen Äußerungsfähigkeit, Strukturierungsübung etc.).

Multiple-Choice-Tests eignen sich (bedingt) zur Leistungsüberprüfung

In letzter Zeit habe ich in Schulen einige Lesekompetenztests durchgeführt und dazu Auszüge aus den bayerischen Vergleichsarbeiten im Fach Deutsch (Realschule) verwendet. Das sind in erster Linie geschlossene Fragen, die nach Lektüre eines Vorlagentextes beantwortet werden müssen. Es handelt sich dabei nicht nur um Wissensfragen (die die Informationsentnahme aus dem Text abprüfen), sondern auch um Fragen, die weiter gehendes Verständnis und das Begreifen logischer Zusammenhänge testen.

Die DeutschlehrerInnen aller Klassen waren - mit mir - erstaunt darüber, dass die Ergebnisse der Tests fast ausnahmslos dem traditionell durch Aufsätze, mündliche Noten usw. erhobenen Leistungsstand der SchülerInnen entsprachen. Das war um so überraschender, als dass insgesamt durchschnittlich nur sechs Aufgaben (mit jeweils 1-4 richtig zu setzenden Kreuzen) zu lösen waren.

Warum also so wenig Multiple-Choice-Tests in der Schule?

Wie oben beschrieben, haben Freitextaufgaben in Examenssituationen auch eine über das Diagnostische hinausgehende Funktionen. Das erklärt aber nicht, wieso so wenig gemultiplechoict wird. Die Zahl möglicher Anwendungsbereiche ist Legion. Allein im Bereich Deutsch sind Klassenarbeiten/Tests aus fast sämtlichen Lernbereichen denkbar (Grammatik, Rechtschreibung, Kommasetzung; Literaturgeschichte, Lektürehandlung, Personenkonstellationen; Lesekompetenz/Leseverstehen ...), ebenso in allen anderen Fächern.

Anzeige

Newsletter

14058 Empfänger/innen

Sie erhalten eine Mail mit Bestätigungslink und weiteren Informationen. Mehr dazu in unserer ausführlichen Datenschutzerklärung.

Kostenlos und etwa alle zwei Monate - seit 20 Jahren. Tragen Sie Ihre Mail-Adresse ein.
Ob sich das lohnt? Das schreibt einer auf Twitter:

Der Lehrerfreund-Newsletter ist der einzige, den ich regelmäßig lese und nicht ungeöffnet in den Papierkorb befördere.

Ihr Kommentar

zum Artikel "Warum verwenden wir in der Schule so wenig Multiple-Choice-Tests?".



Wir speichern Ihren Kommentar dauerhaft ab (was auch sonst?). Mehr dazu in unserer ausführlichen Datenschutzerklärung.

Kommentare

30

Zum Artikel "Warum verwenden wir in der Schule so wenig Multiple-Choice-Tests?".

  • #1

    Ich bin Lehrer und habe mit Kollegen eine Testplattform (test7.de) entwickelt, die speziell für den Schulbereich konzipiert ist und Lehrern die Möglichkeit bietet, Klassenarbeiten ohne manuelle Korrektur durchzuführen. Sie wird seit diesem Schuljahr an meiner Schule im Fach Mathematik erprobt und zeigt bislang überzeugende Ergebnisse. Hier ein kleines Demo-Video:

    https://www.youtube.com/watch?v=KXpUt9Psozk&t=2s

    Ich bin im Gespräch mit Wissenschaftlern der Universität Kiel, die Multiple-Choice-basierte Testverfahren untersuchen und - grob gesagt - diesem Testformat viel mehr Potential zuschreiben als es Lehrer gemeinhin tun.

    Motiviert hat mich bei der Entwicklung auch die Erfahrung, dass kontinuierliche Rückmeldung über den Leistungsstand einerseits sehr wichig für den Unterricht, andererseits äußerst zeitraubend für den Lehrer ist. Mit einer Testplattform lässt sich diese Crux einigermaßen überwinden.

    schrieb Rainer Ammel am

  • #2

    Im Prinzip ja.
    Ihre Tochter hat ja dreimal an der falschen Stelle angekreuzt und dreimal die richtige Stelle nicht angekreuzt, also 3 mal 2 Fehler gemacht.

    schrieb Robert Bäumer am

  • #3

    Zitat (Claus Fischer): ” Spitzfindigkeiten, die keiner wissen muss und die man auch sehr schnell wieder vergessen sollte, werden abgeprüft. “
    Selten ein solch abstruses Argument gegen Multiple-Choice gehört/gelesen.
    Wer sagt denn, dass man blödsinnig konzipierte Tests, die der Kollege wie man las, in verschiedenen Vereinen über sich ergehen lassen musste, einfach nachmachen sollte?

    schrieb Dora am

  • #4

    Ich empfehle jedem Lehrer ab 45, einmal die Seiten zu wechseln. Machen Sie selbst einen Lehrgang mit, der mit einer Prüfung endet.
    Angebote gibt es hierzu viele: Jägerprüfung, Fischerprüfung,  Segelschein, Sportbootführerscheine usw. Evtl. werden Sie dort auch Prüfungsfragen und MC-Tests erleben, wie viele meiner Kollegen sie in der Schule verwenden. Spitzfindigkeiten, die keiner wissen muss und die man auch sehr schnell wieder vergessen sollte, werden abgeprüft. Nach einer solchen Prüfung, auf die ich wochenlang gelernt habe und auch bestanden habe, sehen Leistungsnachweise, die ich meinen Schülern zumute, nicht mehr so aus wie früher.

    schrieb Claus Fischer am

  • #5

    Hallo ich bin eine Mama von einer Tochter 5. Schuljahr ..... Tochter auf der IGS
    Jetzt kam so ein Test nachhause und für jeden Fehler hat sie nun noch einen weiteren Punkt abgezogen bekommen

    Sprich 19 Fragen 3 falsch angekreuzt = 6 Fehler

    Darf man diese Tests so bewerten ????

    schrieb carina am

  • #6

    MC-Tests mögen in manchen Bereichen durchaus funktionieren, aber mir fehlt hier total der Aspekt des individualen Umgangs mit einem Thema und vor allem die Kritikfähigkeit. Ich finde MC-Test daher oft ziemlich daneben (bin zum Glück erst in der Uni damit in Berührung gekommen) - nicht weil sie niveaulos seien, sondern weil sie von einer absoluten Objektivierbarkeit ausgehen, von einem “Es gibt nur eine richtige Antwort.”. Wenn dem so ist, dann ist ein MC-Test eine reine Wissensabfrage (was m. E. in seltenen Fällen sinnvoll ist) und sagt nichts darüber aus, ob etwas auch wirklich verstanden worden und von SuS anwendbar ist. Es ist doch egal, ob “Burleigh von Paulet verlangt, er solle Maria a) foltern b) ermorden oder c) besser bewachen”, die Schlussfolgerungen und Bezüge sind doch das Wesentliche, nicht ob ein(e) Schüler(in) das Buch ja bloß aufmerksam gelesen hat. Sobald ich aber Verständnis abfragen will und Kritikf- und Diskussionsähigkeit fördern will, wird ein MC-Test zu Farce, denn es gibt dort keine Möglichkeit zur Diskussion. Und das ist der Tod jeder Wissenschaft…

    schrieb Jan-Christian O. am

  • #7

    @MC-Fan

    Eine elegante Möglichkeit ist auch diese:
    - Bei Items mit nur einer Lösung (also 1 aus x.) gibt es 1 Punkt für das richtig gesetzte Kreuz, sonst 0 Punkte.
    - Bei Items mit mehreren Lösungen gibt jedes richtig gesetzte Kreuz einen Punkt, jedes falsch gesetzte Kreuz einen Minuspunkt. Option: Man kann schlechtestensfalls für das Item nur 0 Punkte bekommen.
    Alternative: Jedes richtig gesetzte Kreuz gibt 1/n Punkte, jedes falsch gesetzte Kreuz gib minus 1/n Punkte, wobei n die Anzahl der korrekten Antworten ist.

    Dabei sollte man bei Multiple-Choice-Tests grundsätzlich mit einer gesockelten Punkte-Noten-Skala arbeiten, wie Alois Buy (#4) oben dargelegt hat.

    schrieb Der Lehrerfreund am

  • #8

    Ich bin Lehrerin in SH und arbeite seit einer Weile mit MC-Tests. Ich habe mir nie Gedanken darüber gemacht, ob es rechtliche Bedenken für negative Punkte geben kann, halte diese Überlegungen aber auch für unnötig. Denn es handelt sich ja im Endeffekt nur um eine verschobene Notenskala zu anderen Verfahren. Interessant wäre in diesem Fall, welche Note 0 Punkte ergeben würde.
    Ich verwende folgendes Schema:
    Die meisten Aufgaben bestehen aus fünf möglichen Antworten, von denen beliebig viele richtig sein können. Die maximale Punktzahl für diese Aufgabe beträgt 5 Punkte. Für jede korrekt als falsch bzw. korrekt als richtig erkannte Antwort gibt es einen Punkt. Am Ende verteile ich die Noten nach der üblichen Prozentskala, die ich auch für andere Tests oder Klassenarbeiten verwende.
    Natürlich hat auch dieses Verfahren seine Problemchen. Wenn jemand nämlich alle Antworten (oder gar keine) ankreuzt, hat er automatisch viele Punkte, gegebenenfalls sogar über 50 %. Vermeiden lässt sich das, indem die Aufgaben, in denen alle (oder komplementär dazu gar keine) Antworten angekreuzt sind, mit 0 Punkten bewertet werden. (Was voraussetzt, dass die Anzahl der richtigen Antworten entsprechend in diesem Raster liegt.)
    Dieses Verfahren ist das, was sich bei mir in der Praxis bisher am besten bewährt hat. Falls jemand ein besseres hat, würde ich mich über Rückmeldung freuen :-)

    schrieb MC-Fan am

  • #9

    Ich bin Lehrerin in Niedersachsen und frage mich, ob es rechtliche Bedenken dagegen gibt, das Modell von Ihnen - Christian Buschbeck - anzuwenden: für falsche Antworten 1 Punkt Abzug. In welchem Bundesland sind Sie Lehrer?

    schrieb Nina am

  • #10

    Mich würde interessieren ob sich MC auch für Kursarbeiten in der Oberstufe eignen. (Bin selbst Oberstufenschülerin)

    schrieb Lisa am

  • #11

    @ sys32.dll

    mit Hot Potatoes kann man auch MCTs als HTML generieren. Einfach zu bedienen und zu exportieren. Über die Optik lässt sich streiten, aber funktionieren tut das Ganze allemal.
    Gruß,
    joee

    schrieb joee am

  • #12

    Also ich glaube, dass viele Lehrer denken, dass Multiple-Choice-Tests zu einfach sind. Oft wird argumentiert: “Da sind ja schon Antworten vorgegeben, der Schüler muss also gar nicht mehr Nachdenken”... Aber eigentlich sind Multiple Choice-Tests meiner Meinung nach schwerer als normale Tests. Denn oft unterscheiden sich die Antwort-Vorgaben nur sehr gering voneinander. Man muss also die Materie schon verstanden haben, bevor man bei einer gut gestellten Multiple-Choice-Frage die richtige Antwort erkennt. Natürlich gibt es dann auch sehr einfache Fragen bzw. Antwortvorgaben, wo man schon von vorn herein einige ausschließen kann, sind dann eher nicht für die Schule geeignet, sondern eher für den Kindergarten o.ä...

    Marcus

    schrieb Marcus am

  • #13

    Wir setzen seit einiger Zeit bei uns an der Schule die Online-Academy von Jobezzo ein.

    Was die Gestaltung von Multiple-Choice-Prüfungen angeht, hatten wir unsere Anfangsschwierigkeiten, läuft aber mittlerweile. Wir sind der Meinung, daß es keinen Unterschied macht, ob mit Multiple-Choice oder Freitext-Fragen gearbeitet wird. Die IHK macht es uns vor. Der Stoff und Zusammenhänge müssen sitzen. Wir setzen auf Spitzfindigkeiten und im gewissen Maße auf Verunsicherung der Prüflinge bei der Auswahl der Antworten. Ich persönlich habe am Anfang meine Tests zuerst mal von einem Kollegen lösen lassen und entsprechende Ungereimtheiten beseitigt. Was ich wirklich super finde, ist die enorme Zeitersparnis beim Korrigieren. Wir setzen MCTs auch zur Prüfungsvorbereitung ein. Schüler erhalten einen großen Pool an Prüfungen aus der Vergangenheit, Korrektur erfolgt von der Platform. Die Akzeptanz der MCTs ist übrigens recht hoch. Auch weil jeder Schüler von jedem PC mit Internetzugang, also auch zuhause üben kann.

    schrieb catwalk03 am

  • #14

    Kennt jemand noch andere Systeme um Multiple-Choice-Tests zu gestalten, online durchzuführen und automatisch auswerten zu lassen?

    schrieb sys32.dll am

  • #15

    Nachtrag zu #12 (Bewertung/Strafpunkte):
    Sorry, am Schluß muß es natürlich heißen: “Bei komplexerem Aufbau sollte die Wahrscheinlichkeit, durch Zufall richtig zu tippen, HÖCHSTENS 50 % betragen.” Das genügt m.E., um vom Raten abzuhalten.
    zu #15 (Freitexte):
    Bei einfachen Fragen könnte man - wenn alle es wissen und sich darauf einstellen - auch für Freitexte diese “Spielregel” einführen. Aber solche Fragen kommen ja gerade für Multiple Choice infrage. Und die komplexeren, vielschichtigen: da ist ein Punktabzug gar nicht nötig, da die Trefferwahrscheinlichkeit durch Raten eher vernachlässigbar ist.

    schrieb Christian Buschbeck am

  • #16

    Die Konstruktion von Multiple-Choice-Aufgaben ist ein hoch problematisches Thema, wie #4 (Alois Buy) bereits angedeutet hat. Wenn man mal wirklich einen MCT konstruiert und (umfänglich) ausgewertet hat, wird man mit Problemen konfrontiert, die gerade die Objektivität betreffen. So überschneiden sich Fragen sehr häufig (häufiger als man denkt) thematisch. D.h.: Wer die Antwort auf die eine Frage kennt, wird auch die andere Frage richtig beantworten - und umgekehrt. Es ist äußerst schwierig, hier trennscharfe Fragen zu konstruieren. Bei einem Test mit 20 Fragen entstellen schon 3 “Doppelfragen” das Ergebnis bis zur unkenntlichkeit.
    Dann: Konstruieren Sie mal Distraktoren, die nicht als solche erkannt werden (d.h. in gut Deutsch: Häufig sind die falschen Antworten deutlcih als solche zu erkennen). Das wird um so schwieriger, als dass wir zur Minimierung der Ratewahrscheinlichkeit 3 Distraktoren (=falsche Antworten) pro erwarteter Auswahl brauchen.
    Und dann natürlich das Bewertungsproblem, wie schön in #12 (Christian Buschbeck) dargestellt: Gibt ein falsches Kreuz einen Punkt Abzug? Wie können wir dann ein falsches Kreuz mit einer falschen Freitextantwort vergleichen? (Übrigens würde ich an diesem Beitrag die Forderung nach “50%” bemängeln. Ein ordentliches Item sollte höchstens 25% Trefferwahrscheinlichkeit durch Raten haben).

    Aber wenn man diese Hürden überwindet, sind MCTs natürlich sinnvoll :-)

    schrieb Spion am

  • #17

    Und noch einmal zu Multiple-Choice-Tests:

    Wenn ein Test nur aus MC-Fragen besteht, wird der Test bald recht monoton. Es ist aber nur eine Frage der Software. Mit starQuiz (http://www.cosmicsoft.net) stehen insgesamt 9 verschiedene Fragetypen zur Verfügung:

    - Einfachauswahl (= multiple choice)
    - Mehrfachauswahl (=multiple select; mehrere richtige Antworten)
    - Ausfüllfrage
    - Kurze Antwort (offene Frage)
    - Wahr oder falsch
    - Zuordnung
    - Numerisch
    - Aufsatz (offene Frage)
    - Befragung

    Außerdem können zu jeder einzelnen Frage verschiedene Ressourcen (Text, Bilder, Video, Tonaufnahme, Ton, Weblink) sowie Hilfestellungen & Hinweise bei falschen Antworten hinzugefügt werden. Mit diesen unterschiedlichen Fragetypen und den Materialien kann man sehr einfach und schnell einen ansprechenden Test generieren.

    Das Beste ist jedoch die automatische Auswertung mit detaillierten Informationen zu den Ergebnissen jedes einzelnen Probanten.

    Die Testversion, die man von der Website herunterladen kann, ist 15 Tage voll funktionsfähig. Auch das Hochladen ins Internet ist mit wenigen Mausklicks möglich. Es kann nichts schief gehen - also einfach ausprobieren!

    Die Aussage zu Lehrern kann man nur sehr melancholisch und philosophisch beantworten: Leider sind viele Lehrer nur im Jammern Weltmeister - aber die Neugier und die Flexibilität fehlen, etwas Neues auszuprobieren! Was die notwendige Innovation in unseren Schulen angeht, sehe ich nur schwarz. Das ist auch kein Generationsproblem - viele neue Kollegen und Kolleginnen kommen mit der Besserwisser- und Alleswisser-Mentalität an die Schulen. Man weiß ja schon alles, da muss man für Neues nicht mehr offen sein.

    Leider ist mein pessimistisches Lehrerbild bisher nicht widerlegt worden.

    schrieb Fritz Multrus am

  • #18

    Das Forum öffnet mit der Eingangsfrage: “Geschlossene Fragen (vulgo: Multiple-Choice-Tests) werden unter DidaktikerInnen mit Misstrauen beäugt. Dabei sind sie vielleicht besser als ihr Ruf.”

    Einspruch: Glaube ich nicht. Welche Fachdidaktiker, welcher Einspruch? Nein, Fachdidaktiker, wie überhaupt das Lehrpersonal an Hochschulen wird nicht mit Misstrauen reagieren.
    Klassenarbeiten, Test sind diagnostische Mittel, das hat Koll. frattini richtig bemerkt, die sich an den Kriterien Objektivität, Validität und Reliabilität messen lassen müssen.
    Was zu bemängeln ist, ist die Realität! Klassenarbeiten ausschliesslich mit w-Fragen, kein Diagramm, keine Karikatur, keine Zeichnung oder Karte. Ich würde mich nicht beklagen, wenn der Mix stimmte. Dies würde ich auch für MC in Anspruch nehmen. Auf den Mix kommt es an, aber leider ist der MC-Testanteil eher bei Null.

    schrieb Jürgen Peschek am

  • #19

    Das Problem bei Multiple-Choice-Aufgaben ist, daß die Wahrscheinlichkeit, trotz Unkenntnis durch bloßes Raten die richtige Antwort anzukreuzen, relativ hoch ist. Als Gegenmaßnahme werden verschiedene Bewertungsalgorithmen angewandt, beispielsweise:
    »Punkte gibt es erst, wenn mindestens 50 % der Aufgaben richtig angekreuzt wurden.« (an einer Uni)
    Dies führt dazu, daß das Ergebnis wesentlich davon abhängt, wie die Wissenlücken auf die verschiedenen MC-Aufgaben verteilt sind. Beträgt bei diesem Verfahren der Wissensstand 50 %, so bekommt der Prüfling bei gleichmäßiger Verteilung dieses Wissens auf alle Fragen Null Punkte. Beantwortet er dagegen die Hälfte der MC-Aufgaben vollständig richtig und die andere vollständig falsch, so erhält der Prüfling immerhin 50 % der möglichen Punktzahl.

    MC-Tests erfordern also eine Bewertungsschema, das zufälliges Richtigraten exakt kompensiert:
    Multiple-Choice-Aufgaben sind für jede Aussage mit einem Kästchen für “falsch” und einem für “richtig” zu versehen. FÜR EIN RICHTIGES KREUZ GIBT ES EINEN PUNKT, FÜR EIN FALSCHES EINEN PUNKT ABZUG!
    D.h. wer rät, wird im Durchschnitt ebenso oft einen positiven wie einen negativen Punkt bekommen, Raten ist damit ohne Einfluss.

    Bei komplexerem Aufbau sollte die Wahrscheinlichkeit, durch Zufall richtig zu tippen, mindestens 50 % betragen. Liegt sie über 50%, neutralisiert dies nicht, sondern hält die Schüler, (sofern sie diese Logik verstehen), gleich vom Raten ab.

    Auch im realen (Berufs)Leben ist es meist besser, sein Nichtwissen zuzugeben und um Hilfe zu bitten, als es einfach mal zu probieren…

    schrieb Christian Buschbeck am

  • #20

    Ich setze Multiple-Choice-Test schon über einen längeren Zeitraum ein und habe damit gute Erfahrungen gemacht. Der Aufwand zur Erstellung ist wie schon erwähnt natürlich nicht unerheblich. Das ist sicher der Hauptgrund, warum nur wenige Lehrer solche Tests im Unterricht einsetzen.
    Ich kann nur jeden Lehrer dazu ermutigen, es einfach mal zu versuchen.
    Voraussetzung ist natürlich, dass ein gutes und einfach handhabbares “Erstellungstool” zur Verfügung steht. Ich nutze den Multiple-Choice-Test Generator des SintraNet-Lehrstoffmanagers ( http://www.lehrstoffmanager.de ). Neben vielen andern nützlichen Funktionen finde ich besonders gut, dass der Export/Import von fertigen Tests möglich ist, die auch weiter bearbeitet werden können.
    Da einige meiner Kollegen auch dieses Programm nutzen, tauschen wir häufig selbst erstellte Tests aus sparen Zeit…

    schrieb Petra am

  • #21

    Der Link zum Test lautet korrekt:

    http://quiz.cosmicsoft.net/6s2

    Leider ist dem Kollegen Frattini größtenteils zuzustimmen!

    schrieb Fritz Multrus am

  • #22

    Man kann natürlich auch anspruchsvolle Aufgaben stellen und automatisch auswerten lassen!

    Einfach mal zum Ausprobieren:
    http://www.quiz.cosmicsoft.net/6s2

    Das ist die Umsetzung des Deutsch-Jahrgangsstufentests 2006 für bayerische Gymnasiasten. Da die offizielle Aufgabenstellung übernommen werden musste ist vielleicht nicht jede Aufgabe gelungen, aber als Gesamtergebnis ist der Test sicherlich brauchbar.

    Der Probant erhält nach Abschluss des Tests sein Erbenis mit den richtigen Antworten.

    schrieb Fritz Multrus am

  • #23

    Multiple-choise Tests, bzw. intelligente Variationen davon, sind die besten Testmethoden, die überhaupt zur Verfügung stehen. Dass sie nicht angewandt werden, ist ein Armutszeugnis der deutschen Lehrerschaft. Ich ärgere mich jedesmal über die Klassenarbeiten, die mir meine Kinder vorlegen: Frage 1 bis 14, immer die gleiche Laier! Immer die gleiche Methode, immer der gleiche Kanal! Frage und Antwortspiel mit unsicherem Ausgang und blöden Bemerkungen über die Sauklaue.
    Dabei sind MCTs wissenschaftlich gesehen von der guten Sorten: Objektivität, Validatät und Reliabiliät sind die Kriterien, an denen sich Tests in der Schule messen lassen müssen. Besonders die Objektivität ist natürlich auffallend.
    Warum also so wenig?
    Weil Lehrer keine Ahnung haben über eine gute Testkonzeption?
    weil Lehrer ihre Tests lieber huschihuschi (am besten noch mit der Hand) in Frageform schnell aufs Papier pinseln? (um sich später um so mehr zu ärgern)
    weil sie den Aufwand scheuen, der naturgemäss am Anfang größer ist?
    weil sie den Computer nur als Schreibmaschine benutzen können?
    weil sie bei der Konzeption eines intelligenten, mehrkanaligen Testes selber intellektuell gefordert wären?
    Ich weiss es nicht. Tatsache ist aber, dass z.B. das PISA Testverfahren (Deutsch: Lesen und Verständnis) ein gutes Beispiel darstellt, wie Tests aussehen könnten.
    Auch so mancher Geografie oder Geschichtslehrperson könnte gute Beispiele liefern. Einbau von Bildern, Diagrammen, Karikaturen in einem interessanten Mix, wären wirklich gute Tests.
    Fazit: Solange Lehrpersonen darauf pochen Beamte mit hoheitlichen Aufgaben zu sein (Noten!), sollen sie Nachhilfe nehmen in der Konzeption von Testverfahren. Viele (ich sage: die meisten) hätten es bitter nötig.

    schrieb Manuel Frattini am

  • #24

    Geschlossene Aufgaben sind zwar sehr rasch zu korrigieren, aber wenn sie wirklich gut konstruiert sein sollen, d.h. keinen Rate-Effekt unterstützen und differenziertes Wissen abprüfen, dann ist ihre Konstruktion enorm aufwändig.
    Dazu brauchte die Schule universitäre Unterstützung.

    Jedoch ist es auch hier, wie bei allen Tätigkeiten, wenn die LehrerInnen in der Ausbildung auch die Konstruktion solcher Aufgabentypen intensiv lernen, werden in Zukunft alle davon profitieren.

    schrieb Barbara Weber am

  • #25

    Ich erinnere mich, dass Multiple-Choice-Tests in den 80-er Jahre unter Gymnasiallehrern äußerst verpönt waren. Sie seien niveaulos.
    Heute weiß man, dass sie bei der Wissensabfrage äußerst wertvoll sind und das Gehirn sogar erheblich mehr anregen, als offene Fragen. Mag sein, dass auch jetzt noch der ein oder andere Kollege der Meinung ist, dass eine Antworten, bei der dem Gehirn Hilfestellungen geboten werden, weniger wert sind, als frei erinnerte. Ich selbst habe aber die Erfahrung gemacht, dass ich so erheblich besser erkenne, ob jemand sein Wissen auswendig gelernt hat oder verstanden.

    schrieb Dagmar am

  • #26

    Den Ausführungen von Alois Buy stimme ich voll zu, die gleichen Erfahrungen habe ich auch im Fach Deutsch gemacht. Bisher habe ich MC-Test aber nicht als Klassenarbeit, sondern als (oft unangekündigte) Überprüfung von Lektüre-Kenntnissen genutzt. Diese wurden natürlich benotet, aber nicht gleichgewichtet zu einer Klassenarbeit.
    So erkennt man schnell diejenigen, die statt des Werkes nur eine Zusammenfassung z.B. aus Wikipedia gelesen haben… und die gründlichen Leser werden belohnt. Dabei habe ich übergreifende Verständisfragen mit Detailfragen gemischt.
    Beispiel zu Schillers “Maria Stuart”:
    - Burleigh verlangt von Paulet, er solle Maria…
    a) foltern   b) ermorden   c) besser bewachen
    - Burleigh ist Sprecher des Gerichts der…
    a) 12     b) 24     c) 42
    - Elisabeth bittet Mortimer, er solle Maria…
    a) beschützen   b) besuchen   c) beseitigen
    - Das soll stattfinden vor dem nächsten…
    a) Vollmond   b)  Neumond   c) Montag

    schrieb Db am

  • #27

    In meiner Zeit als Berufsschullehrer – heute bin ich Pensionär - waren mir Klassenarbeiten mit Multiple-choice-Aufgaben (Kreuzles-Tescht im süddeutschen Slang) höchst sympathisch. Was aber wichtiger ist: Immer war auch der größte Teil der Schüler sehr dafür zu haben. So wendete ich sie, gemischt natürlich mit konventionellen Arbeiten, in allen technischen Fächern an. Einige meiner praktischen Erfahrungen mit Multiple-choice-Tests möchte ich hier mitteilen.
    1. Aufgabenerstellung: Sie ist mit einem ziemlichen Aufwand verbunden. Wenn man eine solche Arbeit nicht wenigstens drei Mal einsetzen kann, dann sollte man es besser bleiben lassen.
    2. Zur Fragetechnik: Auch wenn ich selbst überzeugt davon war, meine Fragen seien in Ordnung, kam es beim ersten Versuch regelmäßig vor, dass manche Auswahlantworten von den Schülern als missverständlich und zweideutig empfunden wurden. In diesem Fall muss man natürlich sofort nachbessern. Insgesamt bin ich sicher, dass die Mühe und Pflicht des Lehreres, sehr überlegt zu formulieren, die Qualität der gestellten Fragen steigert.
    3. Anzahl der Fragen/der Auswahlantworten: Ein Test sollte aus wenigstens 20 Fragen bestehen. Auch müssen wenigstens vier Auswahlantworten pro Frage angeboten werden. Eine höhere Schwierigkeit ergibt sich, wenn pro Frage 2 Antworten richtig sind.
    3. Abspicken: Pro Klassenarbeit lässt sich ohne größeren Aufwand eine A- und eine B-Version mit lediglich verschobenen Fragen erstellen. Bei etwa 1 Minute Bearbeitungszeit pro Aufgabe durchschaut der A-Kandidat das B-System nicht: Spicken zwecklos!
    4. Benotung: Das Ankreuzen ist unweigerlich mit einem Lotto-Effekt verbunden. So habe ich bei Kontrolltests immer wieder festgestellt, dass ein Schüler, wenn er gar nichts weiß, bei 20 Fragen etwa 3 Mal ins Volle trifft. Das heißt: 3 Richtige bedeuten eine Sechs. Diesen Wermutstropfen haben die Schüler stets klaglos akzeptiert.
    5. Korrekturzeit: Mit der Rückgabe der Arbeit müssen Sie Ihre Schüler nie vertrösten. Da Sie einen 20-Fragen-Test in 4-5 Minuten korrigiert haben, können Sie die Arbeit spätestens zwei Tage später zurück geben, wofür die Klasse Ihnen sehr dankbar sein und schon gleich nach dem nächsten Multiple-choice-Test lechzen wird.

    schrieb Alois Buy am

  • #28

    ein guter gelungener mix aus beiden, d.h. multiple choise als ergenzung in die klausur ist sinnvoll. es muss nicht viel geschrieben werden, nur kurz leserisch überflogen. dann kann der schwerpunkt der klausur auch ein ganz anderer sein…
    mfg

    schrieb egs229 am

  • #29

    Das ist leider ein weit verbreitetes Vorurteil! Es kommt ganz auf die Fragestellung und die Distraktoren an!

    Es gibt mittlerweile einige Programme, die simpel, aber dennoch leistungsfähig sind - und auch noch das automatische Auswerten besorgen: Die beste Software ist m. E. starQuiz von http://www.cosmicsoft.net, das auch in einer deutschen Lokalisierung vorliegt.

    Das Programm beherrscht nicht nur Multiple-Choice-Fragen, sondern noch sechs weitere Fragetypen. Mit wenigen Mausklicks wird das Programm ins Internet hochgeladen. Der Lehrer bekommt die Ergebnisse zur individuellen und differenzierten Auswertung. Auch benotete Leistungserhebungen, die alle schulrechtlichen Voraussetzungen erfüllen, sind damit möglich.

    Lehrer sind immer ganz groß im Jammern über die steigende Korrekturbelastung - innovative und Arbeit einsparende Wege wollen sie aber dennoch nicht einschlagen!

    schrieb Fritz Multrus am

  • #30

    Ich persönlich denke, dass Multiple Choice tests weniger sinnvoll sind. Meistens kann man auch durch wenig Hintergrundwissen die richtige Antwort erraten, sodas es nicht primär um das Wissen geht.

    schrieb Schul-Kritiker am

Andere Lehrerfreund/innen lasen auch:

Anzeige
Nach oben

 >  1686 Einträge, 14796 Kommentare. Seite generiert in 0.2039 Sekunden bei 83 MySQL-Queries. 689 Lehrer/innen online (3 min Timeout / 1674) |