Standard-Setting Mathematik 8. Schulstufe - Technischer Bericht

Die Seite wird erstellt Rory Schilling
 
WEITER LESEN
Standard-Setting Mathematik 8. Schulstufe - Technischer Bericht
Standard-Setting Mathematik
8. Schulstufe

Technischer Bericht
(Autor: Roman Freunberger)

                                                                     BIFIE Salzburg
                             Zentrum für Bildungsmonitoring & Bildungsstandards
                                                  Alpenstraße 121 / 5020 Salzburg
                                   Telefon +43-662-620088-3000 / Fax DW-3900
                                             office.salzburg@bifie.at / www.bifie.at
                                                                        Jänner 2013
Standard-Setting Mathematik 8. Schulstufe - Technischer Bericht
Inhaltsverzeichnis
1 Das Kompetenzstufenmodell                                                                                                           2

2 Phase III: Das Standard-Setting für Mathematik auf der 8.                 Schulstufe                                               2
  2.1 Die Expertengruppe . . . . . . . . . . . . . . . . . . . . .           . . . . . . .               .   .   .   .   .   .   .    3
  2.2 Das Ordered-Item-Booklet . . . . . . . . . . . . . . . . .             . . . . . . .               .   .   .   .   .   .   .    3
  2.3 Item-Descriptor-Matching-Methode (IDM) . . . . . . . . .               . . . . . . .               .   .   .   .   .   .   .    5
  2.4 Training und Vorbereitung auf den Beurteilungsprozess . .              . . . . . . .               .   .   .   .   .   .   .    6
  2.5 Runde 1 . . . . . . . . . . . . . . . . . . . . . . . . . . .          . . . . . . .               .   .   .   .   .   .   .    6
      2.5.1 Aufgabe und Instruktion . . . . . . . . . . . . . .              . . . . . . .               .   .   .   .   .   .   .    6
      2.5.2 Auswertung der Ratingdaten . . . . . . . . . . . .               . . . . . . .               .   .   .   .   .   .   .    6
  2.6 Runde 2 . . . . . . . . . . . . . . . . . . . . . . . . . . .          . . . . . . .               .   .   .   .   .   .   .    7
      2.6.1 Aufgabe und Instruktion . . . . . . . . . . . . . .              . . . . . . .               .   .   .   .   .   .   .    7
      2.6.2 Bestimmung der Cut-Scores . . . . . . . . . . . .                . . . . . . .               .   .   .   .   .   .   .    7
  2.7 Präsentieren der Konsequenzen . . . . . . . . . . . . . . .           . . . . . . .               .   .   .   .   .   .   .    9
  2.8 Runde 3 . . . . . . . . . . . . . . . . . . . . . . . . . . .          . . . . . . .               .   .   .   .   .   .   .   10
  2.9 Setzung der Schwelle zu Unter Level 1 . . . . . . . . . . .            . . . . . . .               .   .   .   .   .   .   .   10

3 Validität und Post-Standard-Setting                                                                                               11
  3.1 Prozessevaluation und Evaluation der Cut-Score-Urteile         .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   11
  3.2 Endgültige M8-Cut-Score-Werte und Standardfehler . .          .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   12
  3.3 Rating-Verhalten . . . . . . . . . . . . . . . . . . . . .     .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   12
  3.4 Interrater-Reliabilität . . . . . . . . . . . . . . . . . .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   .   13

4 Phase IIb und Phase IIIb                                                                                                           15

Literatur                                                                                                                            16

5 Appendix                                                                                                                           18

Standard-Setting Mathematik 8                                                                                                1
Standard-Setting Mathematik 8. Schulstufe - Technischer Bericht
petenzstufen beschrieben, deren inhaltliche und methodische Festlegung durch ein Expertengremium
                                                         aus Fachdidaktik und Methodik erfolgte.4 In Abbildung 4 sind die Bezeichnungen, inhaltlichen Be-
                                                         schreibungen und Punktbereiche der einzelnen Kompetenzstufen nachzulesen. Die Rückmeldung an-
                                                         hand der vorher definierten Kompetenzstufen wird auch als „kriteriale Rückmeldung“ bezeichnet und
                                                         ergänzt die Rückmeldung nach erzielten Testpunkten.

                                                                                                  Mathematik 8. Schulstufe
                                                          BIST-Ü M8 (2012)                    Beschreibung der Kompetenzstufen
    Kompetenzstufen in der kriterialen Rückmeldung

                                                               Kompetenzstufen Mathematik                                                                                                     Punktskala

                                                                             Bildungsstandards übertroffen                                                     Punktbereich: ab 691              800

                                                                                                                                                                                                       höher
                                                                             Die Schüler/innen verfügen über grundlegende Kenntnisse und Fertigkeiten in allen Teilbereichen des Lehrplans
                                                                     3       Mathematik und über erweiterte Wissensstrukturen, welche über die Anforderungen der Stufe 2 hinausgehen,            750
                                                                             insbesondere über stärker ausgeprägtes Abstraktionsvermögen und höhere Kombinationsfähigkeit. Sie können
                                                                             diese eigenständig in neuartigen Situationen flexibel einsetzen.
                                                                                                                                                                                                 700
                                                                             Bildungsstandards erreicht                                                        Punktbereich: 518 bis 690
                                                                             Die Schüler/innen verfügen über grundlegende Kenntnisse und Fertigkeiten in allen Teilbereichen des Lehrplans
                                                                                                                                                                                                 650
                                                                             Mathematik und können diese flexibel nutzen. Sie können geeignete Lösungsstrategien finden und umsetzen,
                                                                     2       gewählte Lösungswege beschreiben und begründen. Sie können mit verbalen, grafischen und formalen
                                                                             Darstellungen mathematischer Sachverhalte flexibel umgehen und diese angemessen verwenden. Sie können
                                                                                                                                                                                                 600
                                                                             relevante Informationen aus unterschiedlich dargestellten Sachverhalten (z. B. Texte, Datenmaterial, grafische
                                                                             Darstellungen) entnehmen und sie im jeweiligen Kontext deuten. Sie können ihre mathematischen Kenntnisse

                                                                                                                                                                                                       Kompetenzen
                                                                                                                                                                                                 550
                                                                             miteinander in Verbindung setzen sowie mathematische Aussagen kritisch prüfen, bewerten und/oder begründen.

                                                                             Bildungsstandards teilweise erreicht                                              Punktbereich: 440 bis 517         500
                                                                     1       Die Schüler/innen verfügen über grundlegende Kenntnisse und Fertigkeiten in allen Teilbereichen des Lehrplans
                                                                             Mathematik und können damit reproduktive Anforderungen bewältigen und Routineverfahren durchführen.
                                                                                                                                                                                                 450

                                                                                                                                                                                                 400

                                                                                                                                                                                                 350
                                                                unter 1 Bildungsstandards nicht erreicht                                                       Punktbereich: bis 439
                                                                                                                                                                                                 300

                                                                                                                                                                                                       niedriger
                                                                                                                                                                                                 250

                                                                                                                                                                                                 200

                                                                                         Abbildung
                                                                                         Abbildung 4: Kompetenzstufen in Mathematik auf
                                                                                                      1: Kompetenzstufenmodell          der 8. Schulstufe
                                                                                                                                     Mathematik      8.

                                                     1      Das Kompetenzstufenmodell
                          Im Rahmen der Bildungsstandardüberprüfung, beginnend mit 2012 in Österreich, wurde für Mathe-
                          matik 8. Schulstufe ein Standard-Setting durchgeführt, das insgesamt 3 Phasen umfasst hat. Phase
                          III beschreibt das eigentliche Standard-Setting und wird im Weiteren näher erläutert. In Phase I und
                          Phase II wurde durch Fachexperten ein Kompetenzstufenmodell entwickelt das 4 Stufen umfasst und
4
                          in Abbildung 1 dargestellt ist.
                        Das Gremium bestand aus Expertinnen und Experten aus Schulpraxis, Fachdidaktik, Pädagogik und Psychologie sowie den Interessenvertretungen
                        (Eltern, Wirtschafts- und Arbeiterkammer), Abnehmerinstitutionen und dem BMUKK.

                                                     2      Phase III: Das Standard-Setting für Mathematik auf der 8. Schul-
                                                            stufe
                                                     Ziel der Phase III war es Schwellenwerte auf der kontinuierlichen Kompetenzskala zu definieren, welche
                                                     es erlauben, die Schüler und Schülerinnen den einzelnen Stufen zuzuordnen. Hierzu wurde die Metho-
                                                     dik des Standard-Settings verwendet, was im weiteren Sinne einen komplexen Entscheidungsprozess
                                                     beschreibt der möglichst standardisiert durchgeführt werden sollte, um valide Schwellenwertsetzun-
                                                     gen zu ermöglichen.

                                                     Der eigentliche Standard-Setting-Prozess mit einer Expert/innen-Gruppe soll in der Domäne Mathe-
                                                     matik 8. Schulstufe drei Schwellenwerte (Cut-Scores) hervorbringen. Daraus ergibt sich — neben

                                                     Standard-Setting Mathematik 8                                                                                                                       2
Standard-Setting Mathematik 8. Schulstufe - Technischer Bericht
Abbildung 2: Zusammensetzung der Expertengruppe für das Standard-Setting.

den drei definierten Stufen — noch die Stufe Unter Level 1. Die Cut-Scores sollen, unter Verwen-
dung einer modifizierten Item-Descriptor-Matching-Methode (Ferrara, Perie & Johnson, 2002; Cizek,
1996; Cizek & Bunch, 2007), mit Ordered-Item-Booklets von einer Expert/innen-Gruppe erarbeitet
werden. Zusätzlich wird zur Bestimmung des Cut-Scores zu Unter Level 1 eine modifizierte Form der
Direct-Consensus-Methode verwendet. Der Workshop zum Standard-Setting fand von 12. 10. – 14.
10. 2011 am BIFIE Salzburg statt.

2.1   Die Expertengruppe
Die insgesamt 23 Teilnehmer/innen setzten sich aus unterschiedlichen Teilgruppen zusammen, die
ein bestimmtes Spektrum repräsentierten (Abb. 2). Die direkte Auswahl geschah durch das BIFIE
in Zusammenarbeit mit den verschiedenen Institutionen und Behörden. Unter den Teilnehmer/innen
befanden sich Vertreter der Fachdidaktik (30,43%), der Elternvertretungen (13,04%), verschiedener
Abnehmergruppen wie zum Beispiel Berufschulen (17,39%), des Ministeriums (8,70%), praktizieren-
de Lehrer/innen für M4 und M8 (13,04%), des Schulrats (8,70%) und der Psychometrie (8,70%).
An Tag drei des Workshops mussten 3 Personen aus beruflichen Gründen bzw. krankheitsbedingt
ausscheiden. Für Runde 3 des Standard-Settings reduzierte sich die Gruppe somit auf 20 Personen.

Laut Einführungsfragebogen waren zum Zeitpunkt des Standard-Settings 95% der Experten/innen
mit Schülerleistungsstudien vertraut, 62% waren mit der Konstruktion von Testaufgaben in Kompetenz-
messungen vertraut, 76% waren mit den Kompetenzstufen der Bildungsstandards in Österreich für
Mathematik 8 vertraut, 67% mit dem Setzen von Standards im Bildungswesen.

2.2   Das Ordered-Item-Booklet
Das gereihte Aufgabenheft (Ordered-Item-Booklet, OIB) wurde ursprünglich durch die Bookmark-
Methode eingeführt (Karantonis & Sireci, 2006; Mitzel, Lewis, Green & Patz, 1999). Bei der Bookmark-
Methode werden die Items nach den ermittelten Schwierigkeiten aufsteigend, von leicht bis schwie-
rig, geordnet. Die Itemschwierigkeiten werden durch psychometrische Verfahren der Item-Response-
Theorie (IRT) aus den vorhandenen Daten geschätzt. Pro Seite wird ein Item mit der dazugehörigen
Schwierigkeit dargestellt. Die Teilnehmer/innen setzen nun unter Berücksichtigung der Schwierig-
keiten ein Lesezeichen (Bookmark) an der jeweiligen Stelle, an der sie die Cut-Scores zwischen den
unterschiedlichen Kompetenzstufen vermuten.

Die Frage, die an die Teilnehmer/innen gestellt wird, lautet (cf., Cizek & Bunch, 2007): ”Ist es

Standard-Setting Mathematik 8                                                             3
Standard-Setting Mathematik 8. Schulstufe - Technischer Bericht
wahrscheinlich dass ein/e minimalqualifizierte/r Schüler/in bzw. eine Testperson an der
Grenze zwischen den Kategorien X und Y dieses Item richtig beantworten wird?” Der Term
”wahrscheinlich” wird meist mit einer 2/3- oder 67%-Wahrscheinlichkeit festgelegt (Response Pro-
bability, RP = .67), das Item zu lösen (50% bei Wang, 2003). Der/die Teilnehmer/in erhält somit
die Aufgabe jedes Item zu begutachten und sich die Frage zu stellen, ob ein/e minimalqualifizierte/r
Schüler/in in 2 von 3 Fällen die Aufgabe richtig beantworten würde. Kommt der/die Teilnehmer/in
zu einem Item, bei dem die Wahrscheinlichkeit unter 2/3 fallen würde, setzt er/sie dort eine Marke.
Alle Items bis zu dieser Bookmark könnten demnach minimalqualifizierte Testpersonen (mit einer
2/3-Wahrscheinlichkeit) lösen. Hier bleibt zu entscheiden, welche Response Probability man festlegt,
da diese Auswirkungen auf die Cut-Scores hat (Wyse, 2011).

Neben der oft schweren Verständlichkeit des Konzepts der RP, weisenKarantonis und Sireci (2006)
auf einige zusätzliche Schwierigkeiten in der Anwendung der Bookmark-Methode hin:

   • Im OIB kann eine Item-Disordinalität auftreten, die den Entscheidungsprozess erheblich er-
     schweren kann.

   • Es konnte gezeigt werden, dass die Bookmark-Methode Cut-Scores meist etwas unterschätzt
     (negativer Bias) und zwar im Vergleich zu anderen Methoden und zu simulierten Daten.

   • Generell scheinen Panelisten die Anforderungen in der Bookmark-Methode zu verstehen, das
     Ausmaß der kognitiven Komplexität und inwiefern die Urteile tatsächlich valide sind, ist aller-
     dings unklar.

   • Eine weitere Frage ist, ob der Mittelwert oder Median für die Cut-Score-Berechnung verwen-
     det werden sollte. Der Median ist zwar unabhängig von Ausreißern, allerdings könnten solche
     Extremmeinungen auch eine wichtige Bedeutung haben.

Für das Standard-Setting in M8 wurde daher die Item-Descriptor-Matching-Methode (s. unten) be-
vorzugt. Diese verwendet ebenfalls ein OIB und das Konzept der RP ist für die Reihung der Items
notwendig, geht allerdings nicht in den Entscheidungsprozess ein. Die Itemschwierigkeiten wurden für
M8 durch das Rasch-Modell (Rasch, 1960) ermittelt, wobei die Lösungswahrscheinlichkeit auf 62,5%
gesetzt wurde. Für das bessere allgemeine Verständnis wurde der Mittelwert der Item- und Personen-
parameterverteilung für das Standard-Setting auf 500 gesetzt. Dieser ist aufgrund von internationalen
Schülerleistungsstudien vertraut. Für die Konsequenzdaten wurde eine gemeinsame Verteilung aus
der Pilotierungsstudie (N = 2530) sowie aus der Baselinestudie (N = 10082) gebildet, diese Vertei-
lung hat einen gewichteten Mittelwert von 516,94. Um einen Mittelwert von 500 zu erhalten wurde
die sich ergebende Differenz von 16,96 von den Item- und Personenparametern subtrahiert. Alle be-
richteten Ergebnisse und Analysen beziehen sich auf Daten dieser korrigierten Verteilung mit einem
Mittelwert von 500. Zur endgültigen Festlegung der Cut-Scores muss diese Differenz allerdings wieder
aufaddiert werden. An den Konsequenzdaten ändert dies dabei nichts.

Aus dem gesamten Itempool wurden durch ein internes Review 80 Items ausgewählt, die das gesamte
Schwierigkeitsspektrum bestmöglich repräsentierten (aus Zeitgründen können nicht alle verfügbaren
Items in den Standard-Setting-Prozess einbezogen werden). Die Items wurden sortiert nach Schwie-
rigkeit (von leicht bis schwierig) in das Ordered-Item-Booklet gegeben, wobei pro Seite nur ein Item
gelistet wurde. Jede Seite enthielt den Itemtext (Itemstamm) und dazugehörige Abbildungen sowie
den Antwort-Schlüssel, den Itemnamen und die Seitennummer. Zusätzlich zum OIB erhielten die Teil-
nehmerinnen ein Ratingsheet (auch als Item-Map bezeichnet) der die Itemnamen mit dazugehöriger
OIB-Seitennummer, ein Feld für Notizen sowie drei Kästchen zum Ankreuzen der unterschiedlichen
Levels enthielt. Der Ratingbogen wurde nach jeder Runde eingescannt und anschließend die Daten
aufbereitet. Die daraus gewonnenen Daten dienten wiederum als Grundlage für die Diskussionen im
Plenum. Insgesamt wurden drei Ratingrunden durchgeführt, die im Nachfolgenden erläutert werden.

Standard-Setting Mathematik 8                                                               4
2.3   Item-Descriptor-Matching-Methode (IDM)
Die IDM-Methode wurde aus der Motivation heraus entwickelt, eine bessere Verlinkung zwischen den
PLDs (Performance Level Descriptors = Kompetenzstufenbeschreibungen) und den Cut-Scores zu
gewährleisten, was wiederum die Validität der Ergebnisse erhöht (Cizek & Bunch, 2007). Die Metho-
de verwendet ebenfalls ein Ordered-Item-Booklet und die einzelnen Testitems werden den einzelnen
PLDs zugeordnet (Ferrara et al., 2002).

Die Frage, die an das Experten-Panel gestellt wird, ist: ”Welcher PLD repräsentiert am besten die
Anforderungen des Items?” Oder genauer: ”Welcher PLD drückt am besten das Wissen, die ver-
langte Fähigkeit und kognitiven Prozesse aus, die zur Beantwortung des bestimmten Items
gefordert sind?”Die Teilnehmer ordnen danach jedes Item einem bestimmten PLD zu und vermerken
dies auf dem Antwortbogen. Der Schwellenwert, der zwei Kompetenzstufen voneinander trennt, wird
dort gesetzt, wo der/die Teilnehmer/in kontinuierlich und systematisch von einem Level ins nächste
wechselt. Dies spricht für eine sehr flexible Methode, die nicht von einer strengen Sequenzierung
(wie bei der Bookmark-Methode) ausgeht und auch etwas Rauschen zulässt. Da die Schwierigkeiten
der Items meist durch Schätzungen basierend auf der IRT erfolgen, kann nicht davon ausgegangen
werden, dass die Item-Positionen im Booklet unveränderlich sind, sondern auch einem Schätzfehler
unterliegen, eine erlaubte Flexibilität entspricht also einem natürlicheren Matching-Prozess (Cizek &
Bunch, 2007; Ferrara et al., 2002). In Regionen alternierender Item-PLD-Matches wird der Threshold-
Bereich festgelegt (Ferrara et al., 2002). Da es auch in den PLDs keine absolut festsetzbaren Grenzen
gibt, sondern auch hier die Übergänge eines PLDs zum nächsten fließend sind, wird dieser Bereich
als optimal zur Schwellenwertbestimmung angesehen.

Die IDM verwendet eine Start/Stopp-Regel (die laut Autoren ähnlich wie bei IQ und Diagnosetest
definiert ist) zur Festlegung der Grenzbereiche. Mindestens drei aufeinanderfolgende gleiche Klas-
sifizierungen müssen vorliegen, um den Anfang und das Ende eines Grenzbereichs zu definieren. In
diesem Bereich wird der Cut-Score ermittelt. Dies kann ähnlich wie bei einer Bookmark-Methode
geschehen, indem man die Teilnehmer/innen nochmals entscheiden lässt, wo genau sich in dieser
Region der exakte Übergang zwischen den Kompetenzstufen befindet. Genauer kann man es mit-
tels Median oder Mittelwertberechnung erfassen. Im Falle der Mittelwertbestimmung werden nur die
Schwierigkeiten der jeweiligen Grenz-Items verwendet (N = 2). Es gibt auch Ansätze, in denen der
Schwellenwert mittels logistischer Regression bestimmt wird (Sireci & Clauser, 2001).

Die IDM wird grundsätzlich in mehreren Runden durchgeführt, wobei in Runde 1 die Items den PLDs
zugeordnet werden, danach werden die Schwellenwert-Regionen durch die Standard-Setters ermittelt
(oder auch durch Panelteilnehmer selbst) und rückgemeldet. Diese werden dann im Plenum diskutiert
oder in Subgruppen. In Runde 2 wird das Gleiche nochmals durchgeführt, Änderungen können vor-
genommen werden und ein erster Cut-Score wird berechnet. In Runde 3 werden die Werte diskutiert
und es werden den Teilnehmern/innen zusätzlich Informationen über die Konsequenzen, Mittelwerte,
Verteilungen usw. vermittelt. Der endgültige Cut-Score wird danach festgelegt und nochmals zur
Begutachtung präsentiert. Zusätzlich könnte die IDM noch durch eine Item-Map ergänzt werden, da
eine solche auch Item-Untergruppen besser darstellt (Schulz, Kolen & Nicewander, 1999; Schulz, Lee
& Mullen, 2005).

Die sogenannten Threshold Regions (TR) sind Bereiche in denen der Match zwischen Item-Anforderung
(Wissen, Fähigkeit etc.) und die Anforderungen des Descriptors (PLDs) nicht klar sind. Dies kann
mehrere Gründe haben und die Teilnehmer/innen müssen darauf sensibilisiert und trainiert werden.
Gründe können sein:
   • Item Ordering Effects (inkl. methodische Aspekte der OIB-Generierung)
   • Unklarheit in Beschreibung der PLDs

Standard-Setting Mathematik 8                                                                5
• Unsicherheit der Teilnehmer/innen bzgl. Zuordnung

In der Originalmethode vermerken Teilnehmer/innen in einem Formblatt ihre jeweiligen TRs, in dem
sie einfach die spezifischen OIB-Seitennummern eintragen, Psychometriker können dann die Daten-
eingabe leichter vornehmen. Die Teilnehmer/innen werden hier auch gebeten, innerhalb der TR einen
Cut-Score zu definieren, der ebenfalls vermerkt wird.

Der wesentliche Vorteil der Methode liegt darin, dass der kognitive Anspruch an die Teilnehmer/innen
gering gehalten wird (Ferrara et al., 2002). Die Items müssen lediglich den PLDs zugeordnet werden,
es bedarf keiner zusätzlichen Instruktion, wie z. B. sich eine bestimmte Schülergruppe vorzustellen,
die einer bestimmten Mindestanforderung entspricht. Da Personen generell Probleme haben, Urteile
auf Grund von Wahrscheinlichkeitsangaben zu machen (cf., Impara & Plake, 1998; Plous, 1993)
bietet diese Methode auch den Vorteil, dass Antwortwahrscheinlichkeiten zwar in die Generierung des
OIB miteinfließen, für den Entscheidungsprozess allerdings irrelevant sind (nicht so bei der Bookmark-
Methode).

2.4     Training und Vorbereitung auf den Beurteilungsprozess
Die Teilnehmer/innen müssen eine umfassende Schulung erhalten, damit sie mit dem Material, der
Methode und dem Ablauf vertraut sind. Es ist von enormer Wichtigkeit, dass die Aufgaben ver-
standen werden. Cizek und Bunch (2007) geben einen kleinen Leitfaden, an dem der Ablauf des
Standard-Settings für M8 ausgerichtet wurde.

Am Tag 1 des Workshops wurden die Teilnehmer/innen einen Nachmittag lang geschult. Nach ei-
ner ausführlichen Einführung in die Bildungsstandardsüberprüfung sowie zum bisherigen Verlauf des
Standard-Setting-Prozesses (Phase I und II) bekamen die Experten einen Übungstest mit 11 Items
vorgelegt. Dadurch sollte ihnen eine mögliche Testsituation vermittelt werden und ihnen auch zeit-
licher Druck, der in der tatsächlichen Bearbeitung der Items miteinfließt, bewusst gemacht werden.
Danach folgte eine Einführung in die Standard-Setting-Methode und den Ratingprozess. Nach genaue-
rer Erläuterung der Kompetenzstufenbeschreibungen folgte eine kurze Diskussion in Kleingruppen, in
denen die Personen auf Unterschiede zwischen den Stufenbeschreibungen achten und Unklarheiten in
den Begrifflichkeiten klären konnten. Anschließend wurde im Plenum nochmals über kritische Punkte
diskutiert und erste Ratings anhand von einigen Items in der Gesamtgruppe vorgenommen. Erst am
zweiten Tag folgten Runde 1 und Runde 2.

2.5     Runde 1
2.5.1    Aufgabe und Instruktion
In Runde 1 wurden die Experten/innen aufgefordert, die Items den Kompetenzstufenbeschreibungen
(= PLDs) zuzuordnen. Die genaue Instruktion lautete: ”Beantworten Sie folgende Fragen: Welche
Kompetenzanforderung stellt das Item an die Schüler/innen? Welche Kompetenzstufenbe-
schreibung drückt das am besten aus?” Die Teilnehmer/innen wurden aufgefordert, das OIB
individuell durchzuarbeiten und ihre Entscheidungen in den Ratingbogen einzutragen. Anschließend
wurden die Bögen gescannt und ausgewertet.

2.5.2    Auswertung der Ratingdaten
Aus dem Scanprozess erhält man eine Datenmatrix mit Panelisten × Items, mit den Werten 1, 2 und
3 (Level-Ratings 1 – 3). Zur Auswertung wurde für jedes Item separat die prozentuelle Häufigkeit
der einzelnen Kategorien ermittelt und grafisch aufbereitet (siehe Abb. 3). Dieses Datenblatt diente
als Diskussionsgrundlage. Diskussionspunkte waren Items mit hoher Konvergenz bzw. Divergenz,

Standard-Setting Mathematik 8                                                                6
augenscheinliche Übergänge zwischen Levels und Abschnitte, die sich bereits als einzelne Levels
herauskristallisierten.

2.6     Runde 2
2.6.1    Aufgabe und Instruktion
Die Diskussion in Runde 1 diente dazu, die Expertengruppe in bestimmten Diskussionspunkten, die für
den Entscheidungsprozess wichtig sind, zu homogenisieren. In Runde 2 arbeiteten die Experten/innen
wiederum individuell das OIB durch und adjustierten ihre Item-PLD-Zuordnungen, sie vermerkten
ihre Urteile wiederum in einem Ratingbogen, der anschließend gescannt wurde. Als Feedback zur
Runde 2 wurden den Experten/innen erneut die Ratingdaten vorgelegt, die in ähnlicher Weise wie
in Runde 1 diskutiert wurden. Zusätzlich wurden hier auch noch die Cut-Scores ermittelt und den
Teilnehmern/innen rückgemeldet.

2.6.2    Bestimmung der Cut-Scores
Die Bestimmung der Cut-Scores erfolgt in mehreren Analyseschritten. Wie bereits erwähnt wurde
eine Methode verwendet, die dem Prozess der IDM (Ferrara et al., 2002) sehr ähnlich ist. Die
Bestimmung der Übergangsbereiche, die in der IDM zur Bestimmung der Cut-Scores definiert sind,
ist praktisch sehr schwierig umzusetzen. Bei größeren Item-Mengen können auch Ausreißer auftreten,
die laut Original-Methode bereits den Beginn oder das Ende eines Grenzbereichs festlegen würden.
Zusätzlich ist die Verwendung der Start/Stopp-Regel kritisch zu hinterfragen. Im Standard-Setting
für M8 verwendeten wir daher eine alternative Strategie zur Auswertung des Ratingverhaltens und
der damit verbundenen Cut-Score-Bestimmung. Ziel der Methode ist es Übergänge zwischen den
einzelnen Levels zu detektieren, was in drei Schritten vorgenommen wurde:

   1. Als erster Schritt wird jede individuelle Ratingserie durch einen symmetrischen Moving Average
      geglättet ( order = 1, Filterfenster ergibt sich aus 2 ∗ order + 1, ungewichtet). Um in den
      Randbereichen keinen Datenverlust durch die Filterung zu erleiden, wurden die mittleren Ra-
      tingwerte dem Beginn und Ende der Serie angefügt. Abbildung 4 zeigt die Rating-Serie (series,
      obere Graphik) einer Person und die gefilterte Funktion dieser Serie darunter. Die individuelle
      Ratingserie besteht aus 80 Werten (pro Item ein Wert). Die Itemnummer entspricht exakt der
      Seitenzahl im OIB, die Items sind nach Schwierigkeit geordnet.

   2. Die geglättete Funktion jedes Panelisten steigt mit zunehmender Kategorienzahl an. Es wurden
      2 Schwellen definiert, die jeweils ersten Werte, die diese Schwellen überschreiten, liefern den
      Seiten-Index für den jeweiligen Cut-Score. Die dazugehörige Schwierigkeit des Items auf der
      jeweiligen Schwelle definiert des Weiteren den Cut-Score auf der Theta-Metrik. Die Schwellen-
      werte wurden auf 1,7 für den ersten Cut und auf 2,4 für den zweiten Cut gesetzt. Diese Werte
      ergaben sich aus zusätzlich in einem Probelauf erhaltenen Daten1 .

   3. Nach anschließender manueller Kontrolle erhält man pro Teilnehmer/in Index-Werte mit An-
      gabe der Seitenzahl des Cut-Score-Items sowie die dazugehörigen Theta-Werte (siehe Abb. 4).
      Um einen Gruppen-Wert für die jeweiligen Cut-Scores zu erhalten, wurde der Median über alle
      individuellen Cut-Scores berechnet (Abb. 5).

Die Methode erbrachte bei allen Teilnehmern/innen reliable Werte der Übergange zwischen Level 1
und 2. Der Übergang zwischen Level 2 und 3 konnte bei drei Experten nicht genau erfasst werden.
   1
    Überschreitet — wie in Abbildung 4 — die geglättete Funktion (filtered, mittlere Graphik) den ersten Schwel-
lenwert von 1,7, definiert dieser Punkt den Index für die Seite im OIB. In diesem Fall Seite 20. Dieses Item, mit der
entsprechenden Schwierigkeit (auf Theta-Metrik), liefert den ersten Cut-Score für diese/n Experten/in. Analog verfährt
man mit dem zweiten Cut-Score.

Standard-Setting Mathematik 8                                                                                7
100
% Häufigkeit

               40
               0

                       1    2    3    4    5    6    7    8    9    10    11   12   13   14   15   16   17   18   19   20

                                                                Seiten Nr. (ITEM)
% Häufigkeit

               80
               40
               0

                       21   22   23   24   25   26   27   28   29   30    31   32   33   34   35   36   37   38   39   40

                                                                Seiten Nr. (ITEM)
% Häufigkeit

               40 80
               0

                       41   42   43   44   45   46   47   48   49   50    51   52   53   54   55   56   57   58   59   60

                                                                Seiten Nr. (ITEM)
% Häufigkeit

               80
               40
               0

                       61   62   63   64   65   66   67   68   69   70    71   72   73   74   75   76   77   78   79   80

                                                                Seiten Nr. (ITEM)

Abbildung 3: Rating-Daten aus Runde 1, die an die Teilnehmer/innen rückgemeldet wurden. Pro Item
wird die prozentuale Häufigkeit der Zuordnungen pro Level dargestellt. Die Teilnehmer/innen können
dadurch Items mit hoher/niedriger Übereinstimmung erkennen und über diese Items diskutieren (ROT
= Level 1, GRÜN = Level 2, BLAU = Level 3).

Standard-Setting Mathematik 8                                                                                          8
Abbildung 4: Methodik der Cut-Score-Bestimmung. Die oberste Grafik zeigt eine einzelne Ratingserie
einer Person. Darunter ist die geglättete Funktion dieser Serie (unten: Filter-Residuen). Gestrichelte
horizontale Linien zeigen die beiden Schwellenwerte bei 1,7 und 2,4. Vertikale Linien stellen die
Schnittpunkte der geglätteten Funktion mit den Schwellenwerten dar. Aus diesen Punkten kann man
auf der X-Achse die Seitennummer des Items ablesen, das den Cut-Score repräsentiert.

Dies lag entweder an sehr inhomogenen Ratingserien oder wie bei einem Experten daran, dass ledig-
lich ein Item dem Level 3 zugeordnet wurde. Die Filterungs-Methode kann somit keinen Übergang
bestimmen.

Zur Rückmeldung an die Teilnehmer/innen wurde eine Tabelle präsentiert, in der die individuel-
len Cut-Scores mit dazugehöriger OIB-Seitennummer dargestellt wurde (Abb. 5). Da vor allem die
Übergänge zu Level 3 nicht genau erfasst werden konnten, wurde dies als Diskussionspunkt in Run-
de 2 eingebracht, stärker über die Definition von Level 3 sowie über die typische Level-3-Items zu
diskutieren.

2.7      Präsentieren der Konsequenzen
Die Klärung, was Schüler/innen wissen und können sollen, ist sehr wichtig zur genauen Definition
der Cut-Scores. Studien zeigen, dass z. B. die Konsistenz der Einschätzung der Cut-Scores in der
Diskussion von den erhaltenen Informationen abhängt (Jaeger & Mills, 2001; Jaeger, 1990).

Generell sollte man sich Gedanken machen, ob bzw. wann Feedback gegeben und auch welches Feed-
back gegeben werden sollte (Hambleton, Jaeger, Plake & Mills, 2000). Es wird auch berichtet, dass
man durch das Vermeiden von Rückmeldung von genauen Ergebnissen zwischen den Runden des
Standard-Settings statistische Unabhängigkeit der Daten erhält (Reckase, 2006b, 2006a)2 .
  2
      Kritische Meinungen behaupten auch, dass durch die Rückmeldung über bestimmte Konsequenzen, der Standard-

Standard-Setting Mathematik 8                                                                          9
Abbildung 5: Feedback in Runde 2 und 3: Deskriptive Statistik der Cut-Scores.

Im Standard-Setting für M8 wurde nach einer ersten Diskussionsphase in Runde 2, die lediglich
die Itemzuordnungen im Fokus haben sollte, den Teilnehmer/innen die Konsequenzdaten (ähnlich
zu Abb. 6 nur ohne unter Level 1 ) präsentiert. Dadurch wurde ermöglicht, dass die Experten die
Items und deren Level-Zuordnungen als Hauptaufgabe im Zentrum ihrer Aufmerksamkeit behielten,
und erst relativ spät im Prozess die Auswirkungen berichtet bekamen. Durch die Präsentation solcher
Konsequenzdaten erkannten die Panelisten die Auswirkungen ihrer Entscheidungen auf die Cut-Score-
Setzung. Sie sehen somit die prozentuale Aufteilung der Schüler/innen auf die einzelnen Levels.

2.8    Runde 3
Nach der Diskussion zu Runde 2 wurden die Teilnehmer/innen gebeten, die OIBs ein letztes Mal
durchzuarbeiten, die Zuordnungen zu adjustieren und sich auf endgültige Urteile festzulegen. Wie-
derum wurden Rückmeldedaten und Konsequenzdaten präsentiert, danach folgte eine abschließende
Diskussion und Entscheidung über die Setzung der Cut-Scores.

2.9    Setzung der Schwelle zu Unter Level 1
Nach einer endgültigen Entscheidung über die Cut-Scores zu Level 1–2 und Level 2–3 wurde ab-
schließend noch die Grenze zu Unter Level 1 bestimmt. Dazu wurde ein modifizierte Form der
Direct-Consensus-Methode verwendet. Es wurde ein absoluter Standard festgelegt, das heißt, es
musste darüber entschieden werden, wie viele Items ein/e Schüler/in beantworten muss, um eine
bestimmte Kompetenz vorzuweisen bzw. um den Standard zu erfüllen (Norcini, 2003). Dazu wurden
den Teilnehmern/innen alle Items, die auf Level 1 liegen, präsentiert (von OIB-Seite 1 bis OIB-Seite
12, siehe Abb. 5, Runde 3).

Die Teilnehmer/innen wurden gebeten, sich sogenannte Grenz- oder minimal-kompetente-Schüler/innen
vorzustellen, also jene, die gerade noch auf Level 1 liegen würden. Es wurde die Frage gestellt: ”Wie
viele Items müssten Grenz-Schüler/innen richtig beantworten, um dem Level 1 zu entspre-
chen?” Die Experten/innen gaben ihre Entscheidungen ab und diese wurden wiederum im Plenum
präsentiert und diskutiert. Die Experten/innen mussten zu einem endgültigen Entschluss kommen.
Setting-Prozess von einem ursprünglich kriteriumsbasierten in ein normreferenziertes Verfahren überführt wird (Impara
& Plake, 1997).

Standard-Setting Mathematik 8                                                                              10
Abbildung 6: Endgültige Cut-Score-Werte für M8 inklusive der Konsequenzdaten.

Der Median lag bei 7 Items (von 12), die es zu lösen galt, um auf Level 1 zu kommen. Der Wert von
7 wurde von der Mehrheit akzeptiert und als endgültig festgelegt, dieser entsprach einem Theta-Wert
von 420,32 (Abb. 6).

3     Validität und Post-Standard-Setting
3.1   Prozessevaluation und Evaluation der Cut-Score-Urteile
Es ist von großer Bedeutung, am Ende wichtiger Entscheidungsrunden interne Evaluationen durchzu-
führen (Hambleton, 2001). Mit diesen soll geklärt werden, ob die Teilnehmer/innen alles verstanden
haben, ob es Verbesserungsvorschläge für die Vorgehensweise gibt und wie einig man sich bei den
Ergebnissen ist (Morgan & Perie, 2004; Raymond & Reid, 2001).

Für Cizek, Bunch und Koons (2004) besteht die Evaluation aus mehreren Teilen: nach einer ersten
Orientierung wird der Grad des Bereitseins der Experten erhoben (Training, Aufgabenverständnis,
Überzeugung gegenüber der Methode). Danach folgt eine Evaluation über das Ergebnis des Standard-
Settings (Pitoniak, 2003). Für das M8-Standard-Setting wurde ein Eingangsfragebogen und ein Ab-
schlussfragebogen verwendet, sowie ein Fragebogen nach jeder Runde.

Aus der Evaluation durch die Experten/innen konnte ebenfalls ein positives Bild des Standard-Setting-
Prozesses, hinsichtlich Methodik, Durchführung und Organisation gezeichnet werden. Die ermittelten
Cut-Scores wurden großteils (ca. 95%) als verlässlich eingestuft. Viele Personen waren ebenfalls der
Meinung, dass die Verteilung, die sich aus den Konsequenzdaten ergab, ein sehr gutes Abbild aus
der praktischen Erfahrung wiederspiegelt. Ein einziger Kritikpunkt betraf die Formulierung des PLDs

Standard-Setting Mathematik 8                                                             11
Abbildung 7: Cut-Scores wurden mit Median (Md) und Mittelwert (MW) bestimmt, Standardfehler
(SE) durch Jacknife- und Bootstrap-Verfahren.

zu Stufe 3. Die Zustimmung zu der Frage, inwieweit man von den Item-Zuordnungen zu den Levels
überzeugt sei, zeigte für Level 3 deutlich geringere Werte als für Level 1 und Level 2.

3.2    Endgültige M8-Cut-Score-Werte und Standardfehler
Für die Cut-Scores der Runde 3 wurden über Jackknife-3 und Bootstrapping-Verfahren Standardfehler
ermittelt.
Anstelle der Medianberechnung könnte man auch eine Mittelwertsberechnung zur Bestimmung der
Cut-Scores in Betracht ziehen. Hier würden alle Meinungen der Experten gleich einfließen, das heißt,
auch extremere Meinungen (die durchaus wichtig sind) würden in die Cut-Score-Bestimmung mit-
einfließen. Durch den Median würde man solche Meinungen verlieren, da dieser ein robustes Maß
gegenüber Ausreißern darstellt. Aus diesen Gründen wurden daher alle Cut-Scores auch durch eine
Mittelwertberechnung bestimmt und über Jackknife- und Bootstrap-Verfahren die jeweiligen Stan-
dardfehler errechnet (Abb. 7). Zwischen den beiden Methoden gibt es numerisch keine großen Un-
terschiede, die Mittelwertsberechnung liefert allerdings kleinere Standardfehler. Für die Bestimmung
der endgültigen Cut-Scores werden die Mittelwerte herangezogen (siehe Abb. 8).

3.3    Rating-Verhalten
Die Ergebnisse einer 2-faktoriellen Varianzanalyse (Greenhouse-Geisser korrigiert) mit den Faktoren
Runde (1–3) und Cut (Cut-Level 1–2, Cut Level 2–3) zeigten einen Haupteffekt für den Faktor
Cut (F (1, 19) = 182, 85; p < .001; η 2 = .91) sowie eine Interaktion zwischen Runde × Cut
(F (2, 38) = 7, 34; p = .003; η 2 = .23). Der Haupteffekt für Cut zeigt, dass die verwendete Methode
funktioniert hat da die Schwelle zwischen Level 2 und 3 signifikant höher liegt als zwischen Level
1 und 2. Es wäre durchaus problematisch, würden sich die beiden Cut-Scores nicht signifikant von-
einander unterscheiden. Die Interaktion ist interessant, sie zeigt, dass die Experten über die Runden
hinweg ihre Urteile adjustieren, der unterste Cut-Score sinkt über die Runden hinweg leicht ab, der
obere Cut-Score steigt nach Runde 1 an und bleibt dann konstant.

Um festzustellen, ob bestimmte Rater strenger oder milder urteilen, wurde für jede/n Experten/in
(Rater ) der Mittelwert über alle Item-Ratings berechnet. Abbildung 9 zeigt Boxplots für die be-
rechneten individuellen Mittelwerte über die Runden hinweg. Die Streuung nimmt über die Runden
hinweg augenscheinlich ab, eine Person zeigt tendenziell höhere mittlere Ratings im Vergleich zu
    3
      Da der Median einen Datensatz genau in der Mitte teilt, ergeben sich durch Weglassen eines Werts höchstens zwei
unterschiedliche Mediane aus dem Jackknifing, egal ob die Anzahl an Datenwerten gerade oder ungerade ist. Der Median
ist daher kein ”glatter” Schätzer der Daten, er kann die Daten also nicht linear approximieren. Efron und Tibshirani
(1986) weisen auf diese Problematik hin und empfehlen hier eher ein Bootstrapping-Verfahren zur Berechnung des
Standardfehlers des Medians

Standard-Setting Mathematik 8                                                                             12
Abbildung 8: Konsequenzdaten für Cut-Scores durch Mittelwertberechnung.

allen anderen Ratern4 . Um zusätzlich Aufschluss über das Rating-Verhalten zu bekommen, wurde in
Runde 3 für jedes Item der Modalwert5 berechnet. Jede individuelle Ratingserie wurde anschließend
mit der Reihe an Modalwerten korreliert. Wie Abbildung 10 zeigt, sind die Korrelationen generell
hoch (von r = 0.54 bis r = 0.84). Vergleicht man die Person mit dem höchsten und dem niedrigsten
Rang sieht man keine auffälligen Rating-Verhalten (Abb. 11). Auf Grund dieser Analysen wurden
daher keine Personen aus dem Standard-Setting-Prozess ausgeschlossen.

3.4    Interrater-Reliabilität
Um Interrater-Reliabilität festzustellen. kann man grundsätzlich zwischen Maßen der Rater-Konsistenz
und der Rater-Übereinstimmung unterscheiden (e. g. Eckes, 2011). Rater-Übereinstimmung (oder
Rater-Konsens) beschreibt hier die exakte Übereinstimmung der einzelnen Ratings zwischen den Ra-
tern. Rater-Konsistenz hingegen gibt an, inwieweit die Rater bestimmte Objekte (Personen, Items
etc.) in eine ähnliche Reihung bringen. Es ist wichtig anzumerken, dass diese Maße zu unterschiedli-
chen Ergebnissen führen können. Die Reihung der bewerteten Objekte kann zum Beispiel gleich sein
(hohe Konsistenz) und die absoluten Ratings aber unterschiedlich (niedriger Konsens). Dies würde
passieren wenn bestimmte Rater generell strengere Urteile abgeben als andere, die Reihung aber
beibehalten. Bewertet zum Beispiel ein Experte drei Items mit 1, 1, 2 und ein anderer Experte mit
2, 2, 3, so hätten diese beiden Rater keine Übereinstimmung, aber eine hohe Konsistenz.

Als erste Analyse der Übereinstimmung der Raterurteile wurde der von Fleiss vorgeschlagene Kappa-
Koeffizient für jede Standard-Setting-Runde berechnet (Fleiss, 1971). Fleiss’ Kappa ist eine Erweite-
   4
     Es wurden daher alle Cut-Scores erneut berechnet ohne diesen Ausreißer. Die Cut-Scores veränderten sich allerdings
nicht substanziell. Das Rating-Verhalten dieser Person zeigt ebenfalls keinen ungewöhnlichen Verlauf die Person wurde
somit nicht aus dem Standard-Setting-Prozess ausgeschlossen.
   5
     Der am häufigsten vorkommende Wert.

Standard-Setting Mathematik 8                                                                              13
Rater−Strenge

                                                                                                           ●

                                                         2.2
                                                                                                                                                                                                                                                                  ●

                                                                                                                                                                                       ●

                                                         2.0
                                                         1.8
                                                         1.6

                                                                                                 RUNDE 1                                                                   RUNDE 2                                                                    RUNDE 3

             Abbildung 9: Boxplots zu Rater-Strenge/-Milde über die Runden hinweg.

                                                                                                                                                           Modalwert − Items
                       3.0

                                                                                                                                                                                            ●                                                             ●                                        ●           ● ●         ●       ●
                       2.5
               Mod
                       2.0

                                                 ●                 ● ● ● ●                       ● ● ● ●           ● ● ●               ● ● ● ●                 ● ●             ● ●              ● ● ● ● ● ● ● ● ● ● ● ● ● ● ●                                 ●        ● ● ● ● ●               ●           ●           ●       ●       ● ● ● ●
                       1.5
                       1.0

                                 ● ● ● ● ●           ● ● ● ●                       ● ● ● ●                     ●               ● ●                     ● ●             ● ●              ●                                                                         ●                        ●           ●

                             0                                                                    20                                                                               40                                                                             60                                                                               80
                                                                                                                                                                           Item−Nr.

                                                                                                                                                           Mittelwert − Items
                       3.0

                                                                                                                                                                                                                                                                                                               ●
                                                                                                                                                                                                                                                                                                                                   ●
                                                                                                                                                                                                                                                                                                                   ●       ●
                                                                                                                                                                                                                                                                                                   ●
                                                                                                                                                                                                                                                          ●
                       2.5

                                                                                                                                                                                                                                                                                                                                               ●
                                                                                                                                                                                            ●                               ●                                              ●
                                                                                                                                               ●
                                                                                                                                                                                                    ●       ●                                                                                                                          ●
                                                                                                                                                                                                                                                                                                                                                   ●
                                                                                                                                                                                                                                                      ●                                                    ●
                                                                                                                                                                                                                                                                                                                               ●
               MW

                                                                                                                                                               ●                                                        ●                                                              ●       ●                       ●
                       2.0

                                                                                                                           ●               ●       ●                           ●                                                                                                   ●
                                                                                                 ● ●                                                                               ●                    ●                                   ● ●                                ●
                                                                                                                                                                                                ●                   ●                   ●         ●           ●
                                                                           ●                           ●                                                                                                        ●
                                                                                                                       ●               ●
                                                                                                                                                                                                                                                                       ●                                                                   ●
                                                 ●                     ●                                                                                           ●                                                                ●
                                                                               ●                           ●       ●
                       1.5

                                                                   ●                                                                                                                                                            ●
                                                                                                                                   ●                                                                                                                              ●
                                                                                                               ●
                                                     ●                                                                                                                 ●
                                                                                           ● ●                                                         ●                                                                                                                                               ●
                                                                                                                                                                                        ●
                                                               ●                                                                                           ●                                                                                                                               ●
                                 ●                                                                                                                                         ●
                                           ● ●                                         ●
                                                                                                                               ●
                       1.0

                                                         ● ●                       ●
                                     ● ●

                             0                                                                    20                                                                               40                                                                             60                                                                               80
                                                                                                                                                                           Item−Nr.

                                                                                                                                               Korrelation mit Modalwert
                       1.0

                                                                                                                                                                  SS01
                                                                                                                                         SS16 SS09 SS08 SS12 SS13
                                                                                                                               SS22 SS07
                                                                                                           SS02 SS05 SS11 SS17
                                                                                       SS18 SS15 SS19 SS10
                                                         SS04 SS20
                             SS23 SS06
                       0.6
               Korr.
                       0.2

                                                                                            5                                                                              10                                                                                 15                                                                                   20
                                                                                                                                                               Experten−ID (gereiht)

Abbildung 10: Modalwerte und Mittelwerte der Itemratings (oben, Mitte). Korrelation der individu-
ellen Ratingserie mit Modalwert (unten). Die Experten-IDs sind aufsteigend nach Korrelationskoeffi-
zient gereiht.

Standard-Setting Mathematik 8                                                                                                                                                                                                                                                                                                                           14
Rang 1 (geringe Korr.)

                          3.0
                          2.5
                Ratings
                          2.0
                          1.5
                          1.0

                                0      20               40              60             80
                                                      Item−Nr.

                                               Rang 20 (hohe Korr.)
                          3.0
                          2.5
                Ratings
                          2.0
                          1.5
                          1.0

                                0      20               40              60             80
                                                      Item−Nr.

Abbildung 11: Ratingserien (schwarze Linien) der Personen mit höchster und geringster Korrelation
mit Modalwert (rote Linien).

rung zu Cohen’s Kappa (Cohen, 1960) bei mehr als 2 Raterurteilen, wobei κ = 1 perfekte Überein-
stimmung bedeutet. Runde 1 ergab für 23 Experten und 80 Items κ = 0.24, bei Runde 2 κ = 0.38
und in Runde 3 für 20 Experten κ = 0.43. Interpretiert man die Werte nach Landis und Koch (1977),
so würden jeweils in den ersten beiden Runden ausreichende (0, 21 < κ < 0, 40) und in Runde 3
mittelmäßige (0, 41 < κ < 0, 60) Übereinstimmungen der Expertenurteile vorherrschen.

Die Intraklassen-Korrelation (intraclass correlation coefficient, ICC) kann auf Basis von verschiedenen
Varianzanteilen sowohl zur Bestimmung von Konsens als auch für Konsistenz eingesetzt werden. Der
ICC beschreibt das Verhältnis der Varianz einer abhängigen Variable (e. g. Ratings) zur Gesamtvari-
anz. Ist die Varianz ausschließlich auf die Items und nicht auf die unterschiedlichen Rater rückführbar,
erreicht der ICC einen Wert von 1 (Bartko, 1966; McGraw & Wong, 1996). Unter der Annahme, dass
sowohl Zeilen als auch Spalten der Datenmatrix (Rater × Items) systematische Variation aufwei-
sen, wurde zur Analyse ein two-way random effects model verwendet, es lassen sich dadurch Maße
zur Konsistenz6 wie auch zur Übereinstimmung ermitteln. Rechnerisch unterscheiden sich die Maße
dahingehend, dass beim ICC für Übereinstimmung auch die mean squares (MS) über die Spalten
miteinberechnet werden. Die Ergebnisse sind in Abbildung 12 zusammengefasst.

4    Phase IIb und Phase IIIb
Aus der Evaluation des Standard-Settings ging hervor, dass vor allem die Zuordnung von Items zu
Level 3 schwierig erschien, da hier die Definition der Kompetenzstufe zu eingeschränkt war (siehe
Kapitel 3.1). Basierend auf dieser Rückmeldung fand am 9. März 2012 ein eintägiger Workshop
(Phase IIb) mit 7 nationalen Experten/innen am BIFIE Salzburg statt. Ziel dieses Workshops war es
— basierend auf den Erfahrungen aus dem Standard-Setting und unter Berücksichtigung der Items
    6
      Würde man von einem einfaktoriellen Design ausgehen und annehmen die Item-Reihung sei unmatched, könnte
als Konsequenz kein Maß zur Konsistenz berechnet werden. Da die Itemschwierigkeit aber zunimmt, wird hier eine
systematische Varianzquelle postuliert.

Standard-Setting Mathematik 8                                                                      15
Abbildung 12: Analysen zur Übereinstimmung und Konsistenz der Ratings. ICC = Intraclass correla-
tion coefficient.

                                  Cut uL1-L1         Cut L1-L2         Cut L2-L3
                   Phase III        439,63            517,82            669,46
                   Phase IIIb       419,43            506,05            712,35

                   GESAMT           439,63            517,82             690,91

Abbildung 13: Cut-Scores aus den zwei Standard-Settings (Phase III und Phase IIIb). Zur Bestimmung
des Cut-Scores zwischen Level 2 und 3 wurde der Mittelwert aus den beiden Phasen gebildet.

— die Stufenbeschreibung von Level 3 zu überarbeiten. In Kapitel 1 sind die endgültigen Beschrei-
bungen dargestellt.

Von 28. – 29. September 2012 fand ein abschließender Standard-Setting Workshop (Phase IIIb) mit 10
nationalen Experten/innen statt. Der Prozess wurde vollständig wiederholt, Ziel war es einen Vergleich
zum ersten Standard-Setting herstellen zu können und den Cut-Score zu Level 3, unter Verwendung
der neu definierten Stufenbeschreibung, exakter zu bestimmen. Die Ergebnisse aus Phase III und
Phase IIIb sind in Abbildung 13 dargestellt. Zur Bestimmung des endgültigen Cut-Scores zwischen
Level 2 und Level 3 wurde der Mittelwert aus Phase III und Phase IIIb gebildet.

Literatur
Bartko, J. (1966). The intraclass correlation coefficient as a measure of reliability. Psychological
      Reports, 19 , 3-11.
Cizek, G. J. (1996). Standard-setting guidelines. Educational Measurement: Issues and Practice, 15
      (1), 13–21.
Cizek, G. J. & Bunch, M. B. (2007). Standard setting: a guide to establishing and evaluating
      performance standards on tests. Sage.
Cizek, G. J., Bunch, M. B. & Koons, H. (2004). Setting performance standards: Contemporary
      methods. Educational Measurement: Issues and Practice, 23 (4), 31–31.
Cohen, J. (1960). A coefficient of agreement for nominal scales. Educational and Psychological
      Measurement, 20 , 37-46.
Eckes, T. (2011). Introduction to many-facet Rasch measurement. Frankfurt: Peter Lang.
Efron, B. & Tibshirani, R. (1986). The bootstrap method for standard errors, confidence intervals,
      and other measures of statistical accuracy. Statistical Science, 1 , 1-35.
Ferrara, S., Perie, M. & Johnson, E. (2002, April). Matching the judgemental task with standard

Standard-Setting Mathematik 8                                                               16
setting panelist expertise: The item-descriptor (id) matching procedure. Paper presented at
       the annual meeting of the American Educational Research Association, New Orleans, LA.
Fleiss, J. (1971). Measuring nominal scale agreement among many raters. Psychological Bulletin,
       76(5), 378-382.
Hambleton, R. K. (2001). Setting performance standards on educational assessments and criteria
       for evaluating the process. In G. J. Cizek (Hrsg.), (S. 89-116). New York: Routledge.
Hambleton, R. K., Jaeger, R. M., Plake, B. S. & Mills, C. (2000). Setting performance standards
       on complex educational assessments. Applied Psychological Measurement, 24 (4), 355-366.
Impara, J. & Plake, B. S. (1997). Standard setting: an alternative approach. Journal of Educational
       Measurement, 34 , 353-366.
Impara, J. & Plake, B. S. (1998). Teacher’s ability to estimate item difficulty: A test of the assumption
       in the modified angoff standard setting method. Journal of Educational Measurement, 35(1),
       69-81.
Jaeger, R. M. (1990). Establishing standards for teacher certification tests. Educational Measure-
       ment: Issues and Practice, 9(4), 15-20.
Jaeger, R. M. & Mills, C. (2001). An integrated judgment procedure for setting standards on complex,
       large-scale assessments. In G. J. Cizek (Hrsg.), (S. 313-338). NJ: Lawrence Erlbaum.
Karantonis, A. & Sireci, S. G. (2006). The bookmark standard-setting method: A literature review.
       Educational Measurement: Issues and Practice, 25 (1), 4–12.
Landis, J. & Koch, G. (1977). The measurement of observer agreement for categorical data.
       Biometrics, 33 , 159-174.
McGraw, K. & Wong, S. (1996). Forming inferences about some intraclass correlation coefficients.
       Psychological Methods, 1(1), 30-46.
Mitzel, H. C., Lewis, D. M., Green, D. R. & Patz, R. J. (1999). The bookmark standard setting
       procedure. Monterey, CA: McGraw-Hill.
Morgan, D. L. & Perie, M. (2004). Setting standards in education: Choosing the best method for
       your assessment and population. (note)
Norcini, J. J. (2003, May). Setting standards on educational tests. Med Educ, 37 (5), 464–469.
Pitoniak, M. (2003). Standard setting methods for complex licensure examinations. Unveröffentlichte
       Dissertation, University of Massachusetts, Amherst.
Plous, S. (1993). The psychology of judgement and decision making. New York: McGraw-Hill.
Rasch, G. (1960). Probabilistic models for some intelligence and attainment tests. Copenhagen:
       Nielsen & Lydiche.
Raymond, M. R. & Reid, J. B. (2001). Who made thee a judge? selecting and training participants
       for standard-setting. In G. J. Cizek (Hrsg.), (S. 119-158). New York: Routledge.
Reckase, M. D. (2006a). A conceptual framework for a psychometric theory for standard setting with
       examples of its use for evaluating the functioning of two standard setting methods. Educational
       Measurement: Issues and Practice, 25 (2), 4–18.
Reckase, M. D. (2006b). Rejoinder: Evaluating standard setting methods using error models proposed
       by schulz. Educational Measurement: Issues and Practice, 25 (3), 14–17.
Schulz, E. M., Kolen, M. J. & Nicewander, W. A. (1999). A rationale for defining achievement levels
       using irt-estimated domain scores. Applied Psychological Measurement, 23 (4), 347-362.
Schulz, E. M., Lee, W.-C. & Mullen, K. (2005). A domain-level approach to describing growth in
       achievement. Journal of Educational Measurement, 42 (1), 1–26.
Sireci, S. G. & Clauser, B. E. (2001). Practial issues in setting standards on computerized adaptive
       tests. In G. J. Cizek (Hrsg.), (S. 355-369). New York: Routledge.
Wang, N. (2003). Use of the rasch irt model in standard setting: An item-mapping method. Journal
       of Educational Measurement, 40 (3), 231–253.
Wyse, A. E. (2011). The similarity of bookmark cut scores with different response probability values.
       Educational and Psychological Measurement, xx, xx-xx.

Standard-Setting Mathematik 8                                                                 17
5     Appendix
    1. Agenda Workshop Standard-Setting

    2. Fragebogen Einführung

    3. Fragebogen Durchführung

    4. Fragebogen Abschluss

Standard-Setting Mathematik 8             18
Workshop: Standard Setting M8, 12.10.-14.10.2011
       Tag 1    Zeit
Präsentation   13:00   Begrüßungsworte und Einleitung
Präsentation   13:45   Einführung in die Methode des Standard Settings
Evaluation     14:45   Bearbeitung Evaluations Fragebogen (vorher)
               15:00   Kaffeepause
Bearbeitung    15:20   Bearbeitung eines Übungstests
Diskussion     16:00   Kleingruppendiskussionen zu den Niveaustufenbeschreibungen
                       Diskussion im Plenum und Zuordnung einzelner Trainings-Items zu den
Diskussion     16:30
                       Niveaustufenbeschreibungen
               17:00   Einsammeln der Materialien
       Tag 2
Präsentation   09:00   Rekapitulation der Methode, Diskussion offener Fragen, Verteilung Materialien
Präsentation   09:30   Instruktion zu RUNDE 1
               09:45   Kaffeepause
Bearbeitung    10:00   RUNDE 1: Durcharbeiten des gereihten Aufgabenheftes, Zuordnen der Items zu den
                       Niveaustufenbeschreibungen
               12:30   Mittagspause
Präsentation   14:00   Feedback zu RUNDE 1
Diskussion     14:15   Diskussion zu RUNDE 1
Evaluation     15:15   Bearbeitung Evaluations Fragebogen (RUNDE 1)
               15:30   Kaffeepause
Präsentation   15:45   Instruktion RUNDE 2

Bearbeitung    16:00   RUNDE 2: Erneutes Durchgehen der gereihten Aufgabenhefte und adjustieren der Zuordnungen

               17:00   Einsammeln der Materialien
       Tag 3
Präsentation   09:00   Feedback zu RUNDE 2 und Diskussion
Präsentation   09:30   Präsentieren der Konsequenzdaten
Diskussion     09:45   Diskussion der Konsequenzdaten
Evaluation     10:30   Bearbeitung Evaluations Fragebogen (RUNDE 2)
               10:45   Kaffeepause
Präsentation   11:00   Instruktion RUNDE 3

Bearbeitung    11:15   RUNDE 3: Erneutes Durchgehen der gereihten Aufgabenhefte und festlegen der Zuordnungen

               12:30   Mittagspause
Präsentation   13:30   Präsentation der Konsequenzdaten, Feedbackdaten
Diskussion     13:45   Diskussion und endgültige Entscheidung über die Schwellenwertsetzung
Evaluation     14:30   Bearbeitung Evaluations Fragebogen (RUNDE 3)
               14:45   Kaffeepause
Präsentation   15:00   Einführung und Instruktion zur Methode der Schwellentwertbestimmung "Unter Level 1"
Bearbeitung    15:15   Bestimmen der Grenze "Unter Level 1"
Diskussion     15:30   Diskussion und Festlegung der Grenze "Unter Level 1"
Evaluation     16:00   Bearbeitung Evaluations Fragebogen (nachher)
               16:30   Verabschiedung und Einsammeln der Materialien
a
    a

a
a
a
a
a

        a   a   a   a
        a   a   a   a
        a   a   a   a
        a   a   a   a
a
a
a

a       a       a   a   a

    a       a       a   a
    a       a       a   a
    a       a       a   a
    a       a       a   a
    a       a       a   a
    a       a       a   a

    a       a       a   a
    a       a       a   a
    a       a       a   a
    a       a       a   a
a       a       a       a
a       a       a       a

    a       a       a       a

    a       a       a       a
    a       a       a       a
    a       a       a       a
a   a   a   a
a   a   a   a

a   a   a   a
a   a   a   a
a   a   a   a

a   a   a   a
a   a   a   a
a   a   a   a
a   a   a   a
a   a   a   a
a   a   a   a
a   a   a   a
a   a   a   a
Sie können auch lesen