dc.contributor.advisor | Timmermann, Arnd PD Dr. | de |
dc.contributor.author | Schwerdtfeger, Katrin | de |
dc.date.accessioned | 2013-01-31T08:17:14Z | de |
dc.date.available | 2013-01-31T08:17:14Z | de |
dc.date.issued | 2010-02-26 | de |
dc.identifier.uri | http://hdl.handle.net/11858/00-1735-0000-000D-F25C-F | de |
dc.identifier.uri | http://dx.doi.org/10.53846/goediss-3656 | |
dc.description.abstract | Mit Einführung der neuen
Approbationsordnung für Ärzte wurde in Göttingen für den
Querschnittsbereich Notfall- und Intensivmedizin eine praktische
Prüfung im Sinne einer Objektive Structured Clinical Examination
(OSCE) entwickelt und eingeführt. Zunächst erfolgte die Planung
einer validen Prüfung mittels Blueprint mit den vorhandenen
Ressourcen. Prüfungsziele wurden festgelegt und Prüfungsbögen
entworfen. Anschließend wurde die OSCE auf die beiden weiteren
Qualitätskriterien einer Prüfung, Reliabilität und Objektivität,
untersucht und eine Itemanalyse durchgeführt. Die OSCE-Prüfung
wurde mittels eines Videoratings auf Reliabilität untersucht. Am
Videorating nahmen neben ärztlichen Ratern auch studentische Rater
teil. Die Reliabilität wurde mit Hilfe des
Reliabilitätskoeffizienten Kappa berechnet. Eine Global- und eine
Checklistenbewertung wurden miteinander verglichen. Die
Untersuchung zur Objektivität fand mit 8 Teststudierenden statt. In
der Untersuchung zeigte die OSCE mit einem κ=0,73 im Bereich der
Checklistenbewertung eine gute Reliabilität. Die Globalbewertung
zeigte eine insgesamt nicht zufriedenstellende Reliabilität
κ=0,33-0,43. Allerdings ist in dieser Prüfung ausschließlich eine
Globalbewertung pro Station erfolgt und nicht eine Globalbewertung
für jedes Item. Der Vergleich studentischer Rater mit den
ärztlichen Ratern zeigt gute Übereinstimmung mit der
Originalprüfung für die Checklistenbewertung. Insgesamt wurden von
den studentischen Prüfern weniger Punkte für die Leistungen der
Prüflinge in der Checklistenbewertung vergeben als von den
ärztlichen Prüfern. Bei der Globalbewertung dagegen haben die
studentischen Rater bessere Noten vergeben als die ärztlichen
Rater. Die Übereinstimmung ist an vier der fünf Prüfungsstationen
bei den studentischen Prüfern besser als bei den ärztlichen
Prüfern. Die Untersuchung zur Objektivität der Prüfung zeigte
Verbesserungspotential in diesem Bereich. Die Itemanalyse ergab für
28 Ites eine adäquate Itemschwierigkeit sowie adäquate
Trennschärfe. Somit ist die OSCE- Prüfung im Bereich Notfallmedizin
in Göttingen ist eine reliable Prüfungsform. Im verwendeten
Prüfungsbogen ist die Checklistenbewertung der Globalbewertung im
Bereich Reliabilität überlegen. Studenten, die im Videorating
eingesetzt wurden, konnten die Prüfung mit guter Übereinstimmung
zur Originalprüfung bewerten. | de |
dc.format.mimetype | application/pdf | de |
dc.language.iso | ger | de |
dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/ | de |
dc.title | Entwicklung, Reliabilität und Objektivität einer „Objective Structured Clinical Examination“ in der Notfallmedizin | de |
dc.type | doctoralThesis | de |
dc.title.translated | Development, reliability and objectivity of an „Objective Structured Clinical Examination“ in emergency medicine | de |
dc.contributor.referee | Timmermann, Arnd PD Dr. | de |
dc.date.examination | 2010-02-26 | |
dc.subject.dnb | 610 Medizin, Gesundheit | de |
dc.subject.gok | MED 430 | de |
dc.subject.gok | MED 202 | de |
dc.description.abstracteng | With introduction of a new Licensing
Regulation for doctors, a new practical examination has been
developed. This exam has been established in terms of an Objective
Structured Clinical Examination (OSCE). After planning a valid
examination via blueprints with existing resources, aims of the
exam were defined and test papers designed. Afterwards it was
proved if objectivity and reliability were given, item analysis was
made. Reliability of the OSCE examination was investigated by video
rating and calculated with the reliability coefficient kappa (κ).
Participants of this rating were medical doctors as well as medical
students. Global and checklist rating were compared to each other.
The appraisal of the objectivity took place with 8 test students.
With a result of κ=0,73 the checklist rating showed high
reliability of the OSCE. The result of the global rating
κ=0,33-0,43 was altogether not satisfying. But during the
examination, there was only global rating foreach station and not
for each item. The comparison of the doctors’ ratings with the
students’ ratings showed a high similarity to the original exam for
the checklist rating. Altogether, the student examiners gave fewer
points for the effort of the examinees in the checklist rating than
the medical examiners. However, in the global rating the students
gave better marks than the doctors. The rating of the students is
at 4 of 5 exam stations more similar than the rating of the
doctors. The survey of the objectivity of the exam showed room for
improvement in this sector. The item analysis reveals 28 items of
optimum difficulty as well as suitable item discrimination.
Therefore, the OSCE in the sector emergency medicine in Goettingen
is a reliable form of examination. In the used test papers, the
checklist rating outclasses the global rating concerning the
reliability. Students who worked on the video rating could evaluate
the exam with a high similarity to the original examiners. | de |
dc.subject.topic | Medicine | de |
dc.subject.ger | OSCE | de |
dc.subject.ger | Objective Structured Clinical Examination | de |
dc.subject.ger | Medizinische Ausbildung | de |
dc.subject.ger | Testgütekriterien | de |
dc.subject.ger | Prüferübereinstimmung | de |
dc.subject.ger | studentische Prüfer | de |
dc.subject.eng | OSCE | de |
dc.subject.eng | objective structured clinical examination | de |
dc.subject.eng | medical Education | de |
dc.subject.eng | psychometric properties | de |
dc.subject.eng | interrater agreement | de |
dc.subject.eng | student examiners | de |
dc.subject.bk | 44.04 | de |
dc.subject.bk | 44.80 | de |
dc.subject.bk | 44.69 | de |
dc.identifier.urn | urn:nbn:de:gbv:7-webdoc-2380-4 | de |
dc.identifier.purl | webdoc-2380 | de |
dc.identifier.ppn | 737899859 | de |