Inhalt überspringen

Nutzung von Daten zur Beurteilung und Bewertung von Kompetenzen über den gesamten Lehrplan hinweg

Das sagen die Experten.

Wenn Sie in der Pflegeausbildung tätig sind, sammelt Ihre Schule wahrscheinlich viele verschiedene Arten von Daten. Möglicherweise stellen Sie fest, dass diese Daten aus unterschiedlichen Quellen stammen und in Silos organisiert werden – aber sie werden nicht immer genutzt. Doch wenn Sie alle Ihre Daten zu etwas Bedeutungsvollem zusammenfügen können, können sie eine kraftvolle Geschichte erzählen – eine, die für Ihre Institution, Ihr Programm, Ihre Lehrkräfte und Ihre Studierenden wichtig ist. 
 
Wir haben uns mit einigen Experten von drei Pflegeschulen zusammengesetzt, um zu erfahren, wie sie die Macht der Daten genutzt haben, um kompetenzbasierte Bildung in ihre Programme zu integrieren. Nachfolgend teilen wir einige Erkenntnisse aus unserem Webinar: Kompetenz bewerten und evaluieren durch den Lehrplan.

1. Daten können Ihnen helfen, Lernergebnisse mit großer Effizienz zu maximieren

Rosemary Samia, MSN, RN, CNS, CHSE, Direktorin des Zentrums für klinische Ausbildung und Forschung an der University of Massachusetts Boston, führte Peer-to-Peer-Bewertungen und Evaluierungen von Fertigkeiten mit SimCapture for Skills für die Gesundheitsbewertung und Grundlagen der Pflegekurse ihrer Schule im ersten klinischen Semester ein. SimCapture for Skills bringt die Lehrkräfte näher an die Studierenden heran, indem es die Effektivität der Peer-to-Peer-Lernmethode mit digitalen Bewertungs- und Evaluierungstools kombiniert. 
 
Unter der Aufsicht eines Grad-Studenten oder Simulations-Pädagogen wechseln sich Gruppen von drei Studierenden ab, um die Fertigkeit als Lernender auszuführen, die Fertigkeit einer anderen Person als Moderator zu bewerten und die Fertigkeit selbst als „Patient“ zu erhalten.

Nach Betrachtung der Testergebnisse der Studierenden nach Einführung dieses Ansatzes stellte Rosemary fest, dass die Laborlehrkräfte, die regelmäßig Peer-to-Peer einsetzten, Studierende mit deutlich höheren Ersterfolgsquoten hatten als andere Gruppen. „Wir konnten erkennen, dass dies eine Strategie war, die hilfreich war,“ erklärte sie.

Die Nutzung von SimCapture for Skills für Übungsstunden führte zu einer Reduzierung von 60 Wiederholungen auf 9 Wiederholungen von einem Semester zum nächsten.

Um Effizienzen zu steigern, griff die University of Massachusetts Boston auch auf den Peer-to-Peer-Ansatz zurück, um ihren Nachbesserungsprozess zu optimieren. 

„Pflegeprogramme stehen vor allerlei Herausforderungen. Wir haben weniger Lehrkräfte, höhere Fluktuation, unsere Kohorten werden größer – und daher mussten wir strategisch an die Nachbesserungsprozesse herangehen, da es keine Option war, diesen Prozess zu verwässern.“

- Rosemary Samia, MSN, RN, CNS, CHSE
Direktorin, Zentrum für klinische Ausbildung und Forschung, University of Massachusetts Boston

Die Nutzung von SimCapture for Skills ermöglichte es ihnen, 30 Studierende pro Stunde mit weniger Lehrkräften nachzubessern.

2. Daten können Ihnen helfen, den Bedarf an einer Veränderung des Ansatzes aufzudecken

Für Chris Garrison, PhD, RN, CNE, CHSE, Associate Teaching Professor und Direktor des Simulationslabors an der Pennsylvania State University, erzählten die gesammelten Daten zur Leistung der Studierenden eine Geschichte, die zu einem Umdenken im Ansatz seiner Schule für das Fertigkeitstraining im großen Pre-Lizenzierungsprogramm führte.

Wie in vielen anderen Pflegeprogrammen hatte Penn State traditionell Umfragen zur Zufriedenheit der Studierenden verwendet, um simulationgestützte Erfahrungen zu evaluieren. Doch sie begannen zu erkennen, dass sie objektive Leistungsdaten sammeln mussten, um Lernziele zu messen. "Wir wollten etwas Objektives und Validiertes, um Entscheidungen zu treffen", erklärte Chris. Und mit den neuen AACN Essentials, die eine kompetenzbasierte Bewertung erfordern, wussten sie, dass sie diese Daten benötigen würden, um zu dokumentieren, wie die Studierenden diese AACN-Kompetenzen erreichen.

Mit dem SimCapture Lernmanagementsystem (LMS) für Simulationen und dem Creighton Competency Evaluation Instrument zur Bewertung hochrealistischer Simulationen entdeckten sie eine Reihe von Fertigkeiten, bei denen die Studierenden starke Kompetenzen zeigten. Beim genaueren Hinsehen zeigte sich jedoch, dass die Studierenden in anderen Bereichen nicht dort waren, wo sie sein sollten – wie bei einigen Elementen der sicheren Medikamentenverabreichung und beim korrekten Durchführen von Verfahren. Diese Daten führten dazu, dass Chris und seine Kollegen sich fragten: "Wie können wir unsere Studierenden auf das Kompetenzniveau bringen, das sie für die Praxis benötigen?"  
 
Chris erklärte, dass das Vorziehen von Fertigkeiten ohne erneute Bearbeitung ein häufiges Problem ist.

"Ich denke, es ist eine fehlerhafte Annahme, dass jemand, der in Ihrem Grundlagenkurs als kompetent beurteilt wurde, diese Kompetenz im gesamte Studienverlauf aufrechterhält."

- Christopher Garrison, PhD, RN, CNS, CHSE
Direktor, Associate Teaching Professor, Pennsylvania State University

Letztendlich führten die Daten zu der Entscheidung, einen bewussteren Übungsansatz zu verfolgen und die Fertigkeiten im Studienverlauf erneut aufzugreifen. Sie stellten sicher, dass die Studierenden die Möglichkeit erhielten, ihre Kompetenzen weiterzuentwickeln, und begannen, Peer-to-Peer-Methoden mit Bewertungsbögen zu nutzen, um den Studierenden Feedback während des Übens zu ermöglichen. Da sie weiterhin Daten zu diesem Ansatz sammeln, erwartet Chris große Verbesserungen in diesen Bereichen mit dem aktuellen Jahrgang.

3. Daten können Ihnen helfen, Möglichkeiten zur beruflichen Weiterentwicklung zu entdecken

Die Experten teilten einige Beispiele dafür, wie Daten ihnen halfen, die berufliche Weiterbildung voranzutreiben:

Effektives Feedback für Studierende geben

Beim Betrachten der mit dem Lasater Clinical Judgment Rubric gesammelten Studentenscores stellte Rosemary fest, dass die Ergebnisse beispielhaft waren – obwohl es die erste Simulation war, die die Studierenden je gemacht hatten. „Ich habe gesehen, dass hier eine Gelegenheit zur Weiterentwicklung der Fakultät bestand“, sagte sie. Das Thema wurde zwischen den Semestern angegangen. Als die Daten nach der Behandlung des Problems keine Verbesserung zeigten, änderten sie das Format der Fragen, die die Dozenten beantworten sollten, um den Studierenden Feedback zu geben. Statt einer Bewertung von 1 bis 4 nutzten sie die gleichen Kategorien und baten die Dozenten, Freitext-Kommentare an die Studierenden zurückzugeben. „Am Ende dieses Semesters sahen wir dann, dass das bereitgestellte Feedback viel wertvoller war, die Dozenten nahmen sich die Zeit, die Bewertungen und Reflexionen zu lesen, und führten die Studierenden durch diese vier Phasen.

Sicherstellen der Kompetenz bei Debriefings

Rosemary teilte mit, dass UMass Boston von Zufriedenheitsumfragen der Studierenden zur Messung der Effektivität von Simulationen abgerückt ist und stattdessen das Debriefing Assessment for Simulation in Healthcare© (DASH) Tool nutzte. Entwickelt vom Center for Medical Simulation in Boston, verfolgt das DASH-Tool einen objektiven Ansatz zur Bewertung von Debriefings. UMass Boston begann mit der DASH-Studentenversion des Tools, bei der Studierende die Moderatoren bewerten konnten. Später übernahmen sie die Dozentenversion des Tools, bei der ihre Simulationspädagogen ihre Debriefings einsehen und sich selbst beurteilen, um herauszufinden, worauf sie sich bei der beruflichen Weiterentwicklung konzentrieren müssen.

Jennifer Roye, MSN, RN, CHSE, CNE, stellvertretende Dekanin für Simulation und Technologie und klinische Assistenzprofessorin an der University of Texas in Arlington, hat an ihrer Schule eine standardisierte, einfach zu verwendende Debriefing-Methode namens Plus Delta eingeführt. Sie hat eine Reihe von Workshops zur Weiterentwicklung der Fakultät durchgeführt, um eine effektive und konsistente Anwendung sicherzustellen. Jenny erkennt die Bedeutung objektiver Daten zur Messung der Effektivität und plant auch, das DASH-Tool zu nutzen, um die Nutzung der Plus Delta-Methode durch die Dozenten zu evaluieren.

Bonus: Wo soll man anfangen?

Nach dem Webinar haben wir die Experten gebeten, einige Tipps für Schulen zu teilen, die gerade erst mit der Nutzung von Daten beginnen. 

 

Sehen Sie sich das vollständige Webinar auf Abruf an

Bewertung und Evaluierung von Kompetenzen durch den Lehrplan

Jetzt ansehen

Sprecherbiografien

Rosemary Samia, MSN, RN, CNS, CHSE

Rosemary Samia, MSN, RN, CNS, CHSE, ist die Direktorin des Zentrums für Klinische Bildung und Forschung an der University of Massachusetts Boston. Ihr klinischer Hintergrund umfasst 15 Jahre in der medizinisch-chirurgischen Pflege, bevor sie 2014 in den akademischen Bereich wechselte, um mit Simulation zu unterrichten. Im Jahr 2020 absolvierte sie das einjährige Leadership Development Program for Simulation Educators der National League for Nursing. Rosemary leitet eine lokale Netzwerkgruppe für Simulationslehrer im Großraum Boston und unterstützt die Entwicklung und Organisation regionaler Simulationssymposien. Sie ist Mitglied des Beirats von safeMedicate, einer virtuellen Umgebung für simulierte Medikamentenverabreichung. Im Jahr 2020 wurde Rosemary von Sigma Theta Alpha für ihre Exzellenz in der Pflegepraxis ausgezeichnet und erhielt den Maureen Oh Eigartaigh-Preis.

Christopher Garrison PhD, RN, CNE, CHSE

Christopher Garrison, PhD, RN, CNE, CHSE, ist außerordentlicher Lehrprofessor am Ross and Carol Nese College of Nursing der Pennsylvania State University und Direktor des Simulationslabors am University Park Campus. Sein klinischer Hintergrund umfasst Erfahrungen in der medizinisch-chirurgischen Pflege, Kardiologie, häuslichen Gesundheitsversorgung und als Erwachsenen-/gerontologischer Pflegepraktiker. Er ist ein Certified Nurse Educator (CNE) und ein Certified Healthcare Simulation Educator (CHSE). Christopher besitzt einen Associate-Abschluss vom Northern Virginia Community College, einen Bachelor-Abschluss von der Pennsylvania State University, einen MSN von der George Mason University und einen PhD in Pflegepädagogik von der Nova Southeastern University. Er unterrichtet im BSN-Programm der Penn State in Klassenzimmer-, Simulations- und klinischen Umgebungen über das gesamte Curriculum hinweg. Im Jahr 2020 erhielt Christopher den Janet A. Williamson Excellence in Teaching Award vom Penn State College of Nursing. Er verfügt über 13 Jahre Erfahrung in der Entwicklung und Durchführung simulationsbasierter Lernmethoden. Zu seinen Forschungsinteressen gehört die Bewertung der Wirksamkeit von Simulationen und virtuellen Simulationen als Bildungsstrategie. Christopher hat sowohl auf nationalen als auch internationalen Konferenzen über Simulation und andere Themen der Pflegepädagogik referiert.

Jennifer Roye, MSN, RN, CHSE, CNE

Jennifer Roye, MSN, RN, CHSE, CNE, ist die stellvertretende Dekanin für Simulation und Technologie und klinische Assistenzprofessorin am College of Nursing and Health Innovation der University of Texas in Arlington. Sie ist Hauptdozentin für den Kurs Grundlegende Telemedizin-Fähigkeiten im Zertifikatsprogramm für Gesundheitsinformatik. Frau Roye erhielt ihren MSN 2003 von der UTA und ist derzeit an der University of Alabama im EdD Instructional Leadership-Programm eingeschrieben. Sie praktizierte 10 Jahre lang als CPNP in einer Privatpraxis und 16 Jahre lang als RN in der Notaufnahme des Cook Children’s Medical Center in Ft. Worth, Texas. Ihre Forschungsinteressen umfassen Simulation, Telemedizin, Studenteneinbindung, Verbesserung des Online-Lernens und moralische Belastung in der Studierendenpopulation der Grundpflege.