Dritter Video-Podcast – Exposé-Auszüge und Evaluationsideen

Nach der heutigen Präsentation im Kolloquium, in dem sehr interessante Diskussionen zu Konnektivismus vs. Konstruktivismus und was überhaupt mit dem Lernportal gemessen werden sollte, entstanden, folgt hier nun unser dritter Video-Podcast.

Damit wollen wir euch die Möglichkeit bieten, einige Schwerpunkte aus unserem Exposé auch audio-visuell zu erfassen (Immer diese umfangreichen Texte – wir wissen ja selbst, wie langwierig das ist. Deshalb hier unsere Alternative 😉 ). Wir gehen auf unseren Definitions- und Taxonomie-Ansatz von Social Software, den Konnektivismus, die Grobkonzepte der Lehrveranstaltungen und insbesondere auf erste Ideen für eine mögliche Evaluation unseres Lernportals mit Diskussionsimpulsen ein. Besonders beim letzten Thema sind wir für jeden weiteren Hinweis von euch dankbar, da uns hier einfach die nötige Erfahrung fehlt.

Vielen Dank besonders für die informative Übersicht von Evaluationsformen und -methoden im „Evaluationsraum“ des „House of E-Learning“ an Mandy Schiefner und für weitere hilfreiche Beiträge an das Portal E-teaching.org!

Wir wünschen allen ein schönes und sturmfreies Januar-Wochenende.

Dieser Beitrag wurde unter Lernerfolg, Lerntheorien, Social Software & Web 2.0, Uni-Einsatz abgelegt am von .

Über Marcel

Dr. phil. Marcel Kirchner ist seit Januar 2018 bei der Continental AG im Bereich Group Functions IT als Solution Manager für Collaboration Applications tätig und beschäftigt sich hier vor allem mit dem Schwerpunkt Modern Workplace Learning sowie dem Einsatz von Social Collaboration-Tools als Service Owner für SharePoint Online im Zusammenspiel mit anderen Applikationen wie z.B. Microsoft Teams und HCL Connections. Bis Ende 2017 war er als Collaboration-Berater und Trainer bei der GIS AG beschäftigt und half dort beim Aufbau der Corporate Learning-Abteilung. Als Diplom-Medienwissenschaftler war Marcel Kirchner bis Februar 2013 wissenschaftlicher Mitarbeiter und Promotionsstudent im Fachgebiet Kommunikationswissenschaft der Technischen Universität Ilmenau. Er beschäftigte sich hier mit dem Einsatz von Social Software und insbesondere E-Portfolios vor allem in der Hochschullehre.

6 Gedanken zu „Dritter Video-Podcast – Exposé-Auszüge und Evaluationsideen

  1. Helge Staedtler

    Schaue grad den VideoPodcast… ist doch einfacher als den ganzen Text zu lesen 😉 Da kann ich währenddessen schon den Kommentar schreiben, praktisch.

    Was mir auffällt, Ihr probiert irgendwie alles „Social“ zu machen, oder? (Siehe Folie 5 im Podcast) „Social…“ Networking, Communicating, Collaborating, Publishing finde ich ja prinzipiell auch alles Tätigkeiten, die sich irgendwie an andere Menschen richten, also sozial sind. Eine neue Schublade ist schnell geöffnet, aber ob es hilft, auf vier existierende Schubladen vorne jeweils noch den Zusatz „Social“ dranzuschreiben??

    Hmm, ich weiss auch nicht, ob das so einfach geht, dass man behauptet, die „primäre funktionale Kernkompetenz von Weblogs“ sei z.B. Publishing. Nee, nee, glaub ich nicht, alles andere ist ja doch auch irgendwie Publishing, oder? Was ist z.B. mit einem Content Management System? Dem würde man viel eher diese Kernkompetenz zusprechen, oder?

    Vielleicht hilft auch nochmal etwas mehr herauszufinden, was eigentlich „sozial“ als Begriff so aussaget, wie die Entstehungsgeschichte des Begriffs war usw.

    Was G. Siemens sagt zum informellen Lernen… ich denke mal wir können gar nicht nicht-lernen, selbst wenn wir wollten genauso wie man nicht „nicht-hinhören“ kann (von daher Zustimmung!).

    Eine Lerntheorie wird für mich allerdings erst dann existieren, wenn diese Theorie in der Lage ist auch verifiziert/falsifiziert zu werden. Wenn aber z.B. das Element „Was gelernt wurde“ nicht einmal Teil einer solchen Theorie ist, ist diese aus meiner Sicht nicht falsifizierbar und daher auch keine Theorie. Von daher finde ich es problematisch überhaupt von Lerntheorien zu sprechen solange dies nicht der Fall ist. Ich kenne keine sogenannte Lerntheorie, die unter den genannten Kriterien als solche gelten könnte.

    Festzuhalten bleibt: Eine gesicherte Aussage, „Was gelernt wurde“ ist auch bei Euren beiden Folien 12 + 13 nicht möglich. Trotz ehrbarer Lernziele!

    Ich denke mal, das die „Schaffung von Verbindungen“ zwischen Menschen und deren Interessen Kern des „Social“ ist. Dazu kommt Anfang Februar auch ein Beitrag von mir…

    Gruss und schönes Wochenende, Helge

  2. Marcel Beitragsautor

    Hallo Helge,

    erstmal danke für die ausführliche Rückmeldung und die Kritikpunkte! Allerdings zeigt der Video-Podcast natürlich nur einen Teil unserer Ausführungen. Wir mussten besonders bei Definition, Taxonomie und Konnektivismus kürzen, um im Zeitlimit der Präsentation zu bleiben und auch den Podcast nicht zu lang werden zu lassen. Vielleicht lassen sich da auch noch im Text einige weitere Argumente finden.

    Zum Thema Social Software:
    Naja, wir wollen es eigentlich nicht unbedingt „Social“ machen. Wir denken, dass es schon „Social“ ist. Und das liegt begründet in dem neuen Netzverständnis, nach dem der Nutzer zunehmend aktiv wird und selbst zum Publizisten/Produzenten ja vielleicht sogar Journalisten wird. Denn wie die aktuellen Festlegungen im Telemediengesetz zeigen: http://www.tagesschau.de/aktuell/meldungen/0,1185,OID6310346,00.html
    werden Blogger mittlerweile in die Reihen der Journalisten aufgenommen. Und auch, wenn nicht immer nur Hoch-wissenschaftliches oder Sinnvolles geschrieben und ausgetauscht wird, erkennt man zunehmend die Meinungsmacht, die Blogger ausüben können, wenn sie z.B. über die Tücken eines neuen Produktes herfallen und welche Gefahr davon ausgehen kann. Aber das nur am Rande.

    Worauf ich hinaus will ist der starke soziale Charakter, den „Social“ Software ihrem Namen nach schon mitbringt. Das führte uns zu der Frage, wann z.B. Veröffentlichen „sozial“ wird und eben nicht mehr nur „reines“ Veröffentlichen ist. Denn meines Erachtens sind Content Management Systeme ihrem Ursprung nach danach ausgelegt gewesen, vorhandene Inhalte im System verwalten zu können und sie anschließend online zu stellen, um vorrangig zu informieren – entweder eine breite Masse, z.B. bei Online-Redaktionssystemen von Nachrichtensendern oder -magazinen oder auch nur bestimmte Zielgruppen, z.B. bei Pressemitteilungs-Systemen entsprechende Journalisten oder bei einer LMS die Seminar-Teilnehmer. Vielleicht liege ich hier auch völlig daneben und mir fehlt die nötige Erfahrung. Bitte weise mich da zurecht, wenn ich das falsch sehe.
    Aber ich meine, da greift die Definition, auf der unser Taxonomie-Ansatz aufbaut, nachdem das primäre Anliegen zur Kommunikation und Interaktion mit Netzwerkcharakter entscheidend ist, das mir bei genannter Beschreibung eindeutig fehlt. Ich kann hier nur das Ziel eines „reinen“ Publishing erkennen. „Social“ wird es meiner Meinung nach dann, wenn mein Inhalt mit dem Ziel des Austausches verknüpft wird, wenn meine Gedanken oder Hinweise zum bereitgestellten Inhalt an die Öffentlichkeit treten und nahezu unbegrenzt andere erreichen können und wenn ich zusätzlich die Möglichkeit habe, auf andere, bereits gegebene Kommentare einzugehen.

    Darüber hinaus legen wir nach unserer Definition und Taxonomie ja auch keinen genauen Startpunkt für Social Software fest. Also z.B. seitdem es Blogs gibt, gibt es auch Social Software. Nein, wir denken, dass es Social Software bereits früher eben nur noch nicht unter diesem Namen gab und an der Stelle beginnt, wenn ich z.B. einen Spiegel-Artikel kommentieren kann und andere Kommentare wiederum kommentieren kann. Denn das ist meines Erachtens ohne den sozialen Gedanken eines reflexiven kommunikativen Austausches nicht möglich. Ein Leserbrief, der sich nur an die Redaktion richtet, würde da, denke ich, nicht ausreichen, da er nur eine kleine Teil-Öffentlichkeit erreicht und nicht wirklich Netzwerke entstehen oder sichtbar werden lässt. Er könnte aber unter „Social Communicating“ fallen.

    Und da unser Taxonomie-Ansatz keinen Anspruch auf Vollständigkeit erhebt, bedeutet dies auch nicht, dass ein CMS (oder LMS) nicht auch zu einer Social Software werden kann, wie man am Beispiel Drupal wunderbar sehen kann. Hier werden z.B. zunehmend öffentliche Blogs in die Verwaltung von Inhalten eingebunden. Publishing wird so zu „Social Publishing“ und wenn angenommen noch ein Forum hinzukommt, müsste man schon von einem Hybrid sprechen.
    Es soll vor allem deutlich werden, dass unsere Taxonomie ein offener Ansatz ist und dass wir nicht nur einfach „Social“ davorschreiben wollten.

    Nachdenklich hat mich Deine Kritik aber vor allem bei „Social Communicating“ gestimmt. Denn was unterscheidet sie vom „reinen“ Communicating? Natürlich steht ein sozialer Charakter dahinter, aber den gibt es ja bei herkömmlicher Online-Kommunikation im Allgemeinen auch. Hier müssen wir auf jeden Fall noch mal drüber nachdenken. Vielleicht müsste man „Social“ auf Aktionen mit Anwendungen, wie E-Mail oder Foren beschränken, die z.B. aus „Social Publishing“ oder „Social Collaborating“ resultieren. Z.B. nutzen Thomas und ich bei der Arbeit in Google Docs gerne einen Chat, um uns über geplante Veränderungen am Dokument auszutauschen.
    Oder man müsste in Erwägung ziehen, von Online-Kommunikation im Allgemeinen zu sprechen, um nicht zu sehr einzuschränken. Was meinst Du / Ihr?

    Ja, es ist richtig, dass wir v.a. den Begriff „sozial“ noch nicht vollkommen wissenschaftlich durchdrungen haben. Dazu fehlte einfach ein wenig Zeit bis zum festgesetzten Veröffentlichungstermin. Sorry, dafür. Aber erste Gedanken zum Begriff sind natürlich schon diskutiert worden, die nur noch etwas erweitert werden müssen. Thomas wird dazu noch einen Kommentar posten, der wichtige Eigenschaften von „sozial“ mit unseren Vorstellungen verknüpft.

    Zum Definitionsansatz selbst kam ja eigentlich keine Kritik. Er scheint also vielleicht doch ganz gut zu sein!? 🙂 Vielleicht sollte ein gleiches thematisches Interesse noch stärker verankert werden? Aber ist dies immer zwingende Voraussetzung?

    Zum Thema Lerntheorie Konnektivismus:
    Leider bin ich da noch nicht so ganz durchgestiegen. Vielleicht kannst Du Einiges noch etwas näher erläutern? Wieso fehlt das Element „was gelernt wurde“? Und wieso muss es Deiner Meinung nach für eine Lerntheorie zwingend vorhanden sein? Gibt es denn einen allgemeingültigen Kriterienkatalog, den eine Lerntheorie erfüllen muss, um als solche zu gelten?

    Könnte der Lerntheorie-Ansatz nicht dadurch einfach falsifiziert werden, dass ein Lernender zwar Konnektionen zu einer Community aufbaut, er aber den eigentlichen Mehrwert des Austausches nur als Mehraufwand empfindet und daher sein Engagement zum Austausch sinkt und völlig verschwindet? Wenn alle in der Community diese Gedanken entwickeln, dann scheint mir die Learning Community und das darin befindliche Lernen zum Scheitern verurteilt. Und sollten wir das beim Einsatz des Lernportals rausbekommen ist das zwar weniger schön für unser Anliegen aber würde doch die Theorie eigentlich falsifizieren, oder?

    Könnte man den Konnektivismus vielleicht eher als Erweiterung des „Lernens als sozialer Prozess“ aus dem Konstruktivismus auf größere Netzwerke auffassen?

    Fragen über Fragen. Das war im Kolloquium schon so.

    Zweifel daran, ob der Konnektivismus eine Lerntheorie ist, hat auch Pløn Verhagen (University of Twente) hier gegeben:
    http://elearning.surf.nl/e-learning/english/3793

    Und prompt kamen auch Reaktionen von George Siemens: http://www.elearnspace.org/Articles/connectivism_self-amused.htm
    und Stephen Downes: http://www.downes.ca/archive/06/11_15_news_OLDaily.htm

    Leider hatte ich noch keine Zeit, dies bisher richtig durchzuarbeiten. Kommt aber noch.

    Du schreibst, dass wir gesicherte Aussagen „was gelernt wurde“ (bzw. ob erfolgreich gelernt wurde?) nicht erhalten können. Ist es daher vielleicht hilfreicher, die Ziele anders zu setzen und nur den Umgang mit dem Portal zu beobachten oder vielleicht Emotionen (Tendenz zu Lernlust/-frust) im Umgang mit dem Portal zu erforschen? Oder kennst Du andere Wege, gesicherte Aussagen zu erhalten?

    So genug für heute. Mein Kopf raucht mal wieder. Ist ziemlich viel geworden. Aber ich hoffe Du / Ihr habt Zeit, es zu lesen.

    Gruß Marcel

    PS: Übrigens sehr interessantes Thetarock´r-Interview! Und auf den Social-Beitrag sind wir natürlich auch sehr gespannt.

  3. Helge Staedtler

    Wow, das ist aber eine ziemlich ausführliche Antwort. Ich nehme einfach mal zu zwei Dingen den Faden auf, mehr geht nicht wegen Zeitmangel.

    Zu dem Versuch „Social Software“ zu definieren, gibt es noch einen schönen Artikel, von der FastCompany: „The Growth of Social Software“ den man genauer hier nachlesen kann:
    http://www.fastcompany.com/resources/networking/teten-allen/120606.html

    Darin wird ein Zitat dazu von Clay Shirky so gedeutet, dass Social Software einfach meint „stuff worth spamming.“ Das könnte ziemlich nah dran sein. Aber da gefällt mir Baumgartners Definition dann doch besser (Zusammenbringen/Connecten von Menschen gleicher Interessenlage)

    In Sachen sogenannter „Lerntheorie“ bin ich nunmal wirklich skeptisch. Ich frag‘ mich immer, warum so ein Begriff überhaupt ins Feld geführt wird. Es würde auch niemand eine Theorie des „Fahrradfahrens“ aufstellen. Dann wohl eher eine Theorie zum „Gleichgewichtssinn“ des Menschen in Verbindung mit verschiedenen Fahrzeugen.

    Ähnlich sollte aus meiner Sicht die Sache mit dem Lernen laufen, eine Theorie zur „Kognition“ also unseren zentralen Wahrnehmungs- und Hirnleistungen ist aus meiner Sicht fassbarer, messbarer und vor allem falsifizierbarer als jede der sogenannten „Lerntheorien“.

    Ich frag mich auch immer wieder, warum der Fokus so stark auf das Lernen gelegt wird. Vielleicht liegt der Hase ja beim „Lehren“ im Pfeffer? Ich schätze auch, es würde einem viel mehr nutzen, wenn man erklären kann, wie der Mensch sich auf verschiedenste Fortbewegungsmittel mit seinem Gleichgewichtssinn einstellt, als eine Theorie zum Fahrradfahren zu haben, die einem sagt wie es mit dem Fahrrad läuft und beim Motorrad fängt man dann wieder von vorne an.

    So das soll mein bescheidener Beitrag gewesen sein. Halt wieder eher Fragen als Antworten. Anfang Februar gibts dann auch wieder was im blog zu lesen.

    Gruss, Helge

  4. Marcel Beitragsautor

    Hallo Helge,

    danke für den Link. Bezüglich des „Social Communicating“ haben wir eine Änderung in unserem Ansatz vorgenommen und es in „Online Communicating“ umbenannt. Dein Hinweis hat uns aber vor allem aufgezeigt, dass wir im Hinblick auf die Diplomarbeit verstärkt darauf eingehen müssen, was die Besonderheit des „Social“ gegenüber bisherigen Methoden ist.

    Ja, die Sache mit den Lerntheorien ist echt nicht so einfach und weitere Kritik zu Konnektivismus vs. Konstruktivismus wird in unserem Exposé unter 2. kommentiert:
    http://www.elearning2null.de/index.php/expose/2-lerntheoretischer-hintergrund/

    Gruß Marcel

  5. Mandy

    Hallo ihr zwei

    wenn auch spät, aber dennoch ein kurzes Feedback zu mir. Es sind einfach ein paar lose Ideen, die mir beim Schauen Eures Podcasts gekommen sind:

    Die Frage «was gelernt wurde» bzw. ob erfolgreich gelernt wurde, kann man nur erhalten, wenn man Indikatoren dafür bildet, was als Lernergebnis angesehen wird. Dabei kann man allerdings selten den Schluss ziehen, dass es unbedingt das Medium ist, was diesen «Lernerfolg» möglich gemacht hat.

    Mir ist noch nicht klar, was ihr genau evaluieren wollt. Soll es eine Evaluation eures Portales werden, oder geht es um eine empirische Evaluation im Sinne eines Experiments mit abhängigen und unabhängigen Variablen, die ihr kontrolliert? Geht es nur um den Lernerfolg im Portal? Oder spielen Faktoren wie Zufriedenheit, Usabilty, usw. auch eine Rolle?
    Die Frage, wie kann das virtuelle Lernen das reale Lernen abbilden kann, ist interessant, ich bin mir aber nicht sicher, ob sie auch „erhebbar“ ist. Nur die Kommunikationsgewohnheiten miteinander zu vergleichen, ist meiner Meinung nach zu wenig, um diese Frage zu beantworten zu können. Lernstile, kognitive Aktivierung, Emotion und Motivation sind ebenfalls Variablen, die in diese Frage hineinspielen.

    Zur Gruppenbildung würde ich auf jeden Fall eine Randomisierung vorschlagen, damit ihr intervenierende Variablen möglichst gleich verteilt. Allerdings müsst ihr aufpassen, dass ihr nicht in die Falle des «Medienvergleiches» tappt. Hier hat man schon einmal eine ähnliche Diskussion geführt: http://elearning.phzh.ch/e-zertifikat/forum/viewtopic.php?t=20&highlight=lernerfolg

    Hilfreich immer wieder: Weidenmann, B. (2001). Lernen mit Medien. In A. Krapp & B. Weidenmann (Hrsg.), Pädagogische Psychologie (4. Aufl., S. 415-465). Weinheim: Beltz.

    Eine formative Evaluation schlage ich unseren Dozierenden immer wieder vor, damit sich am Ende der Veranstaltung keine bösen Überraschungen kommt. Ein einfaches Instrument, das sich anbietet, ist das Stimmungsbarometer von Haab&Reusser oder auch Reinmann et al. So könnt ihr immer wieder mal im Seminarverlauf die Stimmung messen und eventuell an den ein oder anderen Dingen nochmals anpassen, meist sind es eher Kleinigkeiten, die dann aber in eurer Evaluationsergebnis hereinspielen, obwohl sie mit der eigentlcihen Frage gar nichts zu tun haben (z.B. schlechte Usability oder so etwas.)

    Erheben solltet ihr auf jeden Fall verschiedene Randbedingungen wie demographische Fakotren, Hochschulkultur, schulische Sozialisationsbedingungen, usw. Auch Faktoren der Lernende haben einen Einfluss, z.B. kognitive Faktoren (Vorwissen, Lernkompetenz, Medienkompetenz, …), affektive Faktoren, motivationale Faktoren. Auch am Ende des Seminars solltet diese personenbezogenen Variablen wieder mit erheben, um sie zu vergleichen.

    Vielleicht fällt mir noch das ein oder andere ein.

    Liebe Grüsse
    Mandy

  6. Marcel Beitragsautor

    Hallo Mandy,

    ein tolles Feedback, aus dem wir Einiges für unser Konzept herausziehen konnten! Und auch der Link war spitze und hat uns viele Aspekte aufgezeigt, die wir berücksichtigen konnten. Vielen Dank dafür 🙂

    Nun wollen wir auf einige deiner Anmerkungen eingehen:
    >Die Frage «was gelernt wurde» bzw. ob erfolgreich gelernt >wurde, kann man nur erhalten, wenn man Indikatoren dafür >bildet, was als Lernergebnis angesehen wird.
    >Dabei kann man allerdings selten den Schluss ziehen, dass es >unbedingt das Medium ist, was diesen «Lernerfolg» möglich >gemacht hat.

    –> Daher versuchen wir, sowohl die Nutzung des Mediums (Produktevaluation) als auch das Lernen an sich (Prozessevaluation) zu evaluieren.

    >Mir ist noch nicht klar, was ihr genau evaluieren wollt.
    >Soll es eine Evaluation eures Portales werden oder geht es >um eine empirische Evaluation im Sinne eines Experiments mit >abhängigen und unabhängigen Variablen, die ihr kontrolliert?
    >Geht es nur um den Lernerfolg im Portal? Oder spielen >Faktoren wie Zufriedenheit, Usabilty, usw. auch eine Rolle?

    –> Wir wollen keinen Usability-Test des Portals durchführen, da wir ja grundsätzlich vorhandene Technologien (Protopage / DVDconnector) nutzen, die solche Tests zur Genüge durchlaufen haben müssten.
    –> Es geht uns darum, mehrere Komponenten zu messen, die für uns einen Lernerfolg implizieren, um eine möglichst genaue Aussage treffen zu können:
    Das selbstgesteuert-konnektive Lernen im Portal ist eine AKTIVITÄT, die zunächst gemessen werden muss.
    2. Komponente: Wissenserwerb bei PLE-Nutzung vs. -Nicht-Nutzung
    3. Komponente: Emotionen, wie Zufriedenheit und Motivation oder Frust und Ablehnung
    –> Wir sollten auf jeden Fall noch genauer definieren, was für uns Lernerfolg bedeutet! Gibt es dazu vielleicht noch einschlägige Quellen, die Definitionsvorschläge geben?

    >Die Frage, wie kann das virtuelle Lernen das reale Lernen >abbilden kann, ist interessant, ich bin mir aber nicht >sicher, ob sie auch “erhebbar” ist. Nur die >Kommunikationsgewohnheiten miteinander zu vergleichen, ist >meiner Meinung nach zu wenig, um diese Frage zu beantworten >zu können. Lernstile, kognitive Aktivierung, Emotion und >Motivation sind ebenfalls Variablen, die in diese Frage >hineinspielen.

    –> Da kam schon von mehreren Seiten Kritik. Vor allem auch dahingehend, wie man es kontrollierbar macht, dass sich Leute nicht doch real treffen, wenn sie, wie bei uns, ja grundsätzlich die Möglichkeit dazu haben oder ob man dies verbieten darf bzw. sollte.
    –> Da diese einzelne Komponente der Untersuchung von Kommunikationsgewohnheiten nicht auszureichen scheint und auch der Fokus vom eigentlichen Untersuchungsgegenstand wegzugehen droht, ist es vielleicht ratsamer, diese Fragestellung ad acta zu legen und sich auf die Komponenten des Lernerfolgs zu konzentrieren.

    >Zur Gruppenbildung würde ich auf jeden Fall eine >Randomisierung vorschlagen, damit ihr intervenierende >Variablen möglichst gleich verteilt. Allerdings müsst ihr >aufpassen, dass ihr nicht in die Falle des >«Medienvergleiches» tappt.

    –> Bei der Lehrveranstaltung „Elektronische Dokumente“, die mit einem Kontrollgruppendesign evaluiert werden soll, wird ja das didaktische Design nicht verändert. D.h. alle Studenten sollen die Möglichkeit des selbstgesteuert-konnektiven Lernens mit Social Software haben. Es ist also KEIN Vergleich zwischen herkömmlichem Lernen und E-Learning mit Lernportal. Es wird lediglich der isolierbare Stimulus „Lernportal“ (=PLE) auf seinen Lernerfolg hin überprüft. Damit dürfte diese Falle doch umgangen sein, oder?

    >Eine formative Evaluation schlage ich unseren Dozierenden >immer wieder vor, damit sich am Ende der Veranstaltung keine >bösen Überraschungen kommt. Ein einfaches Instrument, das >sich anbietet, ist das Stimmungsbarometer von Haab&Reusser >oder auch Reinmann et al. So könnt ihr immer wieder mal im >Seminarverlauf die Stimmung messen und eventuell an den ein >oder anderen Dingen nochmals anpassen, meist sind es eher >Kleinigkeiten, die dann aber in eurer Evaluationsergebnis >hereinspielen, obwohl sie mit der eigentlcihen Frage gar >nichts zu tun haben (z.B. schlechte Usability oder so etwas.)

    –> Hier haben wir schon äußerst positiv Kontakt zu Frau Reinmann und dem Entwickler des neuen Online-Barometers SAMB aufgenommen 🙂 Da freuen wir uns auf weiteren Austausch!

    >Erheben solltet ihr auf jeden Fall verschiedene >Randbedingungen wie demographische Fakotren, Hochschulkultur, >schulische Sozialisationsbedingungen, usw.

    –> Da wissen wir gerade, abgesehen von demographischen Faktoren, nicht so richtig, wie das wirklich gehen soll und hatten es auch nicht in unserem bisherigen Evaluationskonzept angedacht. Wie sollte man das am besten erheben und warum spielt es zwingend mit hinein?

    >Auch Faktoren der Lernende haben einen Einfluss, z.B. >kognitive Faktoren (Vorwissen, Lernkompetenz, >Medienkompetenz, …), affektive Faktoren, motivationale >Faktoren. Auch am Ende des Seminars solltet diese >personenbezogenen Variablen wieder mit erheben, um sie zu >vergleichen.

    –> Vielleicht können wir das ja mit unseren bisherigen Überlegungen schon abdecken. Am besten wird es sein, wir posten unser aktuelles Evaluationskonzept.
    Wir haben morgen nachmittag ein Treffen mit unserem Betreuer und arbeiten seine Kritikpunkte auch noch ins Konzept ein. Danach werden wir es als neuen Beitrag im Blog online stellen.
    So könnten sich sicherlich ein paar Fragen auch vom Anfang Deines Kommentars noch genauer klären und natürlich gerne auch wieder neue Kritikpunkte ergeben 😉 Wir freuen uns aufs Feedback!

    Viele Grüße aus Ilmenau
    Thomas und Marcel

Kommentare sind geschlossen.