usare i sistemi di risposta per studenti per migliorare i...

14
Usare i Sistemi di Risposta per Studenti per migliorare i risultati scolastici Karen L. Mahon, Ed.D.

Upload: hathien

Post on 21-Feb-2019

214 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

Usare i Sistemi di Risposta per Studenti per migliorare i risultati scolastici Karen L. Mahon, Ed.D.

Page 2: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

2 mimio.dymo.com

Per me è stata come una rivelazione… per la prima volta in oltre 20 anni di insegnamento mi sono resa conto… che più della metà della classe “non capiva”… Poiché avevo già spiegato l’argomento il più chiaramente possibile ho semplicemente chiesto agli studenti di discuterne tra di loro per vedere chi di loro sarebbe riuscito a convincere gli altri interlocutori della validità della propria risposta. Ne è scaturita un’animata conver-sazione. Dopo pochi minuti, ho chiesto di “rivotare” e oltre il 90% della classe ha dato la risposta giusta… (Wood, 2004)

In una recente ricerca i Sistemi di Risposta per Studenti (SRS) vengono descritti come stru-menti funzionali a quella che comunemente è definita “partecipazione attiva” o “risposta attiva dello studente”. Un sistema di risposta per studenti è una tecnologia che “consente al docente di porre una domanda o un problema alla classe; permette agli studenti di rispondere tramite un dispositivo e immediatamente raccoglie e riassume al docente le risposte degli studenti“ (Be-atty, 2004; Burnstein & Lederman,2003; English, 2003). Questi sistemi, in un modo o nell’altro, hanno sempre fatto parte della didattica. Come sottolinea Caldwell (2007) “L’idea che sta alla base degli SRS non è nuova – da almeno i tempi di Socrate i docenti hanno sempre utilizzato un sistema di insegnamento basato su domande educative e interattive” (p. 11). Perfino il semplice alzare le mani rappresenta un metodo di risposta per studenti.

Da sempre gli educatori riconoscono che i metodi che consentono di selezionare risposte si-multaneamente favoriscono una maggiore partecipazione del singolo studente. Sebbene i primi sistemi fossero un po’ più avanzati dell’alzata di mano, non si differenziavano di molto. Un metodo molto comune era l’utilizzo di un cartoncino colorato. Questo sistema funzionava so-prattutto per le domande a scelta multipla: gli studenti alzavano il cartoncino del colore cor-rispondente alla risposta scelta e l’insegnante poteva così vedere facilmente la serie di risposte.

I sistemi tecnologici che permettono di rispondere individualmente alle domande sono en-trati in commercio negli anni ‘60. All’inizio, questo tipo di strumento veniva utilizzato per re- gistrare le risposte del pubblico a film e programmi televisivi pilota. Una delle prime applica-zioni di questa tecnologia nel campo della didattica è stata realizzata alla Rice University (Lane & Atlas, 1996), dove gli studenti in una classe attrezzata con computer dovevano rispondere a domande relative alla comprensione di alcune parti della lezione, calcolati i risultati venivano poi mostrati alla classe.

Da allora la tecnologia si è evoluta, passando da hardware con cavi ingombranti a strumenti wireless e portatili in combinazione con software, rendendo così più facile l’integrazione del processo per gli utenti. Con l’avvento di sistemi più semplici, l’utilizzo di questi strumenti si è diffuso in molteplici discipline quali scienze, matematica, business, scienze informatiche, didat-tica, ingegneria, inglese, professioni sanitarie, legge, scienze politiche, psicologia e altro ancora. “Sfortunatamente, nella maggior parte dei casi l’uso della tecnologia nel campo della didattica consiste in una mera implementazione di vecchi metodi, e pertanto la tecnologia non rappre-senta quella panacea che credevamo che fosse”. (Mazur, 2009).

Usare i Sistemi di Risposta per Studenti per migliorare i risultati scolastici

Page 3: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

3 mimio.dymo.com

Cercheremo ora di ripercorrere la storia di questi strumenti, raccontandone le implementazioni di successo.

Stato dell’arte e RicercaA metà 2011, negli Stati Uniti, in circa il 30% dei distretti scolastici è stata avviata una considerevole implementazione degli SRS. Sia gli studenti che gli insegnanti si divertono ad utilizzarli preferendoli alle lezioni tradizionali e non-interattive (Cutts, et al. , 2004; Draper et al., 2002; d’Inverno et al., 2003; McDermott & Redish, 1999; Nicol & Boyle, 2003), ed è inoltre stato provato che gli SRS migliorano il risultato scolastico degli studenti (Caldwell, 2006; Draper & Brown, 2004; Knight & Wood, 2005). In più, la ricerca suggerisce che l’utilizzo giornaliero dell’ SRS contribuisce ad aumentare le presenze in classe, in modo particolare quando la partecipazione alle lezioni interattive procura crediti formativi (Burnstein & Lederman, 2001; Cue, 1998; Hake,1998).

E’ importante ricordare, come Beatty e Gerace (2009) sottolineano, che non bisogna confondere la tecnologia con la pedagogia quando si parla dell’utilizzo degli SRS: “Come qualsiasi strumento, gli SRS potrebbero essere utilizzati in molteplici modi per molteplici fini” (p.147). L’uso di questo strumento però non garantisce i risultati positivi degli studenti Infatti Beatty e Gerace tengono a specificare:

Noi sosteniamo che gli strumenti dovrebbero essere valutati secondo le loro affordance, men-tre gli approcci e le metodologie in base al loro impatto sullo studente. In altre parole, non chiedete quale sarà l’aumento del livello di apprendimento utilizzando gli SRS; chiedete quale tipo di approccio pedagogico l’ SRS può supportare o migliorare e quali saranno gli impatti sull’apprendimento (p.147).

L’SRS può essere utilizzato per alternare con domande una lezione altrimenti tradizionale, interrogare gli studenti sulla comprensione o mantenere viva l’attenzione. In questo modo però non si sfrutta il potenziale del sistema. Per ottenere dei reali benefici da un SRS, un educatore deve ripensare totalmente al proprio modello pedagogico e al ruolo che il tempo classe ricopre all’interno di esso e utilizzare gli SRS come parte integrante di un tutto (p. 3-4). Noi concordiamo con questa tesi e cercheremo in questo contesto di illustrare alcune linee guida sulle pratiche pedagogiche che sono state riconosciute particolarmente efficaci.

Page 4: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

4 mimio.dymo.com

L’istruzione tra pariL’istruzione tra pari (o collaborativa) di Eric Mazur (Peer Instruction, 2007) è una tecnica di insegnamento che prevede l’inserimento di domande a scelta multipla, in quello che l’autore definisce “frangente strategico”, durante le lezioni di fisica. Viene quindi richiesto agli studenti di scegliere una risposta tramite l’alzata di mano, le flash cards o l’SRS. Se un certo numero di studenti risponde a una domanda in modo non corretto, viene chiesto al gruppo di interrompere la lezione, discutere fra di loro dell’argomento e poi rispondere nuovamente alla domanda. Riferisce Mazur (1996): “La percentuale di studenti che sceglie la risposta corretta aumenta sempre dopo la discussione” (p.14). E specifica (2009): “I dati ottenuti nella mia classe e nelle classi dei colleghi in tutto il mondo, in molteplici ambienti accademici e discipline, mostrano che gli aumenti del livello di apprendimento arrivano a triplicarsi con un approccio focalizzato sullo studente e sull’insegnamento interattivo“ (p.51).

L’affermazione che sostiene che l’aumento di interazione dello studente e di feedback incrementano il livello di comprensione degli studenti (Crouch & Mazur, 2001; Fagen et al., 2002; Mazur, 1997) viene supportata dalle prove evidenti ottenute dall’utilizzo di SRS in corsi di laurea di scienze di primo livello in molteplici discipline (e.g., Hestenes et al. 1992; Smith, Wood, et al. 2009). Più esplicitamente questa affermazione non indica che l’utilizzo degli SRS sia l’elemento determinante per il miglioramento dei risultati degli studenti benché alcuni credano che la disponibilità di questi strumenti favorisca l’utilizzo del metodo dell’istruzione tra pari (Burnstein & Lederman, 2001; Burnstein & Lederman, 2003).

Assessing-to-Learn (A2L) In uno studio indipendente, l’Università del Massachusetts Physics Education Research Group (UMPERG), nel 1993 ha sviluppato un metodo simile all’utilizzo degli SRS in classe. Questo sistema, chiamato Assessing-to-Learn o A2L, (Valutare per apprendere) include esplicitamente delle valutazioni formative. Dufresne et al (2000) sostengono che questa pratica “informa gli insegnanti su quello che pensano gli studenti; gli studenti su ciò che pensano i loro compagni; e infine il singolo su quello che lui stesso pensa (p. 11)”. Simile al metodo di Mazur, l’A2L di Dufresne presenta cicli di domande dove gli studenti dopo aver letto le domande ne discutono in piccoli gruppi, scelgono le risposte ed esaminano i risultati. Al contrario del sistema di Mazur, che include una presentazione del docente alternata a domande, nell’A2L il ciclo di domande è il nocciolo dell’attività di classe; le esposizioni dell’insegnante vengono solo aggiunte, quando necessarie.

Deliberate Practice Forse il più interessante studio condotto di recente che analizza l’utilizzo degli SRS è stato realizzato nel 2011 alla University of British Columbia (Deslauriers et al.). In questa ricerca sono stati messi a confronto due gruppi di studenti. Le condizioni di base del corso dalla prima all’undicesima settimana prevedevano che sia il gruppo sperimentale che quello di controllo ricevessero lezioni da un docente di comprovata esperienza della facoltà; le domande con gli SRS venivano utilizzate come valutazioni sommative e i crediti formativi assegnati in base alle risposte. Nella dodicesima settimana il gruppo di controllo ha continuato a seguire il corso base

Page 5: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

5 mimio.dymo.com

mentre il gruppo sperimentale è stato assegnato a un collega che aveva conseguito il dottorato di ricerca e utilizzava metodi di insegnamento basati su ricerche sull’apprendimento. Questi metodi, conosciuti come deliberate practice (pratica intenzionale) richiedevano agli studenti di svolgere esercizi di ragionamento cognitivo e di problem solving durante il tempo classe mentre ricevevano frequenti feedback (p.862). Gli studenti effettuavano una pre-lettura fuori dalla classe, spostando il “semplice transfer della conoscenza reale” al di fuori della classe, e passavano il tempo classe lavorando sulle attività e i compiti assegnati con feedback dai compagni e dall’insegnante. Le domande con gli SRS venivano usate come valutazioni formative di classe, seguite da discussioni e problem solving.

I risultati dell’esperimento dell’ultima settimana non hanno mostrato mutamenti di coinvolgimento o di frequenza nel gruppo di controllo. Al contrario nel gruppo sperimentale il coinvolgimento degli studenti è quasi raddoppiato e la frequenza è aumentata del 20%. Ancora più importante, il gruppo sperimentale ha raggiunto un livello di apprendimento due volte maggiore rispetto al gruppo di controllo con uno scarto fra i due gruppi di 2.5 punti. E’ fondamentale notare che entrambe le sessioni hanno utilizzato gli SRS ma in maniera molto differente.

Un suggerimento sull’utilizzo di questi metodi arriva da Perez et al. (2010) che ci consiglia di fare attenzione a non mostrare alla classe i grafici con i risultati delle votazioni. Infatti Perez et al. hanno riscontrato che “se gli studenti analizzano il grafico (con i risultati della prima votazione) sono più inclini (30%) a passare da una risposta meno comune a una più comune.” Il fenomeno è più accentuato nelle domande vero/falso (38%) rispetto alle domande a scelta multipla (28%). Questa tendenza a scegliere la risposta più frequente si presenta anche quando la risposta non è corretta. Questi risultati suggeriscono che conoscere a priori le risposte più frequenti a una domanda può influenzare una seconda votazione dello studente.

Perché l’utilizzo degli SRS migliora i risultati degli studenti?La domanda più frequente sull’uso degli SRS non è tanto sapere se portano a un miglioramento dei risultati dello studente, ma il perché. Sebbene le ricerche disponibili ad oggi sull’uso degli SRS non siano abbastanza convincenti, ci sono due fattori importanti che da tempo sono stati riconosciuti come fondamentali nella letteratura dell’apprendimento: aumentare le possibilità di risposta per gli studenti e il ruolo dei feedback nell’istruzione.

Aumentare le possibilità di risposta Barnett (2006) afferma che gli SRS sono “uno strumento che permette l’interattività“ (p.2). Di-versi metodi che aumentano la frequenza di risposta attiva dello studente hanno dimostrato miglioramenti nei risultati accademici (Narayan et al., 1990). Tra questi citiamo class-wide peer tutoring (Cooke et al., 1983; Delquadri et al., 1986), computer-assisted instruction (Bala-jthy,1984; Stallard, 1982; Tudor & Bostow, 1991), self-directed learning (Kosiewicz et al, 1982), use of response cards (Cooke et al., 1983; Heward et al., 1996; Munro & Stephenson, 2009), choral responding (Heward et al., 1989; Sindelar et al., 1986), timed trials (Van Houten et al.,

Page 6: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

6 mimio.dymo.com

1974; Van Houten & Thompson, 1976), and guided lecture notes (Kline, 1986; Lovitt et al., 1985; Yang, 1988). In tutti i casi il metodo ha sempre lo stesso fine e cioè aumentare la risposta attiva dello studente. E’ solo la tattica utilizzata che cambia.

Il ruolo dei feedback nell’istruzione I dati prestazionali generati dalle risposte attive degli studenti offrono un’opportunità di feedback sia per gli studenti che per i docenti. Che i feedback modifichino il comportamento è un dato di fatto che è stato accettato per anni nella didattica e adesso è parte del giudizio comune. La ricerca sull’apprendimento che attribuisce un ruolo importante ai feedback nel cambiamento comportamentale risale a circa 40 anni fa e coinvolge una vasta gamma di settori quali il consumo di energia (Bekker et al., 2010; Seaver & Patterson, 1976), le procedure di controllo delle infezioni (Babcock et al.,1992), l’addestramento al volo (Rantz et al., 2009; Rantz & Van Houten, 2011), le abilità sportive (Boyer et al., 2009; Brobst & Ward, 2002; Smith & Ward, 2006), il comportamento degli educatori (Cossairt et al., 1973; Harris et al., 1975), e i lavori accademici dello studente (Fink & Carnine, 1975; Martin et al.,2002; Reichow & Wolery, 2011; Trap et al., 1978; Van Houten et al., 1974). La quantità di dati forniti riguardo l’aumento delle risposte attive degli studenti dà al docente una maggiore consapevolezza dei problemi degli studenti (Johnson & McLeod, 2004; Roschelle et al., 2004a, 2004b; Knight & Wood, 2005) e pertanto maggiori occasioni per modificare il metodo di insegnamento in base ai bisogni dei propri allievi.

Benefici dell’high tech versus la bassa tecnologiaE’ vero che non c’è nulla che dimostri che l’utilizzo di un SRS automatico sia migliore o comunque più efficace di un metodo a bassa tecnologia (e.g., Lasry, 2008), proprio come è altrettanto vero che esistono numerosi sistemi che permettono comunque un aumento di risposte attive degli studenti e di possibilità di feedback associati. Infatti Judson e Sawada (2002) affermano che gli strumenti moderni non sono molto diversi dai sistemi a bassa tecnologia, tranne che per il display delle risposte degli studenti e la facilità di mantenere lo storico, e che, adesso come allora, le domande a scelta multipla rimangono il format più comune di interazione per lo studente. Quindi se le soluzioni high tech non sono più efficaci di quelle a bassa tecnologia, perché spendere soldi in questi nuovi strumenti? La risposta è semplice in quanto l’uso degli SRS high tech presenta comunque dei vantaggi che altrimenti non si avrebbero con i sistemi a bassa tecnologia. Di seguito i 4 vantaggi più importanti:

Il vantaggio principale è che l’utilizzo degli SRS high tech permette la raccolta automatica dei dati relativi alle risposte dello studente, salvandoli in un registro incorporato nel software. I dati possono essere esaminati in un secondo momento dall’insegnante, permettendo di valutare la prestazione di ogni singolo studente, identificare le eventuali aree di difficoltà e programmare un piano di recupero. Non solo sarebbe impossibile una raccolta di dati automatica con un sistema a bassa tecnologia, ma sarebbe troppo faticoso e dispendioso in termini di tempo registrare le risposte manualmente con una soluzione low tech, come ad esempio con le flash cards. Inoltre non si può più definire semplice un metodo di valutazione se i dati devono essere raccolti manualmente.

Page 7: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

7 mimio.dymo.com

Il secondo importante vantaggio è rappresentato dalla facilità di implementazione e la comodità di raccolta dei dati che permette agli insegnanti di poter pianificare attività nella classe con molteplici possibilità di risposta. Progettare queste attività può portare via tempo e, se il loro utilizzo comporta una difficile gestione e raccolta dati, l’interesse verso queste attività tende a scemare.

Il terzo vantaggio consiste nel fatto che gli SRS high-tech permettono a ciascun studente di avere feedback immediati. Barnett (2006) afferma che “uno dei principali motivi di interesse verso questo sistema è la possibilità di dare veloci feedback agli studenti.” Al contrario degli strumenti a bassa tecnologia, nei quali gli studenti ricevono i feedback dagli insegnanti, con gli SRS high tech ogni studente ha un immediato feedback dal sistema stesso. Una metodologia che permette feedback automatici su base individuale rende il suo utilizzo molto più semplice per gli insegnanti della classe.

Infine Barnett afferma che gli SRS high tech consentono un aumento del livello di partecipa-zione da parte di uno studente normalmente timido e reticente. Mentre un approccio a bassa tecnologia richiede un’azione esplicita, ad es. rispondere oralmente o alzare la mano, l’utilizzo di SRS high tech consente ad ogni studente di rispondere al sistema in modo anonimo senza essere osservato direttamente dai propri compagni. L’insegnante, tuttavia, potrà individuare le risposte di ogni singolo studente attraverso i dati memorizzati nel registro, ma lo studente non dovrà più temere di sentirsi imbarazzato nel caso selezionasse una risposta sbagliata.

ConclusioniI Sistemi di Risposta per Studenti (SRS) sono strumenti funzionali alla partecipazione attiva e alla continua valutazione formativa degli studenti. Estremamente versatili, gli SRS possono essere utilizzati simultaneamente con gruppi numerosi, con piccoli gruppi che lavorano in collaborazione o con singoli allievi. Se utilizzati secondo un attento progetto pedagogico, gli SRS possono fornire dei risultati immediatamente riscontrabili nelle prestazioni dello studente. Di seguito sono state selezionate alcune best practices che aiuteranno a garantire un successo assicurato nell’utilizzo degli SRS.

Queste linee guida si sono rivelate particolarmente utili quando si utilizzano gli SRS durante la lezione:

1. Ricordate che gli SRS dovrebbero essere utilizzati principalmente per valutazioni formative. Le maggiori possibilità di valutare il risultato ottenuto dagli studenti permettono di correggere in tempo reale il metodo formativo.

2. Inserite solo quelle domande pertinenti agli obiettivi di apprendimento dello studente; non utilizzate domande discutibili o irrilevanti.

3. Integrate con domande le lezioni così che la comprensione dello studente possa essere valutata frequentemente e regolarmente. Lasciare tutte le domande alla fine della lezione non permette di apportare eventuali correttivi in itinere.

Page 8: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

8 mimio.dymo.com

4. Quando lavorate sull’acquisizione di nuove competenze, inserite un certo numero di domande con esempi originali per essere sicuri che gli studenti stiano acquistando sufficiente pratica e possibilità di generalizzare.

5. Fate attenzione a non suggerire una risposta attraverso indicazioni inappropriate, ad esempio usando schemi o formulazioni delle domande dai quali si possa desumere la risposta corretta.

6. Se inserite delle voci nelle quali lo studente deve identificare la risposta che NON corrisponde, scrivete la parola “NON” in maiuscolo e in grassetto, in modo che sia più chiaro possibile.

7. Assicuratevi che la risposta corretta sia chiaramente la migliore, ma prendete in considerazione possibili risposte alternative. L’obiettivo non è prendersi gioco degli studenti ma utilizzare le domande per valutare la consegna che gli allievi hanno ricevuto.

8. Utilizzate un font piuttosto grande per la domanda per essere sicuri che gli studenti riescano a leggerla facilmente.

9. Accertatevi di avere rivisto e analizzato i dati alla fine della lezione. Esaminando i modelli di quello che è risultato utile e quello meno utile, potrete sicuramente migliorare le consegne per la volta successiva!

10. Se volete aumentare l’interesse per le vostre lezioni, usate gli SRS tutti i giorni.

11. Non esitate a eliminare o riformulare domande che non sono chiare.

Per saperne di piu’ sul sistema di valutazione MimioVote, visitate il sitomimio.dymo.com/Products/MimioVote-Assessment-System

Page 9: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

9 mimio.dymo.com

Dottoressa Karon MahonLa dottoressa Karen Mahon è laureata in psicologia educativa ed è un’esperta nel campo dell’apprendimento. E’ consulente presso società tecnologiche per la didattica e sviluppa progetti didattici e a contenuto digitale. In particolare si occupa della didattica che produce risultati misurabili e significativi del livello di apprendimento degli studenti e ha dedicato la sua carriera a supportare in questo senso i bambini e i loro insegnanti. Il blog della dottoressa Mahon è www.KarenMahon.com e si trova su twitter all’indirizzo @KarenLMahon.

Referenze

1. Babcock, R.A., Sulzer-Azaroff, B., Sanderson, M., & Scibak, J. (1992). Increasing nurses’ use

of feedback to promote infection-control practices in a head-injury treatment center. Journal of

Applied Behavior Analysis, 25(3), 621-627.

2. Balajthy, E. (1984). Using student-constructed questions to encourage active reading, Journal of

Reading, 27(5), 408–411.

3. Barnett, J. (2006). Implementation of personal response units in very large lecture classes:

Student perceptions. Australasian Journal of Educational Technology, 22(4), 474-494.

4. Beatty, I.D. (2004). Transforming student learning with classroom communication systems.

Educause Center for Applied Research, Research Bulletin, 3, 1-13.

5. Beatty, I.D. & Gerace, W.J. (2009). Technology-enhanced formative assessment: A research-

based pedagogy for teaching science with classroom response technology. Journal of Science

Education Technology, 18, 146-162.

6. Bekker, M.J., Cumming, T.D., Osborne, N.K.P., Bruining, A.M., McClean, J.I., & Leland, L.S. (2010).

Encouraging electricity savings in a university residential hall through a combination of feedback,

visual prompts, and incentives. Journal of Applied Behavior Analysis, 43(2), 327-331.

7. Boyer, E., Miltenberger, R.G., Batsche, C., & Fogel, V. (2009). Video modeling by experts with

video feedback to enhance gymnastics skills. Journal of Applied Behavior Analysis, 42(4), 855-860.

8. Brobst, B. & Ward, P. (2002). Effects of public posting, goal setting, and oral feedback on the

skills of female soccer players. Journal of Applied Behavior Analysis, 35(3), 247-257.

9. Burnstein, R.A. & Lederman, L.M. (2001). Using wireless keypads in lecture classes. The Physics

Teacher, 39, 8-11.

10. Burnstein, R.A. & Lederman, L.M. (2003). Comparison of different commercial wireless keypad

systems. The Physics Teacher, 41, 272-275.

11. Caldwell J., Zelkowski J., Butler M. (2006). Using Personal Response Systems in the

Classroom. WVU Technology Symposium; April 11, 2006; Morgantown, WV.

Page 10: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

10 mimio.dymo.com

12. Caldwell, J.E. (2007). Clickers in the large classroom: Current research and best-practice tips.

Life Sciences Education, 6(1), 9-20.

13. Cooke, N. L., Heron, T. E., & Heward, W. L. (1983). Peer tutoring: Implementing classwide

programs in the primary grades. Columbus, OH: Special Press.

14. Cossairt, A., Hall, R.V., & Hopkins, B.L. (1973). The effects of experimenter’s instructions,

feedback, and praise on teacher praise and student attending behavior. Journal of Applied

Behavior Analysis, 6(1), 89-100.

15. Crouch, C.H. & Mazur, E. (2001). Peer instruction: ten years of experience and results. American

Journal of Physics, 69(9), 970.

16. Cue, N. (1998). A Universal Learning Tool for Classrooms? Proceedings of the “First Quality in

Teaching and Learning Conference,” December 10–12, 1998; Hong Kong SAR, China.

17. Cutts, Q., Kennedy, G., Mitchell, C., & Draper, S. (2004). Maximizing dialogue in lectures using

group response systems. Presented at 7th IASTED International Conference on Computer and

Advanced Technology in Education, August 16-18, 2004, Hawaii [accessed 30 January, 2012].

www.dcs.gla.ac.uk/~quintin/papers/cate2004.pdf

18. d’Inverno, R., Davis, H., & White, S. (2003). Using a personal response system for promoting

student interaction. Teaching Mathematics and Its Applications, 22(4), 163-169.

19. Delquardi, J., Greenwood, C. R., Whorton, D., Carta, J. J., & Hall, R. V. (1986). Classwide peer

tutoring. Exceptional Children, 52, 535-542.

20. Deslauriers, L., Schelew, E., & Wieman, C. (2011). Improved learning in a large-enrollment

physics class. Science, 332, 862-864.

21. Draper, S.W., Cargill, J., & Cutts, Q. (2002). Electronically enhanced classroom Interaction.

Australian Journal of Education Technology, 18(1), 13-23.

22. Draper, S.W., & Brown, M.I. (2004). Increasing interactivity in lectures using an electronic voting

system. Journal of Computer Assisted Learning, 20(2), 81-94.

23. Dufresne, R.J., Gerace, W.J., Mestre, J.P. & Leonard, W.J. (2000). ASK-IT/A2L: assessing

student knowledge with instructional technology (Tech. Rep. dufresne-2000ask). University of

Massachusetts Amherst Scientific Reasoning Research Institute.

24. English, D. (2003). Audiences talk back: Response systems fill your meeting media with instant

data. AV Video Multimedia Producer, 25(12), 22-24.

25. Fagen, A.P., Crouch, C.H. & Mazur, E. (2002). Peer instruction: results from a range of

classrooms. The Physics Teacher 40(4), 206-207.

26. Fink, W. T., & Carnine, D. W. (1975). Control of arithmetic errors using informational feedback

and graphing. Journal of Applied Behavior Analysis, 8, 461.

Page 11: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

11 mimio.dymo.com

27. Hake R. R. (1998). Interactive-engagement versus traditional methods: a six-thousand student

survey of mechanics test data for introductory physics courses. American Journal of Physics,

66(1), 64–74.

28. Harris, V. W., Bushell, D., Jr., Sherman, J. A., & Kane, J. F. (1975). Instructions, feedback, praise,

bonus payments, and teacher behavior. Journal of Applied Behavior Analysis, 8, 462.

29. Hestenes, D., Wells, M., & Swackhamer, G. (1992). Force concept inventory. The Physics

Teacher, 30(3), 141-158.

30. Heward, W. L., Courson, F. H., & Narayan, J. S. (1989). Using choral responding to increase

active student response during group instruction. Teaching Exceptional Children, 21(3), 72-75.

31. Heward, W. L., Gardener, R., Cavanaugh, R. A., Courson, F. H., Grossi, T. A., & Barbetta, P. M.

(1996, Winter) Everyone participates in this class. Teaching Exceptional Children, 5-10.

32. Johnson, D., & McLeod, S. (2004). Get answers: Using student response systems to see

students’ thinking. Learning & Leading With Technology, 32(3), 2-8.

33. Judson, E. & Sawada, D. (2002). Learning from past and present: Electronic response systems

in college lecture halls. Journal of Computers in Mathematics and Science Teaching, 21(2),

167-182.

34. Kline, C. S. (1986). Effects of guided notes on academic achievement of learning disabled high

school students. Unpublished master’s thesis, The Ohio State University, Columbus.

35. Knight, J.K. & Wood, W.B. Teaching more by lecturing less. Cell Biology Education, 4, 298-310.

36. Kosiewicz, M.M., Hallahan, D.P., Lloyd, J., & Graves, A.W. (1982). Effects of self-instruction and

self-correction procedures on handwriting performance. Learning Disability Quarterly, 5, 72-75.

37. Lane, D., & Atlas, R. (1996). The networked classroom. Paper presented at the 1996 meeting of

Computers and Psychology, York, UK.

38. Lasry, N. (2008). Clickers or flashcards: Is there really a difference? The Physics Teacher, 46,

242-244.

39. Lovitt, T., Rudsit, J., Jenkins, J., Pious, C., & Benedetti, D. (1985). Two methods of adapting

science material for learning disabled and regular seventh graders. Learning

Disabilities Quarterly, 8, 275-285.

40. Martin, T. L., Pear, J. J., & Martin, G. L. (2002). Feedback and its effectiveness in a computer-

aided personalized system of instruction course. Journal of Applied Behavior Analysis, 35, 427-

430.

41. Mazur, E. (1996). Are science lectures a relic of the past? Physics World, 9, 13-14.

Page 12: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

12 mimio.dymo.com

42. Mazur, E. (1997). Peer instruction: a user’s manual. Prentice Hall: Upper Saddle River.

43. Mazur, E. (2009). Farewell, lecture? Science, 323, 50-51.

44. McDermott, L.C., & Redish, E.F. (1999). Resource letter PER-1. Physics Education Research,

American Journal of Physics, 67(9), 755-767.

45. Munro, D.W. & Stephenson, J. (2009). The effects of response cards on student and teacher

behavior during vocabulary instruction. Journal of Applied Behavior Analysis, 42, 795-800.

46. Narayan, J.S., Heward, W.L., Gardner, R., & Courson, F.H. (1990). Using response cards to

increase student participation in an elementary classroom. Journal of Applied Behavior Analysis,

23(4), 483-490.

47. Nicol, D.J., & Boyle, J.T. (2003). Peer instruction versus class-wide discussion in large classes:

a comparison of two interaction methods in the wired classroom. Studies in Higher Education, 28

(4), 457-473.

48. Pear, J.J., Crone-Todd, D.E., Wirth, K., & Simister, H. (2001). Assessment of thinking levels in

students’ answers. Academic Exchange Quarterly, 5 (4), 94-98.

49. Perez, K.E., Strauss, E.A., Downey, N., Galbraith, A., Jeanne, R., & Cooper, S. (2010). Does

displaying the class results affect student discussion during peer instruction? CBE Life Sciences

Education, 9(2), 133-140.

50. Rantz W.G, Dickinson A.M, Sinclair G.A, Van Houten R. (2009). The effect of feedback on the

accuracy of checklist completion during instrument flight training. Journal of Applied Behavior

Analysis, 42, 497–509.

51. Rantz, W.G., & Van Houten, R. (2011). A feedback intervention to increase digital and paper

checklist performance in technically advanced aircraft simulation. Journal of Applied Behavior

Analysis, 44(1), 145-150.

52. Reichow, B. & Wolery, M. (2011). Comparison of progressive prompt delay with and without

instructive feedback. Journal of Applied Behavior Analysis, 44, 327-340.

53. Roschelle, J., Abrahamson, L. A., & Penuel, W. R. (2004a). Integrating classroom network

technology and learning theory to improve classroom science learning: A literature synthesis.

Paper presented at the Annual Meeting of the American Educational Research Association, San

Diego, CA.

54. Roschelle, J., Penuel, W. R., & Abrahamson, A. L. (2004b). Classroom response and

communication systems: Research review and theory. Paper presented at the Annual Meeting of

the American Educational Research Association, San Diego, CA.

55. Seaver, W.B., & Patterson, A.H. (1976). Decreasing fuel-oil consumption through feedback and

social commendation. Journal of Applied Behavior Analysis, 9(2), 147-152.

©2012 DYMO, a Newell Rubbermaid company

Page 13: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

13 mimio.dymo.com

56. Sindelar, P. T., Bursuck, W. D., & Halle, J. W. (1986). The effects of two variations of teacher

questioning on student performance. Education and Treatment of Children, 9, 56-66.

57. Smith, M.K., Wood, W.B., Adams, W.K., Wieman, C., Knight, J.K., Guild, N., & Su, T.T. (2009).

Why peer discussion improves student performance on in-class concept questions. Science, 323,

122-124.

58. Smith, S. L., & Ward, P. (2006). Behavioral interventions to improve performance in collegiate

football. Journal of Applied Behavior Analysis, 39, 385–391.

59. Stallard, C. K. (1982). Computers and education for exceptional children: Emerging

applications. Exceptional Children, 49(2), 102-104.

60. Trap, J. J., Milner-Davis, P., Joseph, S., & Cooper, J. O. (1978). The effects of feedback and

consequences on transitional cursive letter formation. Journal of Applied Behavior Analysis, 11,

381-393.

61. Tudor, R.M. & Bostow, D.E. (1991). Computer-programmed instruction: The relation of required

interaction to practical application. Journal of Applied Behavior Analysis, 24(2), 361-368.

62. Van Houten, R., Morrison, E., Jarvis, R., & McDonald, M. (1974). The effects of explicit timing

and feedback on compositional response rate in elementary school children. Journal of Applied

Behavior Analysis, 7, 547-555.

63. Van Houten, R., & Thompson, C. (1976). The effects of explicit timing on math performance.

Journal of Applied Behavior Analysis, 9, 227-230.

64. Wood, W.B. (2004). Clickers: a teaching gimmick that works. Developmental Cell, 7(6), 796-798.

65. Yang, F. M. (1988). Effects of guided lecture notes on sixth graders’ scores on daily science

quizzes. Unpublished master’s thesis, The Ohio State University, Columbus.

Page 14: Usare i Sistemi di Risposta per Studenti per migliorare i .../Media/Files/Downloads/Partner-Resources/Sales... · dispositivo e immediatamente raccoglie e riassume al docente le risposte

mimio.dymo.com