Post on 29-Mar-2023
MÉTHODOLOGIES D’IMPLANTATION SUR L’INTERNET DE L’ÉVALUATION HIÉRARCHIQUE
DES APPRENTISSAGESPar
Martin Lesage Ph.D.(C)Directeur de thèse: Pr. Gilles Raîche – Centre CDAME
Co-Directeur de thèse: Pr. Martin Riopel – Centre CDAME & LabMÉCAS
Centre CDAME (Collectif pour le Développement et les Applications en Mesure et Évaluation)Département d’Éducation et PédagogieUniversité du Québec à Montréal (UQÀM)1205, rue Saint-Denis, Local N-4900Montréal, Québec, CanadaH2X 3R9Téléphone: (514) 987-0111https://cdame.uqam.ca/
Séminaire du CDAMEMercredi le 10 décembre 2014UQAM, Pavillon Paul Gérin-Lajoie (N)Local N-632014H00-16H00
PLAN DE LA PRÉSENTATION
•Introduction•Problématique•Cadre théorique•Méthodologie•Impacts sur la recherche en éducation•Conclusion 2
INTRODUCTION
• Ce projet de recherche porte sur le développement d’une application Internet mobile (WIFI) d’évaluation des équipes à plusieurs niveaux de hiérarchisation dénommée « Cluster » (http://eval.uqam.ca/cluster/)
• Dans cette application Internet mobile, les équipiers peuvent avoir les rôles de:
membre d’équipe (exécutant)chef d’équipe (superviseur)administrateur / gestionnaire qui dirige les chefs d’équipes (administrateur)
• Généralement, les logiciels d’évaluation des équipes relèvent du domaine de la gestion et sont des systèmes de gestion
3
INTRODUCTION• Peu de logiciels d’évaluation des équipes existent en éducation• Des travaux en équipe peuvent être effectués dans un contexte scolaire et les applications existantes d’évaluation des équipes (systèmes de gestion) ne sont pas des applications éducationnelles
• Moodle, WebCT et Blackboard possèdent des structures de classes mais n’implantent pas de tâches d’évaluation pour des équipes à plusieurs niveaux de hiérarchisation
• Contribution au domaine de l’éducation:• évaluation simultanée de différentes habiletés, compétences et performances dans la même tâche d’évaluation
• processus simultané d’évaluation individuelle et d’équipe durant la même tâche
• acceptation du processus de l’évaluation hiérarchique des apprentissages (évaluation agrégée) par la communauté scientifique
4
INTRODUCTIONSystèmes de gestion de l’évaluation
5
Systèmes informatisés d’évaluation hiérarchique des apprentissages : cas particuliers des systèmes de gestionSystèmes informatisés d’évaluation hiérarchique des apprentissages : Systèmes de gestion de l’évaluation
Management informationsystemsSystème deGestion- Personnel- Données de gestion(inventaire, budget)- Opérations degestion
Assessment managementsystemsSystème informatiséd’évaluation hiérarchique- Étudiants- Items de contenu decours (textes, sons images, etc.)- Opérations d’évaluation
(Tiré de Laudon, Laudon et Brabston, 2011, p. 177)
INTRODUCTIONSystèmes de gestion de l’évaluation
6
Système d’informa
tion
Gestion Éducation
Système de gestion de l’évaluation
Système d’évaluation hiérarchique
des apprentissages / Système de
gestion d’évaluation
Relations hiérarchiques entre
le personnelDonnées de gestion (budget,
inventaire)
Opérations de gestion
Relations hiérarchiques entre
les étudiantsContenu de
cours (texte, images, sons,
etc.)Opérations d’évaluati
on
INTRODUCTION
Quelques exemples de l’application Internet qui comporte un processus d’évaluation individuelle et d’équipe durant la même tâche d’évaluation:
•La rédaction d’un journal étudiantHiérarchisation: journaliste — chef des chroniques — rédacteur en chef
•Patrouilles de navigation en équipesHiérarchisation: membre de patrouille — chef de patrouille — responsable du groupe
•Stages en enseignement du français au secondaireHiérarchisation: étudiant(e) en stage — Enseignant(e) associé(e) — Directeur d’école
7
SYSTÈME D’ÉVALUATION INDIVIDUELLE ET D’ÉQUIPE SIMULTANÉESYSTÈME DE GESTION DE L’ÉVALUATION
8
• Évaluation hiérarchique des apprentissages: vision sphérique multi-niveaux en trois dimensions des évaluations formatives et sommatives du groupe et des membres du groupe
• Évaluation formative auto-évaluation évaluation par les pairs (membres d’équipe, chefs
d’équipe et gestionnaire de groupe)
• Évaluation sommative (individuelle et d’équipe) : faite par l’évaluateur / l’enseignant
• Processus simultané d’évaluation formative et sommative durant la même tâche d’évaluation
• Évaluation de différentes performances et compétences durant la même tâche d’évaluation
• Processus d’évaluation individuelle et d’équipe simultanée durant la même tâche d’évaluation
• Exemples de tâches d’évaluation évaluation des stages en enseignement patrouilles de navigation en équipes journal scolaire
ÉVALUATION DES STAGES EN ENSEIGNEMENTSYSTÈME DE GESTION DE PORTFOLIO ÉLECTRONIQUE (APPROCHE PAR COMPÉTENCES)
Directeur de l’école
Maître / Enseignant associé
Stagiaire de l’UQAM
Milieu de stage(agrégation) Registraire
Superviseur de stage (évaluateur) /
Professeurresponsable
Université du Québecà Montréal (UQÀM)
Supervise
Supervise /Évaluation formative selon 13 compétences
Note du stage
Évaluation sommative
Évaluation formativeselon 13 compétences
Projet de stage Portfolio Évaluation dumilieu de stage
Rencontrede groupe
Rapport destage
9
ÉVALUATION DES STAGES EN ENSEIGNEMENTSYSTÈME DE GESTION DE PORTFOLIO ÉLECTRONIQUE (APPROCHE PAR COMPÉTENCES)Implantation du processus d’évaluation des stages des étudiants en enseignement du français dans l’application « Cluster »
10
PROBLÉMATIQUE
12
Président
Éducation
Évaluation
Évaluation des équipes (teamwork assessment)
Administrateur Administrateur
Chef d’équipe Chef d’équipe
Membred’équipe
Membred’équipe
Membred’équipe
Membred’équipe
Membred’équipe
Membred’équipe
Membred’équipe
Membred’équipe
Chef d’équipe Chef d’équipe
Constat de problématique
PROBLÉMATIQUE
•Aucun auteur du domaine de l’évaluation des équipes tels que Sugrue, Seger, Kerridge, Sloane et Deane (1995), Volkov et Volkov (2007) et Baker et Salas (1992) n’ont traité de l’évaluation des équipes qui ont plusieurs niveaux de supervision ainsi que d’un processus simultané d’évaluation individuelle et d’équipe dans la même tâche d’évaluation.
13
PROBLÉMATIQUEPertinence sociale / pratique:
• évaluation simultanée de différentes connaissances, compétences, habiletés, performances et objectifs
• processus simultané d’évaluation individuelle et d’équipe dans la même tâche d’évaluation
• développer une application Internet qui entrepose toutes les données d’évaluation
• accès instantané à tous les documents et travaux remis ainsi qu’aux résultats d’évaluation formative et sommative
• augmenter la rapidité des processus d’évaluation des organisations• système informatisé d’évaluation des compétences à l’aide du portfolio (portfolio assessment)
• utilisation avec les appareils utilisant les technologies mobiles (WIFI) tels que les tablettes et les téléphones cellulaires pour faire de l’apprentissage (E-Learning) et de l’évaluation mobile (E-Assessment)
• se servir de l’application à des fins certificatives• économie d’argent (temps, locaux et salaire des professeurs)
14
PROBLÉMATIQUEPertinence scientifique:
•étude du processus de l’évaluation hiérarchique des apprentissages
•lien entre les systèmes d’évaluation hiérarchiques des apprentissages et les systèmes gestion
•implantation de la gestion de la hiérarchie dans les évaluations formatives et sommatives
•développement d’une application Internet WIFI d’évaluation hiérarchique des apprentissages qui est un moteur de présentation de tâches d’évaluation complexes en mode collaboratif
•faire reconnaitre le domaine de l’évaluation hiérarchique des apprentissages par la communauté scientifique
•trouver des algorithmes et des systèmes de gestion de bases de données (SGBD) pour l’entreposage et la recherche d’un très grand nombre de données d’évaluation
•normalisation des cours, des données, des questions d’examen (IMS QTI) ainsi que des tâches d'évaluation
15
PROBLÉMATIQUE
Défi du projet doctoral:•Définir et informatiser le processus de l’évaluation hiérarchique des apprentissages
16
QUESTION DE RECHERCHE
Comment développer et mettre en œuvre une application Internet mobile (WIFI) qui implante le processus de l’évaluation hiérarchique des apprentissages?
17
CADRE THÉORIQUECadre théorique-> Auteurs du domaine de l’évaluation des équipes (Teamwork assessment)
Développement d’une application Internet mobile (WIFI) de présentation de tâches d’évaluation complexes en contexte authentique selon un mode collaboratif:
• tâches d’évaluation complexes (Louis et Bernard, 2004, p. 79; Tardif, 2006, p. 125)
• évaluation en contexte authentique (Palm, 2008, p. 6; Louis et Bernard, 2004; Wiggins, 1990, p. 1; Wiggins, 1993; Hart, 1993; Allal, 2002, p. 90; Rennert-Ariev, 2005, p. 1)
• évaluation du travail d’équipe (Baker et Salas, 1992, p. 472-473; Marin-Garcia et Lloret, 2008, p. 3)
• évaluation du travail collaboratif (Swan, Shen et Hiltz, 2006, p. 46-47; Volkov et Volkov, 2007, p. 62; Boud, Cohen et Sampson, 1999, p. 416; Macdonald, 2003, p. 377-379; Worcester Polytechnic Institute, 2011)
• grilles d’évaluation (Durham, Knight et Locke, 1997; Marin-Garcia et Lloret, 2008, p. 2 )
• auto-évaluation / Évaluation par les pairs (Lingard, 2010, p. 35; Goldfinch, 1994, p. 34-35; Goldfinch et Raeside, 1990, p. 211-231; Northrup et Northrup, 2006, p. 36)
19
CADRE THÉORIQUECadre théorique-> Recherche similaires
Applications d’évaluation des équipes:•système d’évaluation à distance des équipes de travail constituées d’étudiants en ingénierie qui prends en compte la gestion des auto-évaluations et des évaluations par les pairs sous forme de grilles d’évaluation: application SPARK (Freeman et McKenzie, 2000, 2002; Willey et Freeman, 2006)
•observation en temps réel des performances des équipes de chirurgie dans le domaine de l’urologie: OTAS (Undre, Sevdalis, Healey, Darzi et Vincent, 2007)
•application du domaine militaire de prédiction du potentiel de leadership au moyen de tâches d’évaluation complexes faisant de la résolution de scénarios : application MLE (Marshall-Mies, Fleischman, Martin, Zaccaro, Baughman et McGee, 2000)
•système informatique se voulant un simulateur d’arrêt cardiaque servant à évaluer les performances des médecins internes et des infirmières qui composent une équipe de réanimation pour traiter le cas de patients ayant subi un arrêt cardiaque: Mega Code (Kaye et Mancini, 1986)
20
CADRE THÉORIQUECadre théorique-> Recherche similaires
Application d’évaluation des équipes à plusieurs niveaux de hiérarchisation (Bosses of Bosses)•Système de gestion de travaux d’équipes en génie logiciel basé sur un site Internet qui contient le matériel de cours, un forum de discussion et le courriel (Nance, 2000, p. 298) 21
CADRE THÉORIQUE (SUITE)
Domaine général:•l’évaluation hiérarchique des apprentissages ou évaluation agrégée se situe comme étant sous-domaine de l’évaluation des équipes (teamwork assessment) où les équipes ont plusieurs niveaux de supervision
•c’est un processus par lequel les chefs d’équipe sont évalués par un ou plusieurs gestionnaires d’équipe selon une hiérarchie arborescente
22
CADRE THÉORIQUE (SUITE)Domaine de l’éducation:
•sous-domaine de l’évaluation des apprentissages où des étudiants sont formés en équipes à plusieurs niveaux de hiérarchisation dans le cadre d’examens, d’épreuves ou de tâches d’évaluation complexes en mode collaboratif
•Durant la tâche d’évaluation, les chefs d’équipe (qui peuvent être des étudiants) sont évalués par un ou plusieurs gestionnaires d’équipe (qui peuvent être eux-mêmes d’autres étudiants ou des enseignants) selon une hiérarchie arborescente24
CADRE THÉORIQUE (SUITE)Système informatisé d’évaluation hiérarchique
des apprentissages=
Système de gestion de l’évaluation — Assessment Management Systems (AMS)
=Système de gestion de portfolio électronique —
ePortfolio Management Systems(Approche par compétences)
=Système de gestion d’épreuves / d’examens électronique — Test
Management Systems (TMS)(Approche par objectifs)
25
CADRE THÉORIQUE (SUITE)Approche par objectifs •Forte corrélation relative au temps (Legendre, 2005, p. 943; Wikipedia, 2011) en raison de:l’atteinte d’objectifs pédagogiques qui doivent être réussis pour passer aux suivants
présentation de testséchéances relatives à la soumission de travaux
fin de programmes d’étudecertification qui se base sur des scores, notes, pointages et qui doit s’effectuer en un temps donné ou à une date précise
26
CADRE THÉORIQUE (SUITE)L’évaluation hiérarchique des apprentissages selon l’approche par objectifs
•L’application « Cluster »saisie du matériel de cours dans le SGBD de l’application basée sur un horaire / une cédule de cours
évaluation certificative effectuée par l’enseignant en pourcentage
examens HTMLtravaux à remettremessages de début et de fin de coursmatrice de progression / suivi des étudiants par coursl’application présente le matériel de cours et les tâches d’évaluation en séquence
un module d’enseignement doit être réussi avant de pouvoir faire le suivant
27
CADRE THÉORIQUE (SUITE)L’évaluation hiérarchique des apprentissages selon l’approche par objectifs
•L’application « Cluster » est un système d’administration d’épreuves ou d’examens d’équipe (Legendre, 2005, p.639, 943; De Ketele et Gérard, 2205, p. 2)
28
CADRE THÉORIQUE (SUITE)•L’approche par compétences possède un faible corrélation par rapport au temps parce qu’elle est basée sur les capacités des individus à mobiliser des ressources pour réaliser des tâches d’évaluation (De Ketele et Gérard, 2005, p. 5) ainsi que la constitution de portefeuilles d’évaluation (Allal, 2002, p. 90)
•Cette approche à tendance à se dissocier des examens, notes, scores, pourcentages et échéanciers
•Elle peut se produire sur une longue période de temps
•Peut se baser sur l’observation et le jugement: un bon politicien, un bon danseur, un bon général, un bon camionneur, un bon professeur
29
CADRE THÉORIQUE (SUITE)L’évaluation hiérarchique des apprentissages selon l’approche par compétences
•L’application « Cluster »formulaires d’auto-évaluation et d’évaluation par les pairstâches d’évaluation d’équipes à plusieurs niveaux d’évaluationrétroaction au moyen de l’évaluation par les pairsl’application « Cluster » est une coquille programmable qui permet de concevoir n’importe quel cours ou tâche d’évaluation
entreposage dans le SGBD de toutes les données d’évaluation: examens HTML (individuels), travaux à remettre (individuels et d’équipes), évaluations de l’enseignant (sommatif), auto-évaluations (formatif) et évaluations par les pairs (formatif)
possibilité d’accéder à toutes les données d’évaluation formatives et sommatives pour un individu
l’évaluateur peut consulter toutes les données d’évaluation entreposées dans le SGBD afin de donner une évaluation, une note ou un jugement
30
CADRE THÉORIQUE (SUITE)L’évaluation hiérarchique des apprentissages selon l’approche par compétencesL
•moteur de présentation de tâches d’évaluation complexes en mode collaboratif (Van Kempen, 2008, p.3)
•système de gestion de portfolio électronique [ePortfolio] (Allal, 2002, p. 90)
31
MÉTHODOLOGIE
Objectifs de la recherche:•développer une application Internet mobile (WIFI) qui implante le processus de l’évaluation agrégée selon le modèle de Harvey et Loiselle (2009)
•faire tester l’application par 25 cadets de l’armée qui détermineront sa convivialité à l’aide du questionnaire QUIS (Chin, Diehl et Norman, 1988)
32
MÉTHODOLOGIEMéthodologie -> Choix méthodologique
Choix méthodologique:• Richey et Nelson (1996, p. 1237) considèrent que le développement de logiciels comme outils pédagogiques fait partie de la recherche développement
• Le choix de la méthodologie sera la recherche développement avec des analyses de données mixtes quantitatives et qualitatives:
Aspect qualitatif [épistémologie interprétative (Savoie-Zajc et Karsenti, 2004, p. 115)]
Évaluation du fonctionnement du logiciel Déterminer si les usagers aiment utiliser le logiciel
Aspect quantitatif [épistémologie positiviste (Savoie-Zajc et Karsenti, 2004, p. 115)] Taux de réussite / taux d’abandon Augmentation de la connaissance
33
MÉTHODOLOGIE
Le modèle de développement de Harvey et Loiselle (2009, p. 110)1) Détermination de l’origine de la recherche
• problématique de la présente recherche
2) Référentiel• cadre théorique de la présente recherche
3) Méthodologie• la présente section
4) Opérationnalisation• résultats obtenus (À venir – résultats préliminaires en cours)
5) Résultats• analyse des résultats (À venir)
36
MÉTHODOLOGIE – FONCTIONNALITÉS DE L’APPLICATION PROPOSÉES
Session d’étudiant:• étude du matériel de cours• examens HTML à choix multiples• remise de devoirs• travaux en équipe• évaluation formative – auto-évaluation et évaluation par les pairs
• évaluation sommative de l’évaluateur – correction des travaux individuels et des travaux d’équipe
• consultation de la feuille de route37
MÉTHODOLOGIE – FONCTIONNALITÉS DE L’APPLICATION PROPOSÉES
Session d’administrateur / d’évaluateur:•création / modification des cours•création / modification des modules de cours•création / modification des tâches d’évaluation•création / gestion / ajout du matériel de cours•gestion des prérequis•création / gestion des examens HTML à choix multiples•création / gestion des devoirs•création / gestion / modification des étudiants•création / gestion des étudiants au cours•correction des travaux•formation des équipes•évaluation des tâches d’équipe•consultation de la progression des étudiants dans les cours ou les groupes
38
MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode administrateur ou évaluateurPanorama de gestion des usagers
41
MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode administrateur ou évaluateurPanorama de gestion des équipes
42
MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode administrateur ou évaluateur
Panorama de gestion des tâches d’évaluation du module
43
MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode administrateur ou évaluateur
Panorama de gestion de saisie des notes pour une tâche individuelle(évaluation sommative)
44
MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode administrateur ou évaluateur
Panorama de gestion de saisie des notes pour une tâche d’équipe (évaluation sommative)
45
MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode administrateur ou évaluateur
Matrice de progression des étudiants dans un cours
46
MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode Étudiant
Panorama d’affichage du matériel de cours
48
MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode Étudiant
Panorama de téléversement d’un fichier électronique
50
MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode Étudiant
Panorama de saisie des évaluations formatives (auto-évaluation et évaluation par les pairs)
51
MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode Étudiant
Panorama d’affichage de la feuille de route
52
MÉTHODOLOGIEMéthodologie -> Phases d’évaluation -> Sujets
Sujets:Critères de sélection
• ne pas avoir déjà fait de cours de cartographie au préalable• posséder des aptitudes de leadership pour diriger une section à un endroit déterminé
Population : • 39 cadets de l’Armée canadienne de l’Unité régionale de soutien aux cadets (Est) [URSC (Est)]
Groupe d’expérimentation: • 27 cadets provenant du Corps de cadets 2567 Dunkerque de Laval
Groupe de contrôle:• 12 cadets provenant du Corps de cadets 2595 de St-Jean d’Iberville 53
MÉTHODOLOGIEMéthodologie -> Phases d’évaluation -> Déroulement
Déroulement:• sélection des sujets d’expérimentation• signature du formulaire de consentement• administration de l’examen de connaissances initiales• séance de formation donnée aux étudiants sur l’utilisation de l’application « Cluster »
• l’utilisation de l’application Internet « Cluster » pour suivre le cours de cartographie à distance (tâches d’évaluation individuelles)
• la pratique de la navigation en équipes dans les secteurs d’entrainement qui comporte l’observation des sujets d’expérimentation (tâches d’évaluation en équipes)
• les entrevues non dirigées qui déterminent si les sujets d’expérimentation ont aimé utiliser l’application,
• l’administration du questionnaire QUIS qui concerne la satisfaction des usagers par rapport à l’interface usager du logiciel
• l’administration de l’examen de connaissances finales• la rédaction du rapport post-exercice.
54
MÉTHODOLOGIEMéthodologie -> Phases d’évaluation -> Instrumentation
InstrumentationMéthodes quantitatives
Application « Cluster » Évaluation des modules de cours
• questionnaires HTML• devoirs à remettre (téléversement)
Formulaire d’auto-évaluation Formulaire d’évaluation par les pairs Formulaire d’évaluation d’une tâche d’équipe
Examen de connaissances initiales Examen de connaissances finales Questionnaire QUIS pour évaluer la convivialité de l’interface usager
Méthodes qualitatives Observation des sujets d’expérimentation Section « Commentaires » des formulaires d’auto-évaluation et d’évaluation par les pairs
Analyse du verbatim des entrevues non dirigées Analyse du contenu du rapport post exercice
55
MÉTHODOLOGIEAnalyse des données quantitatives
•statistiques descriptives telles que la moyenne et l’Écart-type
Analyse des données qualitatives•méthodes d’analyse des questions ouvertes décrites dans Bardin (1977)
Éthique•certificat d’approbation éthique No 2012-0026A délivré par le «Comité pour l’évaluation des projets étudiants impliquant de la recherche avec des êtres humains (CÉRPÉ) » de l'UQÀM
56
MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONQuestionnaire QUIS sur la satisfaction des usagers envers un
logiciel
57
RÉSULTATS PRÉLIMINAIRESBêta Tests
Processus de recherche développement
Première itération•correction des erreurs de fonctionnement (débuggage)
Seconde itération (classe de secondaire II de Mme. Dalila Sebkhi)•l’ajout d’un champ de description de groupe dans la base de données de l’application
•l’implantation de fonctions de retour à la fin des modules d’enseignement
•Implantation d’une matrice de suivi de la progression des étudiants par cours, module, date et groupe de classe.
60
RÉSULTATS PRÉLIMINAIRESProvenant d’une pré-expérimentation
Résistance au changementcertains usagers (cadets de l’armée) trouvent l’application difficile à utiliser – l’interface ne plait pas aux adolescents
beaucoup d’usagers abandonnent à la moindre difficultécertains usagers n’ont pas d’ordinateurs à la maison
Impacts sur l’apprentissageCours de cartographie en classe
• taux de réussite: 83%• abandons 17%• augmentation de la connaissance: 48%
Cours de cartographie à distance• taux de réussite: 22%• abandons 78%• augmentation de la connaissance: 50,6%
61
IMPACTS SUR LA RECHERCHE EN ÉDUCATION
Évaluer différentes compétences, performances, habiletés et connaissances en même temps
Évaluation des équipes à plusieurs niveaux de hiérarchisationLien entre les systèmes d’apprentissages à distance et les systèmes de gestionProcessus simultané d’évaluation individuelle et d’équipe durant la même tâche d’évaluation
Développement d’une application Internet mobile (WIFI) de présentation de tâches d’application complexes
Reconnaissance du domaine de l’évaluation hiérarchique des apprentissages par la communauté scientifique
Économie d’argent et de temps au niveau:• présence en classe des professeurs• accès aux données d’évaluation• infrastructure et locaux
62
CONCLUSION•Les bases théoriques de l’évaluation hiérarchique des apprentissage sont bien établies
•L’architecture de l’application Internet WIFI est bien définie et l’analyse fonctionnelle est terminée
•Les systèmes informatisée d’évaluation hiérarchique des apprentissages sont des systèmes de gestion de l’évaluation
•Des expérimentations préliminaires ont été faites par les chercheurs du CDAME, les cadets de l’armée canadienne et Mme. Dalila Sebkhi dans le cadre d’un stage III en enseignement secondaire
•Quelques présentations et publications scientifiques ont été faites
63
MERCI DE VOTRE ATTENTION
Sympathique chercheur du domaine de l’évaluation agrégée prix Nobel d’économie en systèmes de gestion de l’évaluation et votre futur
directeur de thèse
Mes théories
sont géniales!
Au nom de la discipline de l’évaluation
hiérarchique des apprentissages, je
vous remercie beaucoup de votre
attention!
64
BIBLIOGRAPHIE
• Allal, L. (2002). Acquisition et évaluation des compétences en milieu scolaire. Dans J., Dolz, et E., Ollagnier (Dirs.). L’énigme de la compétence en éducation (p. 77-94). Bruxelles : de Boeck.
• Baker, D. P. et Salas, E. (1992). Principles for measuring teamwork skills. Human Factors, 34, 469-475.
• Bardin, L. (1977). L'analyse de contenu. Paris : P.U.F.
• Boud, D., Cohen, R. et Sampson, J. (1999). Peer Learning and Assessment. Assessment & Evaluation in Higher Education, 24 (4), 413-426.
• Chin, J. P., Diehl, V. A. et Norman, K. L. (1988). Development of an instrument measuring user satisfaction of the human-computer interface. Dans Proceedings of SIGCHI ‘88, 213–218, New York. ACM/SIGCHI.
• De Ketele, J. M., et Gérard, F.-M. (2005). La validation des épreuves d’évaluation selon l’approche par les compétences. Mesures et Évaluation en Éducation, 28 (3), 1-26.
• Durham, C. C., Knight, D., et Locke, E. A. (1997). Effects of Leader Role, Team-Set Goal Difficulty, Efficacy, and Tactics on Team Effectiveness. Organizational Behavior and Human Decision Process, 72 (2), 203-231.
• Freeman, M. et McKenzie, J. (2000). Self and peer assessment of student teamwork: Designing, implementing and evaluating SPARK, a confidential, web based system [En ligne]. Dans Flexible Learning for a Flexible Society, Proceedings of ASET-HERDSA 2000 Conference. Toowoomba, Qld, 2-5 July. ASET and HERDSA. Accès: http://www.aset.org.au/confs/aset-herdsa2000/procs/freeman.html.
• Freeman, M.. et McKenzie, J. (2002). SPARK, a confidential web-based template for self and peer assessment of student teamwork: benefits of evaluating across different subjects. British Journal of Educational Technology, 33 (5), 551-569.
• Goldfinch, J. (1994). Further Developments in Peer Assessment of Group Projects. Assessment & Evaluation in Higher Education, 19 (1), 29-35.
65
BIBLIOGRAPHIE
• Goldfinch, J., et Raeside, R. (1990). Development of a Peer Assessment Technique for Obtaining Individual Marks on a Group Project. Assessment & Evaluation in Higher Education, 15 (3), 210-231.
• Hart, D. (1994). Authentic assessment: A handbook for educators. New York: Addison Wesley.
• Harvey, S. et Loiselle, J. (2009). Proposition d’un modèle de recherche développement. Recherches qualitatives, 28 (2), 95-117.
• Kaye, W. et Mancini, M. E. (1986). Use of the Mega Code to evaluate team leader performance during advanced cardiac life support. Critical Care Medecine, 14 (2), 99-104.
• Laudon, K. C., Laudon, J. P., et Brabston, M. E. (2011). Management information systems: Managing the digital firm (5ième édition canadienne). Toronto, ON: Pearson Education Canada Inc.
• Legendre, R. (2005). Dictionnaire actuel de l’éducation (3è ed.). Montréal : Guérin.
• Lingard, R. W. (2010). Teaching and assessing teamwork skills in engineering and computer science. Journal of Systemics, Cybernetics and Informatics, 18 (1), 34-37.
• Louis, R. et Bernard, H. (2004). L’évaluation des apprentissages en classe :théorie et pratique. Montréal : Groupe Beauchemin, éditeur ltée.
• MacDonald, J. (2003). Assessing online collaborative learning: process and product. Computer & Education, 40, 377-391.
• Marin-Garcia, J. A. et Lloret, J. (2008). Improving teamwork with university engineering students. The effect of an assessment method to prevent shirking. WSEAS Transactions on Advances in Engineering Education, 1 (5), 1-11.
• Marshall-Mies, J. C., Fleishman, E. A., Martin, J. A., Zaccaro, S. J., Baughman, W. A., et McGee, M. L. (2000). Development and evaluation of cognitive and metacognitive measures for predicting leadership potential. Leadership Quaterly, 11 (1), 135-153.
66
BIBLIOGRAPHIE
• Nance, W. D. (2000). Improving information systems students' teamwork and project management capabilities: Experiences from an innovative classroom. Information Technology and Management, 1 (4), 293-306.
• Northrup, S. G. et Northrup, D. A. (2006). Multidisciplinary teamwork assessment: individual contributions and interdisciplinary interaction. Communication présentée à la 36ième conférence ASEE/IEEE Frontiers in Education,Octobre 28–31, San Diego.
• Palm, T. (2008). Performance Assessment and Authentic Assessment: A Conceptual Analysis of the Literature [En Ligne]. Practical Assessment, Research & Evaluation, 13 (4). Accès: http://pareonline.net/pdf/v13n4.pdf.
• Rennert-Ariev, P. (2005). A theoretical model for the authentic assessment of teaching [En Ligne]. Practical Assessment, Research & Evaluation, 10 (2). Accès: http://pareonline.net/pdf/v10n2.pdf.
• Richey, R. C. et Nelson, W. A. (1996). Developmental Research. Dans D. H. Jonassen (Dir.), Handbook of research for educational communications and technology (p. 1213-1245). New-York :Mac Millan.
• Savoie-Zajc, L. et Karsenti, T. (2004). La méthodologie. Dans T. Karsenti et L. Savoie-Zajc (Dirs.), La recherche en éducation: étapes et approches (p. 109-121). Sherbrooke: Éditions du CRP.
• Sittig, D. F., Kuperman, G. J., et Fiskio J. (1999). Evaluating physician satisfaction regarding user interactions with an electronic medical record system. Proceedings of the American Medical Informatics Association (AMIA) Annual Symposium, 400 (4).
• Sugrue, M., Seger, M., Kerridge, R., Sloane, D., et Deane, S. (1995). A Prospective Study of the Performance of the Trauma Team Leader. The Journal of Trauma: Injury, Infection and Critical Care, 38 (1), 79-82.
• Swan, K., Shen, J. et Hiltz, R. (2006). Assessment and collaboration in online learning. Journal of Asynchronous Learning Networks, 10 (1), 45-62.
• Tardif, J. (2006). L’évaluation des compétences. Documenter le parcours de développement. Montréal : Chenelière Éducation.
67
BIBLIOGRAPHIE
• Undre, S., Sevdalis, N., Healey, A. N., Darzi, S. A. et Vincent, C. A. (2007). Observational teamwork assessment for surgery (OTAS): Refinement and application in urological surgery. World Journal of Surgery, 31, 1373-1381.
• Van Kempen, J. L. (2008). Pourquoi a-t-on développé les compétences à l'école? [En Ligne]. Union des Fédérations d’Associations de Parents de l’Enseignement Catholique (UFAPEC). Accès: http://www.ufapec.be/nos-analyses/pourquoi-a-t-on-developpe-les-competences-a-l-ecole/
• Volkov, A. et Volkov, M. (2007). Teamwork and assessment: A critique. e-Journal of Business Education & Scholarship of Teaching, 1, 59-64.
• Wiggins, G. (1990). The case for authentic assessment [En Ligne]. Practical Assessment, Research & Evaluation, 2 (2). Accès: http://PAREonline.net/getvn.asp?v=2&n=2.
• Wiggins, G. (1993). Assessment : Authenticity, Context and Validity. The Phi Delta Kappan, 75 (3), 200-214.
• Willey, K. et Freeman M. (2006). Completing the learning cycle: The role of formative feedback when using self and peer assessment to improve teamwork and engagement. Proceedings of the 17th Annual Conference of the Australasian Association for Engineering Education, 10 -13 décembre 2006, Auckland, New Zealand.
• Willey, K., et Freeman, M. (2006). Improving teamwork and engagement: the case for self and peer assessment [En Ligne]. Australasian Journal of Engineering Education, 02. Accès: http://www.aaee.com.au/journal/2006/willey0106.pdf.
• Worcester Polytechnic Institute (WPI) (2011). Teamwork and teamwork assessment [En ligne]. Accès: http://www.wpi.edu/Images/CMS/IQP/teamworkandteamworkassessment.doc.
68