Présentation MS PowerPoint - Méthodologies d'implantation sur l'Internet de l'évaluation...

68
MÉTHODOLOGIES D’IMPLANTATION SUR L’INTERNET DE L’ÉVALUATION HIÉRARCHIQUE DES APPRENTISSAGES Par Martin Lesage Ph.D.(C) Directeur de thèse: Pr. Gilles Raîche – Centre CDAME Co-Directeur de thèse: Pr. Martin Riopel – Centre CDAME & LabMÉCAS Centre CDAME (Collectif pour le Développement et les Applications en Mesure et Évaluation) Département d’Éducation et Pédagogie Université du Québec à Montréal (UQÀM) 1205, rue Saint-Denis, Local N-4900 Montréal, Québec, Canada H2X 3R9 Téléphone: (514) 987-0111 https://cdame.uqam.ca/ Séminaire du CDAME Mercredi le 10 décembre 2014 UQAM, Pavillon Paul Gérin- Lajoie (N) Local N-6320 14H00-16H00

Transcript of Présentation MS PowerPoint - Méthodologies d'implantation sur l'Internet de l'évaluation...

MÉTHODOLOGIES D’IMPLANTATION SUR L’INTERNET DE L’ÉVALUATION HIÉRARCHIQUE

DES APPRENTISSAGESPar

Martin Lesage Ph.D.(C)Directeur de thèse: Pr. Gilles Raîche – Centre CDAME

Co-Directeur de thèse: Pr. Martin Riopel – Centre CDAME & LabMÉCAS

Centre CDAME (Collectif pour le Développement et les Applications en Mesure et Évaluation)Département d’Éducation et PédagogieUniversité du Québec à Montréal (UQÀM)1205, rue Saint-Denis, Local N-4900Montréal, Québec, CanadaH2X 3R9Téléphone: (514) 987-0111https://cdame.uqam.ca/

Séminaire du CDAMEMercredi le 10 décembre 2014UQAM, Pavillon Paul Gérin-Lajoie (N)Local N-632014H00-16H00

PLAN DE LA PRÉSENTATION

•Introduction•Problématique•Cadre théorique•Méthodologie•Impacts sur la recherche en éducation•Conclusion 2

INTRODUCTION

• Ce projet de recherche porte sur le développement d’une application Internet mobile (WIFI) d’évaluation des équipes à plusieurs niveaux de hiérarchisation dénommée « Cluster » (http://eval.uqam.ca/cluster/)

• Dans cette application Internet mobile, les équipiers peuvent avoir les rôles de:

membre d’équipe (exécutant)chef d’équipe (superviseur)administrateur / gestionnaire qui dirige les chefs d’équipes (administrateur)

• Généralement, les logiciels d’évaluation des équipes relèvent du domaine de la gestion et sont des systèmes de gestion

3

INTRODUCTION• Peu de logiciels d’évaluation des équipes existent en éducation• Des travaux en équipe peuvent être effectués dans un contexte scolaire et les applications existantes d’évaluation des équipes (systèmes de gestion) ne sont pas des applications éducationnelles

• Moodle, WebCT et Blackboard possèdent des structures de classes mais n’implantent pas de tâches d’évaluation pour des équipes à plusieurs niveaux de hiérarchisation

• Contribution au domaine de l’éducation:• évaluation simultanée de différentes habiletés, compétences et performances dans la même tâche d’évaluation

• processus simultané d’évaluation individuelle et d’équipe durant la même tâche

• acceptation du processus de l’évaluation hiérarchique des apprentissages (évaluation agrégée) par la communauté scientifique

4

INTRODUCTIONSystèmes de gestion de l’évaluation

5

Systèmes informatisés d’évaluation hiérarchique des apprentissages : cas particuliers des systèmes de gestionSystèmes informatisés d’évaluation hiérarchique des apprentissages : Systèmes de gestion de l’évaluation

Management informationsystemsSystème deGestion- Personnel- Données de gestion(inventaire, budget)- Opérations degestion

Assessment managementsystemsSystème informatiséd’évaluation hiérarchique- Étudiants- Items de contenu decours (textes, sons images, etc.)- Opérations d’évaluation

(Tiré de Laudon, Laudon et Brabston, 2011, p. 177)

INTRODUCTIONSystèmes de gestion de l’évaluation

6

Système d’informa

tion

Gestion Éducation

Système de gestion de l’évaluation

Système d’évaluation hiérarchique

des apprentissages / Système de

gestion d’évaluation

Relations hiérarchiques entre

le personnelDonnées de gestion (budget,

inventaire)

Opérations de gestion

Relations hiérarchiques entre

les étudiantsContenu de

cours (texte, images, sons,

etc.)Opérations d’évaluati

on

INTRODUCTION

Quelques exemples de l’application Internet qui comporte un processus d’évaluation individuelle et d’équipe durant la même tâche d’évaluation:

•La rédaction d’un journal étudiantHiérarchisation: journaliste — chef des chroniques — rédacteur en chef

•Patrouilles de navigation en équipesHiérarchisation: membre de patrouille — chef de patrouille — responsable du groupe

•Stages en enseignement du français au secondaireHiérarchisation: étudiant(e) en stage — Enseignant(e) associé(e) — Directeur d’école

7

SYSTÈME D’ÉVALUATION INDIVIDUELLE ET D’ÉQUIPE SIMULTANÉESYSTÈME DE GESTION DE L’ÉVALUATION

8

• Évaluation hiérarchique des apprentissages: vision sphérique multi-niveaux en trois dimensions des évaluations formatives et sommatives du groupe et des membres du groupe

• Évaluation formative auto-évaluation évaluation par les pairs (membres d’équipe, chefs

d’équipe et gestionnaire de groupe)

• Évaluation sommative (individuelle et d’équipe) : faite par l’évaluateur / l’enseignant

• Processus simultané d’évaluation formative et sommative durant la même tâche d’évaluation

• Évaluation de différentes performances et compétences durant la même tâche d’évaluation

• Processus d’évaluation individuelle et d’équipe simultanée durant la même tâche d’évaluation

• Exemples de tâches d’évaluation évaluation des stages en enseignement patrouilles de navigation en équipes journal scolaire

ÉVALUATION DES STAGES EN ENSEIGNEMENTSYSTÈME DE GESTION DE PORTFOLIO ÉLECTRONIQUE (APPROCHE PAR COMPÉTENCES)

Directeur de l’école

Maître / Enseignant associé

Stagiaire de l’UQAM

Milieu de stage(agrégation) Registraire

Superviseur de stage (évaluateur) /

Professeurresponsable

Université du Québecà Montréal (UQÀM)

Supervise

Supervise /Évaluation formative selon 13 compétences

Note du stage

Évaluation sommative

Évaluation formativeselon 13 compétences

Projet de stage Portfolio Évaluation dumilieu de stage

Rencontrede groupe

Rapport destage

9

ÉVALUATION DES STAGES EN ENSEIGNEMENTSYSTÈME DE GESTION DE PORTFOLIO ÉLECTRONIQUE (APPROCHE PAR COMPÉTENCES)Implantation du processus d’évaluation des stages des étudiants en enseignement du français dans l’application « Cluster »

10

PROBLÉMATIQUE

11

PROBLÉMATIQUE

12

Président

Éducation

Évaluation

Évaluation des équipes (teamwork assessment)

Administrateur Administrateur

Chef d’équipe Chef d’équipe

Membred’équipe

Membred’équipe

Membred’équipe

Membred’équipe

Membred’équipe

Membred’équipe

Membred’équipe

Membred’équipe

Chef d’équipe Chef d’équipe

Constat de problématique

PROBLÉMATIQUE

•Aucun auteur du domaine de l’évaluation des équipes tels que Sugrue, Seger, Kerridge, Sloane et Deane (1995), Volkov et Volkov (2007) et Baker et Salas (1992) n’ont traité de l’évaluation des équipes qui ont plusieurs niveaux de supervision ainsi que d’un processus simultané d’évaluation individuelle et d’équipe dans la même tâche d’évaluation.

13

PROBLÉMATIQUEPertinence sociale / pratique: 

• évaluation simultanée de différentes connaissances, compétences, habiletés, performances et objectifs

• processus simultané d’évaluation individuelle et d’équipe dans la même tâche d’évaluation

• développer une application Internet qui entrepose toutes les données d’évaluation

• accès instantané à tous les documents et travaux remis ainsi qu’aux résultats d’évaluation formative et sommative

• augmenter la rapidité des processus d’évaluation des organisations• système informatisé d’évaluation des compétences à l’aide du portfolio (portfolio assessment)

• utilisation avec les appareils utilisant les technologies mobiles (WIFI) tels que les tablettes et les téléphones cellulaires pour faire de l’apprentissage (E-Learning) et de l’évaluation mobile (E-Assessment)

• se servir de l’application à des fins certificatives• économie d’argent (temps, locaux et salaire des professeurs)

14

PROBLÉMATIQUEPertinence scientifique:

•étude du processus de l’évaluation hiérarchique des apprentissages

•lien entre les systèmes d’évaluation hiérarchiques des apprentissages et les systèmes gestion

•implantation de la gestion de la hiérarchie dans les évaluations formatives et sommatives

•développement d’une application Internet WIFI d’évaluation hiérarchique des apprentissages qui est un moteur de présentation de tâches d’évaluation complexes en mode collaboratif

•faire reconnaitre le domaine de l’évaluation hiérarchique des apprentissages par la communauté scientifique

•trouver des algorithmes et des systèmes de gestion de bases de données (SGBD) pour l’entreposage et la recherche d’un très grand nombre de données d’évaluation

•normalisation des cours, des données, des questions d’examen (IMS QTI) ainsi que des tâches d'évaluation

15

PROBLÉMATIQUE

Défi du projet doctoral:•Définir et informatiser le processus de l’évaluation hiérarchique des apprentissages

16

QUESTION DE RECHERCHE

Comment développer et mettre en œuvre une application Internet mobile (WIFI) qui implante le processus de l’évaluation hiérarchique des apprentissages?

17

CADRE THÉORIQUE

18

CADRE THÉORIQUECadre théorique-> Auteurs du domaine de l’évaluation des équipes (Teamwork assessment)

Développement d’une application Internet mobile (WIFI) de présentation de tâches d’évaluation complexes en contexte authentique selon un mode collaboratif:

• tâches d’évaluation complexes (Louis et Bernard, 2004, p. 79; Tardif, 2006, p. 125)

• évaluation en contexte authentique (Palm, 2008, p. 6; Louis et Bernard, 2004; Wiggins, 1990, p. 1; Wiggins, 1993; Hart, 1993; Allal, 2002, p. 90; Rennert-Ariev, 2005, p. 1)

• évaluation du travail d’équipe (Baker et Salas, 1992, p. 472-473; Marin-Garcia et Lloret, 2008, p. 3)

• évaluation du travail collaboratif (Swan, Shen et Hiltz, 2006, p. 46-47; Volkov et Volkov, 2007, p. 62; Boud, Cohen et Sampson, 1999, p. 416; Macdonald, 2003, p. 377-379; Worcester Polytechnic Institute, 2011)

• grilles d’évaluation (Durham, Knight et Locke, 1997; Marin-Garcia et Lloret, 2008, p. 2 )

• auto-évaluation / Évaluation par les pairs (Lingard, 2010, p. 35; Goldfinch, 1994, p. 34-35; Goldfinch et Raeside, 1990, p. 211-231; Northrup et Northrup, 2006, p. 36)

19

CADRE THÉORIQUECadre théorique-> Recherche similaires

Applications d’évaluation des équipes:•système d’évaluation à distance des équipes de travail constituées d’étudiants en ingénierie qui prends en compte la gestion des auto-évaluations et des évaluations par les pairs sous forme de grilles d’évaluation: application SPARK (Freeman et McKenzie, 2000, 2002; Willey et Freeman, 2006)

•observation en temps réel des performances des équipes de chirurgie dans le domaine de l’urologie: OTAS (Undre, Sevdalis, Healey, Darzi et Vincent, 2007)

•application du domaine militaire de prédiction du potentiel de leadership au moyen de tâches d’évaluation complexes faisant de la résolution de scénarios : application MLE (Marshall-Mies, Fleischman, Martin, Zaccaro, Baughman et McGee, 2000)

•système informatique se voulant un simulateur d’arrêt cardiaque servant à évaluer les performances des médecins internes et des infirmières qui composent une équipe de réanimation pour traiter le cas de patients ayant subi un arrêt cardiaque: Mega Code (Kaye et Mancini, 1986)

20

CADRE THÉORIQUECadre théorique-> Recherche similaires

Application d’évaluation des équipes à plusieurs niveaux de hiérarchisation (Bosses of Bosses)•Système de gestion de travaux d’équipes en génie logiciel basé sur un site Internet qui contient le matériel de cours, un forum de discussion et le courriel (Nance, 2000, p. 298) 21

CADRE THÉORIQUE (SUITE)

Domaine général:•l’évaluation hiérarchique des apprentissages ou évaluation agrégée se situe comme étant sous-domaine de l’évaluation des équipes (teamwork assessment) où les équipes ont plusieurs niveaux de supervision

•c’est un processus par lequel les chefs d’équipe sont évalués par un ou plusieurs gestionnaires d’équipe selon une hiérarchie arborescente

22

CADRE THÉORIQUE (SUITE)

23

CADRE THÉORIQUE (SUITE)Domaine de l’éducation:

•sous-domaine de l’évaluation des apprentissages où des étudiants sont formés en équipes à plusieurs niveaux de hiérarchisation dans le cadre d’examens, d’épreuves ou de tâches d’évaluation complexes en mode collaboratif

•Durant la tâche d’évaluation, les chefs d’équipe (qui peuvent être des étudiants) sont évalués par un ou plusieurs gestionnaires d’équipe (qui peuvent être eux-mêmes d’autres étudiants ou des enseignants) selon une hiérarchie arborescente24

CADRE THÉORIQUE (SUITE)Système informatisé d’évaluation hiérarchique

des apprentissages=

Système de gestion de l’évaluation — Assessment Management Systems (AMS)

=Système de gestion de portfolio électronique —

ePortfolio Management Systems(Approche par compétences)

=Système de gestion d’épreuves / d’examens électronique — Test

Management Systems (TMS)(Approche par objectifs)

25

CADRE THÉORIQUE (SUITE)Approche par objectifs •Forte corrélation relative au temps (Legendre, 2005, p. 943; Wikipedia, 2011) en raison de:l’atteinte d’objectifs pédagogiques qui doivent être réussis pour passer aux suivants

présentation de testséchéances relatives à la soumission de travaux

fin de programmes d’étudecertification qui se base sur des scores, notes, pointages et qui doit s’effectuer en un temps donné ou à une date précise

26

CADRE THÉORIQUE (SUITE)L’évaluation hiérarchique des apprentissages selon l’approche par objectifs

•L’application « Cluster »saisie du matériel de cours dans le SGBD de l’application basée sur un horaire / une cédule de cours

évaluation certificative effectuée par l’enseignant en pourcentage

examens HTMLtravaux à remettremessages de début et de fin de coursmatrice de progression / suivi des étudiants par coursl’application présente le matériel de cours et les tâches d’évaluation en séquence

un module d’enseignement doit être réussi avant de pouvoir faire le suivant

27

CADRE THÉORIQUE (SUITE)L’évaluation hiérarchique des apprentissages selon l’approche par objectifs

•L’application « Cluster » est un système d’administration d’épreuves ou d’examens d’équipe (Legendre, 2005, p.639, 943; De Ketele et Gérard, 2205, p. 2)

28

CADRE THÉORIQUE (SUITE)•L’approche par compétences possède un faible corrélation par rapport au temps parce qu’elle est basée sur les capacités des individus à mobiliser des ressources pour réaliser des tâches d’évaluation (De Ketele et Gérard, 2005, p. 5) ainsi que la constitution de portefeuilles d’évaluation (Allal, 2002, p. 90)

•Cette approche à tendance à se dissocier des examens, notes, scores, pourcentages et échéanciers

•Elle peut se produire sur une longue période de temps

•Peut se baser sur l’observation et le jugement: un bon politicien, un bon danseur, un bon général, un bon camionneur, un bon professeur

29

CADRE THÉORIQUE (SUITE)L’évaluation hiérarchique des apprentissages selon l’approche par compétences

•L’application « Cluster »formulaires d’auto-évaluation et d’évaluation par les pairstâches d’évaluation d’équipes à plusieurs niveaux d’évaluationrétroaction au moyen de l’évaluation par les pairsl’application « Cluster » est une coquille programmable qui permet de concevoir n’importe quel cours ou tâche d’évaluation

entreposage dans le SGBD de toutes les données d’évaluation: examens HTML (individuels), travaux à remettre (individuels et d’équipes), évaluations de l’enseignant (sommatif), auto-évaluations (formatif) et évaluations par les pairs (formatif)

possibilité d’accéder à toutes les données d’évaluation formatives et sommatives pour un individu

l’évaluateur peut consulter toutes les données d’évaluation entreposées dans le SGBD afin de donner une évaluation, une note ou un jugement

30

CADRE THÉORIQUE (SUITE)L’évaluation hiérarchique des apprentissages selon l’approche par compétencesL

•moteur de présentation de tâches d’évaluation complexes en mode collaboratif (Van Kempen, 2008, p.3)

•système de gestion de portfolio électronique [ePortfolio] (Allal, 2002, p. 90)

31

MÉTHODOLOGIE

Objectifs de la recherche:•développer une application Internet mobile (WIFI) qui implante le processus de l’évaluation agrégée selon le modèle de Harvey et Loiselle (2009)

•faire tester l’application par 25 cadets de l’armée qui détermineront sa convivialité à l’aide du questionnaire QUIS (Chin, Diehl et Norman, 1988)

32

MÉTHODOLOGIEMéthodologie -> Choix méthodologique

Choix méthodologique:• Richey et Nelson (1996, p. 1237) considèrent que le développement de logiciels comme outils pédagogiques fait partie de la recherche développement

• Le choix de la méthodologie sera la recherche développement avec des analyses de données mixtes quantitatives et qualitatives:

Aspect qualitatif [épistémologie interprétative (Savoie-Zajc et Karsenti, 2004, p. 115)]

Évaluation du fonctionnement du logiciel Déterminer si les usagers aiment utiliser le logiciel

Aspect quantitatif [épistémologie positiviste (Savoie-Zajc et Karsenti, 2004, p. 115)] Taux de réussite / taux d’abandon Augmentation de la connaissance

33

Méthodologie

34

MÉTHODOLOGIELe modèle de développement de Harvey et Loiselle (2009, p. 110)

35

MÉTHODOLOGIE

Le modèle de développement de Harvey et Loiselle (2009, p. 110)1) Détermination de l’origine de la recherche

• problématique de la présente recherche

2) Référentiel• cadre théorique de la présente recherche

3) Méthodologie• la présente section

4) Opérationnalisation• résultats obtenus (À venir – résultats préliminaires en cours)

5) Résultats• analyse des résultats (À venir)

36

MÉTHODOLOGIE – FONCTIONNALITÉS DE L’APPLICATION PROPOSÉES

Session d’étudiant:• étude du matériel de cours• examens HTML à choix multiples• remise de devoirs• travaux en équipe• évaluation formative – auto-évaluation et évaluation par les pairs

• évaluation sommative de l’évaluateur – correction des travaux individuels et des travaux d’équipe

• consultation de la feuille de route37

MÉTHODOLOGIE – FONCTIONNALITÉS DE L’APPLICATION PROPOSÉES

Session d’administrateur / d’évaluateur:•création / modification des cours•création / modification des modules de cours•création / modification des tâches d’évaluation•création / gestion / ajout du matériel de cours•gestion des prérequis•création / gestion des examens HTML à choix multiples•création / gestion des devoirs•création / gestion / modification des étudiants•création / gestion des étudiants au cours•correction des travaux•formation des équipes•évaluation des tâches d’équipe•consultation de la progression des étudiants dans les cours ou les groupes

38

MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONPage d’accueil de l’application

39

MODE ADMINISTRATEUR OU ÉVALUATEUR

40

MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode administrateur ou évaluateurPanorama de gestion des usagers

41

MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode administrateur ou évaluateurPanorama de gestion des équipes

42

MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode administrateur ou évaluateur

Panorama de gestion des tâches d’évaluation du module

43

MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode administrateur ou évaluateur

Panorama de gestion de saisie des notes pour une tâche individuelle(évaluation sommative)

44

MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode administrateur ou évaluateur

Panorama de gestion de saisie des notes pour une tâche d’équipe (évaluation sommative)

45

MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode administrateur ou évaluateur

Matrice de progression des étudiants dans un cours

46

MODE ÉTUDIANT

47

MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode Étudiant

Panorama d’affichage du matériel de cours

48

MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode Étudiant

Examens HTML à correction automatique

49

MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode Étudiant

Panorama de téléversement d’un fichier électronique

50

MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode Étudiant

Panorama de saisie des évaluations formatives (auto-évaluation et évaluation par les pairs)

51

MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONMode Étudiant

Panorama d’affichage de la feuille de route

52

MÉTHODOLOGIEMéthodologie -> Phases d’évaluation -> Sujets

Sujets:Critères de sélection

• ne pas avoir déjà fait de cours de cartographie au préalable• posséder des aptitudes de leadership pour diriger une section à un endroit déterminé

Population : • 39 cadets de l’Armée canadienne de l’Unité régionale de soutien aux cadets (Est) [URSC (Est)]

Groupe d’expérimentation: • 27 cadets provenant du Corps de cadets 2567 Dunkerque de Laval

Groupe de contrôle:• 12 cadets provenant du Corps de cadets 2595 de St-Jean d’Iberville 53

MÉTHODOLOGIEMéthodologie -> Phases d’évaluation -> Déroulement

Déroulement:• sélection des sujets d’expérimentation• signature du formulaire de consentement• administration de l’examen de connaissances initiales• séance de formation donnée aux étudiants sur l’utilisation de l’application « Cluster »

• l’utilisation de l’application Internet « Cluster » pour suivre le cours de cartographie à distance (tâches d’évaluation individuelles)

• la pratique de la navigation en équipes dans les secteurs d’entrainement qui comporte l’observation des sujets d’expérimentation (tâches d’évaluation en équipes)

• les entrevues non dirigées qui déterminent si les sujets d’expérimentation ont aimé utiliser l’application,

• l’administration du questionnaire QUIS qui concerne la satisfaction des usagers par rapport à l’interface usager du logiciel

• l’administration de l’examen de connaissances finales• la rédaction du rapport post-exercice.

54

MÉTHODOLOGIEMéthodologie -> Phases d’évaluation -> Instrumentation

InstrumentationMéthodes quantitatives

Application « Cluster » Évaluation des modules de cours

• questionnaires HTML• devoirs à remettre (téléversement)

Formulaire d’auto-évaluation Formulaire d’évaluation par les pairs Formulaire d’évaluation d’une tâche d’équipe

Examen de connaissances initiales Examen de connaissances finales Questionnaire QUIS pour évaluer la convivialité de l’interface usager

Méthodes qualitatives Observation des sujets d’expérimentation Section « Commentaires » des formulaires d’auto-évaluation et d’évaluation par les pairs

Analyse du verbatim des entrevues non dirigées Analyse du contenu du rapport post exercice

55

MÉTHODOLOGIEAnalyse des données quantitatives

•statistiques descriptives telles que la moyenne et l’Écart-type

Analyse des données qualitatives•méthodes d’analyse des questions ouvertes décrites dans Bardin (1977)

Éthique•certificat d’approbation éthique No 2012-0026A délivré par le «Comité pour l’évaluation des projets étudiants impliquant de la recherche avec des êtres humains (CÉRPÉ) » de l'UQÀM

56

MÉTHODOLOGIE – CONCEPTION DE L’APPLICATIONQuestionnaire QUIS sur la satisfaction des usagers envers un

logiciel

57

MÉTHODOLOGIE

Méthodologie: Déroulement de l’expérimentation

58

Méthodologie: Déroulement de l’expérimentation

59

RÉSULTATS PRÉLIMINAIRESBêta Tests

Processus de recherche développement

Première itération•correction des erreurs de fonctionnement (débuggage)

Seconde itération (classe de secondaire II de Mme. Dalila Sebkhi)•l’ajout d’un champ de description de groupe dans la base de données de l’application

•l’implantation de fonctions de retour à la fin des modules d’enseignement

•Implantation d’une matrice de suivi de la progression des étudiants par cours, module, date et groupe de classe.

60

RÉSULTATS PRÉLIMINAIRESProvenant d’une pré-expérimentation

Résistance au changementcertains usagers (cadets de l’armée) trouvent l’application difficile à utiliser – l’interface ne plait pas aux adolescents

beaucoup d’usagers abandonnent à la moindre difficultécertains usagers n’ont pas d’ordinateurs à la maison

Impacts sur l’apprentissageCours de cartographie en classe

• taux de réussite: 83%• abandons 17%• augmentation de la connaissance: 48%

Cours de cartographie à distance• taux de réussite: 22%• abandons 78%• augmentation de la connaissance: 50,6%

61

IMPACTS SUR LA RECHERCHE EN ÉDUCATION

Évaluer différentes compétences, performances, habiletés et connaissances en même temps

Évaluation des équipes à plusieurs niveaux de hiérarchisationLien entre les systèmes d’apprentissages à distance et les systèmes de gestionProcessus simultané d’évaluation individuelle et d’équipe durant la même tâche d’évaluation

Développement d’une application Internet mobile (WIFI) de présentation de tâches d’application complexes

Reconnaissance du domaine de l’évaluation hiérarchique des apprentissages par la communauté scientifique

Économie d’argent et de temps au niveau:• présence en classe des professeurs• accès aux données d’évaluation• infrastructure et locaux

62

CONCLUSION•Les bases théoriques de l’évaluation hiérarchique des apprentissage sont bien établies

•L’architecture de l’application Internet WIFI est bien définie et l’analyse fonctionnelle est terminée

•Les systèmes informatisée d’évaluation hiérarchique des apprentissages sont des systèmes de gestion de l’évaluation

•Des expérimentations préliminaires ont été faites par les chercheurs du CDAME, les cadets de l’armée canadienne et Mme. Dalila Sebkhi dans le cadre d’un stage III en enseignement secondaire

•Quelques présentations et publications scientifiques ont été faites

63

MERCI DE VOTRE ATTENTION

Sympathique chercheur du domaine de l’évaluation agrégée prix Nobel d’économie en systèmes de gestion de l’évaluation et votre futur

directeur de thèse

Mes théories

sont géniales!

Au nom de la discipline de l’évaluation

hiérarchique des apprentissages, je

vous remercie beaucoup de votre

attention!

64

BIBLIOGRAPHIE

• Allal, L. (2002). Acquisition et évaluation des compétences en milieu scolaire. Dans J., Dolz, et E., Ollagnier (Dirs.). L’énigme de la compétence en éducation (p. 77-94). Bruxelles : de Boeck.

• Baker, D. P. et Salas, E. (1992). Principles for measuring teamwork skills. Human Factors, 34, 469-475.

• Bardin, L. (1977). L'analyse de contenu. Paris : P.U.F.

• Boud, D., Cohen, R. et Sampson, J. (1999). Peer Learning and Assessment. Assessment & Evaluation in Higher Education, 24 (4), 413-426.

• Chin, J. P., Diehl, V. A. et Norman, K. L. (1988). Development of an instrument measuring user satisfaction of the human-computer interface. Dans Proceedings of SIGCHI ‘88, 213–218, New York. ACM/SIGCHI.

• De Ketele, J. M., et Gérard, F.-M. (2005). La validation des épreuves d’évaluation selon l’approche par les compétences. Mesures et Évaluation en Éducation, 28 (3), 1-26.

• Durham, C. C., Knight, D., et Locke, E. A. (1997). Effects of Leader Role, Team-Set Goal Difficulty, Efficacy, and Tactics on Team Effectiveness. Organizational Behavior and Human Decision Process, 72 (2), 203-231.

• Freeman, M. et McKenzie, J. (2000). Self and peer assessment of student teamwork: Designing, implementing and evaluating SPARK, a confidential, web based system [En ligne]. Dans Flexible Learning for a Flexible Society, Proceedings of ASET-HERDSA 2000 Conference. Toowoomba, Qld, 2-5 July. ASET and HERDSA. Accès: http://www.aset.org.au/confs/aset-herdsa2000/procs/freeman.html.

• Freeman, M.. et McKenzie, J. (2002). SPARK, a confidential web-based template for self and peer assessment of student teamwork: benefits of evaluating across different subjects. British Journal of Educational Technology, 33 (5), 551-569.

• Goldfinch, J. (1994). Further Developments in Peer Assessment of Group Projects. Assessment & Evaluation in Higher Education, 19 (1), 29-35.

65

BIBLIOGRAPHIE

• Goldfinch, J., et Raeside, R. (1990). Development of a Peer Assessment Technique for Obtaining Individual Marks on a Group Project. Assessment & Evaluation in Higher Education, 15 (3), 210-231.

• Hart, D. (1994). Authentic assessment: A handbook for educators. New York: Addison Wesley.

• Harvey, S. et Loiselle, J. (2009). Proposition d’un modèle de recherche développement. Recherches qualitatives, 28 (2), 95-117.

• Kaye, W. et Mancini, M. E. (1986). Use of the Mega Code to evaluate team leader performance during advanced cardiac life support. Critical Care Medecine, 14 (2), 99-104.

• Laudon, K. C., Laudon, J. P., et Brabston, M. E. (2011). Management information systems: Managing the digital firm (5ième édition canadienne). Toronto, ON: Pearson Education Canada Inc.

• Legendre, R. (2005). Dictionnaire actuel de l’éducation (3è ed.). Montréal : Guérin.

• Lingard, R. W. (2010). Teaching and assessing teamwork skills in engineering and computer science. Journal of Systemics, Cybernetics and Informatics, 18 (1), 34-37.

• Louis, R. et Bernard, H. (2004). L’évaluation des apprentissages en classe :théorie et pratique. Montréal : Groupe Beauchemin, éditeur ltée.

• MacDonald, J. (2003). Assessing online collaborative learning: process and product. Computer & Education, 40, 377-391.

• Marin-Garcia, J. A. et Lloret, J. (2008). Improving teamwork with university engineering students. The effect of an assessment method to prevent shirking. WSEAS Transactions on Advances in Engineering Education, 1 (5), 1-11.

• Marshall-Mies, J. C., Fleishman, E. A., Martin, J. A., Zaccaro, S. J., Baughman, W. A., et McGee, M. L. (2000). Development and evaluation of cognitive and metacognitive measures for predicting leadership potential. Leadership Quaterly, 11 (1), 135-153.

66

BIBLIOGRAPHIE

• Nance, W. D. (2000). Improving information systems students' teamwork and project management capabilities: Experiences from an innovative classroom. Information Technology and Management, 1 (4), 293-306.

• Northrup, S. G. et Northrup, D. A. (2006). Multidisciplinary teamwork assessment: individual contributions and interdisciplinary interaction. Communication présentée à la 36ième conférence ASEE/IEEE Frontiers in Education,Octobre 28–31, San Diego.

• Palm, T. (2008). Performance Assessment and Authentic Assessment: A Conceptual Analysis of the Literature [En Ligne]. Practical Assessment, Research & Evaluation, 13 (4). Accès: http://pareonline.net/pdf/v13n4.pdf.

• Rennert-Ariev, P. (2005). A theoretical model for the authentic assessment of teaching [En Ligne]. Practical Assessment, Research & Evaluation, 10 (2). Accès: http://pareonline.net/pdf/v10n2.pdf.

• Richey, R. C. et Nelson, W. A. (1996). Developmental Research. Dans D. H. Jonassen (Dir.), Handbook of research for educational communications and technology (p. 1213-1245). New-York :Mac Millan.

• Savoie-Zajc, L. et Karsenti, T. (2004). La méthodologie. Dans T. Karsenti et L. Savoie-Zajc (Dirs.), La recherche en éducation: étapes et approches (p. 109-121). Sherbrooke: Éditions du CRP.

• Sittig, D. F., Kuperman, G. J., et Fiskio J. (1999). Evaluating physician satisfaction regarding user interactions with an electronic medical record system. Proceedings of the American Medical Informatics Association (AMIA) Annual Symposium, 400 (4).

• Sugrue, M., Seger, M., Kerridge, R., Sloane, D., et Deane, S. (1995). A Prospective Study of the Performance of the Trauma Team Leader. The Journal of Trauma: Injury, Infection and Critical Care, 38 (1), 79-82.

• Swan, K., Shen, J. et Hiltz, R. (2006). Assessment and collaboration in online learning. Journal of Asynchronous Learning Networks, 10 (1), 45-62.

• Tardif, J. (2006). L’évaluation des compétences. Documenter le parcours de développement. Montréal : Chenelière Éducation.

67

BIBLIOGRAPHIE

• Undre, S., Sevdalis, N., Healey, A. N., Darzi, S. A. et Vincent, C. A. (2007). Observational teamwork assessment for surgery (OTAS): Refinement and application in urological surgery. World Journal of Surgery, 31, 1373-1381.

• Van Kempen, J. L. (2008). Pourquoi a-t-on développé les compétences à l'école? [En Ligne]. Union des Fédérations d’Associations de Parents de l’Enseignement Catholique (UFAPEC). Accès: http://www.ufapec.be/nos-analyses/pourquoi-a-t-on-developpe-les-competences-a-l-ecole/

• Volkov, A. et Volkov, M. (2007). Teamwork and assessment: A critique. e-Journal of Business Education & Scholarship of Teaching, 1, 59-64.

• Wiggins, G. (1990). The case for authentic assessment [En Ligne]. Practical Assessment, Research & Evaluation, 2 (2). Accès: http://PAREonline.net/getvn.asp?v=2&n=2.

• Wiggins, G. (1993). Assessment : Authenticity, Context and Validity. The Phi Delta Kappan, 75 (3), 200-214.

• Willey, K. et Freeman M. (2006). Completing the learning cycle: The role of formative feedback when using self and peer assessment to improve teamwork and engagement. Proceedings of the 17th Annual Conference of the Australasian Association for Engineering Education, 10 -13 décembre 2006, Auckland, New Zealand.

• Willey, K., et Freeman, M. (2006). Improving teamwork and engagement: the case for self and peer assessment [En Ligne]. Australasian Journal of Engineering Education, 02. Accès: http://www.aaee.com.au/journal/2006/willey0106.pdf.

• Worcester Polytechnic Institute (WPI) (2011). Teamwork and teamwork assessment [En ligne]. Accès: http://www.wpi.edu/Images/CMS/IQP/teamworkandteamworkassessment.doc.

68