8- Analytique de l’apprentissage en ingénierie cognitive et en analyse des médias sociaux

Sur le plan international, on observe un intérêt croissant pour l’exploitation «intelligente » des données en éducation, particulièrement dans le contexte émergent des cours en ligne ouverts et massifs, et des données massives (big data) qui leurs sont associées. On parle alors de l’analytique d’apprentissage (learning analytics) qui est la collecte, la mesure, l’analyse et la communication des données sur les apprenants et leurs contextes, à des fins de compréhension et d’optimisation de l’apprentissage et des environnements dans lesquels il se réalise. On distingue trois niveaux d’analytique de l’apprentissage selon qu’elle vise l’étude de l’apprentissage par les apprenants, de l’efficacité d’un programme de cours ou  des pratiques d’ensemble d’une institution.

Plus largement  lorsque le volume de données analysées dépasse la capacité d’un seul serveur on peut alors parler de données massives (big data). Cela survient habituellement quand la quantité de données dépasse quelques téraoctets (10exp12 octets), ce qui se produit souvent pour les CLOM mais aussi dans l’analyse des médias sociaux. C’est d’ailleurs une pratique courante du Web 2.0 « à la Google » qui consiste à exploiter les données de ses millions d’utilisateurs pour améliorer les résultats de son moteur de recherche.

Objectifs de recherche

  1. Intégrer les méthodes et les outils d’ analytique des données  à la conception des environnements pour l’amélioration des cours en ligne ou la gestion des processus de travail.
  2. Exploiter les données massives (big data) générées par les usagers afin de personnaliser l’apprentissage de chaque apprenant ou leur usage des environnements web mis à leur disposition.
  3. Prototyper des outils web, tels que forums ou gestionnaires de ressources, et les intégrer aux plateformes technologique comme Open edX (servant à la diffusion de CLOM dans plus d’une centaine d’universités importantes dans le monde).
  4. Développer des outils de traitement et d’analyse de données en langue naturelle, notamment pour corriger des réponses écrites  à des questions ouvertes (questions courtes et essais), comblant ainsi certaines limites des environnements actuels.
  5. Développer une méthodologie de conception de cours qui intègre l’analytique d’apprentissage et des principes d’une pédagogie basée sur les données (data driven pedagogy).

Réalisations

  • Analyse des données socio-démographiques et pédagogiques générées à l’occasion de la diffusion des CLOM , dans le cadre de l’initiative Ulibre de la TÉLUQ.
  • Développement d’outils de correction automatique de réponses écrites à des questions courtes.
  • Implantation dans le Laboratoire de conception et de diffusion infonuagique (LACDI) du logiciel OpenStack pour la montée en charge, interface avec la plateforme de formation Open edX et ses outils d’analytique des apprentissages.
  • Réalisation d’un prototype d’Observatoire de circulation des informations (OCI) pour l’analyse des messages sur Twitter.