Ma recherche - présentation par projets

Projet ANR Emotirob

Le projet ANR EmotiRob (2006-2010) avait pour objectif de concevoir un robot compagnon pour les enfants en situation de handicap ou devant subir une longue hospitalisation. Voir la thèse de Sébastien Saint-Aimé.
Le robot devait être le plus léger possible et facile à soulever et à manipuler, et devait être le plus autonome possible de manière à comprendre l’humain et à réagir émotionnellement.
J’ai participé à ce projet en tant que stagiaire de Master Recherche en 2009. Voir mon mémoire.
Je devais créer un modèle de dynamique des émotions pour permettre de passer d’une émotion à une autre. J’ai donc créé un personnage virtuel, que j'ai nommé Art-e (se prononce "arti") pour "Artificial Emotion". Art-e affichait les mêmes expressions faciales que le robot afin de pour pouvoir faire des tests avant d'implémenter la dynamique des émotions sur le robot.

Vous constaterez que ce personnage virtuel n’a pas le réalisme des visages humains puisque son visage devait posséder les mêmes « muscles faciaux » (degrés de liberté) que le robot, et former des expressions uniquement à partir de ses sourcils et de sa bouche. Un visage humain a beaucoup plus de muscles et peut faire des expressions beaucoup plus riches. Ce personnage virtuel gérait donc uniquement les six émotions primaires définies par Ekman : la joie, la tristesse, le dégoût, la colère, la peur, et la surprise, auquel nous rajoutons l'expression neutre.
J'avais quand même rajouté des mouvements de respiration qui augmentaient la crédibilité du personnage puisque la respiration était ajustée en fonction des émotions. Regardez bien la vidéo, et vous verrez qu'en cas de stress, la respiration est plus rapide et saccadée.
Enfin, j'avais proposé un modèle du personnage qui "ne fait rien". J'avais utilisé quelques fonctions mathématiques pour lui implémenter le comportement "regarder les mouches voler". Le personnage exprimait ce comportement avec le regard, tandis que le robot pouvait le représenter en bougeant sa tête.

Dans cette vidéo, vous pouvez voir trois instances d'Art-e, avec des personnalités différentes, en train de regarder un extrait de Bambi, et de réagir émotionnellement. Cette interaction a été faite en ajoutant des tags d'émotion dans la vidéo, tags qui étaient envoyés au personnage virtuel afin qu'il exprime l'émotion concernée.

PICONE

Le projet PICONE, dirigé par Brigitte Le Pévédic, avait pour objectif de créer un logiciel de communication permettant aux personnes atteintes d'un handicap de s'exprimer en construisant des phrases grâce à un simple clic ou avec la souris. Ce logiciel permettait de communiquer avec des icônes, qui pouvaient représenter une lettre, un mot, ou un ensemble de mots.
PICONE était entièrement configurable pour s'adapter aux préférences et aux capacités de l'utilisateur. Notamment, il était possible de personnaliser la base de données d'icônes pour utiliser des images familières.
J'ai participé à ce projet en 2010 en co-encadrant des projets étudiants et en présentant PICONE à la Journee Handicap et Aides Technologiques en 2013.

Cette vidéo montre un exemple d'utilisation de PICONE.

Projet ANR Robadom

Le projet ANR Robadom (2009-2012) avait pour objectif d’évaluer le bénéfice d’un robot humanoïde apportant des services cognitifs et psychologiques adaptés aux déficits et aux besoins des personnes souffrant de troubles cognitifs. Le robot avait pour mission de proposer des exercices de stimulation cognitive et d’apporter de l’aide à la vie quotidienne.
Ce projet a été effectué en collaboration avec l’hôpital Broca, le laboratoire ISIR, et l’entreprise RoboSoft.
Ce projet est celui qui a financé ma thèse, et qui a permis :

  • De développer l'architecture informatique modulaire ArCo ;
  • D'adapter un logiciel existant pour créer AmbiProg, un logiciel qui permet de piloter l'environnement d'une personne sans connaissance de l'informatique ;
  • De créer l'application NabazFrame qui permet de créer des chorégraphies de mouvements sur le robot NabazTag ;
  • De créer le jeu sérieux StimCards qui est entièrement configurable en fonction des préférences et des capacités de l'utilisateur ;
  • De comparer l'impact des robots vs des personnages virtuels dans différents contextes.

Architecture ArCo

L'architecture ArCo est un ensemble de programmes informatiques qui permettent de connecter ensemble des téléphones, tablettes, objets connectés, ordinateurs, cartes électroniques, etc. L'objectif est de permettre à tous ces objets de communiquer ensemble sans connaissance de l'informatique et d'une manière similaire.
Chaque objet fournit une fiche de description qui décrit ses capacités : quelles informations peut-il donner sur l'environnement et quelles actions peut-il faire sur l'environnement ?
Voir plus de détails ici.

Image représentant un utilisateur entourée d'un ensemble de dispositifs numériques

AmbiProg

AmbiProg est un logiciel qui permet de programmer un environnement ambiant composé d'un ensemble de dispositifs numériques connectés à la plateforme ArCo. Lorsqu'on ouvre AmbiProg, celui-ci affiche l'ensemble des capacités des dispositifs connectés. Il fournit un langage de programmation visuelle qui permet d'écrire des scénarios d'interaction, ainsi qu'un interpréteur qui donne vie à ses scénarios.
Voir plus de détails ici.

Capture d'écran d'AmbiProg

NabazFrame

NabazFrame est un logiciel qui a été développé pour créer des chorégraphies avec le robot Nabaztag. Une chorégraphie utilise une timeline temporelle et permet de définir des mouvements d'oreilles et des animations de couleurs à un instant T et avec un certain délai.
Le logiciel permet également d'enregistrer des sons que le robot peut jouer ou d'effectuer de la synthèse vocale (l'utilisateur saisit un texte que le robot pourra dire).
Ce logiciel s'accompagne d'une suite logicielle qui permet de connecter le Nabaztag a un réseau afin de communiquer avec lui.
NabazFrame a permis au laboratoire LUSAGE de réaliser des tests pour savoir si les utilisateurs pouvaient reconnaître des émotions chez le robot.
Voir plus de détails ici.

Capture d'écran de NabazFrame

StimCards

StimCards est un jeu sérieux de questions/réponses développé avec l'architecture ArCo. Il se joue avec des cartes sur lesquelles sont inscrits un numéro au recto et un code QR au verso. La question n'est pas forcément affichée sur la carte pour pouvoir jouer avec des questions mystères. Les questions sont codées dans des fichiers sur l'ordinateur (format XML).
L'utilisateur doit présenter une carte devant la caméra qui va identifier le code QR et afficher la réponse. L'affichage de la réponse peut se faire sur un écran d'ordinateur, sur une tablette, via un robot ou un personnage virtuel qui lit la question ainsi que les propositions de réponses, etc. Pour répondre l'utilisateur peut utiliser une diversité de dispositifs également : clavier de l'ordinateur, smartphone, tablette, boîtier de réponses, etc.
StimCards a été développé pour évaluer l'interlocuteur préféré des personnes âgées et des enfants.
Voir plus de détails ici.

Capture d'écran de NabazFrame

Gestuelle d'un robot

Au cours du projet Robadom, nous avons effectué plusieurs expérimentations pour comprendre comment les humains perçoivent les robots, et comment le comportement du robot impacte l'acceptabilité de l'utilisateur.
Nous avons, par exemple, voulu vérifier si la communication non verbale du robot est importante pour l'humain en interaction, comme elle est importante entre les humains.
Nous avons effectué une expérimentation pour mesurer le ressenti de l'humain si la gestuelle du robot n'est pas congruente avec son discours (par exemple, si le robot exprime de la tristesse avec ses mouvements, mais de la joie avec sa parole).
Regardez la vidéo ci-dessous pour vous faire votre propre idée !

Evaluation d'AmbiProg

Lorsque mon directeur de thèse m'a donné le logiciel de programmation visuelle, je n'étais pas convaincue de sa facilité d'utilisation par des personnes non initiées à la programmation. J'ai alors décidé de faire deux expérimentations pour vérifier si le langage de programmation visuelle était utilisable par tous.
Après l'avoir évalué auprès de 14 adultes âgés de 23 à 58 ans, et de 16 enfants âgés de 10 à 11 ans, j'ai pu constater qu'AmbiProg était facile à comprendre et à utiliser.
La majorité des particpiants ont réussi à comprendre le fonctionnement du langage et à créer des exercices simples qui demandent des compétences en algorithmique.
L'image ci-dessous montre une photo du dispositif expérimental avec les enfants. J'ai déguisé les robots pour que les enfants soient intéressés.

Photo du dispositif environnemental d'Ambiprog

Evaluation de StimCards

Après avoir fini de développer StimCards, j'ai voulu vérifier si les règles du jeu étaient simples à comprendre et si ce type de jeu pouvait intéresser un grand nombre de personnes.
J'ai effectuée une évaluation avec 52 enfants âgés de 10 à 11 ans, afin de les faire tester StimCards avec des exercices de mathématiques. De son côté, le laboratoire LUSAGE a effectué une expérimentation avec 18 personnes âgées ayant de 63 à 88 ans avec des exercices de cultures générales.
Les résultats ont montré que StimCards est un jeu apprécié qui augmente la motivation et l'engagement de l'utilisateur.
La photo ci-dessous montre le dispositif mis en place au laboratoire LUSAGE où nous avons comparé trois conditions : un ordinateur seul, un ordinateur avec le personnage virtuel GRETA, et un ordinateur avec un robot de RoboSoft.

Photo du dispositif environnemental de StimCards

Partenaire numérique préféré

Dans le but de comprendre l'impact du robot sur les humains, nous avons effectué une expérimentation afin de vérifier si les enfants préféraient faire des exercices avec un ordinateur, un agent virtuel ou un robot dans deux configurations d'apparence : un robot métallique et un robot peluche.
Cette expérimentation a été effectuée par 52 enfants âgés de 10 à 11 ans.
Les résultats ont montré que les enfants ont préféré interagir avec le robot peluche, ensuite avec le robot métallique, puis avec le personnage virtuel. Mais, dans tous les cas, aucun partenaire numérique n'a été jugé désagréable pour les participants.

Photo du dispositif environnemental du partenaire numérique préféré

Projet ANR MoCa

Le projet ANR MoCa (2012-2016) avait pour objectif d’étudier les compagnons artificiels (personnages virtuels et robots personnels) et leur valeur pour des utilisateurs dans des situations de la vie quotidienne, l’objectif des compagnons artificiels étant de créer une relation à long terme avec les personnes. Le projet avait pour objectif d’étudier les concepts de relation, de valeur, de personnalité, et de plasticité des compagnons.

Photo représentant le projet MoCa

Pendant ce projet, j’ai proposé une expérimentation pour essayer de comprendre l’impact d’un robot lors d’un jeu de mémoire. Pour cela j’ai implémenté une version du jeu de Simon, NaoSimon, sur une tablette, sur une tablette et un robot en tant que second joueur, et sur un robot seul qui montrait des panneaux de couleurs à l’utilisateur.

Voir plus de détails ici.

Cette expérimentation a montré que les participants ressentent plus de plaisir à jouer avec le robot seul, et que la présence du robot n'induit pas plus de stress que la tablette elle-même.

Photo du dispositif expérimental de NaoSimon

Cette expérimentation a également montré des résultats très intéressants :

  • Le robot n'est pas jugé stressant ou ennuyant alors qu'il demande de l'attention et une grande sollicitation de la mémoire de travail
  • Le robot n'a pas constitué une difficulté supplémentaire
  • Les participants se sont tenues éloignées du robot, comme avec un autre humain. Serait-ce une forme de respect ?
  • Les participants se sont évalués meilleurs que dans la réalité lorsqu'ils jouaient avec le robot
  • Les participants ont affiché plus d'expressions faciales positives en présence du robot.

Photo de Nao présentant des couleurs

INGREDIBLE

Le projet ANR INGREDIBLE (2012-2016) avait pour objectif d'étudier l'interaction entre humains et acteurs virtuels. L'objectif était de créer un personnage virtuel doté d'une capacité de couplage dynamique corporel affectif avec un humain dont les gestes sont analysés en temps réel.
L'hypothèse forte est que la dynamique du couplage des gestes favoriserait le ressenti de présence et d'engagement lors d'une interaction entre un humain et un personnage virtuel. Ce projet s'intéresse tout particulièrement à l'échange gestuelle qui existe entre deux interlocuteurs et à l'alternance entre prises d'initiatives et imitations de gestes par l'un ou l'autre des interlocuteurs.
Ce projet est basé sur la notion de couplage :

Le couplage est une influence mutuelle et continue entre deux personnes, qui génère une dynamique spécifique à la dyade. Cette influence mutuelle est capable de résister à des perturbations qui sont compensées au fil de l’interaction. La perturbation peut être due à l’environnement mais surtout être à l’initiative d’un des individus, suite à sa perception de l’interaction en cours. Le fait qu’elle puisse être transformée par la dyade pour maintenir l’interaction participe au sentiment de « présence de l’autre ».

De Pierre De Loor, 2014

Photo de présentation du projet INGREDIBLE

Architecture informatique

L'architecture informatique du projet est composée de 5 modules. Le module de captation permet de capter les mouvements d'un humain depuis une Kinect ou un système OptiTrack et de représenter l'humain sous forme d'un squelette à 15 articulations. Le module d'analyse permet d'identifier les gestes de l'humain en temps réel. Le module de décision est chargé de déterminer l'action que doit faire le personnage virtuel en réponse à l'humain. La synthèse doit proposer un ou plusieurs gestes qui expriment cette action. Et enfin, le module de rendu, qui affiche le personnage virtuel, est chargé d'effectuer les gestes.

Photo montrant l'architecture informatique du projet INGREDIBLE

Le module d'analyse

J'ai principalement travaillé sur le module d'analyse afin d'être capable d'identifier les gestes effectués par un humain. Le module de reconnaissance est capable de reconnaître des gestes préalablement appris d'une manière très efficace.
La vidéo ci-dessous montre le module en action. Les gestes sont reconnus avec un délai qui est très proche du délai de reconnaissance de l'humain.
Les gestes à observer sont : 1.Enthousiasme, 2.Présentation, 3.Applaudissements, 4.Révérence, 5.Position neutre, 6.Départ, 7.Salutation

Un rendu artistique

J'ai également travaillé sur le rendu afin d'ouvrir les possibilités et de fournir des personnages virtuels différents à utiliser en fonction des contextes.
Avec Adrien Vernotte, qui était un stagiaire de l'ENIB, nous avons travaillé sur un rendu plus artistique en affichant seulement les extrémites du squelette. L'image ci-dessous montre le rendu classique, un rendu avec des boules vertes, et un rendu avec des fantomes.

Photo montrant un rendu plus artistique

Rendu dans la plateforme MARC

J'ai également collaboré avec Matthieu Courgeon, qui était Ingénieur de Recherche, pour connecter la plateforme INGREDIBLE à la plateforme MARC de manière à bénéficier du rendu de MARC. L'image ci-dessous montre un exemple de rendu avec deux personnages virtuels de la plateforme MARC : un personnage de type humain, et un personnage de type robotique.

Photo montrant un rendu avec la plateforme MARC

Scénario d'imitation

J'ai également travaillé sur deux scénarios : l'imitation et le magicien. Dans le premier cas, le personnage virtuel et l'humain doivent s'imiter, mais chacun peut prendre à tour de rôle l'initiative du mouvement. Nous voyons donc des négociations gestuelles pour essayer de s'imposer dans ce dialogue. Le deuxième scénario est un spectacle de magie où le magicien adapte son tour en fonction des réactions des spectateurs.
La vidéo ci-dessous montre un extrait d'un jeu d'imitation présenté à Laval Virtual en 2015.

EMSHRI

Contexte

Les personnes qui créent des robots et des applications associées sont des informaticiens et des roboticiens. Souvent, ce ne sont pas des experts de l'évaluation des interactions humain-robot et de leurs effets. Et nous remarquons dans la littéraire des articles qui présentent des études contenant des erreurs de conceptions, des erreurs méthodologiques ou des biais non identifiés, ce qui implique une possible invalidité des résultats.
Pour pouvoir concevoir des applications adaptées (qui répondent aux besoins des utilisateurs et qui sont adaptées à l’humain), il est nécessaire de s’associer à des psychologues, éthologues, sociologues, philosophes, anthropologues, ergonomes, spécialistes de l’analyse des comportements et des attitudes humaines, etc. pour réfléchir ensemble aux méthodologies à utiliser en interaction humain-robot.

Le projet

Le projet EMSHRI (Evaluation Methods Standardization in Human-Robot Interaction), débuté en 2015, a pour objectif de constituer une communauté de chercheurs pluridisciplinaires intéressés par la question de l'évalution de l'interaction entre un humain et un robot social. L'objectif est de :

  • Discuter des méthodes d'évaluation
  • Identifier les bonnes et les mauvaises pratiques
  • Définir des recommendations concernant les évaluations
  • Réfléchir à une standardisation des méthodes d'évaluation

Pour constituer cette communauté, nous avons organisé trois workshops internationaux :

Rédaction d'un livre

Ce projet a permis de réunir plus de 40 chercheurs intéressés par la problématique répartis sur tous les continents. A l'heure actuelle, 28 de ces chercheurs collaborent sur l'écriture d'un ouvrage international sur le sujet des méthodes d'évaluation de l'interaction Humain-Robot.
Le comité éditorial est composé de : Tony Belpaeme, Cindy Bethel, Dimitris Chrysostomou, Nigel Crook, Marine Grandgeorge, Céline Jost, Brigitte Le Pévédic, et Nicole Mirnig.
La carte ci-dessous montre la répartition des contributeurs du livre. En cliquant sur les marqueurs, il est possible de voir les nom et prénoms des contributeurs. Le code couleur est le suivant :

  • Les marqueurs verts représentent les membres du comité éditorial
  • Les marqueurs oranges représentent les membres du comité éditorial qui écrivent un chapitre du livre
  • Les marqueurs violets représentent les auteurs du livre

StimSense

Contexte

Près de la moitié des personnes de plus de 65 ans connaissent des pertes de mémoire. Ceci fait partie du vieillissement normal. Mais dans certains cas, ces pertes de mémoire sont liées à une maladie du cerveau et provoquent des dégâts bien plus graves. Pour préserver ou améliorer les fonctions cognitives, les professionnels de la santé proposent la stimulation cognitive. Et depuis l'avènement de l'informatique, l'outil informatique est de plus en plus proposé en complément des séances de soins traditionnels pour favoriser la motivation et l'engagement des patients à faire des exercices.
Le problème de ces exercices c'est qu'ils sont efficaces seulement si les acquis sont transférables à la vie quotidienne. En effet, un apprentissage fait dans une situation spécifique ne peut pas être généralisé et appliqué à une autre situation. C'est pour cela que les professionnels de santé proposent des exercices basés sur les Activités de la Vie Quotidienne, personnalisés à chaque patient.
Les exercices multimodaux permettent d'obtenir de meilleurs résultats sur les fonctions cognitives et d'améliorer l'humeur des patients, ce qui pourrait diminuer les cas de dépression. Mais plus encore, les professionnels de la santé pensent qu'il est important d'utiliser tous les sens, et d'impliquer le corps entier, pour solliciter encore plus les fonctions cognitives.
Il n’existe pas encore d’outil informatique qui permette de proposer des exercices basés sur les Activités de la Vie Quotidienne, personnalisés à chaque patient, sollicitant tous les sens et le corps, et étant un système ouvert où quiconque peut créer facilement et sans programmation ses propres activités.

Le projet

Le projet StimSense, débuté en 2015, a pour objectif de concevoir un dispositif de stimulation cognitive portable et multimodale. Est-ce que le fait d'ajouter du son, des réactions tactiles, des jeux de lumières, d’utiliser des technologies immersives permet de stimuler cognitivement les patients et d’augmenter leurs capacités ?
Le projet StimSense va donc permettre de mettre en œuvre une multimodalité lors d’exercices de stimulation cognitive. Cette possibilité de stimuler plusieurs sens devrait augmenter les performances et également permettre un usage de ces outils sur le long terme par la diversité des interactions proposées. Par exemple nous envisageons de coupler des notions de perception du mouvement et d’orientation avec un système immersif où le patient pourrait évoluer dans un univers en 3 dimensions. Ce couplage de sens peut permettre un meilleur réapprentissage de situations de vie quotidienne.
Ce projet s’organise autour de 5 grandes étapes :

  1. Réalisation d’une étude permettant d’évaluer l’usage et la pertinence de chaque sens dans le processus de stimulation cognitive et les moyens à explorer pour mettre en œuvre le couplage de différents sens. Les réalisations technologiques peuvent être par exemple : l’utilisation de la spatialisation du son ; l’ajout de vibration, de sensation de chaleur, de vent ou l’usage de texture douce et rugueuse ; l’ajout de jeux de lumières ; l’utilisation des diffuseurs automatiques d'huiles essentielles pour proposer des exercices olfactifs ou pour relaxer la personne en cas d’angoisse ; l’immersion dans un univers à 3 dimensions ; l’utilisation de systèmes de dialogue.
  2. Définition des besoins des utilisateurs axés sur les modalités qui auront été évaluées positivement dans le cadre de la stimulation cognitive.
  3. Création de scénarios d’exercices de stimulation mettant en œuvre plusieurs sens. Réalisation d’un premier prototype pour effectuer une première série de tests utilisateurs.
  4. Conception d’un dispositif portable de stimulation cognitive multimodale.
  5. Déploiement du dispositif portable auprès des utilisateurs afin d’étudier les impacts à long terme sur la personne.

MulseBox

MulseBox est le premier prototype réalisé. C'est un dispositif portable multisensoriel qui utilise des vibreurs, des diodes, des haut-parleurs, des capteurs ultrasons, un ventilateur, un lecteur RFID, un écran de la taille d'un téléphone portable, des boutons. Cela permet d'envisager des exercices qui utilisent des modalités d'interaction variées.

MulseBox a été réalisé en utilisant des technologies matures qui assurent une stabilité dans l'expérience utilisateur. Par exemple, le diffuseur olfactif est critiqué car l'odeur diffusée reste dans l'atmosphère pendant un moment indéterminé et cela peut gêner l'utilisateur pour deux raisons principales :

  • La stagnation de l'odeur peut incommoder ou donner mal à la tête.
  • Le stimulus olfactif peut être adapté à l'ancien stimulus visuel ou auditif et créer une dissonnance cognitive donc une mauvaise expérience utilisateur.

La reconnaissance vocale et des capteurs de goûts sont également absents de MulseBox car la reconnaissance vocale n'est pas encore assez fiable - les algorithmes les plus fiables ayant besoin d'une connexion Internet - et les capteurs de goûts posent un problème d'hygiène puisqu'il faut stimuler les capteurs qui se trouvent sur la langue.

La vidéo ci-dessous montre la démonstration de quelques capacités de MulseBox.

StroopGame

Nous avons participé à la journée R&T day organisée le 5 octobre 2018 et au forum des sciences cognitives organisé le 31 mars 2019, tous deux à la cité des sciences. A cette occasion nous avons fait une démonstration de MulseBox en présentant un jeu cognitif qui est une adaptation du test de Stroop. Notre objectif était de proposer une tâche cognitivement complexe et de vérifier si la nature multisensorielle de MulseBox avait contrebalancé cette difficulté. En effet la multisensorialité, puisqu'elle reproduit ou se rapproche des conditions naturelles d'apprentissage de l'humain, permet de meilleures performances cognitives, avec une meilleure motivation puisque les tâches sont perçues plus faciles qu'elles ne le sont en vrai.

La vidéo ci-dessous montre un exemple de partie. Il ne faut pas se fier aux couleurs de l'écran de MulseBox qui ne passent pas correctement dans la vidéo.

Plus d'informations à venir...

MemoRob

Contexte

Les robots interagissent avec les gens, les motivent, diminuent leur stress et peuvent faciliter les connexions sociales. Les robots augmentent l’engagement et la motivation des utilisateurs. Ces raisons, parmi d’autres, expliquent pourquoi les solutions robotiques sont envisagées pour être des compagnons ou des aides à domicile. Cependant la technologie n’est pas encore mature pour créer des robots acceptables et acceptés par la majorité des humains. De nombreux facteurs influencent positivement ou négativement l’acceptabilité, et font l’objet d’études, par exemple sur l’apparence du robot, le contexte d’utilisation, les attentes des personnes, etc. A l’heure actuelle, il y a un manque d’études sur l’impact psychologique des robots sur les personnes afin d’assurer leur bien-être. En effet, de plus en plus de résultats de recherche proposent des robots pour aider les personnes âgées, pour les maintenir le plus longtemps possible à domicile, et pour leur proposer des exercices quotidiens, notamment des exercices de stimulation cognitive. Et c’est précisément ce dernier point qui nous pose un problème. Pour faire des exercices de stimulation cognitive, il est nécessaire d’être complètement attentif et concentré. C’est la condition de notre cerveau pour pouvoir effectuer des tâches d’apprentissage. La psychologie fondamentale a montré que les mouvements attirent notre attention. Mais les robots, par leur nature, bougent, donc sont susceptibles de capter l’attention de l’utilisateur et donc de le détourner du travail cognitif nécessaire pour ralentir le déclin cognitif (qui, rappelons-le, arrive dans le cadre du vieillissement normal, de toutes manières).

Le projet

Le projet MemoRob, débuté en 2017, a pour objectif d'étudier l'effet distracteur d'un robot pour décider s'il est judicieux, ou non, de proposer des exercices de stimulation cognitive via les robots.

Ce projet s’organise autour de 5 grandes étapes :

  1. Constitution d'une équipe pluridisciplinaire de chercheurs
  2. Conception d'un protocole expérimental
  3. Développements informatiques pour mettre en oeuvre le protocole expérimental
  4. Recrutement des participants et passation de l'expérimentation
  5. Analyse des résultats

Plus d'informations à venir...

O'tablet

Le projet O'tablet a débuté en juin 2018 et consiste à accompagner un collège dans sa transition au numérique en les conseillant sur l’usage des tablettes et en réfléchissant à des activités adaptées à la pédagogie et aux élèves.
Les principales questions de recherche portent sur :

  • L'usage d'aujourd'hui :
    • Comment l’intégration de la tablette a-t-elle été perçue par les enseignants et les élèves ?
    • Est-ce que l’introduction des tablettes a changé l’organisation de la classe ?
    • Comment la tablette est-elle utilisée aujourd’hui dans l’enseignement ?
  • Les perspectives :
    • Quels usages peuvent être faits avec les tablettes ?
    • Quels sont les avantages et inconvénients de la tablette ?
    • Quel est l’impact de la tablette sur les élèves et sur les enseignants ?
    • Quel est l’impact des tablettes sur l’apprentissage ?
    • Comment s’assurer du meilleur usage possible de la tablette ?
    • Quelles règles doivent être suivies pour respecter le métabolisme des enfants et favoriser leur développement cérébral ?

Plus d'informations à venir...