Aller au contenu principal

Équipe de la Stratégie des Technologies de l'information

La mobilisation des utilisateurs dans la prestation des services

2021-09-16 - Écrit par Elmina Iusifova, en collaboration avec l’équipe de stratégie TI

Dernière modification: 2021-09-16

Pourquoi créons-nous des services? Plusieurs réponses sont possibles, mais ma préférée est la suivante :

Offrir aux clients une solution qui leur coûte moins cher que le coût du problème.

Les services fonctionnent lorsque les gens les utilisent et s’ils fonctionnent bien, un plus grand nombre de personnes les utilisent. En général, les utilisateurs ne réalisent pas quand la prestation des services change, parce qu’ils se sont habitués aux améliorations mises en place et se sont adaptés à la nouvelle norme presque immédiatement. Par contre, ce qui n’a pas changé, c’est que lorsqu’ils interagissent avec un service, ils veulent une expérience utilisateur exceptionnelle.

Les Normes relatives au numérique du gouvernement Canada reposent sur l’objectif suivant : fournir aux Canadiens des services publics « faciles à utiliser ». Pour concevoir des produits « axés sur l’utilisateur », l’utilisateur doit participer à tous les aspects de la recherche afin d’optimiser le temps et les efforts consacrés à la compréhension de ses besoins et de ses problèmes.

Nous devons concevoir de meilleurs produits pour les citoyens et les collègues de la fonction publique. Pourquoi? Parce que « nous » le réclamons. Parce qu’une relation durable et bien structurée est l’ingrédient secret pour rendre les utilisateurs heureux.

Créer des personas

Dans l’équipe de stratégie TI, nous avons conçu et mis en œuvre plusieurs produits et, heureusement, nous avons eu l’occasion de faire participer les utilisateurs tout au long du processus de conception et de tester nos prototypes avant le lancement. Notre première étape cherchait à en savoir le plus possible sur les utilisateurs : leur contexte, objectifs et obstacles afin d’éclairer notre orientation générale. Nous avons créé des personas pour nous aider à connaître nos utilisateurs, leur comportement, leurs objectifs et leurs frustrations, ainsi qu’à comprendre pour qui nous concevons un produit et si celui-ci répond aux besoins de notre public cible.

C’est ce qui s’est produit pendant le sprint de conception de l’outil d’auto-évaluation DevOps. À partir de recherches, nous avons créé des personnages fictifs pour nous aider à comprendre l’utilisateur pour lequel nous concevons. Nous avons découvert différents types d’utilisateurs avec leurs modèles de comportement, objectifs, compétences, attitudes et antécédents, ainsi que l’environnement dans lequel ils évoluent. Cela nous a permis de connaître les éléments exigeant notre attention et de nous améliorer pendant la conception de notre application. Le principal utilisateur de l’outil est un fonctionnaire de la DGIIT qui souhaite continuellement s’améliorer et soutenir les efforts de ses pairs. En comprenant les attentes, les préoccupations et les motivations de nos utilisateurs cibles, nous avons mis au point une solution axée sur la conception. Lorsque l’on conçoit pour un fonctionnaire alors que l’on est soi-même un fonctionnaire, il est très facile de créer un produit autoréférentiel comme s’il nous était uniquement destiné. Or, le public cible peut être très différent de nous. Nous avons également créé une maquette qui a récemment été présentée à une véritable équipe d’utilisateurs afin de recueillir des commentaires et d’apporter d’autres améliorations.

En pensant aux besoins de notre persona d’utilisateur final, nous avons tenté de façonner la stratégie de produits et de créer la meilleure maquette pour lui/elle. Fait à noter, même si les personas d’utilisateur nous ont aidés à prioriser les fonctions, ce n’était pas le seul outil utilisé pour établir les priorités. Nous recueillions constamment les commentaires des intervenants afin de maintenir un juste équilibre entre les besoins de l’organisation et ceux des utilisateurs, afin de concevoir une solution qui satisferait les deux. Avec les commentaires que nous avons reçus, nous avons tenté de raffiner l’expérience globale pour l’utilisateur.

Accessibilité et multilinguisme

L’accessibilité est une partie importante de la conception des services au gouvernement, et elle doit être prise en compte tout au long du processus. Selon la Loi canadienne sur l’accessibilité, la prestation des programmes et des services est l’un des principaux domaines sur lequel le gouvernement du Canada doit cibler ses efforts. Un autre aspect important à considérer au gouvernement est l’exigence de servir les citoyens dans la langue officielle de leur choix. Afin de respecter les préférences du public canadien en matière de langues officielles, nous devons concevoir des services bilingues (voir Langues officielles dans les communications et le service au public). Afin d’obtenir des résultats de meilleure qualité, la conception de l’interface utilisateur de nos services doit respecter le cadre de la Boîte à outils de l’expérience Web dirigé par le gouvernement du Canada. Il s’agit d’un cadre libre collaboratif qui porte sur l’accessibilité, la convivialité et les aspects multilingues en fournissant des modèles réutilisables qui nous aident à créer un premier prototype de modèle/d’échantillon pour tester des hypothèses.

Essais de convivialité

Pour comprendre comment les véritables utilisateurs interagissent avec nos applications, nous avons mis l’accent sur la création d’un plan d’essai de convivialité. Ce plan s’apparente à un plan directeur qui contient des renseignements comme la méthodologie (une brève explication du déroulement de la mise à l’essai), le script de l’animateur (un script qu’un animateur suit et qui comprend des instructions, des sujets et des questions qui seront utilisés à chaque séance d’essai, afin d’assurer l’uniformité), des cas de tâches (un résumé de l’expérience que pourraient vivre les utilisateurs typiques en utilisant le produit) et le calendrier des participants.

Pour évaluer le rendement de notre conception et de nos produits, nous avons effectué des essais de convivialité auprès de plusieurs utilisateurs. Il s’agit d’une démarche dans laquelle les résultats ne sont pas connus à l’avance et qui peut exiger du temps et susciter de l’ambiguïté. Mais cet exercice est AMUSANT! 🙂 L’objectif principal de ce processus est d’évaluer les idées et les solutions que nous avons trouvées et de déterminer ce qui fonctionne et ce qui ne fonctionne pas. Nous avons testé notre application et écouté nos utilisateurs pour les comprendre. Écouter les utilisateurs est une chose difficile. Souvent, les utilisateurs ne savent pas ce qu’ils veulent, et même s’ils le savent, la communication risque d’être mal interprétée par l’utilisateur et l’animateur. Pour recevoir des commentaires utiles des utilisateurs et de l’information exacte en premier lieu, nous devions d’abord nous assurer, lors de la préparation du scénario de l’animateur, de tenir compte précisément des éléments à tester, puis de le faire comme convenu. Dans ce cas, il y avait un grand risque que le script oriente l’utilisateur pour qu’il donne une rétroaction particulière qui ne serait pas objective. Pour concevoir la meilleure expérience utilisateur, nous avons donc porté attention principalement à ce que les utilisateurs font, et non à ce qu’ils disent, afin d’éviter les affirmations qui ne sont pas fiables.

Dans le cas de l’outil d’autoévaluation DevOps, nous avons mis à l’essai les problèmes de convivialité du site Web : problèmes de mise en page, manque de rétroaction, terminologie déroutante, fonctionnalité manquante (si l’utilisateur ne peut pas effectuer une tâche particulière en raison d’un élément manquant dans l’interface), navigation manquante (si l’utilisateur est bloqué sur un écran pendant l’essai) et contenu d’écrans particuliers. Au cours des essais, nous demandions également aux utilisateurs des commentaires généraux sur l’utilité de l’application et la façon dont elle peut être améliorée. Nous nous sommes assurés que les utilisateurs connaissent le but du prototype et de l’essai. Toutefois, nous avons évité d’expliquer trop en détail le fonctionnement du prototype, ou la façon dont il devrait résoudre les problèmes des utilisateurs. Nous avons laissé l’expérience d’utilisation du prototype par l’utilisateur parler d’elle-même et observé les réactions de celui-ci. Nous avons rassuré les participants qu’au cours de la séance, nous testons le prototype et non l’utilisateur. Nous avons expliqué qu’il n’y a pas de bonnes ou de mauvaises réponses aux questions posées et que tout comportement de leur part nous aidera à combler les lacunes que nous avons manquées lors de la conception de l’application. Nous avons présenté les tâches une à la fois, et avons invité les participants à « réfléchir à haute voix », et notamment exprimer leurs préoccupations, opinions et commentaires. Nous avons demandé aux utilisateurs de parler de leurs expériences, ce qui a été crucial lors de conception de notre produit.

Les tests de convivialité de l’outil d’auto-évaluation DevOps pendant la pandémie de COVID-19 ont été effectués à distance. Nous avons alors perdu l’avantage du contact en personne, mais personnellement nous avons trouvé que les essais à distance étaient tout aussi efficaces que les essais traditionnels. Les essais en ligne à distance donnent accès à un plus grand bassin de testeurs potentiels, réduisent le temps de déplacement et donnent plus de souplesse aux participants. Et surtout, les gens accomplissent des tâches à la maison (c.-à-d. un environnement où ils sont confortables), où ils utiliseront nos produits finaux. Par conséquent, les découvertes sur la convivialité que nous avons tirées de l’essai étaient plus proches du monde réel.

Collecte de commentaires et mise en œuvre

Pendant la collecte de commentaires, il est très important de ne pas perturber l’interaction de l’utilisateur avec le prototype. Nous devions trouver un moyen de recueillir les commentaires d’une manière qui nous permettait d’observer sans entraves ce qui se passait. Pour ce faire, avec la permission de l’utilisateur, nous avons utilisé la fonction d’enregistrement d’écran dans MS Teams et avons enregistré chaque session. C’était le moyen le plus facile de saisir les pensées et les gestes de l’utilisateur pendant la session d’essai. La vidéo numérique est un résultat très pratique des sessions d’essai de convivialité qui montre clairement l’interaction de l’utilisateur avec les éléments à l’écran. Nous avons discuté et mis à l’essai notre produit auprès d’environ six ou sept utilisateurs, ce qui était suffisant pour comprendre ce qui doit être amélioré et examiné avant d’apporter des changements au produit.

Pendant les essais de convivialité, nous avons reçu une vaste quantité de commentaires des utilisateurs. Chaque utilisateur est unique, et peut donc fournir divers types de renseignements utiles. Une tâche délicate consiste à faire la distinction entre les préférences/désirs des utilisateurs et leurs besoins. La mise en œuvre accrue des désirs de l’utilisateur peut tellement compliquer le produit et l’alourdir que même certains utilisateurs, qui ont été invités à utiliser les fonctionnalités, préféreraient ne pas utiliser le produit final. Il est donc très important de faire une distinction entre les désirs et les besoins, et de ne pas évaluer trop rapidement chaque point de rétroaction. Certaines suggestions pourraient ne pas être avantageuses pour le produit. Donc, par conséquent, nous devions être stratégiques à déterminer quels commentaires méritaient un suivi.

Pour utiliser les résultats, il importe de ne pas exagérer ou ajouter quelque chose à ce qui a été vu ou entendu. Afin de saisir les résultats avec exactitude, nous avons mis en correspondance les commentaires particuliers avec nos questions de recherche, déterminé quelles questions ont obtenu une réponse ou non, de même que les nouvelles questions qui ont été posées. Pour ce faire, nous avons établi l’ordre de priorité des commentaires reçus des utilisateurs dans un carnet d’idées avant chaque réunion de planification de l’itération, pour nous assurer que l’ordre de priorité était pertinent.

L’expérience utilisateur ne se termine jamais

L’expérience utilisateur ne s’arrête pas ici. Tous les efforts consacrés à la planification, à la recherche et à la création du produit nous ont permis de passer à la phase de lancement. Mais aussi, suite au lancement, nous devons consacrer du temps à la production pour nous assurer que nous créons des produits qui sont utiles aux utilisateurs. Donc après le lancement, la phase d’optimisation commence. Une fois que les utilisateurs auront mis la main sur le produit, nous pourrions constater – grâce aux données et au comportement des utilisateurs – que bon nombre de nos hypothèses initiales sont fausses ou que les utilisateurs utilisent notre produit de différentes façons. Nous continuons de surveiller l’expérience utilisateur de chacun de nos produits en demandant aux utilisateurs de nous faire part de leurs commentaires. C’est alors que commence une tout autre phase de l’expérience utilisateur.

Ai-je mentionné que l’expérience utilisateur est un processus sans fin?

Voir cette page dans GitHub