2008-10-01 4 views

Répondre

2

Multivariate testing et la création de rapports est un excellent moyen de mesurer réellement ce genre de choses.

Il vous permet de tester quelle combinaison d'éléments de page a le taux de conversion le plus élevé, fournissant une amélioration continue de la conception et de la convivialité de votre site.

Google Web Optimiser a un support pour cela.

+0

Le test multivarié est ce que vous utiliseriez pour classer les interfaces lorsque vous avez déjà effectué des mesures. Cela laisse ouverte la question de la mesure elle-même ... –

+0

Pour une raison que j'ai eu cette notion que Web Optimizer était seulement pour les gens faisant de la publicité avec Google. Je suis content que tu t'es lié pour que je puisse corriger ma mauvaise supposition! –

1

Des méthodes similaires que vous avez utilisées pour identifier les problèmes d'utilisabilité pour commencer - les tests d'utilisabilité. Habituellement, vous identifiez vos cas d'utilisation, puis vous effectuez une étude en laboratoire pour évaluer la manière dont les utilisateurs atteignent certains objectifs. Les tests en laboratoire sont généralement bons avec 8-10 personnes. La méthodologie plus d'informations que nous avons adoptée pour comprendre nos utilisateurs est d'avoir une collecte de données anonyme (vous pouvez avoir besoin de la permission de l'utilisateur, clarifier vos politiques de confidentialité, etc.) Ceci évalue simplement quels boutons/menus de navigation cliquent, comment les utilisateurs suppriment quelque chose (c.-à-d. en changeant la quantité - est-ce que plus d'utilisateurs entrent 0 et mettent à jour la quantité ou frappent X)? C'est un peu plus complexe à configurer; vous devez développer une infrastructure pour contenir ces données (qui est en fait juste des compteurs, c.-à-d. "Times cliqué x: 138838383, Times entré 0: 390393") et permettre de créer des points de données nécessaires pour se connecter au design.

0

La première voie peut être totalement subjective ou partiellement quantifiée: plaintes d'utilisateurs et retours positifs. Le problème avec ceci est que vous pouvez avoir des biais forts quand il s'agit de filtrer ces retours, donc vous feriez mieux de rendre aussi quantitatif que possible. Avoir un système de billetterie pour archiver tous les rapports des utilisateurs et rassembler des statistiques sur chaque version de l'interface peut être utile. Juste obtenir vos statistiques correctement.

La deuxième méthode consiste à mesurer la différence dans un questionnaire sur l'interface utilisé par les utilisateurs finaux. Les réponses à chaque question doivent être un ensemble de valeurs discrètes et vous pouvez ensuite collecter des statistiques pour chaque version de l'interface. Ce dernier moyen peut être beaucoup plus difficile à mettre en place (la conception d'un questionnaire et éventuellement l'environnement contrôlé pour celui-ci ainsi que les directives pour interpréter les résultats est un métier en soi), mais le premier rend désagréablement facile à confondre avec les mesures. Par exemple, vous devez tenir compte du fait que le nombre de tickets que vous recevez pour chaque version dépend de l'heure à laquelle elle est utilisée et que toutes les plages de temps ne sont pas égales (par ex. la troisième ou la quatrième semaine d'utilisation, ou les utilisateurs pourraient avoir tendance à ne pas déposer les tickets les premiers jours d'utilisation, même s'ils trouvent des problèmes, etc.).

+0

Un questionnaire ne violerait-il pas la directive d'utilisation ["Ne pas écouter les utilisateurs" (http://www.useit.com/alertbox/20010805.html)? –

1

Pour pousser la mesure d'une amélioration d'une interface utilisateur modifie le flux de l'utilisateur final (où la collecte des données pourrait prendre un certain temps) pour la conception ou la mise en œuvre, des heuristiques simples peuvent être utilisés:

  • Le nombre d'actions nécessaires pour effectuer un scénario est-il inférieur? (Si oui, alors il s'est amélioré). Mesure: nombre d'étapes réduites/ajoutées. La modification réduit-elle le nombre de types de périphériques d'entrée à utiliser (même si le nombre d'étapes est le même)?Par cela, je veux dire si vous prenez quelque chose qui dépendait de la souris et du clavier et l'a changé pour compter seulement sur la souris ou seulement sur le clavier, alors vous avez amélioré la facilité d'utilisation. Mesure: Changement du nombre d'appareils utilisés.

  • La modification rend-elle cohérentes les différentes parties du site Web? Par exemple. Si une partie du site e-Commerce perd les modifications effectuées alors que vous n'êtes pas connecté et qu'une autre partie ne l'est pas, cela est incohérent. Le changer afin qu'ils aient le même comportement améliore la convivialité (de préférence au plus tolérant aux pannes s'il vous plaît!). Mesure: Faire un graphique (organigramme vraiment) cartographier les façons dont une action particulière pourrait être effectuée. L'amélioration est une réduction du nombre d'arêtes sur le graphique. Et ainsi de suite ... trouver quelques conseils généraux sur l'interface utilisateur, trouver des métriques comme ci-dessus, et vous pouvez approcher l'amélioration de la convivialité.

Une fois que vous avez ces approximations de conception d'amélioration de l'utilisateur, puis recueillir des données à long terme, vous pouvez voir s'il y a une capacité prédictive pour les améliorations de la convivialité au niveau de la conception à la réaction de l'utilisateur final (comme: Plus dans les 10 derniers projets, nous avons vu des scénarios plus rapides en moyenne de 1% pour chaque action supprimée, avec une fourchette de 0,25% et un écart-type de 0,32%).

0

Torial a volé ma réponse. Bien que s'il y a une mesure de combien de temps cela prend pour faire une certaine tâche. Si le temps est réduit et que la tâche est encore terminée, alors c'est une bonne chose.

De plus, s'il existe un moyen d'enregistrer le nombre d'annulations, cela fonctionnera également.

+0

Désolé de voler. Je vais vous donner un upvote pour compenser :-) – torial

Questions connexes