29
Metoder til usability-evaluering Jan Stage Professor, PhD Forskningsleder i Informationssystemer (IS)/Human-Computer Interaction (HCI) Aalborg Universitet, Institut for Datalogi, HCI-Lab [email protected]

Metoder til usability-evaluering

  • Upload
    dewitt

  • View
    70

  • Download
    0

Embed Size (px)

DESCRIPTION

Metoder til usability-evaluering. Jan Stage Professor, PhD Forskningsleder i Informationssystemer (IS)/Human-Computer Interaction (HCI) Aalborg Universitet, Institut for Datalogi, HCI-Lab [email protected]. Oversigt. Introduktion MAUSE-projektet Klassiske metoder Moderne metoder - PowerPoint PPT Presentation

Citation preview

Page 1: Metoder til usability-evaluering

Metoder til usability-evaluering

Jan Stage

Professor, PhD

Forskningsleder i Informationssystemer (IS)/Human-Computer Interaction (HCI)

Aalborg Universitet, Institut for Datalogi, HCI-Lab

[email protected]

Page 2: Metoder til usability-evaluering

2Institut for Datalogi2

• Introduktion

• MAUSE-projektet

• Klassiske metoder

• Moderne metoder

• Opsummering

Oversigt

Page 3: Metoder til usability-evaluering

3Institut for Datalogi3

• Introduktion

• Metoder

• Praksis

• MAUSE-projektet

• Klassiske metoder

• Moderne metoder

• Opsummering

Oversigt

Page 4: Metoder til usability-evaluering

4Institut for Datalogi

Metoder til usability-evaluering

Commission statement

Design products

User interaction design Development

management

Evaluation products

Usability evaluation Recommendations

Page 5: Metoder til usability-evaluering

5Institut for Datalogi

To undersøgelser af forhindringer i praksis

Primært Nordjylland

1. Software-virksom-heder, typisk svar fra mellemledere

2. Deltagere i en-dages konference om usability

• Tallene angiver procent af svarene i hver undersøgelse

2325

15

86

13

0

10

43

118

5 5

1

26

00

5

10

15

20

25

30

35

40

45

50

Resourcedemands

Developermindset

Customerparticipation

Testparticipants

Conductingtests

No problems Low priority No answ er

Første undersøgelse

Anden undersøgelse

Page 6: Metoder til usability-evaluering

6Institut for Datalogi6

• Introduktion

• MAUSE-projektet

• Projektets formål

• Review, report and refine (R3UEMs)

• Typer af evalueringsmetoder

• Klassiske metoder

• Moderne metoder

• Opsummering

Oversigt

Page 7: Metoder til usability-evaluering

7Institut for Datalogi

MAUSE-projektet

• Financieret af EU under COST programmet

• Førende forskere inden for usability-arbejde fra det meste af Europa

• Resultater inden for:• Måling af kvalitet af interaktive systemer• Definition og måling af user experience• Nytteværdi af usability-evaluering (downstream)• Samspillet mellem software-udvikling og usability-evaluering

• http://www.cost294.org/

Page 8: Metoder til usability-evaluering

8Institut for Datalogi8

• Katalog over eksisterende metoder til usability-evaluering

• Baseret på en overordnet opdeling:1. DGMM

Data Gathering and Modelling Methods

2. UIEMUser Interactions Evaluation Methods

3. CMCollaborative Methods

• http://141.115.28.2/cost294/upload/522.pdf

Review, Report and Refine (R3UEMs)

Page 9: Metoder til usability-evaluering

9Institut for Datalogi

DGMM Data Gathering and Modelling Methods (1)• Used for gaining knowledge about users and their activities

and provide representations of these

• Two subcategories:• DGM

• Data Gathering Methods• Focus on ways to gather knowledge about the relevant

characteristics of the users, tasks and contexts in which interactive systems are being used

• Examples of methods:• Surveys (users, tasks, contexts)• Think aloud (about the the way a work task is carried out)• Card sorting (key concepts and their relations)

Page 10: Metoder til usability-evaluering

10Institut for Datalogi10

• MM• Modelling Methods• Often associated with specific data gathering methods• Provide, at various levels of detail, with variable underlying

models and languages, an accurate representation of users and their activities

• Examples of methods:• Personas• Task models• Scenarios• Use cases

DGMM Data Gathering and Modelling Methods (2)

Page 11: Metoder til usability-evaluering

11Institut for Datalogi

UIEM User Interactions Evaluation Methods (1)• Explicitly targeted towards evaluation

• Two subcategories:• KMbM

• Knowledge- and Model-based Methods• Analytical and not necessarily requiring direct access to users• Three categories:

• Expert evaluation: inspection based solely on the evaluator’s knowledge and experience – Examples: expert inspection or walkthrough

• Document-based evaluation: inspection based on some guiding documents, at various degrees of precision – Examples: heuristic evaluation or walkthrough

• Model-based evaluation: inspection based on some theoretical models, usually cognitive – Example: cognitive walkthrough

Page 12: Metoder til usability-evaluering

12Institut for Datalogi12

• EM• Empirical Methods• Can only be used after some form of interaction design is

available• Direct acces to end-users is mandatory• Example: classical user testing

UIEM User Interactions Evaluation Methods (2)

Page 13: Metoder til usability-evaluering

13Institut for Datalogi

CM Collaborative Methods

• Referred to as “creativity methods”

• Require the active participation of the users in the evaluation or design

• Rely on various forms of organisation and communication

• Examples:• Cooperative user testing• Cooperative user testing research

Page 14: Metoder til usability-evaluering

14Institut for Datalogi14

• Introduktion

• MAUSE-projektet

• Klassiske metoder

• Bruger-baseret tænke-højt test (EM)

• Ekspert-baseret heuristisk inspektion (KMbM)

• Erfaringer

• Moderne metoder

• Opsummering

Oversigt

Page 15: Metoder til usability-evaluering

15Institut for Datalogi

Bruger-baseret tænke-højt test (EM)

• En bruger løser en række realistiske opgaver ved hjælp af systemet

• Brugeren "tænker højt" imens:• Beskriver intentioner• Forklarer handlinger• Udtrykker forståelse

• En testleder observerer og spørger, når brugeren glemmer at tænke højt

• Testlederen griber ind eller hjælper, når testpersonen er gået i stå

Fordele: Giver ”meget stærk oplevelse” Meget præcis problempåpegning Giver indtryk af brugerens ”mentale

model” Kan gennemføres tidligt i

systemudviklings-processen

Fordele: Giver ”meget stærk oplevelse” Meget præcis problempåpegning Giver indtryk af brugerens ”mentale

model” Kan gennemføres tidligt i

systemudviklings-processen

Ulemper: Unaturlig situation Testlederrolle meget svær Omfattende analysearbejde Fokus på “novice-brugere” Systemet testes på opgavernes

præmisser Designere påvirkes stærkt Meget stresset situation for brugeren

Ulemper: Unaturlig situation Testlederrolle meget svær Omfattende analysearbejde Fokus på “novice-brugere” Systemet testes på opgavernes

præmisser Designere påvirkes stærkt Meget stresset situation for brugeren

Page 16: Metoder til usability-evaluering

16Institut for Datalogi16

• Eksperterne arbejder individuelt og noterer problemer ud fra en checkliste (heuristikker)

• Scenario med relevante opgaver kan strukturere processen

• Systemet gennemgås to gange:• Fokus på helhed og umiddelbare

indtryk• Fokus på detaljer såsom funktioner i

forhold til opgaver

• I fællesskab udarbejdes en samlet problemliste

Ekspert-baseret heuristisk inspektion (KMbM)

Eksempel på checkliste:

Enkel og naturlig dialog

Tal brugerens sprog Minimer krav til

hukommelsen Sørg for konsistens Giv feedback Lav tydelige udgange Lav genveje Giv konstruktive

fejlmeddelelser Forebyg fejl

Eksempel på checkliste:

Enkel og naturlig dialog

Tal brugerens sprog Minimer krav til

hukommelsen Sørg for konsistens Giv feedback Lav tydelige udgange Lav genveje Giv konstruktive

fejlmeddelelser Forebyg fejl

Page 17: Metoder til usability-evaluering

17Institut for Datalogi

Erfaringer

Bruger-baserede (EM empiriske metoder)

• Eksempel: tænke-højt med en typisk bruger

• Styrke: problemerne er oplevede, og deres alvor kan vurderes

• Svaghed: tidskrævende at forberede og gennemføre100-200+ timer over 4-6 uger

Ekspert-baserede (KMbM viden- eller modelbaserede metoder)

• Eksempel: heuristisk inspektion udført af en HCI-ekspert

• Styrke: kan gennemføres hurtigt og fjerne ”bommerter”

• Svaghed: mange falske positiver

Page 18: Metoder til usability-evaluering

18Institut for Datalogi18

• Introduktion

• MAUSE-projektet

• Klassiske metoder

• Moderne metoder

• Målsætning

• Eksempler

• Opsummering

Oversigt

Page 19: Metoder til usability-evaluering

19Institut for Datalogi

Aktiviteter i en usability-evaluering

• Form: formative/summative• I udviklingsprocessen:

• Eksplorativ• Vurdering• Validering• Sammenligning

• Deltagere og roller• Sted og udstyr

• Genskabelse af kontekst• Informering af deltagerne• Fordel roller i teamet• Klargør udstyr• Opgaveudarbejdelse• Fremstilling af materialer

• Tidsforbrug• Videoanalyse• Transskribering af logfiler• Identifikation af problemer• Kategorisering af problemer

Testplan:• Formål• Hovedspørgsmål• Brugerprofil• Deltagere og roller• Testmetoder• Opgaver• Kontekst og udstyr• Dataindsamling• Formidlingsform

For hver deltager:• Introduktion• Opgaveløsning• Dataindsamling• Logning• Debriefing

• Rapport (komplet)• Rapport (fokuseret)• Redesignforslag• Redesign workshop• Observation • Multimedia præsentation

Opgavedefinering

Planlægning

Forberedelse

Udførelse

Fortolkning

Formidling

Page 20: Metoder til usability-evaluering

20Institut for Datalogi

Moderne metoder

• Moderne metoder er typisk udviklet for at finde løsninger, der fjerner eller reducerer vigtige forhindringer for usability-arbejde i praksis

• Fire eksempler:• Alle fire giver metode

(støtter udførelse)

1. Reducere tidsforbrugeti den ”dyreste” aktivitet

2. Inddrage udviklerne3. Adgang til brugerne4. Inddrage brugerne (og

reducere tidsforbruget)

2325

15

86

13

0

10

43

118

5 5

1

26

00

5

10

15

20

25

30

35

40

45

50

Resourcedemands

Developermindset

Customerparticipation

Testparticipants

Conductingtests

No problems Low priority No answ er

Page 21: Metoder til usability-evaluering

21Institut for Datalogi21

• Data analysis is the single most resource demanding activity

• IDA – right after the evaluation:• Usability problems are documented• Organized by a facilitator

• Significant reduction: 75-90% of effort

• Almost the same number of problems are identified

1. Reducere tidsforbruget

Page 22: Metoder til usability-evaluering

22Institut for Datalogi

1. Instant Data Analysis (IDA)

Antal fundne problemer:

Tid brugt på analyse: IDA = 11.5 t., Video = 59.75 t.

Instant Data Analysis kan:• Hjælpe evaluatorer til at identificere de mest kritiske og alvorlige

usability-problemer oplevet af testbrugerne. • Udføres på kun 20% af tiden sammenlignet med traditionel

videoanalyse• Reducere “støj” skabt ved kosmetiske og unikke usability-problemer

  IDA Video TotalKritisk 16 13 18Alvorligt 13 13 17Kosmetisk 8 18 19Total 37 44 54

Page 23: Metoder til usability-evaluering

23Institut for Datalogi23

• Udviklerne kan trænes i usability-evaluering• Første forsøg et forløb på

10 x 4 timer (40 timer)• Mere fokus på

problemidentifikation• Nu et revideret forløb på

(40 timer):• 2 dages undervisning• 1 dags øvelse• 1 dags evaluering med

coaching• 1 dags dokumentation

• Udviklet et værktøj til identifikation og kategorisering af usability-problemer

2. Inddrage udviklerne

Page 24: Metoder til usability-evaluering

24Institut for Datalogi

3. Adgang til brugerne

• Remote usability-evaluering er en situation hvorevaluatorerne er adskilt fra brugerne i tid og/eller rum (Castillo, Hartson og Hix, 1998)

• Remote synkron: Testleder og bruger er fysisk adskilt med realtids-observation af brugere

• Data indsamles via webcam, mikrofon og screen capture software og analyseres efterfølgende, som var det en traditionel test

• Fordele:• Billigt teknisk udstyr• Testpersoner/testleder behøver ikke befinde sig samme

sted• Brugerne kan bedre lide det end almindeligt lab• Samme performance som lab-test med videoanalyse

Page 25: Metoder til usability-evaluering

25Institut for Datalogi

Remote synkron evaluering

• Often difficult to organize an evaluation

• Use the Internet as the laboratory

• Synchronous performance is comparable

• Asynchronous requires significantly less effort (about 15%) as the users are testing

Page 26: Metoder til usability-evaluering

26Institut for Datalogi

4. Inddrage brugerne

• Remote Asynkron Evaluering:• Testleder og bruger er fysisk adskilt• Brugerne modtager korte instruktioner og

udfører testen uden testleder• Ingen direkte observation af brugerne• Data indsamles via en webformular (f.eks.

kvalitative problembeskrivelser)• Indrapporterede problemer filtreres og

bearbejdes efterfølgende

• Fordele:• Simpelt setup (ingen kameraer mv.)• Testbrugere behøver ikke at være fysisk til

stede• Brugerne genererer selv data

Page 27: Metoder til usability-evaluering

27Institut for Datalogi

  Lab Remote Asynchronous

Usability problems:

# % # %

Critical (21) 20 95 10 48

Serious (17) 14 82 2 15

Cosmetic (24) 12 50 1 4

Total (62) 46 74 13 21

Remote Asynkron: Resultater

62 usabilityproblemer identificeret i alt

RA finder 50 % af de kritiske problemer

Tidsforbrug

Page 28: Metoder til usability-evaluering

28Institut for Datalogi28

• Introduktion

• MAUSE-projektet

• Klassiske metoder

• Moderne metoder

• Opsummering

Oversigt

Page 29: Metoder til usability-evaluering

29Institut for Datalogi

Metoder til usability-evaluering

Katalog over eksisterende metoder:1. Data Gathering and Modelling Methods2. User Interactions Evaluation Methods3. Collaborative Methods

Beskrivelse af klassiske metoder• Bruger-baseret tænke-højt test (EM)• Ekspert-baseret heuristisk inspektion (KMbM)

Eksempler på moderne metoder1. Reducere tidsforbruget i den ”dyreste” aktivitet (IDA)2. Inddrage udviklerne (Træning i usability evaluering)3. Adgang til brugerne (remote synkron)4. Inddrage brugerne – og reducere tidsforbruget (remote

asynkron)