metoder til usabilityevaluering af jan stage, aau

29
Metoder til usability-evaluering Jan Stage Professor, PhD Forskningsleder i Informationssystemer (IS)/Human-Computer Interaction (HCI) Aalborg Universitet, Institut for Datalogi, HCI-Lab [email protected]

Upload: infinit-innovationsnetvaerket-for-it

Post on 23-Jun-2015

297 views

Category:

Technology


0 download

DESCRIPTION

Oplægget blev holdt ved InfinIT-arrangementet "Usability- evaluering i softwareusvikling", der blev afholdt den 16. september 2010. Læs mere om arrangementet her: http://infinit.dk/dk/hvad_kan_vi_goere_for_dig/viden/reportager/usability-evaluering_paa_forkant_er_rigtig_god_business.htm

TRANSCRIPT

Page 1: Metoder til usabilityevaluering af Jan Stage, AAU

Metoder til usability-evaluering

Jan Stage

Professor, PhD

Forskningsleder i Informationssystemer (IS)/Human-Computer Interaction (HCI)

Aalborg Universitet, Institut for Datalogi, HCI-Lab

[email protected]

Page 2: Metoder til usabilityevaluering af Jan Stage, AAU

2Institut for Datalogi2

• Introduktion

• MAUSE-projektet

• Klassiske metoder

• Moderne metoder

• Opsummering

Oversigt

Page 3: Metoder til usabilityevaluering af Jan Stage, AAU

3Institut for Datalogi3

• Introduktion

• Metoder

• Praksis

• MAUSE-projektet

• Klassiske metoder

• Moderne metoder

• Opsummering

Oversigt

Page 4: Metoder til usabilityevaluering af Jan Stage, AAU

4Institut for Datalogi

Metoder til usability-evaluering

Commission statement

Design products

User interaction design Development

management

Evaluation products

Usability evaluation Recommendations

Page 5: Metoder til usabilityevaluering af Jan Stage, AAU

5Institut for Datalogi

To undersøgelser af forhindringer i praksis

Primært Nordjylland

1. Software-virksom-heder, typisk svar fra mellemledere

2. Deltagere i en-dages konference om usability

• Tallene angiver procent af svarene i hver undersøgelse

2325

15

86

13

0

10

43

118

5 5

1

26

00

5

10

15

20

25

30

35

40

45

50

Resourcedemands

Developermindset

Customerparticipation

Testparticipants

Conductingtests

No problems Low priority No answ er

Første undersøgelse

Anden undersøgelse

Page 6: Metoder til usabilityevaluering af Jan Stage, AAU

6Institut for Datalogi6

• Introduktion

• MAUSE-projektet

• Projektets formål

• Review, report and refine (R3UEMs)

• Typer af evalueringsmetoder

• Klassiske metoder

• Moderne metoder

• Opsummering

Oversigt

Page 7: Metoder til usabilityevaluering af Jan Stage, AAU

7Institut for Datalogi

MAUSE-projektet

• Financieret af EU under COST programmet

• Førende forskere inden for usability-arbejde fra det meste af Europa

• Resultater inden for:• Måling af kvalitet af interaktive systemer• Definition og måling af user experience• Nytteværdi af usability-evaluering (downstream)• Samspillet mellem software-udvikling og usability-evaluering

• http://www.cost294.org/

Page 8: Metoder til usabilityevaluering af Jan Stage, AAU

8Institut for Datalogi8

• Katalog over eksisterende metoder til usability-evaluering

• Baseret på en overordnet opdeling:1. DGMM

Data Gathering and Modelling Methods

2. UIEMUser Interactions Evaluation Methods

3. CMCollaborative Methods

• http://141.115.28.2/cost294/upload/522.pdf

Review, Report and Refine (R3UEMs)

Page 9: Metoder til usabilityevaluering af Jan Stage, AAU

9Institut for Datalogi

DGMM Data Gathering and Modelling Methods (1)• Used for gaining knowledge about users and their activities

and provide representations of these

• Two subcategories:• DGM

• Data Gathering Methods• Focus on ways to gather knowledge about the relevant

characteristics of the users, tasks and contexts in which interactive systems are being used

• Examples of methods:• Surveys (users, tasks, contexts)• Think aloud (about the the way a work task is carried out)• Card sorting (key concepts and their relations)

Page 10: Metoder til usabilityevaluering af Jan Stage, AAU

10Institut for Datalogi10

• MM• Modelling Methods• Often associated with specific data gathering methods• Provide, at various levels of detail, with variable underlying

models and languages, an accurate representation of users and their activities

• Examples of methods:• Personas• Task models• Scenarios• Use cases

DGMM Data Gathering and Modelling Methods (2)

Page 11: Metoder til usabilityevaluering af Jan Stage, AAU

11Institut for Datalogi

UIEM User Interactions Evaluation Methods (1)• Explicitly targeted towards evaluation

• Two subcategories:• KMbM

• Knowledge- and Model-based Methods• Analytical and not necessarily requiring direct access to users• Three categories:

• Expert evaluation: inspection based solely on the evaluator’s knowledge and experience – Examples: expert inspection or walkthrough

• Document-based evaluation: inspection based on some guiding documents, at various degrees of precision – Examples: heuristic evaluation or walkthrough

• Model-based evaluation: inspection based on some theoretical models, usually cognitive – Example: cognitive walkthrough

Page 12: Metoder til usabilityevaluering af Jan Stage, AAU

12Institut for Datalogi12

• EM• Empirical Methods• Can only be used after some form of interaction design is

available• Direct acces to end-users is mandatory• Example: classical user testing

UIEM User Interactions Evaluation Methods (2)

Page 13: Metoder til usabilityevaluering af Jan Stage, AAU

13Institut for Datalogi

CM Collaborative Methods

• Referred to as “creativity methods”

• Require the active participation of the users in the evaluation or design

• Rely on various forms of organisation and communication

• Examples:• Cooperative user testing• Cooperative user testing research

Page 14: Metoder til usabilityevaluering af Jan Stage, AAU

14Institut for Datalogi14

• Introduktion

• MAUSE-projektet

• Klassiske metoder

• Bruger-baseret tænke-højt test (EM)

• Ekspert-baseret heuristisk inspektion (KMbM)

• Erfaringer

• Moderne metoder

• Opsummering

Oversigt

Page 15: Metoder til usabilityevaluering af Jan Stage, AAU

15Institut for Datalogi

Bruger-baseret tænke-højt test (EM)

• En bruger løser en række realistiske opgaver ved hjælp af systemet

• Brugeren "tænker højt" imens:• Beskriver intentioner• Forklarer handlinger• Udtrykker forståelse

• En testleder observerer og spørger, når brugeren glemmer at tænke højt

• Testlederen griber ind eller hjælper, når testpersonen er gået i stå

Fordele: Giver ”meget stærk oplevelse” Meget præcis problempåpegning Giver indtryk af brugerens ”mentale

model” Kan gennemføres tidligt i

systemudviklings-processen

Fordele: Giver ”meget stærk oplevelse” Meget præcis problempåpegning Giver indtryk af brugerens ”mentale

model” Kan gennemføres tidligt i

systemudviklings-processen

Ulemper: Unaturlig situation Testlederrolle meget svær Omfattende analysearbejde Fokus på “novice-brugere” Systemet testes på opgavernes

præmisser Designere påvirkes stærkt Meget stresset situation for brugeren

Ulemper: Unaturlig situation Testlederrolle meget svær Omfattende analysearbejde Fokus på “novice-brugere” Systemet testes på opgavernes

præmisser Designere påvirkes stærkt Meget stresset situation for brugeren

Page 16: Metoder til usabilityevaluering af Jan Stage, AAU

16Institut for Datalogi16

• Eksperterne arbejder individuelt og noterer problemer ud fra en checkliste (heuristikker)

• Scenario med relevante opgaver kan strukturere processen

• Systemet gennemgås to gange:• Fokus på helhed og umiddelbare

indtryk• Fokus på detaljer såsom funktioner i

forhold til opgaver

• I fællesskab udarbejdes en samlet problemliste

Ekspert-baseret heuristisk inspektion (KMbM)

Eksempel på checkliste:

Enkel og naturlig dialog

Tal brugerens sprog Minimer krav til

hukommelsen Sørg for konsistens Giv feedback Lav tydelige udgange Lav genveje Giv konstruktive

fejlmeddelelser Forebyg fejl

Eksempel på checkliste:

Enkel og naturlig dialog

Tal brugerens sprog Minimer krav til

hukommelsen Sørg for konsistens Giv feedback Lav tydelige udgange Lav genveje Giv konstruktive

fejlmeddelelser Forebyg fejl

Page 17: Metoder til usabilityevaluering af Jan Stage, AAU

17Institut for Datalogi

Erfaringer

Bruger-baserede (EM empiriske metoder)

• Eksempel: tænke-højt med en typisk bruger

• Styrke: problemerne er oplevede, og deres alvor kan vurderes

• Svaghed: tidskrævende at forberede og gennemføre100-200+ timer over 4-6 uger

Ekspert-baserede (KMbM viden- eller modelbaserede metoder)

• Eksempel: heuristisk inspektion udført af en HCI-ekspert

• Styrke: kan gennemføres hurtigt og fjerne ”bommerter”

• Svaghed: mange falske positiver

Page 18: Metoder til usabilityevaluering af Jan Stage, AAU

18Institut for Datalogi18

• Introduktion

• MAUSE-projektet

• Klassiske metoder

• Moderne metoder

• Målsætning

• Eksempler

• Opsummering

Oversigt

Page 19: Metoder til usabilityevaluering af Jan Stage, AAU

19Institut for Datalogi

Aktiviteter i en usability-evaluering

• Form: formative/summative• I udviklingsprocessen:

• Eksplorativ• Vurdering• Validering• Sammenligning

• Deltagere og roller• Sted og udstyr

• Genskabelse af kontekst• Informering af deltagerne• Fordel roller i teamet• Klargør udstyr• Opgaveudarbejdelse• Fremstilling af materialer

• Tidsforbrug• Videoanalyse• Transskribering af logfiler• Identifikation af problemer• Kategorisering af problemer

Testplan:• Formål• Hovedspørgsmål• Brugerprofil• Deltagere og roller• Testmetoder• Opgaver• Kontekst og udstyr• Dataindsamling• Formidlingsform

For hver deltager:• Introduktion• Opgaveløsning• Dataindsamling• Logning• Debriefing

• Rapport (komplet)• Rapport (fokuseret)• Redesignforslag• Redesign workshop• Observation • Multimedia præsentation

Opgavedefinering

Planlægning

Forberedelse

Udførelse

Fortolkning

Formidling

Page 20: Metoder til usabilityevaluering af Jan Stage, AAU

20Institut for Datalogi

Moderne metoder

• Moderne metoder er typisk udviklet for at finde løsninger, der fjerner eller reducerer vigtige forhindringer for usability-arbejde i praksis

• Fire eksempler:• Alle fire giver metode

(støtter udførelse)

1. Reducere tidsforbrugeti den ”dyreste” aktivitet

2. Inddrage udviklerne3. Adgang til brugerne4. Inddrage brugerne (og

reducere tidsforbruget)

2325

15

86

13

0

10

43

118

5 5

1

26

00

5

10

15

20

25

30

35

40

45

50

Resourcedemands

Developermindset

Customerparticipation

Testparticipants

Conductingtests

No problems Low priority No answ er

Page 21: Metoder til usabilityevaluering af Jan Stage, AAU

21Institut for Datalogi21

• Data analysis is the single most resource demanding activity

• IDA – right after the evaluation:• Usability problems are documented• Organized by a facilitator

• Significant reduction: 75-90% of effort

• Almost the same number of problems are identified

1. Reducere tidsforbruget

Page 22: Metoder til usabilityevaluering af Jan Stage, AAU

22Institut for Datalogi

1. Instant Data Analysis (IDA)

Antal fundne problemer:

Tid brugt på analyse: IDA = 11.5 t., Video = 59.75 t.

Instant Data Analysis kan:• Hjælpe evaluatorer til at identificere de mest kritiske og alvorlige

usability-problemer oplevet af testbrugerne. • Udføres på kun 20% af tiden sammenlignet med traditionel

videoanalyse• Reducere “støj” skabt ved kosmetiske og unikke usability-problemer

  IDA Video TotalKritisk 16 13 18Alvorligt 13 13 17Kosmetisk 8 18 19Total 37 44 54

Page 23: Metoder til usabilityevaluering af Jan Stage, AAU

23Institut for Datalogi23

• Udviklerne kan trænes i usability-evaluering• Første forsøg et forløb på

10 x 4 timer (40 timer)• Mere fokus på

problemidentifikation• Nu et revideret forløb på

(40 timer):• 2 dages undervisning• 1 dags øvelse• 1 dags evaluering med

coaching• 1 dags dokumentation

• Udviklet et værktøj til identifikation og kategorisering af usability-problemer

2. Inddrage udviklerne

Page 24: Metoder til usabilityevaluering af Jan Stage, AAU

24Institut for Datalogi

3. Adgang til brugerne

• Remote usability-evaluering er en situation hvorevaluatorerne er adskilt fra brugerne i tid og/eller rum (Castillo, Hartson og Hix, 1998)

• Remote synkron: Testleder og bruger er fysisk adskilt med realtids-observation af brugere

• Data indsamles via webcam, mikrofon og screen capture software og analyseres efterfølgende, som var det en traditionel test

• Fordele:• Billigt teknisk udstyr• Testpersoner/testleder behøver ikke befinde sig samme

sted• Brugerne kan bedre lide det end almindeligt lab• Samme performance som lab-test med videoanalyse

Page 25: Metoder til usabilityevaluering af Jan Stage, AAU

25Institut for Datalogi

Remote synkron evaluering

• Often difficult to organize an evaluation

• Use the Internet as the laboratory

• Synchronous performance is comparable

• Asynchronous requires significantly less effort (about 15%) as the users are testing

Page 26: Metoder til usabilityevaluering af Jan Stage, AAU

26Institut for Datalogi

4. Inddrage brugerne

• Remote Asynkron Evaluering:• Testleder og bruger er fysisk adskilt• Brugerne modtager korte instruktioner og

udfører testen uden testleder• Ingen direkte observation af brugerne• Data indsamles via en webformular (f.eks.

kvalitative problembeskrivelser)• Indrapporterede problemer filtreres og

bearbejdes efterfølgende

• Fordele:• Simpelt setup (ingen kameraer mv.)• Testbrugere behøver ikke at være fysisk til

stede• Brugerne genererer selv data

Page 27: Metoder til usabilityevaluering af Jan Stage, AAU

27Institut for Datalogi

  Lab Remote Asynchronous

Usability problems:

# % # %

Critical (21) 20 95 10 48

Serious (17) 14 82 2 15

Cosmetic (24) 12 50 1 4

Total (62) 46 74 13 21

Remote Asynkron: Resultater

62 usabilityproblemer identificeret i alt

RA finder 50 % af de kritiske problemer

Tidsforbrug

Page 28: Metoder til usabilityevaluering af Jan Stage, AAU

28Institut for Datalogi28

• Introduktion

• MAUSE-projektet

• Klassiske metoder

• Moderne metoder

• Opsummering

Oversigt

Page 29: Metoder til usabilityevaluering af Jan Stage, AAU

29Institut for Datalogi

Metoder til usability-evaluering

Katalog over eksisterende metoder:1. Data Gathering and Modelling Methods2. User Interactions Evaluation Methods3. Collaborative Methods

Beskrivelse af klassiske metoder• Bruger-baseret tænke-højt test (EM)• Ekspert-baseret heuristisk inspektion (KMbM)

Eksempler på moderne metoder1. Reducere tidsforbruget i den ”dyreste” aktivitet (IDA)2. Inddrage udviklerne (Træning i usability evaluering)3. Adgang til brugerne (remote synkron)4. Inddrage brugerne – og reducere tidsforbruget (remote

asynkron)