Pular para conteúdo

Planejamento da Avaliação do Protótipo de Papel

Introdução

Para realizar uma entrega de qualidade, é necessário avaliar se o protótipo resultante atende aos critérios de qualidade desejados, desta forma conseguimos corrigir os problemas antes que eles cheguem ao consumidor. Avaliar a qualidade de uso de um protótipo apresenta diversas vantagens, dentre elas a correção rápida de problemas, a equipe de desenvolvimento pode se concentrar em solucionar problemas reais, redução no tempo de desenvolvimento e a identificação e correção de problemas mais robustos de IHC.

No nosso caso, estamos avaliando um protótipo de papel, que é uma representação de baixa fidelidade de um sistema futuro. Este tipo de protótipo é particularmente útil nas fases iniciais do design, pois permite aos designers experimentarem diferentes abordagens sem o compromisso de tempo e recursos necessários para desenvolver protótipos de alta fidelidade.

Com isso, serão analisados critérios de qualidade na perspectiva do usuário, avaliando usabilidade, experiência do usuário, acessibilidade e comunicabilidade.

Metodologia

Para a realização do planejamento da avaliação, será utilizado o framework DECIDE, proposto por Sharp, Rogers e Preece [1], onde cada letra representa uma etapa a ser seguida. Como pode ser visto na Figura 1:

Figura 1: Framework DECIDE.

DECIDE

Fonte: Barbosa e Silva, 2011 ¹.

Diante disso, a seguir encontra-se o detalhamento do planejamento utilizando o Framework em questão:

D - Objetivos da avaliação

Os objetivos dessa avaliação são, por meio do planejamento da construção de um protótipo de baixa fidelidade, identificar os problemas de design e usabilidade das interfaces e comparar as tarefas já avaliadas e sua conformidade com o padrão definido. Serão considerados, também, os seguintes aspectos na avaliação:

  • 1: Verificar a conformidade com um padrão;
  • 2: Identificar problemas na interação e interface;

E - Exploração de perguntas

A partir do objetivo citado anteriormente, podemos aumentar seu nível de detalhamento definindo perguntas verificáveis a serem respondidas durante a avaliação. Além de auxiliar na investigação e avaliação do site, as perguntas específicas têm como finalidade guiar e operacionalizar todo o processo de avaliação.

Com isso, foram desenvolvidas as perguntas listadas na Tabela 1:

Tabela 1: Perguntas a serem feitas na entrevista

Ordem das perguntas Objetivos Relacionados Perguntas Tipo de pergunta Respostas possíveis
2 Houve algum momento durante a interação no site Domínio Público em que você encontrou dificuldades devido a problemas na interface? Aberta Resposta discursiva
1 A disposição dos elementos de interação no site Domínio Público auxiliaram na rapidez da execução da sua tarefa? Fechada Sim
Não
1 Em termos de layout e design do site Domínio Público, achou alguma parte que não faça sentido com o objetivo do site? Fechada Sim
Não
Caso sim, pedir para descrever
2 Você imagina alguma forma de melhorar esta tarefa no site Domínio Público? Aberta Resposta discursiva

Fonte:Harryson Martins e Gustavo França

C - Métodos de Avaliação

Para a avaliação, foi selecionada a metodologia de prototipação em papel, que será submetida a uma simulação de uso.

Esta simulação é um procedimento eficaz e econômico para identificar problemas de usabilidade antes da implementação de uma solução interativa. Ela permite a avaliação de diferentes propostas de design, mesmo que parciais ou de baixa fidelidade.

A prototipação em papel é particularmente útil nas fases iniciais do design, pois permite aos designers experimentarem diferentes abordagens sem o compromisso de tempo e recursos necessários para desenvolver protótipos de alta fidelidade. Além disso, ela facilita a comunicação e a colaboração entre os membros da equipe de design e os usuários.

A simulação de uso permite aos usuários interagirem com o protótipo como se fosse o sistema real. Através da observação das interações dos usuários, os avaliadores podem identificar áreas problemáticas e oportunidades para melhorias. Ao final da simulação, é comum fazer perguntas aos usuários sobre sua experiência. As respostas a estas perguntas podem fornecer informações valiosas para refinar e melhorar o design.

I - Aspectos Práticos da Avaliação

Recrutamento

Dumas e Redish [3] destacam que uma avaliação de Interação Humano-Computador (IHC) geralmente envolve de cinco a 12 usuários. Nielsen [4], por sua vez, afirma que apenas cinco usuários são suficientes para identificar a maioria dos problemas na interface (85%, de acordo com seu experimento), proporcionando uma relação custo-benefício favorável. Se a obtenção de resultados estatisticamente significativos for necessária, a amostra de usuários deve ser suficientemente grande e representativa. No entanto, o tempo e outros recursos necessários para a coleta e análise de dados de muitos usuários podem tornar inviável uma abordagem estatística.

Portanto, em muitos casos, uma avaliação de IHC busca apenas obter indícios sobre a qualidade de uso do sistema e maneiras de aprimorá-la. Em outras palavras, mesmo quando os resultados não atingem significância estatística, eles ainda podem ser úteis para o redesenho do sistema avaliado.

Preparação

As tarefas escolhidas pela equipe para realização da entrevista foram:

  • Pesquisar por mídia
  • Download de mídia
  • Acessar as Estátisticas
  • Contatar Administrador
  • Pedir Ajuda
  • Cadidatura para Colaborador
  • Avaliar Midia

As perguntas a serem feitas serão relizados pelos entrevistadores, no caso cada integrante da equipe realizará perguntas sobre sua respectiva tarefa. A entrevista será guiada pelas ações realizadas na respectiva análise de tarefas. A entrevista será em duplas ou trios, ou seja, terá mais de um entrevistador em cada entrevista, a fim de facilitar a interação e observação das ações do entrevistado.

Custos

A avaliação irá gerar custos mínimos para a equipe de modo que os unicos gastos serão com a confecção do protoripo de papel que será utilizado no decorrer da entrevista. O local da realização da avaliação também não deverá gerar custos para a equipe pois elas serão realizadas presencialmente em um local de acesso publico porém silencioso.

Prazos

O cronograma das entrevistas com os usuários estão documentadas na Tabela 1.

Tabela 2: Cronograma da entrevista

Entrevistador(es) Entrevistado(s) Horário de Início Horário de Fim Data Planejada Data Executada Tarefa(s) Local
Maria Alice, Luciano Ricardo e Victor Hugo Tales 15:30 16:00 21/11 21/11 Se tornar colaborador, Pedir ajuda e Avaliar midia FGA
Maria Alice, Luciano Ricardo e Victor Hugo Luciano 16:00 16:30 21/11 21/11 Se tornar colaborador, Pedir ajuda e Avaliar midia FGA
Ana Catarina e Pedro Henrique Gustavo 11:00 11:30 21/11 21/11 Acessar estatisticas e Download de mídia FGA
Gustavo França e Harryson Martins Flávio Augusto 12:00 12:30 22/11 22/11 Contatar Admin e Pesquisar por mída FGA

Fonte: Luciano Ricardo.

D - Lidando com as Questões Éticas

Ao realizar avaliações com usuários, é importante seguir as diretrizes éticas para garantir respeito aos envolvidos, evitando qualquer dano durante e após a divulgação dos resultados. A condução de metodologias com terceiros requer a consciência dos participantes sobre os princípios éticos e a assinatura de um termo de consentimento

Segue abaixo na Figura 2 o termo de consentimento em Aspectos Éticos a ser utilizado pelo Grupo 04:

Figura 2: Termo de Consentimento

Protótipo de Papel

Fonte: Victor Hugo

E - Avaliação, Interpretação e Apresentação dos Dados

No ciclo de avaliação e interpretação dos dados, cada informação é documentada e analisada considerando o contexto em que foi gerada. Esse processo visa determinar a confiabilidade dos dados e sua capacidade de representar a população de usuários do site.

Durante a interação, são registrados os obstáculos e dificuldades, abrangendo aspectos de usabilidade, funcionalidades ausentes e possíveis problemas de desempenho do sistema. Cada problema é descrito, classificado e acompanhado de sugestões para aprimoramento, além de receber o feedback dos usuários.

Com as entrevistas concluídas e os dados coletados em mãos, realiza-se uma análise dos documentos para assegurar sua coerência com as perspectivas até então identificadas.

Além disso, se forem identificados problemas elencados pelos usuários, esses fenômenos serão descritos e classificados, buscando a melhoria, e levando em consideração as possíveis sugestões dos entrevistados.

Por fim, as informações adquiridas serão validadas novamente, e assim poderão ser desenvolvidas e implementadas, visando a melhoras das vicissitudes encontradas.

Planejamento do Teste Piloto

De acordo com Barbosa e Silva[1], um teste piloto é a avaliação do planejamento com o objetivo de validar e conferir se o mesmo produz os dados necessários para responder a questões e objetivos do estudo. O avaliador deve fazer o teste piloto como se estivesse fazendo uma simulação real. A Tabela 3 contém as informações do teste piloto.

Tabela 3: Planejamento do teste piloto

Data Horário de início e fim Local Entrevistadores Entrevistado
14/10/2023 14:10 - 14:25 FGA Victor Hugo e Luciano Ricardo Maria alice

Fonte: Luciano Ricardo.

No Vídeo 1, pode-se conferir a gravação do teste piloto realizado.

Vídeo 1: Teste piloto

Fonte: Luciano Ricardo, Victor Hugo, Maria Alice.

Referências Bibliográficas

[1] Preece, J., Sharp, H., & Rogers, Y. Design de interação: além da interação humano-computador. Porto Alegre: Bookman, 2013

[2] BARBOSA, S. D. J.; SILVA, B. S. Interação Humano-Computador. Rio de Janeiro: Elsevier, 2011

[3] Dumas, J.S. & Redish, J.C. A Practical Guide to Usability Testing, edição revisada. Exeter, UK: Intellect, 1999.

[4] Nielsen, J. e Molich, R. “Heuristic evaluation of user interfaces”. Proceedings of ACM CHI’90, pp. 249–256, 1990.

Bibliografia

RIBEIRO, Clara; SANTANA, Natan Tavares. Planejamento da avaliação da Análise de tarefas. Repositório do Grupo Agência Virtual Neoenergia Brasília da disciplina de Interação Humano Computador da Universidade de Brasília, 2022. Disponível em: https://interacao-humano-computador.github.io/2022.1-AgenciaVirtualNeoenergia/design%2C_avalia%C3%A7%C3%A3o%2C_desenvolvimento/n%C3%ADvel%201/an%C3%A1lise_de_tarefas/planejamento_tarefas/. Acesso em: 01 de novembro de 2023.

GABRIEL, Lucas; SOUZA, Nicolas. Planejamento da avaliação da Análise de tarefas. Repositório do Grupo Lichess da disciplina de Interação Humano Computador da Universidade de Brasília, 2022. Disponível em: https://interacao-humano-computador.github.io/2022.2-Lichess/design_avaliacao_desenvolvimento/nivel_1/analise_tarefas/planejamento_avaliacao/. Acesso em: 01 de novembro de 2023.

Bilheteria Digital. Metas de usabilidade. Repositório do Grupo Bilheteria Digital da disciplina de Interação Humano Computador da Universidade de Brasília, 2023. Disponível em: https://interacao-humano-computador.github.io/2023.1-BilheteriaDigital/analise-de-requisitos/metas-usabilidade/. Acesso em: 01 de novembro 2023.

Histórico de Versões

Versão Data Descrição Autor(es) Revisor(es)
1.0 01/11/2023 Criação do Documento Victor Hugo Ana Catarina
1.1 08/11/2023 Organização do documento Victor Hugo,Gustavo,Luciano Ricardo e Harryson Ana Catarina
1.2 20/11/2023 Organização das perguntas Gustavo França Ana Catarina
1.3 21/11/2023 Corrigindo detalhes Victor Hugo Luciano Ricardo
1.4 06/12/2023 Verificação e correção do artefato Ana Catarina Santos Victor Hugo