Pular para conteúdo

Planejamento do Relato dos Resultados do Storyboard

Introdução

Este artefato tem como objetivo preparar e planejar a documentação dos resultados obtidos da avaliação dos storyboards. Aqui será definido como os resultados serão apresentados e verificados pelos avaliadores. Os resultados não serão abordados neste artefato, eles serão apresentados no "Relato dos Resultados".

Metodologia

Com o objetivo de organizar e padronizar os relatos dos resultados dos storyboards, este artefato irá seguir os tópicos propostos por Barbosa e Silva (2011)1:

  • Objetivos e escopo da avaliação;
  • Método de avaliação empregado;
  • Perfil dos participantes selecionados;
  • Problemas encontrados;
  • Sumário dos dados coletados;
  • Análise e interpretação dos dados coletados;
  • Feedback do usuário;
  • Sugestões de melhoria;
  • Planejamento de reprojeto.

Tópicos

Considerando a metodologia adotada, a documentação sobre o "Relato dos Resultados" deve conter os tópicos a seguir:

1. Objetivo e escopo da avaliação

O avaliador deve explicitar o motivo da realização da avaliação e explicar o objetivo que se pretende alcançar com a análise de tarefas. Aqui deve ser apresentada uma visão geral da avaliação, apresentando o porquê que ela está sendo feita e quais as metas estabelecidas.

2. Método de avaliação empregado

O método de avaliação que será adotado para coletar os dados será a entrevista. Para isso, foi definido um cronograma planejado (Tabela 1), no qual cada membro da equipe irá entrevistar um usuário e relatar os resultados, seguindo o planejamento aqui proposto. O entrevistador deve indicar qual o storyboard foi usado na entrevista. Após o cronograma planejado, é apresentado, na tabela 2, o cronograma executado para o artefato Planejamento do Relato dos Resultados do Storyboard.

Tabela 1 - Cronograma Planejado.

Entrevistador Entrevistado Horário de Início Horário de Fim Data Local
Eric Camargo Caio Vinícius 10:50 11:00 03/11/2023 Microsoft Teams
Ester Lino Pedro Miguel 10:00 10:10 03/11/2023 Microsoft Teams
Henrique Torres Josué Teixeira 15:30 15:45 08/11/2023 Microsoft Teams
Kallyne Macedo Leonardo Aguiar 16:10 16:20 03/11/2023 Microsoft Teams
Luana Torres Ingrid Alves 18:20 18:30 01/11/2023 Microsoft Teams
Pablo Guilherme João Pedro Anacleto 19:00 19:10 30/10/2023 Microsoft Teams
Suzane Duarte Ana Carolina 11:10 11:20 04/11/2023 Microsoft Teams

Fonte: Ester Lino.

Tabela 2 - Cronograma Executado.

Entrevistador Entrevistado Horário de Início Horário de Fim Data Local
Eric Camargo Luísa Nogueira 18:10 18:19 08/11/2023 Online (gravação pelo Microsoft Teams)
Ester Lino Emivalto da Costa 13:51 13:56 07/11/2023 Faculdade do Gama (gravação pelo Microsoft Teams)
Henrique Torres Josué Teixeira 15:50 16:00 08/11/2023 Online (gravação pelo Microsoft Teams)
Kallyne Macedo Leonardo Aguiar 16:10 16:20 03/11/2023 Gama - DF (gravação pelo Microsoft Teams)
Luana Torres Letícia Torres 09:50 10:00 08/11/2023 Faculdade do Gama (gravação pelo Microsoft Teams)
Pablo Guilherme João Pedro Anacleto 13:50 13:54 07/11/2023 Faculdade do Gama (gravação pelo Microsoft Teams)
Suzane Duarte Ana Carolina 13:50 13:55 07/11/2023 Faculdade do Gama (gravação pelo Microsoft Teams)

Fonte: Ester Lino.

3. Perfil dos participantes selecionados

Cada entrevistador/avaliador deverá identificar o usuário e justificar a escolha do entrevistado, se ele se encaixa ou não no perfil de usuário definido pelo projeto, a fim de garantir que a avaliação seja realizada com o público alvo do site avaliado Online Judge. O número de participantes definido no Planejamento da Avaliação do Storyboard foi de 7 usuários. Essa escolha é uma relação baseada nos relatos de Dumas e Redish (1999)2, os quais sugerem que para uma avaliação em IHC devem ser recrutados de cinco a doze usuários e no relato de Nielsen (2000)3 que afirma que bastam cinco usuários para realizar a avaliação.

4. Problemas encontrados

O entrevistador/avaliador deve descrever quais são os problemas e dificuldades encontrados durante a sessão de entrevista. Para isso, é preciso registrar, clara e objetivamente, o erro, a falha ou a dificuladade encontrada pelo participante, durante a interação com o sistema.

5. Sumário dos dados coletados

O avaliador deve registrar os dados levantados de maneira clara e resumida, com uma breve descrição se a tarefa foi executada com êxito ou não. Os dados devem ser apresentados por meio de uma tabela e em seguida, deve disponibilizar o link do vídeo da gravação da entrevista.

6. Análise e interpretação dos dados coletados

O entrevistador deve analisar os dados coletados durante a avaliação das tarefas, buscando padrões e tendências, a fim de obter conclusões relevantes e significativas dessas informações. É preciso também contextualizar os resultados para o escopo definido para a avaliação e considerar os possíveis impactos dessa avaliação para o projeto.

7. Feedback do usuário

Obter e registrar os feedbacks fornecidos pelo usuário também deve ser realizado, com o objetivo de coletar qualquer informação obtida da interação do participante com o sistema. Esses feedbacks podem ajudar o avaliador a pontuar os aspectos positivos e negativos do site Online Judge, contribuindo para a análise de possíveis melhorias.

8. Sugestões de melhoria

A partir da análise dos problemas encontrados durante a avaliação, o avaliador deve sugerir melhorias. Para isso, ele deve identificar o problema de maneira clara, descrever o contexto, assim como as ações do usuário, e deve esclarecer qual foi o resultado obtido e qual seria o resultado esperado para a tarefa. Após essa descrição, o avalidor deve sugerir melhorias para a correção do problema identificado pelo usuário, com o obejtivo de aprimorar o design ou a interface do site.

9. Planejamento de reprojeto

Considerando que essa avaliação envolve um usuário real e o levantamento de aspectos que precisam ser melhorados, pode ser necessário fazer um reprojeto. Esse reprojeto deve ser realizado um dia após a entrevista com o usuário e deve manter a estrutura do projeto original, realizando somente as mudanças necessárias. A seguir, na tabela 3, é proposto um cronograma para o reprojeto.

Tabela 3 - Cronograma do Reprojeto.

Entrevistador Horário de Início Horário de Fim Data
Eric Camargo 20:00 20:10 04/11/2023
Ester Lino 20:00 20:10 04/11/2023
Henrique Torres 20:00 20:10 04/11/2023
Kallyne Macedo 20:00 20:10 04/11/2023
Luana Torres 20:00 20:10 02/11/2023
Pablo Guilherme 20:00 20:10 31/10/2023
Suzane Duarte 20:00 20:10 05/11/2023

Fonte: Ester Lino.

Referências bibliográficas

1.BARBOSA, S. D. J.; SILVA, B. S. Interação Humano-Computador. Rio de Janeiro: Elsevier, 2011.

2.Dumas, J.S. & Redish, J.C. A Practical Guide to Usability Testing, edição revisada. Exeter, UK: Intellect, 1999.

3.Nielsen, J. Why You Only Need to Test with 5 Users, Alertbox. Disponível em http://www.useit.com/alertbox/20000319.html, 2000.

Histórico de versão

Versão Data Descrição Responsáveis Revisor
1.0 29/10/2023 Criação da página "Planejamento do Relato dos Resultados - Storyboard" Ester Lino   Pablo Guilherme 
1.1 30/10/2023 Inclusão das datas das entrevistas Ester Lino   Pablo Guilherme 
1.2 05/12/2023 Correção de acordo com a Verificação Ester Lino Kallyne Macedo