Planejamento do Relato dos Resultados do Storyboard
Introdução
Este artefato tem como objetivo preparar e planejar a documentação dos resultados obtidos da avaliação dos storyboards. Aqui será definido como os resultados serão apresentados e verificados pelos avaliadores. Os resultados não serão abordados neste artefato, eles serão apresentados no "Relato dos Resultados".
Metodologia
Com o objetivo de organizar e padronizar os relatos dos resultados dos storyboards, este artefato irá seguir os tópicos propostos por Barbosa e Silva (2011)1:
- Objetivos e escopo da avaliação;
- Método de avaliação empregado;
- Perfil dos participantes selecionados;
- Problemas encontrados;
- Sumário dos dados coletados;
- Análise e interpretação dos dados coletados;
- Feedback do usuário;
- Sugestões de melhoria;
- Planejamento de reprojeto.
Tópicos
Considerando a metodologia adotada, a documentação sobre o "Relato dos Resultados" deve conter os tópicos a seguir:
1. Objetivo e escopo da avaliação
O avaliador deve explicitar o motivo da realização da avaliação e explicar o objetivo que se pretende alcançar com a análise de tarefas. Aqui deve ser apresentada uma visão geral da avaliação, apresentando o porquê que ela está sendo feita e quais as metas estabelecidas.
2. Método de avaliação empregado
O método de avaliação que será adotado para coletar os dados será a entrevista. Para isso, foi definido um cronograma planejado (Tabela 1), no qual cada membro da equipe irá entrevistar um usuário e relatar os resultados, seguindo o planejamento aqui proposto. O entrevistador deve indicar qual o storyboard foi usado na entrevista. Após o cronograma planejado, é apresentado, na tabela 2, o cronograma executado para o artefato Planejamento do Relato dos Resultados do Storyboard.
Tabela 1 - Cronograma Planejado.
Entrevistador | Entrevistado | Horário de Início | Horário de Fim | Data | Local |
---|---|---|---|---|---|
Eric Camargo | Caio Vinícius | 10:50 | 11:00 | 03/11/2023 | Microsoft Teams |
Ester Lino | Pedro Miguel | 10:00 | 10:10 | 03/11/2023 | Microsoft Teams |
Henrique Torres | Josué Teixeira | 15:30 | 15:45 | 08/11/2023 | Microsoft Teams |
Kallyne Macedo | Leonardo Aguiar | 16:10 | 16:20 | 03/11/2023 | Microsoft Teams |
Luana Torres | Ingrid Alves | 18:20 | 18:30 | 01/11/2023 | Microsoft Teams |
Pablo Guilherme | João Pedro Anacleto | 19:00 | 19:10 | 30/10/2023 | Microsoft Teams |
Suzane Duarte | Ana Carolina | 11:10 | 11:20 | 04/11/2023 | Microsoft Teams |
Fonte: Ester Lino.
Tabela 2 - Cronograma Executado.
Entrevistador | Entrevistado | Horário de Início | Horário de Fim | Data | Local |
---|---|---|---|---|---|
Eric Camargo | Luísa Nogueira | 18:10 | 18:19 | 08/11/2023 | Online (gravação pelo Microsoft Teams) |
Ester Lino | Emivalto da Costa | 13:51 | 13:56 | 07/11/2023 | Faculdade do Gama (gravação pelo Microsoft Teams) |
Henrique Torres | Josué Teixeira | 15:50 | 16:00 | 08/11/2023 | Online (gravação pelo Microsoft Teams) |
Kallyne Macedo | Leonardo Aguiar | 16:10 | 16:20 | 03/11/2023 | Gama - DF (gravação pelo Microsoft Teams) |
Luana Torres | Letícia Torres | 09:50 | 10:00 | 08/11/2023 | Faculdade do Gama (gravação pelo Microsoft Teams) |
Pablo Guilherme | João Pedro Anacleto | 13:50 | 13:54 | 07/11/2023 | Faculdade do Gama (gravação pelo Microsoft Teams) |
Suzane Duarte | Ana Carolina | 13:50 | 13:55 | 07/11/2023 | Faculdade do Gama (gravação pelo Microsoft Teams) |
Fonte: Ester Lino.
3. Perfil dos participantes selecionados
Cada entrevistador/avaliador deverá identificar o usuário e justificar a escolha do entrevistado, se ele se encaixa ou não no perfil de usuário definido pelo projeto, a fim de garantir que a avaliação seja realizada com o público alvo do site avaliado Online Judge. O número de participantes definido no Planejamento da Avaliação do Storyboard foi de 7 usuários. Essa escolha é uma relação baseada nos relatos de Dumas e Redish (1999)2, os quais sugerem que para uma avaliação em IHC devem ser recrutados de cinco a doze usuários e no relato de Nielsen (2000)3 que afirma que bastam cinco usuários para realizar a avaliação.
4. Problemas encontrados
O entrevistador/avaliador deve descrever quais são os problemas e dificuldades encontrados durante a sessão de entrevista. Para isso, é preciso registrar, clara e objetivamente, o erro, a falha ou a dificuladade encontrada pelo participante, durante a interação com o sistema.
5. Sumário dos dados coletados
O avaliador deve registrar os dados levantados de maneira clara e resumida, com uma breve descrição se a tarefa foi executada com êxito ou não. Os dados devem ser apresentados por meio de uma tabela e em seguida, deve disponibilizar o link do vídeo da gravação da entrevista.
6. Análise e interpretação dos dados coletados
O entrevistador deve analisar os dados coletados durante a avaliação das tarefas, buscando padrões e tendências, a fim de obter conclusões relevantes e significativas dessas informações. É preciso também contextualizar os resultados para o escopo definido para a avaliação e considerar os possíveis impactos dessa avaliação para o projeto.
7. Feedback do usuário
Obter e registrar os feedbacks fornecidos pelo usuário também deve ser realizado, com o objetivo de coletar qualquer informação obtida da interação do participante com o sistema. Esses feedbacks podem ajudar o avaliador a pontuar os aspectos positivos e negativos do site Online Judge, contribuindo para a análise de possíveis melhorias.
8. Sugestões de melhoria
A partir da análise dos problemas encontrados durante a avaliação, o avaliador deve sugerir melhorias. Para isso, ele deve identificar o problema de maneira clara, descrever o contexto, assim como as ações do usuário, e deve esclarecer qual foi o resultado obtido e qual seria o resultado esperado para a tarefa. Após essa descrição, o avalidor deve sugerir melhorias para a correção do problema identificado pelo usuário, com o obejtivo de aprimorar o design ou a interface do site.
9. Planejamento de reprojeto
Considerando que essa avaliação envolve um usuário real e o levantamento de aspectos que precisam ser melhorados, pode ser necessário fazer um reprojeto. Esse reprojeto deve ser realizado um dia após a entrevista com o usuário e deve manter a estrutura do projeto original, realizando somente as mudanças necessárias. A seguir, na tabela 3, é proposto um cronograma para o reprojeto.
Tabela 3 - Cronograma do Reprojeto.
Entrevistador | Horário de Início | Horário de Fim | Data |
---|---|---|---|
Eric Camargo | 20:00 | 20:10 | 04/11/2023 |
Ester Lino | 20:00 | 20:10 | 04/11/2023 |
Henrique Torres | 20:00 | 20:10 | 04/11/2023 |
Kallyne Macedo | 20:00 | 20:10 | 04/11/2023 |
Luana Torres | 20:00 | 20:10 | 02/11/2023 |
Pablo Guilherme | 20:00 | 20:10 | 31/10/2023 |
Suzane Duarte | 20:00 | 20:10 | 05/11/2023 |
Fonte: Ester Lino.
Referências bibliográficas
1.BARBOSA, S. D. J.; SILVA, B. S. Interação Humano-Computador. Rio de Janeiro: Elsevier, 2011.
2.Dumas, J.S. & Redish, J.C. A Practical Guide to Usability Testing, edição revisada. Exeter, UK: Intellect, 1999.
3.Nielsen, J. Why You Only Need to Test with 5 Users, Alertbox. Disponível em http://www.useit.com/alertbox/20000319.html, 2000.
Histórico de versão
Versão | Data | Descrição | Responsáveis | Revisor |
---|---|---|---|---|
1.0 | 29/10/2023 | Criação da página "Planejamento do Relato dos Resultados - Storyboard" | Ester Lino | Pablo Guilherme |
1.1 | 30/10/2023 | Inclusão das datas das entrevistas | Ester Lino | Pablo Guilherme |
1.2 | 05/12/2023 | Correção de acordo com a Verificação | Ester Lino | Kallyne Macedo |